Una ideología utópica extraña y peligrosa se ha apoderado silenciosamente del mundo tecnológico

Noticias

HogarHogar / Noticias / Una ideología utópica extraña y peligrosa se ha apoderado silenciosamente del mundo tecnológico

Jun 23, 2023

Una ideología utópica extraña y peligrosa se ha apoderado silenciosamente del mundo tecnológico

"Está dando forma a nuestro mundo en este momento", dice el filósofo e historiador Émile P. Torres. "Es realmente importante que la gente entienda qué es este conjunto de ideologías, porque se ha vuelto enormemente

"Está dando forma a nuestro mundo en este momento", dice el filósofo e historiador Émile P. Torres.

"Es realmente importante que la gente entienda qué es este conjunto de ideologías, porque se ha vuelto enormemente influyente y está dando forma a nuestro mundo en este momento y seguirá dándole forma en el futuro previsible", dice el filósofo e historiador Émile P. Torres. . En este episodio de “Movement Memos”, la presentadora Kelly Hayes y Torres discuten lo que los activistas deben saber sobre el largoplacismo y TESCREAL.

Música de Son Monarcas y David Celeste

Nota: Esta es una transcripción apresurada y ha sido ligeramente editada para mayor claridad. Es posible que la copia no esté en su forma final.

Kelly Hayes : Bienvenido a “Movement Memos”, un podcast de Truthout sobre solidaridad, organización y el trabajo de generar cambios. Soy su presentadora, escritora y organizadora Kelly Hayes. Hoy estamos hablando de largoplacismo y ya puedo escuchar a algunos de ustedes decir: "¿Qué diablos es eso?", razón por la cual es tan importante que tengamos esta conversación. El longtermismo es una escuela de pensamiento que ha ganado popularidad en Silicon Valley y en gran parte del mundo tecnológico, y es una ideología que ha recorrido un largo camino en un período de tiempo bastante corto. Sus defensores dicen que es “un conjunto de puntos de vista éticos preocupados por proteger y mejorar el futuro a largo plazo”, lo que en realidad suena inocuo, o incluso bueno. Pero como discutiremos hoy, las ideas invocadas por los partidarios del largo plazo son sectarias y a menudo devalúan las vidas y la libertad de las personas que viven en el presente y, desafortunadamente, actualmente hay mucho poder y dinero detrás de ellas. De hecho, el científico informático Timnit Gebru ha argumentado que el longtermismo se ha convertido para el mundo tecnológico en lo que la Cienciología ha sido durante mucho tiempo para Hollywood: una red de influencia casi ineludible que puede regir el éxito o el fracaso de adherentes y no adherentes.

Una de las razones por las que encuentro aterrador el largoplacismo es que, si bien ha ganado un gran impulso financiero, político e institucional, algunas de las personas más inteligentes que conozco todavía no entienden qué es o por qué es una amenaza. Quería hacer algo al respecto. Así que nuestro primer bloque de episodios de esta temporada será una exploración de cuestiones tecnológicas, incluido lo que los activistas y organizadores necesitan saber sobre la inteligencia artificial, y una discusión sobre el tipo de narración que necesitaremos para resistir las ideas de culto que se avecinan. fuera de Silicon Valley y el mundo tecnológico.

Hoy escucharemos a Émile P. Torres. Émile es un filósofo e historiador cuyo trabajo se centra en las amenazas existenciales a la civilización y la humanidad. Han publicado sobre una amplia gama de temas, incluida la superinteligencia de las máquinas, las tecnologías emergentes y la escatología religiosa, así como la historia y la ética de la extinción humana. Su próximo libro es Extinción humana: una historia de la ciencia y la ética de la aniquilación. Soy un gran admirador del trabajo de Émile y estoy entusiasmado de que todos ustedes escuchen su análisis sobre el largoplacismo y por qué necesitamos urgentemente educar a los compañeros organizadores al respecto. Estoy seguro de que una vez que la mayoría de la gente entienda de qué se trata el largoplacismo y el conjunto más amplio de ideologías TESCREAL (y explicaremos lo que queremos decir con TESCREAL en un momento), mucha gente estará preocupada, consternada o simplemente disgustado, y entiendo que estas ideas deben ser opuestas. Pero cuando un movimiento respaldado por multimillonarios está ganando tanto impulso político, financiero e institucional sin la conciencia de la mayoría de los activistas y de la gente común, básicamente somos un blanco fácil. Así que espero que este episodio pueda ayudarnos a empezar a pensar estratégicamente sobre lo que significa oponerse activamente a estas ideas.

Por cierto, es genial estar de regreso después de un descanso de un mes durante el cual escribí mucho. También tuve la oportunidad de apoyar a nuestros amigos del movimiento Stop Cop City durante su semana de acción en Atlanta. Agradezco a Truthout por un cronograma que me permite equilibrar mi activismo y mis otros proyectos de escritura con este programa, que es tan querido para mi corazón. Este podcast está destinado a servir como recurso para activistas, organizadores y educadores, de modo que podamos ayudar a dotar a las personas del conocimiento y el análisis que necesitan para lograr un cambio transformador. Como saben nuestros oyentes de toda la vida, Truthout es un sindicato, no hemos despedido a nadie durante la pandemia y tenemos las mejores políticas de licencia familiar y por enfermedad de la industria. Entonces, si desea apoyar ese trabajo, puede suscribirse a nuestro boletín o hacer una donación en Truthout.org. También puedes apoyar el programa compartiendo tus episodios favoritos, dejando reseñas en las plataformas de transmisión que utilizas y suscribiéndote a Movement Memos dondequiera que obtengas tus podcasts. También quiero agradecer especialmente a nuestros patrocinadores, quienes hacen donaciones mensuales para apoyarnos, porque todos ustedes son la razón por la que todavía tengo un trabajo y los amo por eso.

Y con eso, estoy muy agradecido de que estén todos de regreso aquí con nosotros, para nuestra nueva temporada, y espero que disfruten el espectáculo.

[interludio musical]

Emile P. Torres : Mi nombre es Émile P. Torres y soy un filósofo e historiador que reside en Alemania en la Universidad Leibniz. Y mis pronombres son ellos/ellas. Durante la última década y algunos años más, mi trabajo se ha centrado en las amenazas existenciales a la humanidad y la civilización.

Durante mucho tiempo estuve muy alineado con una visión del mundo particular, que ahora describiría en términos del conjunto de ideologías TESCREAL. Durante los últimos cuatro o cinco años, me he convertido en un crítico bastante vocal de este grupo de ideologías.

Por tanto, el largoplacismo es una ideología que surgió de la comunidad del altruismo efectivo. El principal objetivo del altruismo eficaz es maximizar la cantidad de bien que uno hace en el mundo. En definitiva, se trata de influir positivamente en el mayor número de vidas posible. Así pues, el largoplacismo surgió cuando altruistas eficaces se dieron cuenta de que la humanidad podía existir en el universo durante un período de tiempo extremadamente largo. En la Tierra, por ejemplo, podríamos persistir durante unos mil millones de años más. El número futuro de seres humanos, si eso sucede, podría ser realmente enorme.

Carl Sagan estimó en 1983 que si sobrevivimos tan solo otros 10 millones de años, podría haber 500 billones de personas en el futuro. Eso es simplemente un número enorme. Si se compara eso con el número de personas que han existido hasta ahora en la historia de la humanidad, la estimación es de unos 117 mil millones. Eso es todo. Así que 500 billones es un número mucho mayor, y eso son sólo los próximos 10 millones de años. En la Tierra tenemos potencialmente otros mil millones de años durante los cuales podríamos sobrevivir.

Si nos expandimos al espacio, y especialmente si nos expandimos al espacio y nos convertimos en seres digitales, entonces el número futuro de personas podría ser astronómicamente mayor. Una estimación es que sólo en la Vía Láctea podría haber 10 personas digitales elevadas a la 54[ª potencia]. 10 a 54, es un uno seguido de 45 ceros. Si vamos más allá de la Vía Láctea a otras galaxias, nos extendemos por todo el universo accesible, una estimación del límite inferior es 10 elevado a 58. Una vez más, un uno seguido de 58 ceros, esa es la cantidad de personas que podría haber en el futuro.

Entonces, si eres un altruista eficaz y tu objetivo es posiblemente influir en el mayor número de personas posible, y si la mayoría de las personas que podrían existir existirán en un futuro lejano, una vez que colonicemos el espacio y creemos estos mundos digitales en los que billones y billones vive una gran cantidad de personas, entonces deberíamos centrarnos en el futuro muy lejano. Incluso si hay una pequeña probabilidad de que usted influya de manera positiva, el 1% de estas 10 de las 58 personas digitales en el futuro, eso sigue siendo un valor de expectativa mucho mayor, un valor esperado mucho mayor, que centrarse en Personas actuales y problemas contemporáneos.

Para poner esto en perspectiva, una vez más, hoy hay 1.300 millones de personas en situación de pobreza multidimensional. Así que sacarlos de la pobreza sería realmente bueno, pero influir de alguna manera beneficiosa en el 1% de 10 de las 58 futuras personas digitales del universo, es un número mucho, mucho mayor. El longtermismo fue la idea de que, bueno, tal vez la mejor manera de hacer el mayor bien sea centrar nuestra atención desde las cuestiones contemporáneas hacia el futuro muy lejano.

Eso no quiere decir que los problemas contemporáneos deban ignorarse por completo. Deberíamos centrarnos en ellos, sólo en la medida en que hacerlo pueda influir en el futuro muy lejano. En definitiva, es sólo un juego de números. Ésa es realmente la esencia del largoplacismo.

kh : Vamos a profundizar más en las implicaciones de esta idea a largo plazo, en la que debemos centrarnos y priorizar los resultados en el futuro profundo, pero primero, vamos a hablar un poco sobre el conjunto de ideologías TESCREAL. TESCREAL es un acrónimo que puede ayudarnos a comprender cómo el longtermismo se conecta con algunas de las otras ideologías y conceptos que están impulsando la nueva carrera espacial, así como la carrera para crear inteligencia artificial general. Es importante señalar que el concepto de inteligencia artificial general, o AGI, no guarda relación con los productos y programas que actualmente se describen como IA en el mundo actual. De hecho, Emily Tucker, directora ejecutiva del Centro de Privacidad y Tecnología, ha argumentado que programas como ChatGPT no deberían caracterizarse en absoluto como inteligencia artificial. Tucker escribe que nuestra adopción pública de la IA, como medio para describir las tecnologías actuales, es producto de “campañas de marketing y control del mercado” y de empresas de tecnología que impulsan productos con una capacidad de extracción “turbocargada”. Utilizando conjuntos de datos masivos, los modelos de lenguaje grandes como ChatGPT unen palabras e información de maneras que a menudo tienen sentido y, a veces, no.

La marca de estos productos como IA ha ayudado a crear la ilusión de que la AGI está a la vuelta de la esquina. La inteligencia artificial general carece de una definición estándar, pero generalmente se refiere a un sistema de IA cuyas capacidades cognitivas igualarían o superarían las de los seres humanos. Una superinteligencia artificial sería un sistema que excede profundamente las capacidades humanas. Como discutiremos en nuestro próximo episodio, estamos tan cerca de desarrollar esas formas de IA como de colonizar Marte, es decir, las afirmaciones de Elon Musk de que colonizaremos Marte para la década de 2050 son ciencia ficción completa. Dicho esto, veamos a qué nos referimos cuando utilizamos el acrónimo TESCREAL y por qué es importante.

hora del este : El acrónimo TESCREAL lo acuñé yo mismo mientras escribía un artículo con el Dr. Timnit Gebru, un científico informático de renombre mundial que solía trabajar para Google y luego fue despedido después de hacer sonar la alarma sobre el sesgo algorítmico. Estábamos tratando de entender por qué la inteligencia artificial general, o AGI, se ha convertido en el objetivo explícito de empresas como OpenAI y DeepMind, que están respaldadas por miles de millones de dólares en grandes corporaciones.

DeepMind es propiedad de Google. OpenAI obtiene gran parte de su financiación de Microsoft, creo que 11.000 millones de dólares hasta ahora. ¿Por qué están tan obsesionados con AGI? Creo que parte de la explicación es obvia: Microsoft y Google creen que AGI generará enormes ganancias. Simplemente habrá miles de millones de dólares en ganancias como resultado de la creación de estos sistemas de inteligencia artificial cada vez más poderosos. Creo que esa explicación está incompleta.

Realmente hay que reconocer la influencia de este conjunto de ideologías TESCREAL. El acrónimo significa transhumanismo, extropianismo (es un bocado), singularitarismo, cosmismo, racionalismo, altruismo efectivo y largoplacismo. La forma en que lo he descrito es que el transhumanismo es la columna vertebral del paquete, y el largo plazo es una especie de cerebro galáctico encima del paquete. De alguna manera une muchos de los temas e ideas importantes que son centrales para estas otras ideologías.

El transhumanismo en su forma moderna surgió a finales de los años 1980 y 1990. El objetivo central del transhumanismo es desarrollar tecnologías avanzadas que nos permitan modificarnos radicalmente, o dirían mejorarnos radicalmente, para convertirnos en última instancia en una especie posthumana. Entonces, al convertirnos en posthumanos, podríamos terminar viviendo para siempre. Quizás podríamos abolir todo sufrimiento, mejorar radicalmente nuestros sistemas cognitivos, aumentarlos para que nosotros mismos seamos súper inteligentes y, en última instancia, marcar el comienzo de este tipo de mundo utópico de inmortalidad y placer sin fin.

Algunos transhumanistas incluso se refieren a esto como ingeniería paradisíaca. De hecho, los paralelos entre el transhumanismo y la religión tradicional son realmente sorprendentes. Realmente eso no es una coincidencia. Si nos fijamos en los individuos que inicialmente desarrollaron la ideología transhumanista, fueron explícitos en que se supone que es un reemplazo de la religión tradicional. Es un reemplazo secular.

Por eso, AGI siempre fue bastante central para esta visión. Una vez que creamos AGI, si es controlable, si se comporta de una manera que se alinee con nuestras intenciones, entonces podríamos ordenarle que resuelva todos los problemas del mundo. Podríamos simplemente delegarle la tarea de curar el llamado problema del envejecimiento. Quizás sea necesario un minuto para pensar en ello. Después de ese minuto, como es súper inteligente, se le ocurre una solución. Lo mismo ocurre con el problema de la escasez.

Potencialmente podría introducir de inmediato este nuevo mundo de abundancia radical. Entonces, AGI es una especie de ruta más directa desde donde estamos hoy hacia este mundo tecno-utópico en el futuro que potencialmente podríamos crear. El propio Sam Altman, director ejecutivo de OpenAI, ha dicho que sin AGI, la colonización espacial probablemente sea imposible. Tal vez podríamos llegar a Marte, pero llegar al próximo sistema solar, que está mucho, mucho, mucho más lejos que Marte, será realmente difícil.

Entonces probablemente necesitemos AGI para eso. Es decir, desde el principio, cuando el paquete en realidad solo consistía en transhumanismo, AGI fue muy importante. Ya era muy central para esta cosmovisión. Luego, con el tiempo, el transhumanismo adoptó diferentes formas. Hubo extropianismo, fue el primer movimiento transhumanista organizado. Luego estaba el singularitarismo, que enfatizaba la llamada singularidad tecnológica. Es este momento futuro cuando el ritmo del desarrollo científico y tecnológico se acelera hasta el punto en que simplemente no podemos comprender la rapidez de las nuevas innovaciones. Quizás esto podría ser provocado por la creación de AGI. Dado que AGI es, por definición, al menos tan inteligente como los humanos, y dado que la tarea de diseñar sistemas de IA cada vez más potentes es una tarea intelectual, si tenemos este sistema que tiene nuestro nivel de "inteligencia", entonces podría hacerse cargo de esa tarea. de diseñar máquinas cada vez mejores.

Obtendríamos esto, lo que llamarían automejora recursiva, un circuito de retroalimentación positiva, por el cual cuanto más capaz se vuelve el sistema de IA, mejor posicionado está para crear sistemas de IA aún más capaces, y así sucesivamente. Ésa es otra noción de la singularidad. Entonces, para la versión singularitarista del transhumanismo, AGI realmente está ahí, en el centro del escenario. Luego está el cosmismo, que es otra variante del transhumanismo, que es aún más amplio y grandioso, incluso se podría decir incluso más grandioso, que el transhumanismo. Porque se trata de expandirse hacia el espacio, reingeniería de galaxias involucradas en cosas que ellos llaman ingeniería del espacio-tiempo. La creación de magia científica es otro término que utilizan. Esta visión particular del futuro se ha vuelto realmente central para el largoplacismo.

Entonces, para llegar rápidamente a las otras letras del acrónimo, el racionalismo es básicamente un derivado del movimiento transhumanista. Esto se basa en la idea de que, bueno, vamos a crear este futuro tecno-utópico en el mundo, que requerirá muchas "personas inteligentes que hagan cosas muy inteligentes". Así que demos un paso atrás y tratemos de descubrir las mejores maneras de optimizar nuestra inteligencia, en otras palabras, de volvernos máximamente racionales. Ése es el corazón del racionalismo. Entonces el EA [altruismo efectivo] es lo que mencioné antes, que en realidad estuvo muy influenciado por el racionalismo. Mientras que los racionalistas se centran en optimizar nuestra racionalidad, los altruistas eficaces se centran en optimizar nuestra moralidad.

Nuevamente, si fueras un EA que intenta optimizar tu moralidad aumentando la cantidad de bien que haces en el mundo, una vez que te des cuenta de eso, el futuro podría ser enorme. Si podríamos colonizar el espacio, crear estas enormes simulaciones por computadora, en las que billones y billones de personas digitales supuestamente viven vidas felices, entonces sería racional centrarse en el futuro muy lejano en lugar del presente. Ese es el paquete TESCREAL en pocas palabras.

Una vez más, el transhumanismo es la columna vertebral. El longtermismo es el cerebro galáctico que se encuentra encima del conjunto, y es este conjunto de ideologías el que se ha vuelto enormemente influyente en Silicon Valley, y en el mundo tecnológico en general. Elon Musk llama al longtermismo “una coincidencia cercana a mi filosofía”. Sam Altman es un transhumanista cuya visión del futuro se alinea muy de cerca con el cosmismo y el largoplacismo. Según un perfil de Sam Altman del New York Times, él también es producto de comunidades altruistas y racionalistas efectivas.

Entonces esta ideología está en todas partes. Incluso se está infiltrando en importantes órganos de gobierno internacionales como las Naciones Unidas. Hubo un artículo de UN Dispatch del año pasado que señalaba que los círculos de política exterior en general y las Naciones Unidas en particular están adoptando cada vez más la ideología del largo plazo. Si se abraza el largoplacismo, en cierto sentido se abrazan los compromisos centrales de muchas de las otras ideologías TESCREAL.

Es muy, muy importante que la gente entienda qué es este conjunto de ideologías, porque se ha vuelto enormemente influyente y está dando forma a nuestro mundo en este momento y seguirá dándole forma en el futuro previsible.

kh : Algo que estaba ansioso por discutir con Émile era cómo se interesaron en el largoplacismo y el conjunto más amplio de ideologías TESCREAL. Al seguir el trabajo de Émile, supe que alguna vez suscribieron ideas transhumanistas. Quería entender cómo y por qué se vieron arrastrados a esa ideología, porque, si vamos a contrarrestar estas ideas en el mundo, debemos entender cómo y por qué atraen a personas que no son expertos en tecnología que intentan apoderarse del mundo. mundo.

hora del este:Mi experiencia con este conjunto de ideologías es que descubrí el transhumanismo, creo que alrededor de 2005, como resultado del libro de Ray Kurzweil, publicado en 2005, llamado La singularidad está cerca.

Y para ser honesto, mi reacción inicial al transhumanismo fue de horror, en parte porque los mismos individuos que promovían el desarrollo de estas tecnologías avanzadas, como la biología sintética y la nanotecnología molecular, la superinteligencia artificial avanzada, etc., también reconocieron que estas Las tecnologías introducirían amenazas sin precedentes a la supervivencia humana.

Entonces, desde el punto de vista de TESCREAL, no crear estas tecnologías significa que nunca llegaremos a la utopía. No tenemos otra opción que desarrollarlos. Sólo hay un camino a seguir, y es mediante la creación de estas tecnologías, pero introducirán peligros extraordinarios para todos los seres humanos de la Tierra. En consecuencia, lo que tenemos que hacer es crear este campo, que se llama estudios de riesgos existenciales, para estudiar estos riesgos y descubrir cómo neutralizarlos. De esa forma podremos tener nuestro pastel tecnológico y comérmoslo también.

Así que mi pensamiento inicial fue que la opción más segura sería simplemente no desarrollar estas tecnologías en primer lugar. El propio Ray Kurzweil dice que probablemente tenemos más del 50 por ciento de posibilidades de sobrevivir al siglo XXI. Esas probabilidades son desalentadoras. Eso es alarmante. Es un tecnooptimista, ampliamente conocido como tecnooptimista. Él dice: "Está bien, probablemente tenemos más del 50 por ciento de posibilidades de que no todos muramos". Pensé que era mejor no desarrollarlos nunca. De hecho, esta fue una visión propuesta y defendida por un tipo llamado Bill Joy en 2000, en un famoso artículo publicado en la revista Wired, titulado Por qué el futuro no nos necesita.

Bill Joy fue el cofundador de Sun Microsystems. No es ludita, no está en contra de la tecnología, pero básicamente tuvo la misma respuesta que yo: estas tecnologías son demasiado peligrosas. Los transhumanistas y los primeros TESCREALists dijeron: “No, no, no, quedarse quieto no es una opción. Tenemos que desarrollarlos porque son nuestro vehículo hacia la utopía tecnológica en un futuro lejano, o tal vez en un futuro muy cercano”.

Y así, con el tiempo, me convencí de que la empresa de la tecnología probablemente no pueda detenerse. Probablemente no haya paradas en este tren en el que todos nos encontramos sentados. En consecuencia, lo mejor que podemos hacer es unirnos a ellos e intentar hacer todo lo posible para cambiar la trayectoria del desarrollo de la civilización hacia el futuro, de la manera que sea lo mejor posible. Así fue como terminé en el movimiento transhumanista.

Y yo diría que con el tiempo, probablemente durante unos seis años, no sólo me uní a regañadientes a este movimiento, sino que realmente me entusiasmé. Creo que parte de eso es que crecí en una comunidad realmente religiosa. Se habló mucho sobre el futuro de la humanidad, en particular, sobre eventos del fin de los tiempos como el rapto y el surgimiento del anticristo, y este período de siete años de terrores absolutos llamado la tribulación, durante el cual reina el anticristo. .

Luego, finalmente, Jesús desciende. Esa es la segunda venida. Está la batalla de Armagedón, y todo es simplemente oscuro y desolador. Pero una vez que las nubes se aclaran, entonces habrá paraíso con Dios para siempre. Así que menciono esto porque comencé a perder mi fe cuando tenía alrededor de 19 o 20 años. Lo que quedó atrás fue un agujero en forma de religión, y el transhumanismo encaja muy bien en eso. Mencioné antes que las personas que desarrollaron la idea del transhumanismo en primer lugar fueron explícitas en que se trata de un reemplazo secular de la religión tradicional.

Por ejemplo, una de las primeras veces que se desarrolló esta idea del transhumanismo fue en un libro de 1927 de Julian Huxley, un eugenista muy destacado del siglo XX. El libro se tituló reveladoramente Religión sin revelación. Entonces, en lugar de depender de una agencia sobrenatural para marcar el comienzo del paraíso para siempre, la inmortalidad, la abundancia radical, etc., intentemos descubrir cómo hacerlo por nuestra cuenta. Y mediante el uso de la tecnología, el empleo de las herramientas de la ciencia y la eugenesia y mediante innovaciones cada vez más sofisticadas, podemos idear nosotros mismos medios para crear el cielo en la tierra, y tal vez incluso el cielo en los cielos si nos extendemos más allá de la tierra, lo cual deberíamos hacer. Entonces, el transhumanismo realmente encaja, por intención, en este vacío que quedó cuando perdí mi fe en el cristianismo.

Y así, cuanto más me encontraba en la comunidad transhumanista, más convencido estaba de que, en realidad, tal vez sea posible desarrollar estas tecnologías y marcar el comienzo de la utopía por nosotros mismos, usar tecnologías radicales de extensión de la vida que nos permitan vivir vidas indefinidamente largas, usar estas tecnologías, como interfaces cerebro-computadora para conectar nuestro cerebro a Internet, nos hacen mucho más inteligentes de lo que somos actualmente, y así sucesivamente. Simplemente parece que tal vez esto sea tecnológicamente factible.

Eso es lo que me llevó a centrarme en estudiar el riesgo existencial. Una vez más, el riesgo existencial es cualquier acontecimiento que nos impida crear este mundo tecnoutópico en el futuro. Y entonces, si mitigamos esas amenazas, al mismo tiempo estamos aumentando la probabilidad de vivir en este mundo utópico. Realmente lo que me hizo cambiar de opinión sobre todo esto fueron dos cosas. Una es muy vergonzosa, y es que de hecho comencé a leer a académicos que no son hombres blancos. Obtuve una perspectiva completamente diferente a lo largo de varios años, al sumergirme en esta literatura masculina no blanca, sobre cómo podría ser el futuro.

Eso fue una especie de epifanía para mí: en realidad, la visión de la utopía que está en el corazón del paquete TESCREAL está profundamente empobrecida. Pienso, creo ahora, que su realización sería catastrófica para la mayor parte de la humanidad. Si observa la literatura TESCREAL, encontrará prácticamente ninguna referencia a ideas sobre cómo debería ser el futuro desde perspectivas no occidentales, como la indígena, la musulmana, el afrofuturismo, la feminista, los derechos de las personas con discapacidad, la homosexualidad, etc. , estas perspectivas.

Simplemente no hay ninguna referencia a cómo podría ser el futuro desde estos puntos de vista alternativos. En consecuencia, terminamos con esta visión muy homogeneizada, como dije, simplemente profundamente empobrecida de lo que debería ser el futuro. Sólo necesitamos salir al espacio, crear estas enormes simulaciones por computadora, donde hay billones y billones de personas digitales que, por alguna razón, viven vidas felices, son productivas y maximizan la productividad económica.

En el proceso, subyugamos la naturaleza. Saqueamos el cosmos para quitarle todos sus recursos. Esto es lo que los longtermismos llaman nuestra dotación cósmica de negentropía, que no es más que entropía negativa. Es simplemente energía que podemos utilizar para crear estructuras de valor como los seres humanos. Así es literalmente como los partidarios del largo plazo se refieren a las personas del futuro: simplemente a las estructuras de valores. Y entonces pensé que está bien, que está realmente empobrecido. Luego, cada vez más, esta visión utópica se convirtió en algo imposible para mí.

Mucha gente puede estar de acuerdo sobre cómo sería la distopía, pero pocas personas pueden estar de acuerdo sobre cómo debería ser la utopía. Y realmente creo que si la visión de utopía en el corazón del paquete TESCREAL se presentara en todos sus detalles a la mayoría de la humanidad, dirían: "Ese no es el futuro que quiero". Más allá de eso, sin embargo, también me convencí de que el largoplacismo, y el TESCRIALismo en general, podrían ser súper peligrosos. Y esto se debe a que comencé a estudiar la historia de los movimientos utópicos que se volvieron violentos.

Y me di cuenta de que en el centro de muchos de estos movimientos había dos componentes: una visión utópica del futuro y también un modo ampliamente utilitario de razonamiento moral. Se trata, pues, de un tipo de razonamiento según el cual los fines justifican los medios, o al menos los fines pueden justificar los medios. Y cuando los fines son literalmente una utopía, ¿qué está fuera de la mesa para garantizar que alcancemos esa utopía? En el pasado, estos dos componentes, cuando se unieron, dieron lugar a todo tipo de actos violentos, incluso genocidios.

Quiero decir, en la Segunda Guerra Mundial, Hitler prometió al pueblo alemán un Reich de mil años. Se basaba en gran medida en la tradición cristiana de la utopía. Este Reich de mil años es un período en el que Alemania reinará supremamente y todo será maravilloso para el pueblo ario. Eso es en parte lo que justificó, al menos para los verdaderos creyentes en esta particular visión del futuro, acciones extremas, incluso acciones genocidas. En el corazón del largoplacismo se encuentran precisamente estos dos componentes.

Me resultó cada vez más claro que el largoplacismo en sí mismo podría ser profundamente peligroso. Si hay verdaderos creyentes que realmente esperan que exista este futuro utópico en los cielos, lleno de cantidades astronómicas de valor, 10 de cada 58 personas digitales felices, entonces no es difícil imaginarlos en una situación en la que justifiquen ellos mismos el uso de fuerza extrema, tal vez incluso violencia, tal vez incluso algo genocida, para lograr esos fines.

Cuando escribí inicialmente sobre esta preocupación, era 2021, publicado en Eon, y la preocupación era meramente hipotética. Mi afirmación no fue que haya verdaderos partidarios del largo plazo que digan que involucrarse en la violencia y demás está de hecho justificado, sino más bien que esta ideología en sí misma es peligrosa. Y si avanzamos dos años hacia el futuro hasta el presente, estas preocupaciones hipotéticas que expresé son ahora realmente bastante concretas.

Por ejemplo, Eliezer Yudkowsky, el fundador del racionalismo, extropiano singularitario transhumanista, que también tiene una gran influencia entre los altruistas y los longtermistas eficaces, cree que si creamos inteligencia artificial general en un futuro próximo, matará a todo el mundo. Como resultado, este futuro tecno-utópico será borrado para siempre. También cree que una guerra termonuclear total no mataría a todos los habitantes del planeta.

De hecho, la mejor ciencia actual lo respalda. Una guerra termonuclear total probablemente no mataría a todos. Un artículo publicado en 2020 encontró que un intercambio entre Rusia y Estados Unidos mataría a alrededor de 5 mil millones de personas. Se trata simplemente de una enorme catástrofe, pero deja atrás unos tranquilizadores 3.000 millones para continuar con la civilización y, en última instancia, desarrollar este futuro posthumano colonizando el espacio, subyugando la naturaleza, saqueando el cosmos, etc.

Yudkowsky, analizando estas dos posibilidades, sostiene que deberíamos hacer todo lo posible para evitar que se desarrolle AGI en un futuro próximo porque todavía no estamos preparados para ello. Incluso deberíamos arriesgarnos a una guerra termonuclear total, porque una vez más, una guerra termonuclear probablemente no matará a todos, mientras que AGI en el futuro previsible sí lo hará.

Cuando le preguntaron en Twitter “¿Cuántas personas pueden morir para prevenir AGI en el futuro cercano?”, su respuesta fue: “Mientras haya suficientes personas, tal vez sean sólo unos pocos miles, tal vez sean 10.000 aproximadamente. Mientras haya suficientes personas para sobrevivir al holocausto nuclear y luego reconstruir la civilización, tal vez algún día podamos llegar a las estrellas”.

Esa fue su respuesta. Es exactamente ese tipo de razonamiento que gritaba hace unos dos años. Es realmente peligroso. Aquí se ve gente de esa comunidad que expresa las mismas opiniones extremistas.

kh : Empecé a oír hablar del largoplacismo el año pasado, más o menos cuando Elon Musk lanzó su oferta para adquirir Twitter. Algunos de ustedes recordarán a Jack Dorsey, ex director ejecutivo de Twitter, justificando la adquisición de la plataforma por parte de Musk diciendo: “Elon es la solución singular en la que confío. Confío en su misión de extender la luz de la conciencia”. Eso de extender “la luz de la conciencia” despertó mi interés. Supuse que Dorsey se refería al fetiche espacial de Musk, pero no podía entender qué tenía eso que ver con permitir que un hombre con una política terrible y un historial de mentiras a gran escala se hiciera cargo de una de las redes sociales más importantes. plataformas en el mundo. Estamos hablando de un hombre que recientemente tuiteó que quiere tener “un concurso literal de medición de penes” con Mark Zuckerberg. Así que cualquier inversión en su visión más amplia me resulta desconcertante.

Bueno, un periodista de investigación llamado Dave Troy analizó las cosas en una publicación de blog en Medium, en la que explicó que Dorsey y Musk suscriben ideas a largo plazo, y que la adquisición de Twitter por parte de Musk no fue tanto una empresa comercial, sino una maniobra ideológica. . Según Troy, Musk buscaba quitarle poder a las personas e ideas llamadas "despertadas" que, según él, están "destruyendo la civilización", en aras de su agenda política más amplia.

Entonces, ¿por qué Musk ve a las personas y los movimientos que enfatizan el bienestar de las personas marginadas, o el medio ambiente, en el aquí y ahora, como amenazas a la civilización? La filosofía de largo plazo dicta que las únicas amenazas que importan son las amenazas existenciales, que podrían interferir con la realización del futuro utópico e interplanetario que los de largo plazo imaginan. Los únicos objetivos que importan son el avance de la IA y la nueva carrera espacial. Porque esas dos actividades supuestamente nos permitirán maximizar el número de personas felices en el futuro, incluido un gran número de personas digitales, hasta tal punto que nuestra preocupación por esas enormes comunidades futuras debería pesar más que cualquier preocupación que tengamos por las personas que están sufriendo o sufriendo. tratados injustamente hoy. Como explica Émile, es un juego de números.

hora del este : Todo el mundo cuenta como uno, pero en el futuro podría haber 10 de las 58 personas digitales, mientras que en este momento sólo somos 8 mil millones. Entonces, en virtud de la multitud de personas potenciales en el futuro, merecen nuestra atención moral más que la gente contemporánea. Esa es realmente la idea clave.

Y la razón por la que muchos TESCREALists, en particular los de largo plazo, están obsesionados con que nuestro futuro sea digital es que se pueden meter más personas digitales por unidad de espacio que personas biológicas. Ésa es una razón. Si desea maximizar la cantidad total de valor en el universo, será necesario aumentar la población humana total. Cuanta más gente feliz haya, más valor habrá en total dentro del universo en su conjunto.

Tienes la obligación moral de aumentar la población humana. Si se da el caso de que en el futuro puedes crear más personas digitales que personas biológicas, entonces deberías crear esas personas digitales. Ésa es una de las razones por las que están obsesionados con este punto de vista en particular. Además, si queremos colonizar el espacio, es casi seguro que necesitaremos volvernos digitales.

Como mencioné antes, expandirse a Marte puede ser posible si somos biológicos, pero llegar al próximo sistema solar, y mucho menos a la próxima galaxia, la galaxia de Andrómeda, va a llevar una enorme cantidad de tiempo, y la Las condiciones del espacio ultraterrestre son extremadamente hostiles. El tejido biológico simplemente no es muy propicio para este tipo de viajes de varios millones de años a otros sistemas solares u otras galaxias. Realmente necesitamos volvernos digitales. Esta noción de que el futuro es digital es, creo, realmente central para la visión del mundo de largo plazo y, en términos más generales, de TESCREAList.

Quizás valga la pena señalar que el largoplacismo suena realmente bien. Hay algo muy refrescante en la palabra misma, porque hay una enorme cantidad de cortoplacismo en nuestra sociedad. De hecho, está integrado en nuestras instituciones. Hay informes trimestrales que desalientan pensar en el muy largo plazo. Nuestros ciclos electorales son de cuatro o seis años y, en consecuencia, los políticos no van a hacer campaña para promover políticas que consideren el bienestar de las personas a cientos, miles o incluso más años en el futuro.

De modo que el cortoplacismo está omnipresente. La miopía es la perspectiva estándar sobre el futuro. De hecho, hubo un estudio realizado probablemente hace aproximadamente una década, en el que un académico llamado Bruce Kahn encuestó a las personas sobre su capacidad para prever el futuro. Encontró que nuestra visión de lo que está por venir tiende a no extenderse más allá de 10 años aproximadamente. Ése es el horizonte que la mayoría de la gente considera comprensible. Más allá de eso, es demasiado abstracto para pensar con claridad.

Por lo tanto, cualquier cambio hacia el futuro a largo plazo de la humanidad parece, al menos a primera vista, muy atractivo. Después de todo, los efectos catastróficos del cambio climático persistirán durante unos 10.000 años más. Es mucho más tiempo del que ha existido la civilización hasta ahora. La civilización tiene unos 6.000 años aproximadamente. 10.000 años, lo que estamos haciendo ahora y lo que hemos hecho desde la Revolución Industrial, darán forma a la habitabilidad de nuestro planeta durante muchos milenios.

Seguramente uno querría una especie de perspectiva de largo plazo, se podría decir de largo plazo, sobre estas cosas. La ideología a largo plazo va mucho más allá del pensamiento a largo plazo. Hay compromisos ideológicos con el largoplacismo que, creo, la mayoría de las personas, probablemente la gran mayoría de las personas que se preocupan por el pensamiento a largo plazo, encontrarían muy desagradables. Una es lo que señalé hace un momento: existe un imperativo moral de aumentar la población humana. Mientras las personas sean, en promedio, felices, aportarán valor al universo.

Incluso en una interpretación moderada del largoplacismo, tenemos la obligación moral de aumentar la cantidad de valor del universo en su conjunto. Eso significa que cuanto más grande, mejor. Para citar a William MacAskill en su libro del año pasado titulado What We Owe The Future, “cuanto más grande, mejor”. Incluso escribe que, por este motivo, existe un argumento moral a favor de la colonización espacial. Si cuanto más grande, mejor, y si la superficie de la Tierra es finita, como lo es, entonces necesitamos extendernos más allá de la Tierra. Ésa es la razón por la que concluye que existe un argumento moral a favor de la colonización espacial.

Esa es una idea muy radical. Una vez más, si podemos crear una población más grande creando personas digitales, reemplazando el sustrato biológico con algún tipo de hardware digital, entonces deberíamos hacerlo. En última instancia, así es como realizamos nuestro potencial a largo plazo en el universo. Ése es un sentido en el que estas ideologías son contraintuitivas y bastante radicales.

Otro, el racionalismo, también podría parecer tener cierto atractivo porque seguramente queremos ser como individuos más racionales. En realidad, si nos fijamos en la comprensión de la racionalidad más popular dentro de la comunidad racionalista, se llega a todo tipo de conclusiones muy extrañas. He aquí un ejemplo, Eliezer Yudkowsky, que más o menos fundó la comunidad racionalista, y es un singularitario transhumanista, que participó en el movimiento extropiano.

Sus puntos de vista hoy en día están muy alineados con el altruismo efectivo y el largoplacismo. Tiene un pie en casi todas estas ideologías dentro del paquete TESCREAL. Ha sugerido que la moralidad debería consistir mucho más en hacer cálculos numéricos de lo que muchos de nosotros naturalmente sospecharíamos. Por ejemplo, publicó una entrada de blog en un sitio web llamado LessWrong, que fundó en 2009. Es una especie de epicentro en línea de la comunidad racionalista.

En esta publicación de blog, hizo una pregunta: ¿qué sería peor: que un individuo sea torturado sin piedad durante 50 años seguidos? ¿Sólo un sufrimiento interminable e interminable para este individuo, o para un número extremadamente grande de individuos que tienen la incomodidad casi imperceptible de tener una pestaña en el ojo? ¿Cuál de estos sería peor?

Bueno, si analizamos los números, y si el número de individuos que experimentan esta pestaña en el ojo es lo suficientemente grande, entonces deberíamos optar por torturar al individuo durante 50 años, en lugar de que este enorme número de individuos sea ligeramente molestado por sólo una pequeña cantidad de molestias en el ojo. Es sólo un juego de números. Y por eso se refiere a esto como la heurística de callar y multiplicar.

Con el tiempo, se ha vuelto un poco menos dogmático al respecto. Sugirió que tal vez haya situaciones en las que callarse y multiplicarse no siempre es válido. Esto nos da una idea de cuán extremo puede ser este enfoque para intentar optimizar nuestra racionalidad. Algunas de las conclusiones de esta comunidad han sido realmente bastante radicales y problemáticas. Otro ejemplo es que ha habido varios individuos en la comunidad racionalista que también han simpatizado bastante con la eugenesia.

Así que si queremos hacer realidad este futuro tecnológico-utópico, entonces necesitaremos un cierto número de individuos suficientemente “inteligentes” en la sociedad. En consecuencia, si el número de personas que tienen una “inteligencia” más baja supera a la de sus pares con mayor capacidad intelectual, entonces la inteligencia promedio de la humanidad va a caer. Esto es lo que argumentan. Este es un escenario llamado disgénica. Se trata de un término que se remonta a los eugenistas de principios del siglo XX, muchos de los cuales estaban motivados o inspirados por ciertas opiniones racistas, capacitistas, clasistas, sexistas y por lo demás elitistas.

Esas opiniones todavía están muy extendidas en la comunidad racionalista. Creo que aún más, esta noción de eugenesia y la ansiedad que rodea la posibilidad de presiones disgénicas sigue siendo bastante generalizada. Otro ejemplo sería el artículo de Nick Bostrom publicado en 2002, en el que introduce la noción de riesgo existencial. El riesgo existencial es cualquier evento que nos impida realizar este futuro posthumano tecnoutópico entre estrellas llenas de cantidades astronómicas de valor.

Enumera una serie de escenarios de riesgo existencial. Algunas de ellas son realmente bastante obvias, como una guerra termonuclear. Tal vez si Estados Unidos, Rusia, India, Pakistán y todas las demás naciones nucleares participaran en ello, en un intercambio termonuclear total, entonces el resultado podría ser potencialmente la extinción humana. Pero también hay varios escenarios de supervivencia que podrían impedir la realización de este mundo tecnológico utópico en el futuro. Identifica explícitamente una de ellas como presiones disgénicas.

Una vez más, las personas menos inteligentes superan en raza a sus pares más inteligentes. En consecuencia, la humanidad se vuelve insuficientemente inteligente para desarrollar las tecnologías necesarias para llevarnos a la utopía. Quizás eso podría incluir inteligencia artificial general. Y como resultado, esta utopía nunca se realiza, y eso sería una catástrofe existencial. Esto es sólo una idea de cuán radicales y extremas son algunas de las opiniones en esta comunidad.

kh : La idea del valor humano y la maximización de ese valor es un concepto prominente en la ideología de largo plazo. En un artículo de 2003 titulado Astronomical Waste (un documento fundamental para el largoplacismo), Nick Bostrom planteó la idea de que cualquier retraso en la colonización espacial es fundamentalmente perjudicial, porque tales retrasos reducirían el número de futuros humanos felices potenciales en un futuro lejano. Bostrom escribió que “el potencial de cien billones de seres humanos potenciales se pierde por cada segundo de aplazamiento de la colonización de nuestro supercúmulo”. El año pasado, Elon Musk retuiteó una publicación que llamaba Astronomical Waste “Probablemente el artículo más importante jamás escrito”. Esta comprensión del valor humano como un juego de números, cuya expansión depende de la colonización espacial, permite a los partidarios del largo plazo descartar muchas preocupaciones sociales.

Creo que muchos de nosotros estaríamos en desacuerdo con la idea de que debido a que algo tiene valor, nuestra prioridad debería ser la producción y proliferación masiva de esa cosa, pero ¿cómo se define siquiera el valor humano? Este fue uno de los temas que encontré más confuso, mientras profundizaba en ideas de largo plazo.

hora del este : ¿A qué valor se refieren cuando hablan de maximizar el valor? Depende de a quien le preguntes. Algunos dirían que lo que debemos hacer como especie en este momento es, ante todo, abordar el problema de mitigar el riesgo existencial. Una vez que hacemos eso, terminamos en un estado de seguridad existencial. Eso nos da un respiro. Descubrimos cómo eliminar la amenaza de una guerra termonuclear, desarrollar nanotecnología o diferentes tipos de biología sintética de una manera que no amenace nuestra supervivencia continua.

Una vez que hemos obtenido seguridad existencial, entonces llega esta época, este período que llaman la larga reflexión. Podrían ser siglos o milenios. Cuando nos reunimos todos, todos los humanos de todo el mundo, y simplemente nos concentramos en tratar de resolver algunos de los problemas perennes de la filosofía: ¿qué valoramos? ¿Qué debemos valorar? ¿Qué es esto que deberíamos intentar maximizar en el futuro? ¿Es felicidad?

Una de las principales teorías del valor dentro de la filosofía se llama hedonismo. Esto afirma que lo único intrínsecamente valioso en todo el universo es la felicidad o el placer. Hay otras teorías que dicen que no, que en realidad es algo así como satisfacer deseos o aún hay otras teorías que dirían que son cosas como el conocimiento, la amistad, la ciencia y las artes, además de la felicidad.

Cómo entendemos exactamente el valor es un poco ortogonal al argumento de largo plazo, porque lo que dirán es que el futuro podría ser enorme. Si colonizamos el espacio y creamos a todas estas personas digitales, el futuro podría ser enorme. Eso significa que, sea lo que sea lo que valores, podría haber mucho más en el futuro. Entonces, la verdadera idea clave es esta noción de maximización del valor. Podría plantearse la pregunta: "¿Cuál es la respuesta adecuada al valor intrínseco?" Sea lo que sea que tenga valor intrínseco, ¿cuál es la forma correcta de responder a eso?

Los partidarios del largo plazo dirían: "Maximízalo". Si valoras los paseos por la playa, entonces dos paseos por la playa serán el doble que uno. Si valoras las grandes obras de arte, entonces 100 grandes obras de arte serán el doble de buenas que sólo 50 grandes obras de arte. Sea lo que sea lo que valores, debería haber más. Esta idea de que el valor debe maximizarse históricamente surgió prácticamente al mismo tiempo que el capitalismo.

Está asociado con una teoría ética particular llamada utilitarismo. No creo que sea una coincidencia que el utilitarismo y el capitalismo surgieran al mismo tiempo. Porque el utilitarismo es en realidad una forma muy cuantitativa de pensar sobre la moralidad. El precepto fundamental es que se debe maximizar el valor. En consecuencia, existen todo tipo de paralelismos entre este y el capitalismo. Se podría pensar en el utilitarismo como una especie de rama de la economía, mientras que los capitalistas tratan de maximizar el resultado final, que es el beneficio, los utilitaristas consideran que el resultado final que debería maximizarse es solo valor en un sentido más general e impersonal.

Esa es realmente la idea clave. Vale la pena señalar que existen otras respuestas a la pregunta: "¿Cuál es la respuesta adecuada al valor?" Podrías decir: “Bueno, en realidad, lo que debes hacer es que cuando se te presente algo que es intrínsecamente valioso, debes atesorarlo o valorarlo, amarlo, protegerlo, preservarlo, sostenerlo”. Aquí hay muchas respuestas posibles que no implican simplemente aumentar el número total de instancias de esa cosa en el universo.

Creo que si preguntas a muchos partidarios del largo plazo, te dirán que probablemente deberíamos adoptar algún tipo de visión pluralista del valor. Realmente no sabemos qué es el valor. Probablemente incluya la felicidad. Cuantos más casos de felicidad haya en el futuro, mejor será el universo en su conjunto. Pero, en última instancia, esto es algo que podemos decidir durante una larga reflexión.

Por cierto, esta noción de reflexión larga me parece completamente infructuosa. Cuando piensas en todas las personas alrededor del mundo que simplemente hacen una pausa en todo, se sientan y unen sus manos durante un par de siglos o milenios para resolver estos problemas filosóficos perennes, para descubrir qué es el valor, eso parece absolutamente inverosímil.

No obstante, esto es parte del plan a largo plazo para el futuro. Así que sí, la idea clave es que sea lo que sea lo que valoremos, simplemente es necesario que haya más.

kh : La idea de un número masivo de personas felices en el futuro, digitales y no digitales, como una maximización del valor humano, es algo que he escuchado mucho, de personas cuyas visiones del mundo caen dentro del paquete TESCREAL, y es un concepto que encuentro bastante cómico. Porque si les preguntara a todos los que están escuchando o leyendo ahora mismo: "¿Qué es la felicidad?", obtendría muchas respuestas tremendamente diferentes. Ni siquiera puedo responder a la pregunta: "¿Qué es la felicidad?" ¿Es así como me sentí el día de mi boda? ¿Es así como me siento cuando como un comestible o veo cómo golpean a un nazi? La felicidad no es un concepto concreto que pueda medirse, entonces, ¿cómo puede ser una característica definitoria de la noción de valor humano del largoplacismo y cómo puede maximizarse efectivamente?

hora del este : Creo que una cosa que falta por completo en la literatura longtermista, o diría en la literatura TESCREAL en general, es cualquier tipo de análisis filosóficamente serio del significado de la vida. ¿Qué hace que la vida tenga sentido? En realidad, el objetivo es simplemente maximizar el valor del universo en su conjunto, pero potencialmente se podría maximizar el valor y al mismo tiempo dejar vidas sin sentido. Para mí, comprender qué hace que una vida tenga sentido es mucho más importante que maximizar la felicidad.

Además, creo que tienes toda la razón en que este tipo de noción cuantitativa de felicidad es realmente extraña. Los utilitaristas utilizan este término para referirse a una unidad de felicidad. Se llama utilidad y proviene de la palabra utilidad. La utilidad es más o menos intercambiable con el valor. Quiere maximizar el valor, eso significa que quiere maximizar la utilidad. En consecuencia, cuantas más utilidades haya en el universo, mejor será el universo. Qué es exactamente una utilidad, no tengo idea.

No tengo idea de cuántas utilidades introduje en el universo ayer. No sé si he creado más utilidades hoy que hace una semana. Todo es muy extraño, y se trata de entender este dominio extraordinariamente complejo y rico, que es la moralidad, de una manera cuantitativa y procusta. Creo que cuando mucha gente comprenda que este es el tipo de fundamentos filosóficos de gran parte de la cosmovisión TESCREAL, inmediatamente retrocederán.

kh: El concepto de utilidad me hace preguntarme cuántas utilidades introduzco al comer un comestible, pero no nos detendremos en eso.

De todos modos, el paquete TESCREAL es un concepto relativamente nuevo. Personalmente, el acrónimo me parece bastante útil a la hora de explorar estas ideas. Pero Émile y Timnit Gebru han recibido duras críticas por sus ideas. En junio, el estudiante de doctorado Eli Sennesh y James J. Hughes, director ejecutivo del Instituto de Ética y Tecnologías Emergentes, publicaron una publicación en Medium titulada Teorías de la conspiración, futurismo de izquierda y el ataque a TESCREAL, que plantea algunas duras críticas a El trabajo de Émile y Timnit Gebru, incluida la idea de que las ideologías del acrónimo TESCREAL pueden agruparse. Tuve muchos problemas con este artículo, en los que no tenemos tiempo de profundizar hoy, pero quería darle a Émile la oportunidad de responder a algunas de las críticas del artículo sobre su trabajo e ideas.

hora del este : James Hughes y otra persona publicaron este artículo en Medium, en el que argumentaron que el paquete TESCREAL es esencialmente una teoría de la conspiración. No encuentro que sus argumentos sean muy convincentes en absoluto. De hecho, ni siquiera puedo recordar cuál es exactamente la idea central de su argumento. Esta noción de que el TESCREALismo es sólo un pensamiento conspirativo es completamente insostenible. No es una teoría de la conspiración si hay una gran cantidad de evidencia que la respalda.

Hay una enorme cantidad de evidencia que corrobora esta noción de que existe un conjunto de ideologías que realmente van juntas. Ellas hacen. Constituyen una especie de entidad única u organismo único, que se extiende desde finales de la década de 1980 hasta el presente, y que este paquete es muy influyente dentro de Silicon Valley. Una cosa que debo señalar es que estos movimientos y estas ideologías comparten gran parte del mismo espacio ideológico.

Históricamente, surgieron uno del otro. Se podría pensar en esto como una expansión suburbana. Comenzó con el transhumanismo. El extropianismo fue el primer movimiento transhumanista organizado. Muchos extropianos luego pasaron a participar en el singularitarismo. El propio fundador del cosmismo moderno fue un transhumanista extropiano. Entonces Nick Bostrom es más o menos el fundador del longtermismo, fue enormemente influyente entre los racionalistas y los EA, y también fue uno de los transhumanistas originales, un participante en el movimiento extropiano.

Estas ideologías y movimientos se superponen y están interconectados de muchas maneras. De hecho, una de las personas que retuiteó la crítica, el artículo que critica el concepto TESCREAL de James Hughes, fue un individuo llamado Anders Sandberg. Por lo que yo sé, él estaba respaldando esta objeción de que el TESCREALismo es sólo una teoría de la conspiración. Esto me pareció bastante divertido, porque Anders Sandberg es un transhumanista que participó en el movimiento extropiano, que ha escrito sobre la singularidad y, de hecho, espera que la singularidad se haga realidad.

Es un singularitario, esencialmente. Ha estado muy estrechamente asociado con el fundador del cosmismo, Ben Goertzel. Participa en la comunidad racionalista, enormemente influyente entre los AE, altruistas eficaces y a largo plazo. Él es un ejemplo. Él ejemplifica todas estas ideologías diferentes, tal vez con la excepción del cosmismo, al menos no explícitamente. Aunque, nuevamente, es la idea central, la visión del cosmismo está muy viva dentro del largoplacismo.

Entonces hay un individuo que está básicamente en el corazón del movimiento TESCREAL, que está retuiteando esta afirmación de que el TESCREALismo es solo una teoría de la conspiración. Así que siento que este gesto indica hasta qué punto alguien debería tomar esta crítica del término y concepto que se nos ocurrió a Timnit Gebru y yo, debería mirar estas críticas con un poco de risa.

kh : El artículo también sostiene que algunas de estas ideologías tienen alas progresistas o fundamentos progresistas, y que ignoramos o perjudicamos a esos seguidores progresistas, que podrían ser nuestros aliados, cuando nos involucramos en algunas de las generalizaciones que, según ellos, son inherentes a la agrupación de TESCREAL. Este es un argumento terrible, a primera vista. Porque siempre ha habido ideas opresivas y reaccionarias que se han difundido tanto en la izquierda como en la derecha, aunque se concentraran en la derecha, y eso sigue siendo cierto hoy. Las ideas transfóbicas son un excelente ejemplo en nuestro tiempo, ya que esas ideas son impulsadas principalmente por la derecha, pero también se pueden encontrar entre los liberales y las personas que se identifican como izquierdistas.

hora del este : También vale la pena señalar que la eugenesia, a lo largo del siglo XX, la asociamos con los fascistas, con la Alemania nazi. Fue enormemente popular entre los progresistas y los fascistas, en todo el espectro político. Había individuos a lo largo de todo el espectro político que estaban entusiasmados con la eugenesia. Sólo porque algo sea progresista no significa que no sea problemático.

Además, diría que las alas genuinamente progresistas del movimiento transhumanista, de los extropianos, bueno, el movimiento extropiano es una excepción porque es muy libertario, pero las alas progresistas del movimiento transhumanista simplemente no son tan influyentes. Y así, esta noción del paquete TESCREAL deja absolutamente espacio para todo tipo de matices. No estoy diciendo que todos los transhumanistas sean TESCREALists. No estoy diciendo que todos los EA sean TESCREALists. Hay muchos expertos expertos que piensan que el largoplacismo es una locura y no quieren tener nada que ver con el largoplacismo.

Sólo quieren centrarse en eliminar las granjas industriales y aliviar la pobreza global. EA, hay una parte creciente y muy poderosa de EA, que es a largo plazo. Esta idea del paquete TESCREAL deja absolutamente mucho espacio para una variación dentro de las comunidades correspondientes a cada letra del acrónimo. Así que esa fue otra razón por la que encontré que el artículo no daba en el blanco, porque mi afirmación y la de Gebru no es que cada transhumanista y cada singularitario sea un TESCREAList.

Lo que pasa es que las figuras más poderosas dentro de estas comunidades son los TESCREALists. Creo que esa es realmente la idea clave.

kh : Es posible que estés escuchando todo esto y pensando: "Bueno, no tengo ninguna influencia en Silicon Valley, entonces, ¿qué diablos se supone que debo hacer con todo esto?" Si se siente así, quiero que se detenga y piense en cómo se sentiría la mayoría de la gente acerca del largoplacismo, como concepto, si tuvieran alguna noción de lo que hemos discutido hoy aquí. Simplemente arrojar luz sobre estas ideas es un comienzo importante. Tenemos que conocer a nuestros enemigos, y no hay suficiente gente que sepa o comprenda a qué nos enfrentamos cuando se trata de largoplacismo o TESCREAL.

hora del este : Creo que es muy importante que la gente entienda qué es esta ideología, qué tan influyente es y por qué podría ser potencialmente peligrosa. Esto es sobre lo que he estado escribiendo, una de las cosas sobre las que he estado escribiendo, al menos durante el año pasado, y con la esperanza de alertar al público de que existe este conjunto de ideologías ahí fuera y detrás de escena, que ha llegar a ser enormemente influyente. Se está infiltrando en la ONU y es omnipresente en Silicon Valley.

Creo que a pesar de todo lo que se habla entre los TESCREALists sobre riesgos existenciales, incluidos los riesgos que surgen de la inteligencia artificial general, creo que hay un argumento realmente bueno para afirmar que una de las amenazas más importantes que enfrentamos es el propio paquete TESCREAL. Después de todo, hay personas enormemente influyentes en esta comunidad TESCREAL, como Eliezer Yudkowsky, que escribe en publicaciones importantes como la revista Time, que deberíamos arriesgarnos a una guerra termonuclear para evitar el apocalipsis de AGI. Deberíamos utilizar la fuerza militar para atacar centros de datos que podrían ser utilizados por las naciones para crear una inteligencia artificial general. Esto es algo realmente increíblemente peligroso, y es exactamente lo que me preocupaba hace varios años. Y, para mi horror, ahora nos encontramos en una situación en la que mi temor de que la violencia extrema acabe considerándose justificado para evitar una catástrofe existencial. Mis preocupaciones han sido validadas. Y creo que eso es algo realmente aterrador.

kh: Émile también tiene un próximo libro que se publicará en julio y que me entusiasma mucho.

hora del este: Entonces, el próximo libro se llama Extinción humana, una historia de la ciencia y la ética de la aniquilación, y básicamente rastrea la historia del pensamiento sobre la extinción humana a lo largo de la tradición occidental, desde los antiguos griegos hasta el presente.

Entonces también proporciona realmente el primer análisis exhaustivo de la ética de la extinción humana. Y esto saldrá el 14 de julio. Puede encontrarlo en Amazon o en el sitio web del editor, que es Routledge. Es un poco caro, pero espero que si lo compras, valga la pena.

kh : Saqué mucho provecho de esta conversación y espero que nuestros lectores y oyentes también lo hayan obtenido. Para mí, la conclusión es que, en el largoplacismo, tenemos una ideología en la que el sufrimiento, la muerte masiva e incluso los actos extremos de violencia pueden considerarse aceptables, si estas acciones apoyan el proyecto de extender la luz de la conciencia a través del espacio. Colonización y desarrollo de AGI. Es importante comprender cuán desechables somos usted y yo, y todos los que sufren bajo la supremacía blanca, el imperialismo y el capitalismo, según esta ideología. Y si bien el largoplacismo puede ser relativamente nuevo para muchos de nosotros, la verdad es que sus seguidores han estado trabajando durante años para infiltrarse en instituciones educativas, organizaciones de formulación de políticas y estructuras gubernamentales, por lo que estamos hablando de un proyecto social y político que está bien en marcha. Como personas que se oponen a este trabajo, tenemos mucho que hacer para ponernos al día.

También creo que el punto de vista de Émile acerca de que el transhumanismo llena un vacío del tamaño de una religión en sus vidas, en un momento dado, también es un pensamiento muy importante a considerar por los activistas, porque muchas personas caminan por ahí con un agujero del tamaño de una religión en su visión del mundo. . Vivimos tiempos inciertos y catastróficos y, como describió Mike Davis en Planet of Slums, las personas pueden volverse más vulnerables a las sectas y los movimientos hiperreligiosos en tiempos de colapso. Somos animales sociales y, como tales, siempre estamos buscando liderazgo: alguien que sea más grande, más fuerte y más rápido, que tenga un plan. Algunas personas encuentran esos consuelos en el ámbito de la fe, pero muchos de nosotros no somos religiosos y muchos más no suscribimos interpretaciones literales de su fe y, por lo tanto, todavía estamos buscando respuestas científicas y filosóficas. La gente es extremadamente vulnerable en estos tiempos, y si nosotros, como organizadores y activistas, no intentamos llenar el vacío del tamaño de la religión en la vida de las personas con actividades e ideas significativas, ideas destructivas y deshumanizadoras llenarán ese espacio vacío. Tenemos que dar la bienvenida a las personas a movimientos que aborden sus necesidades existenciales, epistémicas y relacionales, para que tengan menos probabilidades de ser víctimas de ideas e ideologías sectarias.

Me doy cuenta de que es más fácil decirlo que hacerlo, pero vamos a hablar un poco sobre qué tipo de historias e ideas nos serán útiles para contrarrestar la religiosidad de la nueva carrera espacial y la carrera por AGI en los próximos episodios. Por ahora, sólo me gustaría recordarnos las palabras de Ruth Wilson Gilmore, que estarán para siempre en mi corazón: “donde la vida es preciosa, la vida es preciosa”. Eso significa que aquí y ahora, la vida es preciosa si nosotros, como seres humanos, somos valiosos unos para otros. Esa es una decisión que tomamos todos los días y la considero un compromiso político. No necesitamos maximizarnos, teniendo tantos hijos como sea posible, o creando hordas infinitas de personas digitales, como insisten los pronatalistas y los tecnológicos obsesionados con la IA. Necesitamos apreciarnos unos a otros y a todos los seres y cosas que hacen posible nuestra existencia. Eso es lo que significa luchar unos por otros y por el futuro. Cualquiera que sea el valor humano, su preservación no se realizará en alguna tierra de fantasía de ciencia ficción, extendida por toda la galaxia. La lucha por todo lo que vale la pena preservar sobre quiénes y qué somos está ocurriendo aquí y ahora, mientras combatimos la desigualdad, la extracción, el militarismo y cualquier otro factor del caos climático y la deshumanización en nuestros tiempos. Somos esa lucha, si nos apreciamos lo suficiente como para actuar.

Quiero agradecer a Émile P. Torres por acompañarme hoy. Aprendí mucho y estoy muy agradecida por esta conversación. No olvide consultar el próximo libro de Émile Human Extinction, A History of the Science and Ethics of Annihilation. Y asegúrese de unirse a nosotros en nuestros próximos episodios, en los que discutiremos la inteligencia artificial y el tipo de narración que necesitaremos para librar las batallas ideológicas que tenemos por delante.

También quiero agradecer a nuestros oyentes por acompañarnos hoy. Y recuerde, nuestra mejor defensa contra el cinismo es hacer el bien y recordar que el bien que hacemos importa. Hasta la próxima, nos vemos en las calles.

Mostrar notas

Referenciado:

¡Así somos nosotros! Es por eso que tenemos la misión de cambiar las cosas y brindarles historias y perspectivas que a menudo no se cuentan en los principales medios de comunicación. Pero ser un sitio de noticias radicalmente independiente y sin reservas no es fácil (ni barato), y dependemos del apoyo de los lectores para mantener las luces encendidas.

Si le gusta lo que está leyendo, considere hacer una donación deducible de impuestos hoy. No estamos pidiendo una limosna, estamos pidiendo una inversión: invierta en un sitio de noticias sin fines de lucro que no tenga miedo de irritar algunas plumas, que no tenga miedo de defender lo que es correcto y que no tenga miedo de contar las cosas como son. .

Kelly Hayes es la presentadora del podcast “Movement Memos” de Truthout y colaboradora de Truthout. El trabajo escrito de Kelly también se puede encontrar en Teen Vogue, Bustle, Yes! Magazine, Pacific Standard, NBC Think, su blog Transformative Spaces, The Appeal, la antología The Solidarity Struggle: How People of Color Succeed and Fail At Showing Up For Other In the Fight For Freedom y la antología de Truthout sobre movimientos contra la violencia estatal, Who. ¿Sirves, a quién proteges? Kelly también es formadora de acción directa y cofundadora del colectivo de acción directa Lifted Voices. Kelly fue honrada por su trabajo organizativo y educativo en 2014 con el premio Women to Celebrate y en 2018 con el premio Champions of Justice de Chicago Freedom School. La fotografía de movimiento de Kelly aparece en la exposición “Libertad y Resistencia” del Museo DuSable de Historia Afroamericana. Para mantenerse al día con el trabajo organizativo de Kelly, puede seguirla en Facebook y Twitter.

Kelly HayesEmile P. Torreskhhora del estekhhora del este:khhora del estekhhora del estekhhora del estekhhora del estekhhora del estekhhora del estekhhora del estekhMostrar notas