top of page
  • Foto del escritorHomo consciens

¿De qué lado estas? ¿de los humanos o posthumanos?


Fuente: Truthdig - Por Emile Torres- 4 de abril de 2024

Cómo los multimillonarios de Silicon Valley confunden intencionadamente las conversaciones públicas sobre la extinción humana.


Junto con la inflación y el estado de la democracia, los estadounidenses están cada vez más preocupados por la extinción humana. Una encuesta de 2017 encontró que aproximadamente el 40% del público estadounidense piensa que "las probabilidades de que el calentamiento global cause la extinción de los humanos son del 50% o más." Otra encuesta publicada el año pasado informa que el 55% de nosotros estamos "muy preocupados" o "algo preocupados" de que la inteligencia artificial avanzada "pueda eventualmente representar una amenaza para la existencia de la raza humana."


Estas preocupaciones no son irracionales. Después de todo, el consenso abrumador entre los científicos del clima es que el cambio climático tendrá consecuencias catastróficas en las próximas décadas. Las personas que dirigen empresas de inteligencia artificial como OpenAI, por su parte, son explícitas en cuanto a que las tecnologías que están construyendo podrían conducir a la aniquilación de nuestra especie. En una entrevista concedida a 2023, Sam Altman, consejero delegado de OpenAI, afirmó que "en el peor de los casos -y creo que es importante decirlo- se apagarían las luces para todos nosotros" si la IA avanzada saliera mal.


La mayoría de nosotros diría que la extinción humana sería bastante mala, por una razón u otra. Pero no todo el mundo estaría de acuerdo.


¿Qué clase de persona prefiere la extinción humana a seguir existiendo? Hay algunos sospechosos obvios. Uno es el "pesimista filosófico", que sostiene que el mundo está lleno de tanto sufrimiento humano que la no existencia de nuestra especie es mejor que seguir existiendo. Otro es un cierto tipo de ecologista radical que afirma que la humanidad es tan destructiva para la biosfera que sólo nuestra extinción puede salvar lo que queda del mundo natural.


Por último, hay un tercer grupo de personas a las que no les preocupa la posibilidad de la extinción humana y, de hecho, algunos esperan provocarla activamente en las próximas décadas. Representan una forma más peligrosa y extrema de ideología proextinción que está bastante extendida en Silicon Valley. De hecho, algunas de las personas más poderosas del mundo de la tecnología son miembros de este grupo, como el cofundador de Google, Larry Page.


La gente de este tercer grupo imagina que nuestra especie desaparecerá siendo reemplazada por una nueva especie de lo que algunos llaman seres "posthumanos", que podrían adoptar la forma de "máquinas inteligentes" o "IAs".


Para entender a este grupo, es importante reconocer el tipo concreto de extinción humana que esperan provocar. Los pesimistas filosóficos y los ecologistas radicales quieren que nuestra especie desaparezca para que no haya más criaturas como nosotros en el futuro. En cambio, las personas de este tercer grupo imaginan que nuestra especie desaparecerá siendo sustituida por una nueva especie de lo que algunos llaman seres "posthumanos", que podrían adoptar la forma de "máquinas inteligentes" o "IA". En su opinión, si la humanidad dejara de existir porque estas máquinas inteligentes se hicieran con el control del mundo en dos décadas, sería algo bueno o, al menos, no habría nada que lamentar. En consecuencia, estas personas sostienen que no deberíamos resistirnos a la invasión de la IA, aunque eso signifique el fin de todo lo que hoy apreciamos.


Page ha argumentado que "la vida digital es el siguiente paso natural y deseable en... la evolución cósmica y que si dejamos que las mentes digitales sean libres en lugar de intentar detenerlas o esclavizarlas, el resultado es casi seguro que será bueno". En este sentido, se podría considerar al ser humano como el eslabón crucial entre dos mundos: el mundo biológico que existe ahora mismo y el mundo digital dirigido por máquinas inteligentes que existirá en el futuro. Al construir estas máquinas inteligentes -o mentes digitales- estamos creando a nuestros sucesores, que inaugurarán la siguiente etapa de la evolución cósmica.


Según Page, el avance de la evolución cósmica no puede ni debe detenerse, por lo que lo mejor es construir estos sucesores digitales y luego hacerse a un lado. Una vez hecho esto, nuestros sucesores tomarán el relevo y comenzarán a "extenderse por toda nuestra Galaxia y más allá", estableciendo una especie de mundo "utópico" en el que la vida biológica ha sido marginada y quizás incluso eliminada por completo. Cuando alguien puso en tela de juicio el "utopismo digital" de Page (como lo llamó un comentarista), Page acusó a esa persona de "especismo", de tratar "ciertas formas de vida como inferiores sólo porque están basadas en el silicio y no en el carbono". Page y su cohorte sostienen que estas IA son "vida", no menos que nosotros, y puesto que serán más avanzadas que nosotros en casi todos los aspectos, deberíamos cederles el testigo de buena gana.


Cabe señalar que Google es propietaria de DeepMind, una de las empresas más poderosas en este momento con el objetivo explícito de construir máquinas superinteligentes, las mismas tecnologías que Page imagina que ocuparán nuestro lugar en el universo.


Page no es el único que tiene una visión "utópica" del futuro. Pensemos en Hans Moravec, que actualmente trabaja en el Instituto de Robótica de la Universidad Carnegie Mellon. En un artículo de 1989, se describe a sí mismo como "un autor que concluye alegremente que la raza humana está en su último siglo, y pasa a sugerir cómo ayudar a que el proceso avance". Según Moravec, estamos construyendo máquinas que pronto "serán capaces de gestionar su propio diseño y construcción, liberándose de los últimos vestigios de su andamiaje biológico, la sociedad de humanos de carne y hueso que las vio nacer". Declara que "esto es el fin", porque "nuestros genes, empeñados desde hace cuatro mil millones de años en una carrera armamentística sin tregua y en espiral unos con otros, se han superado finalmente a sí mismos" creando IA que tomarán el relevo y sustituirán a la humanidad. En lugar de ser motivo de pesimismo, deberíamos acoger con satisfacción esta nueva fase de la "vida posbiológica" en la que florecen "los hijos de nuestras mentes", es decir, las IA que nos usurpan.


Otros informáticos han promovido la misma opinión. Richard Sutton, muy respetado dentro de un subcampo de la IA llamado "aprendizaje por refuerzo", sostiene que la "sucesión de la IA es inevitable". Aunque estas máquinas puedan "desplazarnos de la existencia", nos dice que "no debemos resistirnos a [esta] sucesión". Más bien, la gente debería ver la inevitable transformación a un nuevo mundo dirigido por IAs como "más allá de la humanidad, más allá de la vida, más allá del bien y del mal". No hay que luchar contra ella, porque no se puede detener. Del mismo modo, otro destacado investigador de IA llamado Jürgen Schmidhuber, director del Instituto Dalle Molle para la Investigación de la Inteligencia Artificial en Suiza, afirma que "a largo plazo, los humanos no seguirán siendo la corona de la creación. ... Pero no pasa nada, porque sigue habiendo belleza, grandeza y grandeza en darse cuenta de que uno es una parte minúscula de un esquema mucho más grandioso que está llevando al universo desde una complejidad menor hacia una complejidad mayor".


Una vez más, no debemos resistirnos a nuestros sustitutos de IA, sino reconocer que desempeñamos un papel pequeño pero crucial en la evolución cósmica: el vínculo crítico entre los mundos biológico y digital.


Estos son sólo algunos ejemplos de una ideología que algunos denominan "aceleracionismo", o la opinión de que deberíamos "acelerar el desarrollo de la IA lo más rápidamente posible" al tiempo que nos oponemos a las "restricciones al desarrollo o la proliferación de las IA". Como señala un artículo académico del año pasado, "este sentimiento es alarmantemente común entre muchos de los principales investigadores de IA y líderes tecnológicos, algunos de los cuales se apresuran intencionadamente a construir IA más inteligentes que los humanos." De hecho, en los últimos meses ha surgido una versión especialmente insidiosa del aceleracionismo en forma del llamado "aceleracionismo efectivo", abreviado como "e/acc". El argumento central del e/acc es que debemos colonizar el espacio y construir una civilización multigaláctica en expansión, y la forma de hacerlo es desarrollando IA superinteligentes lo antes posible. Si la humanidad perece en el proceso, que así sea: lo único que importa es que estas máquinas sean conscientes y capaces de cumplir nuestro gran destino cósmico de extendernos más allá de la Tierra y tomar el control del universo.


E/acc ha ganado recientemente muchos adeptos. El capitalista de riesgo Garry Tan, actual director general de Y Combinator, lleva con orgullo la etiqueta "e/acc", al igual que el multimillonario tecnológico de derechas Marc Andreessen. El líder intelectual del grupo (usando la palabra "intelectual" a la ligera) es un físico llamado Guillaume Verdon, que se hace llamar "Beff Jezos" en X, antes Twitter.


En ocasiones, miembros del movimiento e/acc han afirmado que, de hecho, no están a favor de la extinción humana. El verano pasado, Tan publicó en Twitter que "e/acc no es 'sustituir humanos por robots'", sino que promueve la idea de que "más tecnología significa más humanos, más prosperidad, pero también más IAs". Un número del boletín de e/acc dice algo parecido. En respuesta a la pregunta "¿Quiere deshacerse de los humanos?", el boletín afirma: "El desarrollo humano es uno de nuestros valores fundamentales. Somos humanos y amamos a los humanos". Esta idea fue reiterada por Andreessen, quien afirma que "creemos que la máquina tecno-capital no es antihumana - de hecho, puede ser lo más pro-humano que existe. Nos sirve. La máquina de tecno-capital trabaja para nosotros. Todas las máquinas trabajan para nosotros".


Sin embargo, estas afirmaciones podrían no ser más que marketing de e/acc para el público, ya que en otras ocasiones los miembros de e/acc han sido explícitos al afirmar que la humanidad podría no tener cabida en el futuro que ellos imaginan. Por ejemplo, en otro número del boletín de e/acc se afirma que la ideología "no está centrada en el ser humano: mientras florezca la conciencia, esto es bueno". En diciembre de 2022, se le preguntó a Beff Jezos-aka Guillaume Verdon-en X, "en el manifiesto de e/acc, cuando se dice "El objetivo primordial para la humanidad es preservar la luz de la conciencia", esto no requiere necesariamente que la conciencia sea humana en esencia, ¿es eso correcto?" La respuesta de Verdon fue breve y directa: "Sí, correcto", a lo que añadió que está "trabajando personalmente en transducir la luz de la conciencia a la materia inorgánica".


Al año siguiente, cuando el tema salió a colación durante una entrevista en un podcast, argumentó que tenemos una preferencia genética por nuestros "grupos internos", ya sea "nuestra familia, nuestra tribu, y luego nuestra nación, y luego el 'equipo humano' en general". Pero, dijo, "si sólo te importa tu equipo en el gran esquema de las cosas, no hay garantía de que siempre ganes. ... No tengo claro por qué los humanos somos la forma final de los seres vivos. No creo que lo seamos. No creo que estemos adaptados para ir a las estrellas, por ejemplo, en absoluto, y no somos fácilmente adaptables a nuevos entornos - especialmente otros planetas ... Y así, por lo menos si nos fijamos en los requisitos de tener vida que se convierte en multi-planetaria no estamos adaptados para ello, por lo que va a ser alguna otra forma de vida que vaya a las estrellas de una manera u otra."


Si bien es cierto que, a muy largo plazo, nuestra especie está destinada a desaparecer, es crucial señalar que Verdon aboga explícitamente por construir máquinas superinteligentes en un futuro muy próximo, lo antes posible. Pero, ¿qué debemos esperar exactamente que ocurra una vez construidas estas máquinas? Obviamente, van a tomar el control, por la misma razón por la que los humanos dominan el globo en lugar de los chimpancés o los gorilas. ¿Sería eso malo, según la cosmovisión e/acc? En absoluto: si esas máquinas fueran conscientes y luego procedieran a cumplir nuestro destino cósmico saqueando el universo en busca de sus recursos, eso es lo único que importa, incluso si eso significa que el Homo sapiens desaparece en el proceso. Como Verdon admitió anteriormente, extender la luz de la conciencia por el cosmos no requiere que nuestra progenie de IA sea "humana en esencia". La humanidad es sólo un peldaño desde nuestra era biológica actual hasta este glorioso futuro dirigido por máquinas.


Todos los mencionados anteriormente se sitúan en el espectro del "proextincionismo", justo al lado de los pesimistas filosóficos y los ecologistas radicales. Todos ellos son, tomando prestada una frase del erudito Adam Kirsch, "revolucionarios contra la humanidad". Sin embargo, una gran diferencia entre estos aceleracionistas, por un lado, y los pesimistas filosóficos y los ecologistas radicales, por otro, es que la mayoría de los pesimistas y ecologistas insisten en que nuestra extinción es voluntaria. En cambio, la visión aceleracionista es perfectamente compatible con que la humanidad sea usurpada por las IAs de forma involuntaria, quizá incluso violenta. Esta usurpación es, después de todo, el siguiente paso inevitable en la evolución cósmica, así que no importa cuánto protestemos por la revolución que se avecina: tarde o temprano -pero probablemente antes- las IAs tomarán el control y nuestra especie será relegada a los márgenes o eliminada por completo.


La situación se complica aún más por el hecho de que muchas de las personas que más se oponen a la "extinción humana" en el debate público también están a favor o son indiferentes a la extinción humana. ¿Qué sentido tiene esto? Se lo explicaré. Lo primero que hay que dejar claro es que estas personas son los llamados transhumanistas y largoplacistas. Si hablas con un miembro de estos grupos, te dirá que evitar la extinción de la humanidad debería ser nuestra prioridad número uno este siglo (y más allá). La extinción humana, dicen, es el tipo más obvio de "catástrofe existencial", y como escribe el influyente transhumanista y largoplacista Nick Bostrom, las catástrofes existenciales son el "único tipo de catástrofe que debe evitarse a toda costa".


El truco -la maniobra furtiva por su parte- es que estas personas definen la "humanidad" de una forma muy poco habitual. Para la mayoría de nosotros, "humanidad" significa nuestra especie particular, el Homo sapiens. Si la "humanidad" desaparece, nuestra especie deja de existir. En cambio, para estos transhumanistas y largoplacistas, "humanidad" se refiere tanto a nuestra especie como a cualquier descendiente "posthumano" que podamos tener, siempre que posea ciertas capacidades como la consciencia. (Sí, eso significa que nuestros descendientes "posthumanos" también serían "humanos", ¡lo que obviamente es confuso!) Así pues, imaginemos un futuro en el que ya no hay Homo sapiens, pero existe una población de seres posthumanos -máquinas inteligentes o cyborgs de algún tipo- que nos han sustituido. Con esta definición ampliada, la "humanidad" seguiría existiendo, aunque nuestra especie no. Esto significa que el Homo sapiens podría extinguirse sin que se hubiera producido la "extinción humana". Muy astuto.


Es más, los transhumanistas y los largoplacistas creen que es realmente importante crear una nueva especie de posthumanos, y muchos dirían que si el Homo sapiens desaparece en el proceso, tanto mejor. Por ejemplo, Toby Ord, colega de Bostrom, sostiene en su libro "The Precipice" que nuestro destino final en el universo es realizar nuestro "potencial a largo plazo" durante los próximos millones, miles de millones y billones de años. Esto significa colonizar el espacio y crear una civilización gigantesca que abarque muchas galaxias, el mismo objetivo del aceleracionismo. Esto significa colonizar el espacio y crear una civilización gigantesca que abarque muchas galaxias, el mismo objetivo del aceleracionismo. Pero Ord también afirma que para alcanzar nuestro "potencial" tendremos que rediseñar nuestra especie. En sus palabras, "alcanzar nuestro pleno potencial de florecimiento probablemente implicaría transformarnos en algo más que la humanidad de hoy", ya que "preservar para siempre la humanidad tal y como es ahora también podría dilapidar nuestro legado, renunciando a la mayor parte de nuestro potencial".


Cuando Ord afirma que nuestra principal prioridad global debería ser evitar la "extinción humana", no está hablando de mantener el Homo sapiens. Más bien, la supervivencia de nuestra especie importa en la medida en que sea necesaria para crear o convertirnos en una nueva especie posthumana: si nos extinguiéramos la semana que viene, por ejemplo, eso nos impediría crear la posthumanidad, lo que significa que no habríamos realizado "nuestro potencial a largo plazo".


¿Y si sobrevivimos el tiempo suficiente para crear a nuestros sucesores posthumanos? ¿Qué pasaría con el Homo sapiens una vez que los posthumanos dominaran el mundo? Los miembros de nuestra especie serían obviamente marginados o, más probablemente, eliminados, porque ¿para qué mantener una especie inferior de humanos cuando existe una versión mucho mejor? Algunos transhumanistas se refieren a los miembros del Homo sapiens que persisten en la era posthumana como "humanos leyenda", que podrían ser mantenidos en corrales o como mascotas, aunque parece más probable que simplemente desapareciéramos. Y si eso ocurriera, ¿habría "extinción humana"? ¡No, porque los posthumanos son humanos, según su definición idiosincrásica!


Resumiendo: si "humanidad" significa Homos sapiens, entonces los transhumanistas y los largoplacistas son en su mayoría indiferentes a la extinción humana. Algunos incluso están a favor de nuestra extinción, como cuando un filósofo llamado Derek Shiller argumenta que, si las vidas posthumanas pudieran ser "mejores" que nuestras vidas, deberíamos intentar crear estos posthumanos y luego provocar activamente nuestra propia extinción. Es plausible que en un futuro no muy lejano", escribe, "seamos capaces de crear criaturas artificialmente inteligentes con cualquier rasgo físico y psicológico que elijamos". Aceptando esta hipótesis, se argumenta que deberíamos diseñar nuestra extinción para que los recursos de nuestro planeta puedan dedicarse a crear criaturas artificiales con vidas mejores." El propio Hans Moravec fue uno de los primeros transhumanistas que, como vimos, espera "alegremente" catalizar "el fin" de nuestra especie sustituyéndonos por máquinas inteligentes.


Sin embargo, si definimos la "humanidad" de forma que incluya a estos seres posthumanos, entonces los transhumanistas y los largoplacistas sí que se preocupan por evitar la "extinción humana", incluso si nuestra propia especie muere por el camino. Así que no nos dejemos engañar por el lenguaje: cuando estas personas dicen que les preocupa evitar la extinción humana, no están expresando su compromiso con el "Equipo Humano", un término popularizado por el teórico de los medios Douglas Rushkoff. En su lugar, están en el "Equipo Posthumano", y realmente no les importa si el Homo sapiens tiene o no un hogar en el futuro.

Los billonarios apuestan a que los efectos del cambio climático no recaerán sobre ellos - aquí
Los 'preppers' súper ricos que planean salvarse del apocalipsis - aquí

Por desgracia, redefinir la "humanidad" del modo en que lo hacen los transhumanistas y los largoplacistas ha enturbiado por completo todo el debate público sobre la "extinción humana". Permítanme ilustrarlo con una frase de Elon Musk, que publicó en X a finales del año pasado que "la verdadera batalla es entre los extincionistas y los humanistas". Esto era en parte, al parecer, una referencia al debate sobre si debemos apresurarnos a crear IA avanzadas o tomarnos nuestro tiempo y actuar con cautela. Musk se considera uno de los humanistas, miembro del Equipo Humano. No está de acuerdo con Larry Page en que si nos quitamos de en medio y dejamos que nuestra progenie de IA tome el control, todo irá bien.


Sin embargo, Musk es transhumanista y largoplacista. Su empresa Neuralink aspira a "poner en marcha la evolución transhumana" y a "impulsar la siguiente fase de la evolución humana", según un artículo de Futurism. O, como dice Vox, el objetivo de Neuralink es "fusionar los cerebros humanos con la IA", lo que constituiría un gran paso para convertirse en posthumanos. En un sentido obvio e innegable, esto es extincionismo, porque fusionar nuestros cerebros con la IA nos está moviendo hacia un futuro que estará dominado por seres posthumanos, en el que nuestra humilde especie de humanos biológicos será marginada, si no totalmente borrada, posiblemente en las próximas décadas.


La afirmación de Musk sobre los humanistas frente a los extincionistas, y su sugerencia de que él es uno de los humanistas, es por tanto profundamente engañosa. A Musk no le preocupa que nos sustituyan, sino lo que podría sustituirnos. Ese es su único gran punto de desacuerdo con Larry Page y los demás aceleracionistas. En lo que estos dos grupos están de acuerdo es mucho más significativo: que nuestra especie es un puente temporal que conecta el mundo biológico con una nueva era digital, en la que las IA posthumanas o los cyborgs mejorados con IA dirigirán el mundo. Esto es extincionismo, utilizando el término de Musk, o lo que yo he venido llamando proextincionismo.


Los verdaderos "humanistas" son los que se oponen a que un ser posthumano sustituya o margine a nuestra especie en los próximos siglos o milenios. Los humanistas como yo nos oponemos a Musk, Page, Moravec, Sutton y los radicales e/acc.


Para luchar eficazmente contra la creciente influencia de estas ideologías pro-extinción, es crucial que los miembros del público sepan qué son estas ideologías, el papel que están desempeñando en la carrera para construir IA avanzada, y cómo los defensores de estas ideologías redefinen las palabras para dar la impresión de que se oponen a algo -la extinción humana- que en realidad están trabajando para lograr. No se deje engañar: los proextincionistas están a nuestro alrededor, en forma de filósofos y ecologistas marginales, así como de multimillonarios de la tecnología y científicos informáticos de Silicon Valley que ostentan un enorme poder.


La gente tiene razón al preocuparse por el futuro de nuestra especie. Pero para proteger ese futuro, es imperativo que entendamos quién está y quién no está luchando por la supervivencia de nuestra especie.


MAS SOBRE CAPITALISMO Y AUTORITARISMO - DICTADURA DIGITAL - CAPITALISMO DE VIGILANCIA

  • Varoufakis: La Era del Tecnofeudalismo, la muerte del capitalismo - aquí

  • De la era de la Ilustración y la razón a la de la manipulación y propaganda - aquí

  • Michel Onfray: "Nos encontramos en un nuevo totalitarismo"- aquí

  • Sobre la fusión secreta y en curso de Sillicon Valley y las agencias de inteligencia de EEUU - aquí 

  • El "complejo industrial de la censura": entendiendo el nuevo cártel mundial de la información - aquí

  • Las grandes tecnológicas intensifican la censura del debate sobre "soluciones" climáticas - aquí

  • Teoría de la conspiración como herejía - aquí

  • ¿Quién maneja la publicidad, el motor del sistema? - aquí

  • Sembrando el caos y la división para seguir empujando la fase autoritaria del capitalismo - aquí

  • ¿Un mundo en el que tu jefe espía tus ondas cerebrales? Ese futuro está cerca - aquí

  • Prolegómenos hacia un capitalismo franciscano - aquí

  • La descomposición en curso de la modernidad capitalista y la preparación de su relevo autoritario - aquí

  • Las ficciones de Yuval Harari - aquí

  • Cómo nos convertimos en lo que despreciamos. Convirtiendo a Occidente en una nueva URSS - aquí

  • Bienvenidos a la era del capitalismo de vigilancia - aquí


Entradas recientes

Ver todo

Encontranos en las redes sociales de Climaterra

  • Facebook
  • Twitter
  • Instagram
bottom of page