El transhumanismo –y su derivado extremo, el posthumanismo– consideran que la evolución darwiniana ha tocado techo y que el desarrollo exponencial de la inteligencia artificial –IA, a partir de ahora– no nos deja otra salida que integrarnos en la tecnología. “Es la convicción de que el ser humano está en el soporte inadecuado”, dice Antonio Diéguez, catedrático de Lógica y Filosofía de la Ciencia de la Universidad de Málaga. “Aristóteles se reiría de esto...”, añade. Diéguez es autor de Transhumanismo: la búsqueda tecnológica del mejoramiento humano (Herder, 2017), y sostiene que esta doctrina “tiene más base en la biotecnología que en la IA y en la robótica. Soy bastante escéptico, pero hay filósofos importante que se lo toman en serio”.
Muy probablemente no se hablaría en un aula magna universitaria de biohackers, de ciborgs o de cerebros volcados en un avatar digital después de la muerte si no fuera porque todo esto tiene un componente escatológico importante, no en el sentido excremental del término (aunque algo podría haber) sino en el filosófico. Se trata de la trascendencia.
“El transhumanismo es la nueva utopía del siglo XXI; viene a decir: vamos a cambiar la evolución”, dice un estudioso del tema, el urbanista Albert Cortina. Y observa que todo esto tiene detrás a las grandes corporaciones de Silicon Valley. En efecto, es muy posible que estas ideas no hubieran salido nunca de un ámbito ciberpunk si no fuera porque su gran apologeta es nada menos que el director de ingeniería de Google, Raymond Kurzweil, por más señas inventor (diseñó, siendo muy joven, una máquina lectora para ciegos), teórico visionario, un hombre empeñado en la prolongación de la vida, especialmente la suya propia.
Kurzweil, en La Singularidad está cerca: cuando los humanos trascienden la biología (Lola Books, 2012), publicado originalmente en el 2005, va un paso más allá del transhumanismo moderno formulado quince años antes por el filósofo futurista Max More (seudónimo del irlandés Max O’Connor que se traduce por Max Más), al afirmar que el desarrollo exponencial de la IA hará que para el año 2100 se alcance la “superinteligenc ia ”: cada nuevo cerebro artificial será capaz de diseñar otro aún más potente; éste hará lo mismo que el anterior, y así sucesivamente...
Algunos de los teóricos del transhumanismo, antiguos desarrolladores de IA hoy seriamente preocupados por su impacto, así como los a veces inefables biohackers de California exponen sus ideas en un libro de muy reciente publicación: Cómo ser una máquina, de Mark O’Connell (Capitán Swing, 2019). Incluido Max More, que parece hoy más interesado en la “extensión de la vida” (como Kurzweil) mediante la criogenización de cadáveres o de sus cabezas metidas en un tarro en espera de ser un día insertadas en un cuerpo artificial.
Los expertos le han dado vueltas a la idea de la Singularidad y han presentado todo tipo de hipótesis, algunas de ellas apocalípticas al mejor estilo de Terminator: esa “explosión de inteligencia” hará que los humanos acabemos siendo prescindibles; una IA fuerte hasta puede llegar a asesinarnos... ¿Exageran? Podría ser. Pero cuando tales vaticinios vienen de Steve Hawking –”El desarrollo de una inteligencia artificial completa podría significar el fin de la raza humana”, dijo en el 2014, cuatro años antes de fallecer– o de Elon Musk, una de las grandes personalidades del momento, es como para pensarlo. Musk no ha dejado de reiterar esa advertencia, pero apuesta porque el ser humano se imponga a las computadoras.
Si nos ponemos en el mejor de los mundos posibles, una comunión con la máquina, lo que tenemos delante por el momento es, en palabras de Albert Cortina, “un nuevo mesianismo, una pseudoreligión”, que vende una nueva forma de inmortalidad.
No hay que extrañarse entonces de que la teología cristiana lleve “años atenta a la inteligencia artificial”, según afirma el doctor en la materia, profesor de bioética en la Universitat Blanquerna e ingeniero químico además de sacerdote Juan Ramón La Parra. “Los trabajos en IA han contribuido al conócete a tí mismo” socrático, dice, pero “una IA fuerte –la Singularidad– y el transhumanismo corren el riesgo de rebajar al hombre. Los defensores de una IA fuerte parten de una base religiosa secularizada, apocalíptica. Pero ¿qué relato de salvación ofrece la IA en un escenario apocalíptico?”.
En el fondo Frankenstein fué el primer intento de transhumanismo literario, y es que el transhumanismo no deja de ser una variante del Hombre nuevo que perseguían los nazis y posteriormente el Che, y ni unos ni otros lo consiguieron, quizás porqué el hombre nuevo no és más que una utopia, mientras que el transhumanismo empieza a dejar de serlo. Con información de la vanguardia y filosof-ia.com
0 Comentarios