El gran salto delante de la inteligencia artificial con el GPT-4 va camino de convertirse más en un riesgo que en un avance para la sociedad. En las últimas semanas, se ha pasado de la sorpresa agradable que aportan las grandes ventajas de la nueva tecnología a un creciente temor por la amenaza que supone por la pérdida de puestos de trabajo, la desinformación, la utilización armamentística o la facilidad para fomentar la ciberdelincuencia. Gobiernos y grandes corporaciones se han lanzado en tromba a experimentar con el nuevo juguete, pero también lo están haciendo toda clase de organizaciones con fines espurios. Los avances de la IA van tan rápido que un grupo de más de mil expertos de la inteligencia artificial, ejecutivos del sector y filósofos han firmado un manifiesto donde piden una pausa “inmediata” de seis meses para que dé tiempo a que puedan ser regulados. Entre los firmantes, referentes como Yuval Noah Harari, Elon Musk o Steve Wozniak.

Lo que piden los firmantes es que un grupo de expertos independientes desarrollen, implemente y auditen protocolos de seguridad para acotar su poder y que se creen organismos reguladores para poder castigar sus excesos. Si los gigantes tecnológicos tradicionales como Amazon, Google, Meta o Microsoft han sido tan difíciles de controlar por los gobiernos mundiales y disfrutan de una gran libertad para campar a sus anchas, no hace falta imaginar lo que podría suceder ahora con esta nueva aplicación.

Hace ya tiempo que diversos especialistas venían alertando de estos riesgos, pero es la primera vez que hay un manifiesto conjunto tan claro y directo. La influencia de este colectivo es grande, pero las posibilidades de que paren este proceso son limitadas. Es el eterno problema de querer poner puertas al campo. El uso del GPT-4 está disparado y, como informábamos este pasado domingo, la información empieza a ser la primera víctima por la fácil manipulación que se puede hacer de noticias, fotos o vídeos. A falta de una gobernanza mundial, cuesta pensar cómo se puede detener esta vorágine. Este manifiesto es una alerta mundial que debería ser escuchada. 

Me encanta, especialmente, una de las preguntas de la carta abierta: “¿Debemos arriesgarnos a perder el control de nuestra civilización?”. Otro chiste, tal vez. se pregunta Francesc Marc Álvaro, y añade. Esto del control de nuestra civilización tiene broma, a la luz de tantas cosas que ya sabemos. ¿Hablamos del cambio climático? ¿Hablamos de desigualdades? ¿Hablamos de manipulación genética? ¿Hablamos de Ana Obregón y los vientres de alquiler? ¿Hablamos de la dificultad de los jóvenes a la hora de mantener la atención y de concentrarse? ¿Hablamos de los alimentos procesados? ¿Hablamos de los populismos rampantes? ¿Hablamos de migraciones?

Podríamos abrir muchos debates sobre lo que algunos entienden por “nuestra civilización” sin mencionar lo más mínimo la IA. Pero el GPT-4 y otros sistemas de IA han hecho saltar unas alarmas que, habitualmente, no saltan. ¿Por qué? Porque podríamos entrar en una nueva época nunca vista en relación con la verdad, la mentira y el saber como forma de poder.

Si la posverdad implica que se borra la frontera entre la verdad y la falsedad a partir del imperio incesante de las emociones llevadas al límite, lo que nos espera cuesta imaginar. En el fondo, surge un terror atávico, ancestral, parecido al del hombre que, en el Paleolítico, empezaba el día buscando alimento, mientras intentaba evitar que un animal más fuerte, más rápido y más silencioso que él le convirtiera en el menú del mediodía . Con la IA desbordando nuestras vidas, es como si hubieran despertado millones de dinosaurios enloquecidos, sueltos por nuestras calles.

Las distopías de nuestra infancia han dejado de ser argumentos de ciencia ficción. La máquina fabricada por el hombre acababa siempre desafiando y suplantando (o esclavizando) a su creador. ¿El ordenador HAL 9000 está esperando en la esquina?, ¿Cuándo se rebelará Skynet?. No sé. Las incubadoras de Matrix me dan más miedo. No quito hierro al asunto, pero creo que sigue siendo más peligrosa la estupidez natural que la IA.