El líder de OpenAI, Sam Altman, abre las expectativas de una superinteligencia con un enigmático mensaje. OpenAI despierta expectativas sobre si estamos a las puertas de una inteligencia artificial que desborde todas las capacidades humanas: Grok. Francesc Bracero en la vanguardia

Empieza fuerte el año. Un misterioso mensaje de Sam Altman, consejero delegado de OpenA, ha abierto toda serie de especulaciones sobre la llegada de una superinteligencia en la compañía de ChatGPT. El final de año ya estuvo marcado por el anuncio de que a partir de enero veremos en acción al menos la versión mini de su nuevo modelo o3, del que afirma que rebasa la capacidad de los expertos humanos en materias como las matemáticas y las ciencias. Pero la entrada en el 2025 está definida por un concepto que nos recuerda las películas distópicas sobre IA. El pasado sábado Altman publicó el siguiente enigmático tuit: “siempre quise escribir una historia de seis palabras (en inglés). Aquí está: cerca de la singularidad; no está claro de qué lado”.

La singularidad fue formulada en un plano teórico por el matemático John von Neumann, en 1950, pero hay aproximaciones más actuales como la del científico de la computación Ray Kurzweil —que trabaja para Google—, que en el 2005 escribió el libro La singularidad está cerca. Cuando los humanos trasciendan la biología, en el que toma el concepto de un artículo de 1993 del matemático Vernor Vinge en la Universidad de San Diego State titulado La singularidad tecnológica que viene. Cómo sobrevivir a la era post humana. El año pasado, Kurzweil publicó La singularidad está más cerca, un libro en el que fija la fecha de la llegada de esa IA para el 2045. Altman está dispuesto a chafarle el vaticinio. O eso parece.

Si le preguntamos por ese concepto a ChatGPT —puede dar respuestas diferentes e incluso contradictorias en función del interlocutor—, el modelo de IA de OpenAI más avanzado disponible, o1, señala que “la singularidad en el contexto de la inteligencia artificial (IA) se refiere a una hipótesis o escenario futuro en el que las máquinas superan la inteligencia humana de manera irreversible, provocando cambios acelerados que transforman la civilización de forma impredecible”. La IA añade que a menudo ese teórico hito “se describe como un ‘punto de no retorno’, a partir del cual los sistemas de IA podrían mejorar su propio diseño y capacidades de forma autónoma, incrementando su inteligencia a un ritmo exponencial o incluso mayor”.

Lo que nos dice de una forma algo inquietante ChatGPT es que esa IA que hipotéticamente alcance la singularidad podría, por ejemplo, fabricar versiones mejoradas de sí misma e incluso, mediante el control de sistemas robóticos conectados, fabricar máquinas bajo sus propias órdenes. Todo recuerda, una vez más, a la serie de películas Terminator y la inteligencia artificial Skynet, que toma conciencia de sí misma en un momento determinado y decide prescindir de la Humanidad porque no está alineada con sus propios intereses. No existe, de momento, ninguna evidencia de que eso pueda pasar, pero tampoco ninguna garantía de que no pueda ocurrir.

Las estrategias que puede utiliza OpenAI —y otras compañías— para evitar que una superinteligencia se les descontrole algún día se basan en el control humano directo. En primer lugar, alineando los objetivos de la IA con los de los seres humanos, de forma que siempre busque lo que más beneficie a las personas, aunque esos principios tienen que estar bien definidos. Un entrenamiento de una superinteligencia así debería contar con la supervisión constante de personas, de forma que se pueda ir moldeando sus respuestas y decisiones. Como sistema de seguridad, debería haber una forma de desconexión y las primeras pruebas deberían hacerse en un entorno seguro cerrado (el concepto de sandbox o caja de arena).

En otro estrato queda la gobernanza. Excepto en Europa, no existe un consenso mundial sobre cómo regular los sistemas de inteligencia artificial para hacerlos seguros. La legislación europea se basa en una escala de riesgos. La de Estados Unidos es una disposición del presidente en funciones Joe Biden, que en unos días pasará a ser derogada por su sucesor en el cargo, Donald Trump. La desregulación no sólo afectará a su país, porque si cualquiera puede crear y utilizar sistemas de IA sin control alguno, ese país será el refugio de quienes quieran actuar sin la vigilancia de la administración. No hay más que ver la falta de filtros en las imágenes que genera Grok, la IA de la red social X de Elon Musk, con un futuro papel decisivo en la administración estadounidense. Esa falta de control alimentará otra mala idea (una más) de Mark Zuckerberg. El penúltimo anuncio de Meta —ayer se cargó el sistema de verificación de contenidos—es que introducirá usuarios virtuales creados mediante inteligencia artificial dentro de sus redes sociales. El objetivo es que esos usuarios no humanos consigan que los humanos se enganchen más —obviamente, les parece poco— a plataformas como Facebook, Instagram o Threads y que pasen más tiempo, generen más datos y consuman más publicidad. Lo que puede pasar con eso es un misterio todavía, pero dado el historial de Facebook/Meta, preparémonos para nada bueno. Lo que nos queda por saber es cuándo va a llegar esa singularidad y qué significan exactamente las palabras de Altman. A última hora del domingo, el líder de OpenAI publicó un artículo en su blog personal para recordar los dos años de ChatGPT. En el texto, en el que repasa incluso el fin de semana en el que estuvo despedido antes de volver a ser contratado de nuevo, apunta a una gobernanza sobre una inteligencia artificial general (AGI) que no se descontrole: “agradezco el modo en que tantas personas han trabajado juntas para construir un sistema de gobierno más sólido para OpenAI que nos permita perseguir nuestra misión de garantizar que la AGI beneficie a toda la humanidad”.

“Ahora estamos seguros de que sabemos cómo construir AGI tal y como la hemos entendido tradicionalmente”, afirma. Y la constatación de que espera lograrlo: “estamos empezando a apuntar más allá, hacia la superinteligencia en el verdadero sentido de la palabra”. Asegura que nos espera un “glorioso futuro”. “Con la superinteligencia —explica—, podemos hacer cualquier cosa. Las herramientas superinteligentes podrían acelerar masivamente el descubrimiento científico y la innovación mucho más allá de lo que somos capaces de hacer por nosotros mismos, y a su vez aumentar masivamente la abundancia y la prosperidad”. Amén.