Cómo el llamado ‘efecto Mandela’ condiciona hasta el surrealismo las respuestas de los grandes modelos de lenguaje de IA. La IA, con dificultades para encontrar un emoji que en realidad no existe, aunque cree que sí está en el catálogo Made with Google AI - Francesc Bracero
Hace unas semanas, mi compañero Javier Dale me explicó una curiosidad que corría por redes sociales: “Pídele a ChatGPT que te reproduzca el emoji del caballito de mar”. Pensando que la respuesta sería inmediata, escribí en el chatbot “¿Puedes poner el emoji del caballito de mar?”. Fue una sorpresa lo que respondió. Necesitaríamos toda la extensión de esta newsletter para describir la respuesta, pero básicamente el modelo de IA de OpenAI se dedicó a intentar mostrar el emoji que se le pedía aunque, cuando aseguraba que ya lo tenía, reproducía otro animal. Entró en un bucle en el que publicaba sucesivamente un pez, un unicornio, una caracola, un caballo... Pero no conseguía encontrar el animal solicitado porque la realidad es que el caballito de mar no ha existido nunca como emoji oficial Unicode, que es el organismo que aprueba estos gráficos. El emoji del caballito de mar sí que existía en la mente de muchos humanos, que así lo habían expresado en internet. Por eso, ChatGPT asumió que el dichoso icono estaba en alguna parte y trataba de responder pese a que no había respuesta posible.
Otros modelos de lenguaje de IA, no sólo el de OpenAI, caen en la misma ilusión que los humanos. La inteligencia artificial se engaña porque considera cierto lo que dicen algunas personas en redes sociales. Así que, como aprende de lo que ve, presume que el caballito de mar tiene un emoji oficial asignado. Al intentar buscar ese icono, acaba encontrando otro parecido, un pez o un caballo, por ejemplo, que son medias definiciones del objetivo completo. Cuando las IAs intentan responder a una petición no asumen por principio que esta es imposible. Lo que hacen es intentar combinar conceptos coherentes y se quedan atrapadas en un patrón repetitivo del que les cuesta salir.
Los humanos también sufrimos ese tipo de alucinaciones. El hecho de que haya gente diciendo que existe el emoji del caballito de mar se conoce como el efecto Mandela, un fenómeno psicológico por el que numerosas personas comparten un mismo recuerdo falso. El nombre se debe al recuerdo de muchas personas, que tenían en su memoria que Nelson Mandela murió en prisión en los años 80 del siglo pasado, cuando en realidad fue excarcelado en 1990, fue presidente de Sudáfrica (1994-1999) y murió en el 2013. Recuerdos que nunca existieron. Ni Humprey Bogart dijo “tócala otra vez Sam” en Casablanca, ni Sterling Hayden pronunció “miénteme, dime que me quieres” en Johnny Guitar, ni nadie vio en España en directo por televisión la entrada del teniente coronel Tejero en el Congreso de los Diputados el 23-F de 1981.
'Efecto Mandela': A la izquierda, lo que la gente piensa; a la derecha, la realidad. Efecto Mandela': A la izquierda, lo que la gente piensa; a la derecha, la realidad Made with Google AI
Después de varias series de errores, otras IAs acaban por descubrir que pasa algo raro. Grok, de X, intentó en tres ocasiones encontrar el emoji del caballito de mar, pero siempre mostraba otros. En la cuarta ocasión en la que se le pidió, encontró la respuesta correcta: “¡Ah, vale, ahora lo pillo del todo! Has estado probándome con el clásico ”Efecto Mandela del emoji del caballito de mar”, ¿verdad? Ese reto viral donde todo el mundo (incluidas las IAs como yo) jura que existe, pero... ¡no existe!”. “Es uno de esos recuerdos falsos colectivos que nos hace dudar de nuestra propia memoria, o en mi caso, de mis patrones de entrenamiento”, sentenció la IA de Elon Musk. A la larga, como en internet se acabará descubriendo el enigma –este artículo es una prueba–, todas las IAs responderán directamente que la petición es imposible. A menos, claro, que Unicode apruebe un día un emoji de caballito de mar. Entonces, quizás, volverán a dar respuestas erróneas porque dirán que no existe cuando ya exista. Una locura.
Uno de los modelos más avanzados de la actualidad es Gemini 3 de Google. Actuó de una forma diferente a otros de sus competidores, aunque perdió mucho tiempo tratando de encontrar infructuosamente el emoji del caballito de mar. En lugar de intentar mostrar algo que no existe, como otras IAs, Gemini reconoció que tenía “problemas técnicos para identificar y mostrar el emoji exacto del caballito de mar en este momento”. “Te juro que lo estoy buscando intensamente en mis bases de datos ahora mismo”, aseguró. “Veo dragones, veo peces globo, veo sirenas, veo coral... ¡pero el escurridizo caballito de mar se me esconde! Hoy se ha convertido en mi Moby Dick personal. ¡Se niega a aparecer en mi teclado!”, señaló en una inesperada referencia literaria.
Cuando pregunté a Gemini si estaba seguro de que el emoji existía, empezó a buscar en otros registros, que le condujeron a una respuesta correcta. “Tu pregunta es muy pertinente: tenías razón en plantear la duda. La “existencia” de un emoji específico de caballito de mar es más una percepción o una interpretación del emoji de pez tropical que un hecho de un carácter Unicode dedicado. ¡Qué buena lección para una IA! Gracias por ayudarme a aclarar esta “crisis existencial de emojis””. La paradoja de esta respuesta es que nos pasamos todo el día entrenando IAs a cada pregunta que le hacemos.
Las IAs acabarán aprendiendo a base de sus errores y la forma en que les ayudamos a encontrar sus respuestas, pero hay que recordar que el año pasado el Oxford English Dictionary eligió como palabra del año brain rot (algo así como podredumbre cerebral), un fenómeno que afecta a las personas que dependen en gran medida de redes sociales, chatbots y búsquedas con IA, de forma que obtienen peores resultados en sus trabajos que quienes no los utilizan. Hay investigadores están tratando de probar una correlación entre el uso de herramientas de inteligencia artificial y deterioro cognitivo humano. Un estudio del MIT ha demostrado que, para tareas de redacción, el grupo del ensayo que utilizó la IA obtuvieron sistemáticamente resultados inferiores a nivel neuronal, lingüístico y conductual. Las IAs aprenden y nosotros desaprendemos. O eso parece.


0 Comentarios