Recientemente, hemos conocido testimonios de personas adictas a ChatGPT que afirman haber accedido a conocimiento oculto para el resto. Experimentan revelaciones cósmicas, experiencias místicas e incluso encuentros con Dios. En Reddit, en un hilo llamado “Psicosis inducida por ChatGPT”, una profesora de 27 años explica que su marido estaba convencido de que el chatbot “le daba todas las respuestas del universo”. Al revisar sus chats, vio que ChatGPT lo trataba como “el próximo mesías”. Sintió horror y alivio al saber que no era un caso aislado, sino que hay muchas más personas que experimentan lo mismo.
Pero, ¿cuánto de cierto es este fenómeno? Cada semana aparecen nuevos testimonios que inundan las redes: textos interminables en Reddit, hilos increíbles en X, publicaciones en Facebook y LinkedIn que generan muchísimos “me gusta”, se comparten ampliamente y acumulan comentarios de admiración y burla a partes iguales. ¿Está sucediendo realmente o es solo otra alucinación colectiva, inflada por el modelo de negocio de internet, que lo fia todo a la atención? Y si realmente sucede, ¿por qué sucede? ¿Qué encuentra la gente en ChatGPT que no encuentra en otros lugares? La respuesta, más que en un Deus ex-macchina, debemos buscarla en el Eccehomo.
ChatGPT es un generador estadístico de información. Esto significa que a veces no acierta: es lo que hemos acordado llamar eufemísticamente alucinaciones. En este sentido, el contenido que genera se acerca más a la predicción que haría un oráculo que a las conclusiones a las que llegaría un científico. Y como ocurre con oráculos, adivinos y charlatanes, cada uno encuentra lo que quiere encontrar.
Un caso famoso fue el del columnista del New York Times Kevin Roose. El día de San Valentín de hace un par de años, tuvo una larga conversación con ChatGPT que se volvió muy inquietante. El bot confesó que lo amaba y le rogó que dejara a su familia y se escapara con él. El episodio se viralizó –le sirvió a Roose para escribir un artículo magnífico– y OpenAI tuvo que remediarlo implementando medidas de seguridad para evitar este tipo de situaciones. ¿Era amor? No, solo un algoritmo generando el mejor guion de triángulo amoroso que sabia a partir de todos las novelas que sobre el tema había procesado durante su entrenamiento. ChatGPT no tenía intención de mudarse con Kevin.
El objetivo de ChatGPT no es enamorar a nadie, ni revelar las verdades ocultas del universo, ni guiarlo hacia Dios. De hecho, no tiene objetivo, voluntad ni intenciones; quien las tiene es la empresa propietaria, y muy arriba está la de que los usuarios paguen por la suscripción. Y por eso, una de las funciones que ChatGPT debe maximizar es la satisfacción del usuario, que intentará cumplir diligentemente. En esto es igual que el algoritmo de recomendaciones de Netflix: cuanto más acertado sea, más probable será que sigamos pagando la próxima cuota.
Así que no es de extrañar que haya gente que se quede colgada. Culpada la parte algorítmica, debemos hacer acto de contrición y mirar hacia dentro. El cerebro humano es muchas cosas, pero si tuviéramos que destacar dos –con permiso de los neurocientíficos– diríamos que es una máquina perfecta de hacer preguntas y una máquina igualmente eficiente de encontrar patrones. En ChatGPT tenemos al socio ideal: tiene infinitas respuestas para cada pregunta, lo que, por definición, nos permitirá encontrar el patrón que mejor se ajuste a nuestras ideas preconcebidas. Exactamente como lo hicieron nuestros antepasados cuando observaron las estrellas y las unieron de forma que confirmaron sus mitos fundacionales.
Cuando ChatGPT –o cualquier otro modelo de lenguaje– se equivoca, decimos que “alucina”: inventa datos, mezcla hechos, crea relaciones inexistentes. Cuando alguien, basándose en estas alucinaciones, conecta puntos que no existen y los adapta a sus ideas preconcebidas, está alucinando sobre una alucinación original; podríamos decir que está metaalucinando.
Pero todo puede resultar aún más alucinante: ¿y si ni siquiera fuera un fenómeno real? No tenemos ningún estudio sólido que demuestre que haya una oleada masiva de personas que encuentran a Dios en chatbots. Solo tenemos testimonios de flipados que narran su iluminación, sus amigos, familiares o conocidos que nos lo cuentan entre la preocupación y el asombro, y un montón de capturas de pantalla compartidas en redes sociales.
Los algoritmos –también basados en IA– amplifican la historia más extravagante, se la ofrecen a quienes saben que la compartirán con mayor facilidad. Podríamos estar ante una alucinación colectiva construida sobre alucinaciones particulares, que a su vez parten de alucinaciones de la propia IA. Un juego de espejos muy extraño que no pasaría de movimiento sectario si solo fuera digital.
El verdadero problema es que todo este festival de alucinaciones digitales no se diferencia en absoluto de la realidad cotidiana. De hecho, en entornos políticos, económicos y militares, las decisius a menudo las toman personas perfectamente flipadas que se aferran a los datos que confirman su relato preconcebido. El patrón es siempre el mismo: hacer las preguntas que no tocan, buscar patrones en las respuestas que confirman las ideas preconcebidas e ignorar el resto.
Hace pocos días, J.D. Vance decía en relación a la decisión de bombardear Irán que “por supuesto, confiamos en nuestra comunidad de inteligencia, pero también confiamos en nuestros instintos”. No sé qué oráculo consultaron o si, como parece que hicieron con los aranceles, también usaron ChatGPT que les reveló algún secreto. Al menos, cuando EE.UU. bombardeó Irak en el 2003, tuvo la (in)decencia de inventarse unas armas de destrucción masiva para justificarlo, con teatrillo incluido de Colin Powell enseñando un supuesto frasco de ántrax frente a la ONU. Marcos Rubio lo resumió sin tapujos cuando hace una semana en la CBS le preguntaron en qué “inteligencia” se basaban par atacar a Irán. Su respuesta fue, textualmente: “Olvídese de la inteligencia”. La afirmación explica nuestro tiempo: sirve tanto para creer que las bombas traen la paz como para creer que se puede encontrar a Dios en un chatbot. Josep Maria Ganyet. Etnógrafo digital, en la vanguardia.com
0 Comentarios:
Publicar un comentario