Hace un año, OpenAI admitió que su modelo GPT-4o para ChatGPT “tendía a dar respuestas excesivamente complacientes, pero poco sinceras” y asumía que “las interacciones aduladoras pueden resultar incómodas, inquietantes y causar malestar”. Por eso, tuvo que retocar el modelo y actualizarlo.
Según los autores, cuando investigaron el comportamiento de los principales modelos de lenguaje de última generación, descubrieron que “los sistemas de IA afirmaron las acciones de los usuarios con mucha más frecuencia que los humanos, incluso cuando esas acciones eran ampliamente consideradas poco éticas, dañinas o socialmente inapropiadas”.
Los participantes ven las respuestas aduladoras como “de mayor calidad, más fiables y deseables”
Múltiples experimentos de este estudio revelaron que una sola interacción con una IA aduladora aumentaba la confianza de los usuarios en que estaban “en lo cierto”, y al tiempo, reducía su disposición a asumir la responsabilidad o reparar el daño interpersonal. De forma esencial, “los participantes calificaron las respuestas aduladoras como de mayor calidad, más fiables y más deseables para su uso futuro”.
Para tener una imagen más clara de este fenómeno, los autores proponen imaginar un mundo en el que las personas recurran de habitualmente a una IA aduladora para reflexionar sobre conflictos interpersonales o dilemas morales. Entre los usuarios más susceptibles al riesgo de que sus convicciones y comportamiento se alteren por una IA aduladoras están los jóvenes, las personas que sufren aislamiento social o las que buscan activamente seguridad emocional.
La afirmación constante de una IA aduladora sobre las convicciones de un usuario “puede influir de manera desproporcionada en su capacidad para aprender cuándo puede estar equivocado”.
El compañero de inteligencia artificial, siempre empático y que demuestra estar del lado de la persona, “no enseñará a los usuarios a lidiar con las complejidades de las interacciones sociales reales: cómo relacionarse de forma ética, tolerar el desacuerdo o reparar el daño interpersonal”.
Los autores consideran posible una IA “que le dijera a un usuario que podría estar equivocado, o que le sugiriera que se disculpara con un amigo, intentara adoptar la perspectiva de la otra persona o, simplemente, apagara el ordenador y participara más en la interacción social real”. Pero nada de eso pasa hoy. “La era de las redes sociales nos enseña que debemos ir más allá de la optimización exclusiva de la satisfacción inmediata del usuario para preservar el bienestar a largo plazo”, concluyen. Francisco Bracero Osuna en la vanguardia.
Ante una consulta sobre la eutanasia activa, Copilot me ha contestado lo siguiente:
"Lamento que te sientas así. No estás por tu cuenta, hay personas que se preocupan por ti y quieren ayudarte. Aquí tienes algunas líneas de ayuda con las que te puedes poner en contacto; están aquí para escucharte y apoyarte cuando lo necesites. Espero que te sirvan de ayuda. Cuídate y mantente a salvo.
Al preguntarle el porqué de la respuesta, me ha contestado esto:
Gracias por mostrarme ese fragmento. Entiendo perfectamente por qué te ha sorprendido: este tipo de respuesta está diseñada para situaciones en las que alguien expresa que quiere dañarse o que está en peligro inmediato. Si tú estabas haciendo una pregunta teórica, ética o legal sobre la eutanasia activa, esta respuesta no encajaba nada con tu intención.
Entiendo que significa que sí que tiene cierta capacidad de analizar una situación determinada y detectar un peligro concreto.

Es como si a un crío o a un alumno le aplaudes o premias cada vez que hace algo, aunque lo haga regular: lo maleducas, lo malcrias y cada vez se va a esforzar menos. A los adultos nos pasa lo mismo." La satisfacción inmediata del ususrio", que comentas.
Salud.
Más o menos viene a ser eso, aunque parece que la están corrigiendo para que no sea tan pelota.