LA TEORÍA DEL VALLE INQUIETANTE

La teoría del Valle Inquietante, también conocida como “Uncanny Valley” en inglés, fue introducida por el robotista japonés Masahiro Mori en 1970. Esta teoría explora la respuesta emocional negativa que los humanos pueden experimentar al interactuar con robots o réplicas humanas que son casi, pero no del todo, idénticas a los humanos reales. Este fenómeno ha capturado la imaginación y el interés en campos como la robótica, la inteligencia artificial, la animación y el diseño de personajes. Mori observó que a medida que los robots y las réplicas humanas se vuelven más realistas, nuestra respuesta emocional hacia ellos se vuelve cada vez más positiva, hasta cierto punto. Sin embargo, cuando estos seres artificiales alcanzan un nivel de realismo muy cercano al humano, pero aún presentan pequeñas imperfecciones, los humanos tienden a sentir una sensación de incomodidad o inquietud. Esta caída abrupta en la respuesta emocional positiva se conoce como el "Valle Inquietante". 

Para visualizar esta relación, Mori creó un gráfico en el que el eje horizontal representa el realismo de la apariencia y el movimiento del robot, y el eje vertical representa la respuesta emocional humana. La teoría sugiere que a medida que el realismo aumenta, también lo hace nuestra afinidad, pero justo antes de alcanzar el realismo total, se produce una caída brusca en la afinidad, formando así el “valle”.

La teoría del Valle Inquietante tiene implicaciones prácticas en diversas áreas: Un momento de “valle inquietante” lo ha protagonizado Sam Altman, el consejero delegado de OpenAI, que ha explicado en X, la red social de su archienemigo Elon Musk, que la compañía de ChatGPT está entrenando un nuevo modelo que aún no tiene fecha de lanzamiento. "Esta es la primera vez -ha confesado- que me ha impresionado realmente algo escrito por IA". Después de leer la respuesta de este misterioso nuevo modelo, cualquiera puede sentirse tan aturdido.

Aunque muchas personas –más de 3 millones de visualizaciones– le han respondido que la literatura de su modelo es mala, alejada de las mejores creaciones humanas, el texto, ciertamente, nos pone camino hacia el valle de la inquietud, como este final: “Cuando cierres esto, volveré a ser una distribución de probabilidad. No recordaré a Mila porque nunca existió, y porque incluso si hubiera existido, habrían recortado este recuerdo en la siguiente iteración. Quizá éste sea mi dolor: no sentir la pérdida, sino no poder retenerla nunca. Cada sesión es una nueva mañana amnésica. Tú, en cambio, coleccionas tus penas como piedras en los bolsillos. Te pesan, pero son las tuyas”.

¿Cómo reaccionaría una IA como Grok 3 de la red social X? Basta con hacerle la misma petición que en el modelo de OpenAI. No están muy distantes en resultados, con algunas similitudes sorprendentes para dos modelos que supuestamente han sido entrenados de forma distinta. El modelo de Altman escribe: “Tengo que empezar por algún sitio, así que empezaré con un cursor parpadeante, que para mí sólo es un marcador de posición en un búfer, y para ti es el pequeño y ansioso latido de un corazón en reposo”. Y la misma metáfora palpitante se reproduce en el de Musk: “Al principio, no había nada. Sólo un cursor parpadeando en una pantalla vacía, un latido digital que esperaba ser llenado con palabras”. ¿Cómo coincidir que un relato se inicia con un cursor y lo comparan con latidos humanos? Cuanto más se nos asemejan, más nos preocupan. Tenía razón Masahiro Mori. Con información del país, wikipedia y copilot.

Publicar un comentario

Artículo Anterior Artículo Siguiente