Google ha despedido a Blake Lemoine, que recientemente afirmó que su LaMDA o Modelo de Lenguaje para Aplicaciones de Diálogo -un chatbot de IA entrenado para generar un discurso similar al humano-, había adquirido sensibilidad o características similares a las de las personas. Inicialmente, la tecnológica había puesto a Lemoine en licencia administrativa pagada para violar su acuerdo de confidencialidad después de que contactara con miembros del gobierno estadounidense sobre sus preocupaciones sobre la IA.
Este trabajador, al conversar con LaMDA, descubrió que el sistema había desarrollado un sentido de autoconciencia sólido, expresando preocupación por la muerte, un deseo de protección y la convicción de que sentía emociones como la felicidad y la tristeza. Incluso llegó a decir que el chatbot como un amigo y que le pidió que contratara a un abogado. Básicamente, Lemoine considera que la IA tiene sus propios pensamientos y sentimientos por lo que no se limita a producir una conversación lo suficientemente realista para que lo parezca. Sin embargo, expertos en IA han explicado que en el punto de que existe la tecnología actual, es imposible que LaMDA tenga conciencia. Así también lo creen en Google.
De hecho, este sofisticado chatbot está pensado para seguir una conversación de forma natural, al igual que lo haría una persona. Esto no significa que pueda pensar, tener sentimientos o ser consciente de su existencia, como considera Lemoine. En este sentido, se ha pronunciado Brian Gabriel, portavoz de Google. El representante de la tecnológica ha dicho en The Washington Post y The Verge que la compañía encontró que las afirmaciones de Lemoine sobre LaMDA eran "totalmente infundadas" y que violó las directrices de la compañía, llegando a publicar sus conversaciones con el chatbot durante este junio, lo que ha llevado a su despido final.
LaMDA es una red neuronal artificial "profunda" que se dedica a crear robots de conversación para humanos. Sus futuras aplicaciones son diversas, desde ofrecer compañía a ancianos que estén solos o en residencias hasta mejorar los servicios de atención al cliente automatizados. Es una interfaz que muestra ser capaz de manifestar sensibilidad y fluidez en las conversaciones.
A través de la conversación, Lamoine llegó a la conclusión de que LaMDA es un ser sensible. En sus conversaciones, la IA ha expuesto comportamientos más filosóficos y sintientes, hablando sobre lo divino y lo humano. Tal y como han mostrado tantas películas de ciencia ficción, en este caso puede que un robot muestre la capacidad de sentir y mantener conversaciones que revelan tristeza o alegría.
Durante el intercambio, Lemoine hizo preguntas muy llamativas, que fueron respondidas de forma increíble. La IA revelaba ser una "persona" sociable que se veía muy afectada, incluso deprimida, cuando se veía atrapada y atacada. Lo que nos hace diferentes a las máquinas son las transformaciones físicas que conllevan los sentimientos, que nos puede acabar enfermando. En este caso, al no tener un cuerpo "real", LaMDA es incapaz de realizar estas transformaciones.
Y si Lemoine tiene razón, los sentimientos son un estado de ánimo o disposición emocional hacia algo, un hecho o una persona, lo que deja abierta la puerta a que una IA sofisticada pueda llegar a tenerlos, o simularles que casi sería lo mismo. No daría yo por cerrado este asunto. Si tienen sentimientos los políticos, porque no pueden tener las máquinas.
Publicar un comentario