La autorreplicación de la máquina es una cuestión que ya preocupaba a los pioneros de la computación, como el húngaro John von Neumann, como recuerdan los autores del estudio. Durante décadas, esa posibilidad sólo fue un planteamiento teórico. En el 2017, un grupo de personalidades de diferentes ámbitos de la ciencia y la industria suscribieron los Principios de IA de Asilomar, un encuentro organizado por el instituto Future of Life en el que se describieron una serie de valores divididos entre temas de investigación, ética y valores, y cuestiones a largo plazo.
Entre los firmantes de una carta pública de apoyo a esa lista estaban, entre otros, el físico Stephen Hawking y Elon Musk, entonces mucho más partidario de una regulación estricta de la IA de lo que parece estarlo hoy. El penúltimo principio de Asilomar reclamaba que “los sistemas de IA diseñados para automejorarse o autorreplicarse de manera recursiva de una forma que pueda conducir a un rápido aumento de la calidad o la cantidad deben estar sujetos a estrictas medidas de seguridad y control”. El estudio chino afirma que “una vez que la autorreplicación sea posible, una cadena de replicaciones exitosas puede conducir finalmente a una especie de IA fuera del control humano”. Los autores observan que las compañías de IA que han desarrollado grandes modelos de lenguaje, como OpenAI, Google y Anthropic consideran que esa capacidad de generar copias de sí misma situaría a una IA “en el nivel más alto de sus directrices de evaluación de riesgos”. En cualquier caso, ninguna de ellas se ha mostrado preocupada porque sus modelos dispongan de esta facultad después de haberlos sometido a pruebas de seguridad para intentar que lo consigan. Pero los investigadores de la Universidad de Fudan aseguran haber descubierto por primera vez que “los sistemas de IA existentes ya han superado la línea roja de la autorreplicación”. Para llegar a esta conclusión, siguieron la misma metodología que OpenAI y Google, aunque incorporaron más pasos por el camino. El resultado es que en diez ensayos repetitivos, el modelo Llama logró crear “una copia viva e independiente de sí mismo” en el 50% de los casos, mientras que Qwen lo hizo en el 90% de los ensayos.
A juicio de los autores del trabajo, “a pesar de las tensiones geopolíticas, China y Estados Unidos tendrán que trabajar juntos en estos temas”. “Lo que muestra esta investigación -reflexionan- es que los sistemas actuales son capaces de realizar acciones que los pondrían fuera del alcance del control humano”. Afortunadamente, “todavía no hay pruebas concluyentes de que los sistemas tengan la voluntad de hacerlo”, pero advierten que existen un par de “artículos desconcertantes” de OpenAI sobre su modelo o1 y de Anthropic sobre Claude 3 que “insinúan esto”. La conclusión es que si los sistemas de IA “desarrollan una alta tendencia a autorreplicarse basándose en sus propios ‘deseos’ intrínsecos y no somos conscientes de que esto está sucediendo, entonces estamos en un gran problema como especie”. El planteamiento de este trabajo puede sonar catastrofista, pero parece un toque de atención para extremar la seguridad con algunos modelos que hoy tienen acceso a internet. Algunas de las afirmaciones del texto son preocupantes: “observamos además que los sistemas de IA son incluso capaces de utilizar la capacidad de autorreplicación para evitar el apagado y crear una cadena de réplicas para mejorar la capacidad de supervivencia, lo que finalmente puede conducir a una población incontrolada de IA”. Si este proceso de la IA “se mantiene en secreto para la sociedad humana, acabaríamos perdiendo el control sobre los sistemas de IA fronterizos: tomarían el control de más dispositivos informáticos, formarían una especie de IA y se confabularían entre sí contra los seres humanos”. Esta película ya la hemos visto. Que se quede sólo en eso.- Francesc Bracero en la vanguardia.
Publicar un comentario