¿Se puede crear una superinteligencia como la humana sin aprender como lo hacemos los humanos o los animales? El exresponsable de inteligencia artificial de Meta cree que esa es precisamente la vía. LeCun fue Premio Turing en 2018 junto con Geoffrey Hinton y Yoshua Bengio por sus contribuciones al aprendizaje profundo y en el 2022, Premio Princesa de Asturias junto a ambos y también Demis Hassabis. Hace unos días presentó junto a Emmanuel Dupoux y Jitendra Malik un estudio titulado Por qué los sistemas de IA no aprenden y qué hacer al respecto, en el que proponen “una arquitectura de aprendizaje inspirada en la cognición humana y animal”.
Lo que expone ese estudio es que, con el modelo que siguen los grandes modelos de lenguaje, “la máquina no aprende por sí misma; requiere una cadena de montaje de ingenieros de investigación y científicos de datos que recopilen, formateen y seleccionen diferentes tipos de datos, cada uno de los cuales se utiliza para entrenar sucesivamente diferentes componentes del modelo, cada uno con funciones de pérdida y recompensa diseñadas específicamente”. De esa forma, “la máquina se queda entonces sin capacidad para aprender de su experiencia”.
La alternativa sería crear una IA que aprenda de forma autónoma, como lo hacen las personas. En ese modelo, “el agente aprende directamente al interactuar con el mundo”. La propuesta es de un aprendizaje por observación, por acción, que puede extenderse a modos superiores como el aprendizaje por interacción verbal o el juego autónomo. LeCun y sus colegas observan que a “los sistemas de IA actuales les faltan tres capacidades clave que se encuentran en todo el reino animal: la capacidad de seleccionar sus propios datos de entrenamiento (aprendizaje activo), la capacidad de cambiar de forma flexible entre modos de aprendizaje (metacontrol) y la capacidad de percibir su propio rendimiento (metacognición)”.
El camino parece más claro, pero es más difícil que el actual. Los autores del estudio recuerdan que “la construcción de una máquina que aprenda como lo hacen los niños se ha vislumbrado desde los inicios de la IA”, pero siguen existiendo varios retos técnicos y éticos que hacen que eso sea ahora mismo un reto muy complicado. En la parte técnica se necesitan, entre otros requerimientos, sistemas de aprendizaje interrelacionados, entornos realistas, modalidades sensoriales para el aprendizaje basado en la observación y métodos para someterlo todo a pruebas. Es estudio apunta que “un enfoque prometedor consiste en comparar a los seres humanos y a los agentes de IA en términos de velocidad de aprendizaje en tareas novedosas; por ejemplo, el número de intentos necesarios para aprender un nuevo videojuego”.
Los autores del documento resaltan que desarrollar sistemas de IA que aprenden como los humanos “plantea nuevas preocupaciones éticas que van más allá de las asociadas a las tecnologías de IA actuales. Si se le da a la máquina una capacidad de aprendizaje exploratorio autónomo, resultará más difícil garantizar que sigan alineadas con los objetivos que les habían fijado los científicos. Otro riesgo tiene que ver con el comportamiento. Los animales, incluidos los humanos, evolucionamos para optimizar la reproducción de la especie, aunque nuestro comportamiento cotidiano “suele estar impulsado por objetivos secundarios, como la exploración o el juego”. Por eso, el documento considera que “los agentes artificiales autónomos que se basan en señales sustitutivas similares pueden enfrentarse a vulnerabilidades análogas”.
La tercera de las advertencias de LeCun, Dupoux y Malik, es algo que ya vemos de alguna forma en la IA generativa actual, pero que podría agravarse con una inteligencia artificial más humana: “A medida que los agentes artificiales se vuelven más parecidos a los humanos en su comportamiento y sus trayectorias de aprendizaje —advierten—, los usuarios pueden antropomorfizarlos cada vez más, lo que conduce a un apego emocional, una confianza mal depositada u oportunidades de manipulación”. Eso ya está pasando, por lo que cualquier nuevo enfoque debería partir con las líneas rojas marcadas desde la casilla de salida. Pese a todo, parece improbable que muchos empiecen la partida de nuevo, a no ser que la realidad de la superinteligencia les lleve a un callejón sin salida como pronostica LeCun. Francesc Bracero en la vanguardia.

3 Comentarios
Pues no lo sé, pero a veces se comporta como tonta. Es artificial, pero inteligente... solo a ratos. Como Rodrigo.
ResponderEliminar¿Lo cualo Rodrigo?, ¿el Rato?
ResponderEliminarConmigo se va a enfadar la susodicha, no suelo consultarle nada.
ResponderEliminar