Últimamente, se habla mucho de inteligencia artificial (IA) generativa. En particular de ChatGPT, un chatbot basado en el modelo de lenguaje GPT-3.5 que genera lenguaje aparentemente humano y de DALL-E y otros sistemas similares, que generan imágenes de acuerdo a una breve descripción textual en lenguaje natural de la imagen deseada.

A pesar de su aparente inteligencia, la realidad es que no entienden lo que se les dice ni lo que responden. ¿Cuál es pues el motivo de que mucha gente piense que estos sistemas son inteligentes hasta el punto de creer que nos pueden sustituir en actividades creativas como la escritura o las artes visuales y, por consiguiente, en prácticamente cualquier otra actividad intelectual?

En mi opinión, el excesivo antropomorfismo es el principal motivo de que la sociedad tenga una percepción errónea de la IA. Cuando nos informan de logros espectaculares de una IA tendemos a generalizar y le atribuimos la capacidad de hacer prácticamente cualquier cosa que hacemos los seres humanos e incluso de hacerla mucho mejor. Dicho de otra forma, creemos que la IA prácticamente no tiene límites cuando de hecho es extremadamente limitada y, lo que es muy importante, no tiene nada que ver con la inteligencia humana.

En realidad, lo que tienen los actuales sistemas de IA no es inteligencia sino habilidades sin comprensión en el sentido que apunta el prestigioso filósofo de la ciencia Daniel Dennett en su libro From Bacteria to Bach and Back . Es decir, sistemas que pueden llegar a ser muy hábiles llevando a cabo tareas concretas sin comprender absolutamente nada sobre su naturaleza debido a la ausencia de conocimientos generales sobre el mundo.

Los sistemas de inteligencia artificial no entienden nada de lo que dicen. Esta incapacidad para entender el mundo imposibilita que sistemas como el mencionado ChatGPT entiendan el significado de los textos que generan. Como dice la experta en lingüística computacional Emily Bender, son “loros estocásticos”. Es decir, programas que combinan secuencias de palabras en base a información probabilística sobre cómo se combinan. Información que han aprendido entrenándolos con grandes corpus de texto, pero sin referencia alguna a su significado.

Más concretamente, trabajan detectando patrones en estos grandes corpus disponibles en internet y después utilizan estos patrones para adivinar cuál debería ser la siguiente palabra de una secuencia de palabras. No tienen acceso a los referentes del mundo real que dan contenido a sus palabras. A los diseñadores de estos loros no les importa si generan verdades o falsedades. Solo les importa el poder retórico, engañando a los lectores haciéndoles creer que estos “loros” entienden el lenguaje como lo entienden los humanos.

En 2020, las investigadoras Timnit Gebru y Margaret Mitchell ya advirtieron del riesgo de que la gente imputara intención comunicativa a artefactos que parecen humanos. Emily Bender acertadamente afirma que crear tecnología que imite a los humanos, haciéndose pasar por algo humano, requiere que tengamos muy claro qué significa ser humano ya que de lo contrario corremos el riesgo de deshumanizarnos.

Por su parte, Daniel Dennett es aún más contundente cuando afirma que no podemos vivir en un mundo con counterfeit people (personas falsificadas) ya que una sociedad con personas falsificadas que no podamos diferenciar de las personas reales dejaría de ser una sociedad. Dennett nos recuerda que fabricar dinero falsificado es un acto delictivo y afirma que falsificar personas es tan o más grave. Añade además que a las personas artificiales no se las podrán pedir responsabilidades y eso las convierte en actores amorales con gran capacidad para generar multitud de falsedades, es decir, desinformar.

Los responsables de desinformar son los creadores de estas tecnologías y, si no empezamos a regularlas, la democracia bien puede verse pronto abrumada por la desinformación y la consiguiente polarización. Están en juego la estabilidad y la seguridad de la sociedad. - ChatGPT no tiene nada que ver con la inteligencia humana - Ramón López de Mántaras.