Los miedos a la inteligencia artificial han obsesionado a la humanidad desde el comienzo de la época informática. Hasta ahora, esos miedos se centraban en las máquinas que utilizaban medios físicos para matar, esclavizar o sustituir a las personas. Sin embargo, en los últimos dos años han aparecido nuevas herramientas de inteligencia artificial que amenazan la supervivencia de la civilización humana desde un flanco inesperado. La inteligencia artificial ha adquirido notables capacidades para manipular y generar lenguaje, ya sea con palabras, sonidos o imágenes. Y, al hacerlo, ha hackeado el sistema operativo de nuestra civilización.
El lenguaje es la materia de la que está hecha casi toda la cultura humana. Los derechos humanos, por ejemplo, no están inscritos en nuestro ADN. Son, más bien, artefactos culturales que creamos construyendo relatos y escribiendo leyes. Los dioses no son realidades físicas. Son, más bien, artefactos culturales que creamos inventando mitos y componiendo escrituras sagradas.
También el dinero es un artefacto cultural. Los billetes no son más que pedazos de papel coloreado; en la actualidad, más del 90% del dinero ni siquiera son billetes, sólo información digital almacenada en ordenadores. Lo que da valor al dinero son los relatos que nos cuentan sobre él banqueros, ministros de Economía y gurús de las criptomonedas. Sam Bankman-Fried, Elizabeth Holmes y Bernie Madoff no eran especialmente buenos creando valor real, pero todos ellos fueron narradores de una habilidad extraordinaria.
¿Qué pasará cuando una inteligencia no humana sea mejor que el ser humano medio para contar historias, componer melodías, dibujar imágenes y redactar leyes y escrituras? Cuando pensamos en ChatGPT y otras nuevas herramientas similares, pensamos escolares que recurren a la inteligencia artificial para componer sus redacciones. ¿Qué le ocurrirá al sistema escolar cuando los jóvenes hagan eso? En realidad, esa clase de pregunta pasa por alto la visión de conjunto. Olvidémonos de las redacciones escolares. Pensemos en las próximas elecciones presidenciales estadounidenses de 2024 e intentemos imaginar la repercusión en ellas de las herramientas de inteligencia artificial, que son susceptibles de utilizarse para producir de modo masivo contenido político, noticias falsas y escrituras para nuevos cultos.
En los últimos años, el culto QAnon se ha aglutinado en la red en torno a mensajes anónimos conocidos como “pastillas Q”. Sus seguidores coleccionan, veneran e interpretan esas “pastillas” como si fueran un texto sagrado. Por lo que sabemos, todas las “pastillas Q” anteriores han sido compuestas por humanos y los bots sólo se han limitado a difundirlas, pero en el futuro podríamos ver los primeros cultos de la historia cuyos textos venerados habrán sido escritos por una inteligencia no humana. Las religiones han sostenido a lo largo de la historia que sus libros sagrados procedían de una fuente no humana. Eso podría ser pronto una realidad.
En un nivel más prosaico, pronto podríamos encontrarnos debatiendo largamente online sobre el aborto, el cambio climático o la invasión rusa de Ucrania con entidades que pensamos que son seres humanos, pero que en realidad son inteligencias artificiales. El problema reside en que resulta del todo inútil que dediquemos tiempo a intentar cambiar las opiniones sostenidas de un bot de inteligencia artificial, y que, en cambio, la inteligencia artificial puede refinar con tanta precisión los mensajes que tendrá muchas posibilidades de influir en nosotros.
Gracias a su dominio del lenguaje, las inteligencias artificiales podrían incluso entablar relaciones muy cercanas con las personas y utilizar el poder proporcionado por esa cercanía para modificar nuestras opiniones y visiones del mundo. Aunque no hay ningún indicio de que las inteligencias artificiales tengan conciencia ni sentimientos propios, les bastará con lograr que éstos se sientan emocionalmente vinculados a ellas para fomentar una falsa intimidad con los humanos. En junio de 2022, Blake Lemoine, un ingeniero de Google, anunció que el chatbot de inteligencia artificial LaMDA, en el que estaba trabajando, había adquirido conciencia. La polémica afirmación le costó el empleo. Lo más interesante de ese episodio no fue la afirmación de Lemoine, probablemente falsa. Fue, más bien, la disposición que mostró a arriesgar su lucrativo puesto de trabajo por defender el chatbot de inteligencia artificial. Si la inteligencia artificial puede influir en las personas y hacer que pongan en riesgo su trabajo, ¿a qué más podrá inducirlas?
En una batalla política por las mentes y los corazones, la intimidad es el arma más eficaz, y la inteligencia artificial acaba de conseguir la capacidad de establecer de modo masivo relaciones muy cercanas con millones de personas. Todos sabemos que en la última década las redes sociales se han convertido en un campo de batalla por el control de la atención humana. Con la nueva generación de inteligencia artificial, el frente de batalla se está trasladando de la atención a la intimidad. ¿Qué ocurrirá con la sociedad y la psicología humanas cuando la inteligencia artificial luche con la inteligencia artificial en una batalla por fingir relaciones muy cercanas con nosotros, relaciones que luego pueden utilizarse para convencernos de que votemos a determinados políticos o compremos determinados productos?
0 Comentarios