El diccionario Merriam-Webster elige 'slop' como palabra del año que refleja la avalancha de basura generada por IA.La IA generativa ha estallado sus posibilidades creativas. Francesc Bracero en la vanguardia.
Empecemos el año con una mala noticia. Desde la llegada de ChatGPT hace poco más de tres años, la mitad de los artículos que se publican en internet han pasado a ser generados por la IA, aunque este dato no es fiable del todo. Procede de un estudio de Graphite, una empresa de optimización de motor de búsqueda (SEO) en internet que utilizó un detector de textos generados por inteligencia artificial llamado Surfer. Hay que hacer una salvedad: este tipo de herramientas no funciona bien. El informe señala que, sobre una muestra de 65.000 textos en inglés cuando apareció ChatGPT, se pasó de un 10% inicial de artículos creados por IA a más del 40% durante el 2024. Ahora estamos alrededor del 50%. Y esa es también la buena noticia: de momento, la curva ascendente de la IA y la descendente de los humanos parecen haberse frenado. Al margen de la dudosa precisión de los datos, esa información esconde un gran problema: internet se está viendo inundado por una avalancha de contenido generado por IA. La palabra con la que ha sido bautizado el fenómeno (en inglés, claro), es slop, que viene a ser algo así como porquería.
Slop ha sido elegida por los editores humanos del diccionario inglés Merriam-Webster como la palabra del año 2025, que la definen como “contenido digital de baja calidad que se produce normalmente en gran cantidad mediante inteligencia artificial”. El significado original de slop en el siglo XVIII, era “barro blando”. Un siglo después pasó a significar también “restos de comida” y, de una forma más general, “basura” o “producto de poco o ningún valor”. En el siglo XXI ya le hemos añadido otro. Sólo hay que repasar un poco lo que nos encontramos en la red a finales de este 2025: vídeos realísticos de animales que actúan como humanos, publicidad cutre, noticias falsas que parecen reales, libros y estudios generados por IA, informes de trabajo (rebautizados como workslop) que son una fuente de pérdida de tiempo laboral y, lo peor todo, la sensación de hartazgo que provoca esta avalancha.
No existen cifras reales sobre este tsunami, pero la propia OpenAI explicó en octubre pasado, cuando lanzó la aplicación de Sora, su motor de creación de vídeos por IA –los europeos no podemos descargarla por cuestiones regulatorias– alcanzó un millón de descargas en sólo cinco días. Los vídeos realistas de la compañía de ChatGPT acentúan el peligro de los deepfakes, con secuencias falsas que parecen reales. La empresa que lidera Sam Altman asegura haber puesto un sello a los vídeos de Sora que los haga identificables como generados por inteligencia artificial, pero la realidad es que los reyes de la desinformación tienen cada vez herramientas más precisas.
Uno de los sectores que ha abrazado la IA generativa con más alegría es el publicitario. De Toys R Us a Coca-Cola, los anuncios navideños que apelan a sentimientos humanos se apoyan ahora en la creatividad artificial, pero eso no parece entusiasmar al público, a juzgar por los comentarios sobre ese tipo de vídeos. Un estudio de hace un año de la consultora Nielsen reveló que, mientras que el público expresaba una confianza alta o moderada en la IA, en un 87% de las 6.000 personas consultadas, la cosa cambia al entrar en el ecosistema de la comunicación. El 55 % de los encuestados se siente incómodo en las páginas web que dependen en gran medida de artículos generados por inteligencia artificial y cerca de la mitad, el 48% dice no confiar en las marcas que se anuncian en esos espacios. Una explicación plausible a esos datos es que a las personas no nos gustan que nos mientan y ese rechazo se expresa tanto con la tecnología que lo permite como con quienes la aprovechan en ese sentido.
La reacción del público ante esos usos tan desacomplejados de la IA ha dado lugar a algunas lecciones para las compañías. En noviembre pasado, Spotify retiró uno de los hits de este año, la canción I Run de Haven, después de las críticas por sospechas de que las voces han sido generadas con inteligencia artificial. Este año se han visto también llamamientos al boicot como el que ocurrió este verano cuando la revista de moda Vogue publicó un anuncio a doble página de la marca Guess con una modelo creada por inteligencia artificial –hecho que se señalaba a pie de página–que respondía a unos determinados cánones muy estereotipados (rubia de ojos azules, alta, joven...). Otra reacción adversa es la que sufrió McDonald's en los Países Bajos, donde publicó un vídeo creado con IA que consideraba la Navidad “el momento más terrible del año” y mostraba imágenes de desastres alrededor de la festividad. El anuncio fue retirado después de las protestas.
Recientemente el diario The Washington Post ha creado un podcast personalizado para sus usuarios, generado por una inteligencia artificial que contextualiza y versiona informaciones del propio diario, pero se han detectado errores graves, como atribuir citas de forma errónea o bien inventárselas, e incluso interpretar las citas de una fuente como si fuera la postura del propio periódico. Un editor del diario se lamentaba en Slack: “nunca hubiera imaginado que The Washington Post distorsionaría deliberadamente su propio periodismo y luego difundiría estos errores a nuestra audiencia a gran escala. Y solo unos días después de que la Casa Blanca creara una página web dedicada a atacar a los periodistas, sobre todo a los nuestros, incluyendo artículos con correcciones o notas de los editores adjuntas. Si fuéramos serios, retiraríamos esta herramienta inmediatamente”.
Una empresa que ofrece herramientas de edición de vídeo, KapWing, publicó el mes pasado un estudio que señala que el 21% de los vídeos que se muestran a los nuevos usuarios son “basura generada por IA”. El estudio detalla que los canales de contenido basura de IA más populares de España alcanzan los 20,22 millones de suscriptores, la cifra más alta de todos los países. En Corea del Sur, los canales más populares con ese tipo de material han acumulado 8.450 millones de visualizaciones. La palma se lleva uno indio, Bandar Apna Dost, que con más de dos millones de visualizaciones tiene unos ingresos anuales estimados de 4,25 millones de dólares. Todo en el proceloso mar de slop de IA nos lleva de nuevo a la teoría del internet muerto, un planteamiento conspiranoico del que hablamos en esta misma newsletter hace unos meses, que parece estar convirtiéndose en realidad a medida que progresa la inteligencia artificial. Cualquiera diría que las máquinas están echándonos de la red. Parece imposible, ¿verdad? No sería la primera hipótesis absurda que se cumple.
OpenAI busca un Pepito Grillo. OpenAI ha anunciado que quiere contratar a alguien especializado en encontrar las formas en las que el funcionamiento de la IA podría tener consecuencias graves. La oferta de empleo, que fue avanzada por Sam Altman en X, pide una persona que se encargue de “realizar un seguimiento y prepararse para las capacidades fronterizas que crean nuevos riesgos de daños graves”. “Serás el responsable directo –prosigue la propuesta– de crear y coordinar evaluaciones de capacidades, modelos de amenazas y medidas de mitigación que formen un canal de seguridad coherente, riguroso y operativamente escalable”.
Meta compra una startup de IA. Mark Zuckerberg está decidido a que Meta sea una potencia de vanguardia. Su último movimiento ha sido adquirir por 2.000 millones de dólares una startup llamada Manus que produce agentes de IA que pueden realizar muchas tareas de forma independiente: seleccionar candidatos para un puesto de trabajo, planificar vacaciones o analizar inversiones. Meta afirma ahora que mantendrá Manus funcionando de forma independiente e integrará sus agentes de IA en Facebook, Instagram y WhatsApp.
El uso dual de la inteligencia artificial, en el trabajo y en casa, para propósitos muy diferentes
Nvidia se hace con una tecnología prometedora. La compañía de chips Nvidia, que desarrolla los procesadores más demandados para la IA, acaba de llegar a un acuerdo sin exclusividad con Groq –no confundir con Grok, la IA de X–. Los chips de unidad de procesamiento del lenguaje (LPU) de Groq están diseñados para la inferencia, el proceso cotidiano cuando se le solicitan respuestas a los modelos de IA entrenados previamente. En virtud del acuerdo, el director ejecutivo y fundador de Groq, Jonathan Ross, se incorporará a Nvidia, junto con su presidente y parte del personal de la startup.

0 comments:
Publicar un comentario