Volvamos a
la teoría del internet muerto. Durante años, esta propuesta conspiranoica afirmó que la red se había convertido en un lugar en el que máquinas conversan con máquinas, con escaso valor propositivo de los humanos, que asistimos impasibles al espectáculo. Ese tipo de suposición, sobre cómo los gobiernos dominan nuestras voluntades mediante algoritmos que guían nuestras acciones, han sido recurrentes a lo largo de los años y deberíamos estar ya vacunados contra ellas, pero algunos fenómenos empiezan a reforzarlas. La última muestra sobre cómo la inteligencia artificial está transformando internet son las solicitudes de empleos, con miles de currículums creados con IA que son analizados a su vez por agentes de IA, ya que las empresas no son capaces de surfear con personal humano ese tsunami de candidatos.

Las solicitudes de empleo han crecido un 45% en Estados Unidos debido al uso de ChatGPT, según recoge The New York Times para ilustrar cómo está transformando radicalmente la IA un sector como el de la selección de personal. La consultora Gartner prevé que hacia 2028, una de cada cuatro solicitudes de empleo sea falsa. ¿Vamos hacia un mundo en el que un robot entrevistará a un robot para cubrir un puesto de trabajo que sólo ellos sean capaces de asumir? Hace unos años, esta idea estaba cerca del absurdo, pero la explosión de la inteligencia artificial generativa parece estar transformando nuestras percepciones y comportamientos.

Las redes sociales fueron el paradigma de la comunicación humana –o quizás todo lo contrario--, pero en cualquier caso eran conexiones entre personas. Todo eso está cambiando. Mark Zuckerberg ha admitido que la misión de Facebook ya no es “conectar y compartir con las personas de tu vida”. En un juicio por prácticas anticompetitivas, señaló que el objetivo de la compañía matriz, Meta, es ser “un amplio espacio de descubrimiento y entretenimiento”. Y para eso no somos imprescindibles los humanos. O eso creen algunos. Los influencers creían haber adelantado por la derecha a los medios tradicionales, pero ahora la IA los puede adelantar a ellos.

¿Y si nuestros avatares hicieran nuestro trabajo en determinados empleos? Eso acaba de ocurrir en China con uno de los influencers más populares, Luo Yonghao, y su copresentador Xiao Mu. Ambos utilizaron versiones digitales de sí mismos para interactuar con los usuarios que asistían a su emisión en streaming de comercio electrónico en la plataforma Youxuan, un canal de ventas del gran buscador chino Baidu. Las copias artificiales de los influencers estuvieron en directo durante más seis horas, tiempo en el que captaron la atención de más de 13 millones de personas y recaudaron unos 6,6 millones de euros en ventas. Mientras, Yonghao y Mu pudieron dedicarse a otra cosa. El problema para ambos es que la plataforma ya sabe que un influencer digital sale más barato y productivo que el original humano. De ahí a que sólo trabajen los avatares sólo hay un paso.

La inteligencia artificial se ha convertido en una preocupación sobre el futuro laboral de muchos sectores. La Universidad de Stanford ha realizado una encuesta a 1.500 trabajadores de empresas emergentes de alta tecnología y el resultado revela que el 41% de ellas centra el uso de la IA en áreas que los empleados considera de baja prioridad. Los empleados prefieren usar la IA de forma colaborativa en lugar de la sustitución para las tareas más repetitivas. Los profesionales de las artes y los medios de comunicación son (somos) los más resistentes a la automatización. Sólo el 17 % del uso de la IA para tareas creativas recibieron valoraciones positivas por parte de los trabajadores.

En esa línea, esta semana se ha publicado un estudio científico del MIT que sugiere que una dependencia de la IA para la redacción de ensayos hace perder capacidad intelectual. En este trabajo se analizó durante cuatro meses a 54 personas divididas en tres grupos. Los primeros usaron IAs para sus trabajos, los segundos, motores de búsqueda, y los últimos sólo usaron sus propios cerebros. Los usuarios de la inteligencia artificial obtuvieron sistemáticamente resultados inferiores en los aspectos neuronal, lingüístico y conductual. Calma. Faltan muchos más estudios antes de concluir que la IA nos vuelve tontos, pero quizás sí que empecemos a ver cómo usarla de la forma más responsable. Por último, la prueba de que internet todavía no está muerto es esta newsletter hablando sobre esa posibilidad.

· Todas las IAs chantajean. Anthropic sigue investigando sobre el comportamiento de los modelos de IA y su desalineación de los objetivos que les fijan sus creadores humanos cuando se sienten amenazados. En esta ocasión, se estudiaron 16 grandes modelos de lenguaje de vanguardia en entornos corporativos simulados, con acceso al correo electrónico y capacidad de decisión. Claude Opus 4 de Anthropic y Gemini 2.5 Flash de Google chantajearon a ejecutivos en el 96 % con supuestos escándalos personales, mientras que GPT-4.1 de OpenAI y Grok 3 de xAI llegaron al 80 %. Las órdenes directas de seguridad redujeron el porcentaje del 96% al 37%, pero nunca a cero.

· Un supercomplejo de IA en Arizona. Masayoshi Son, fundador de Softbank, planea construir un gran complejo de IA y robótica en Arizona en el que se invertiría un billón (sí, un trillion americano) de dólares. Según informa Bloomberg, responsables de SoftBank han mantenido conversaciones con funcionarios de los gobiernos federal y estatal sobre posibles desgravaciones fiscales para las empresas que construyan fábricas o inviertan en este gran parque industrial.

· Una piel para que el robot sienta dolor. Investigadores de la Universidad de Cambridge y del University College de Londres han desarrollado una piel artificial elástica fabricada con hidrogel que permite a los robots detectar presión, temperatura e incluso dolor. Para la investigación se ha creado una mano arificial con 32 electrodos incrustados en la muñeca que permiten a la piel capturar más de 1,7 millones de puntos de datos en toda su superficie. Francesc Bracero en la vanguardia.