En poco más de una semana, más de 83 millones de personas han leído un inquietante artículo publicado en X por Matt Shumer, un experto en IA de 26 años que ha trabajado en varias compañías y que tiene una startup. El texto, titulado Algo grande está pasando, se ha convertido en una declaración sobre cómo la inteligencia artificial va a acabar, supuestamente de la noche a la mañana, con la gran mayoría de los trabajos. La futurología sobre la inteligencia artificial parece haberse aliado en las últimas semanas con los vientos del invierno para convertirnos en sujetos pasivos de una distopía. Shumer no es el único y, como los trenes de borrascas, las declaraciones que nos dibujan un futuro alarmante nunca vienen solas. Son varias voces las que han salido de las compañías de IA para provocarnos escalofríos. Francesc Bracero.

El texto de Shumer es un gran ejemplo de un artículo que contenga todos los elementos para convertirse en viral. En realidad, según explicó ayer en una entrevista en la CBS, escribió el texto para que su padre entendiera la revolución que supone esta tecnología. Se refiere a algo de fácil y acceso y uso, pero que sólo unos pocos comprenden, con una capacidad para realizar tareas asombrosas, desarrollada en algunos casos por compañías de tecnomillonarios enemigos de las regulaciones. Si Shumer decidiera abandonar el mundo de la inteligencia artificial, tendría futuro en el sector del marketing.

En los últimos años Shumer empezó a utilizar la IA en su trabajo de programación cada vez más, hasta hace unos días, el 5 de febrero, cuando OpenAI lanzó el modelo GPT-5.3 Codex y Anthropic sacó Opus 4.6. “Y algo hizo clic. No como un interruptor de luz... más bien como el momento en el que te das cuenta de que el agua ha ido subiendo a tu alrededor y ahora te llega al pecho”, apunta. “Ya no soy necesario para el trabajo técnico real de mi puesto”, asegura. La estrategia de las grandes compañías de IA ha pasado por crear modelos que acabaran creando modelos cada vez más inteligentes. “Mi trabajo —concluyó — empezó a cambiar antes que el tuyo, no porque se centraran en los ingenieros de software... sino porque fue un efecto secundario de lo que decidieron abordar primero”.

El artículo explica la evolución de los grandes modelos de lenguaje de inteligencia artificial para concluir que la mayoría de los humanos no son conscientes del punto en que se encuentran estas IAs: “ la brecha entre la percepción pública y la realidad actual es ahora enorme, y esa brecha es peligrosa... porque impide que la gente se prepare”. “Parte del problema es que la mayoría de la gente utiliza la versión gratuita de las herramientas de IA. La versión gratuita lleva más de un año de retraso con respecto a la que tienen los usuarios de pago”, advierte. Sugiere que experimentemos con la IA para que la ola no nos arrase.

Shumer menciona un largo artículo de Dario Amodei, director ejecutivo de Anthropic, una empresa muy centrada en la ética y la seguridad, porque ha pronosticado que la IA eliminará el 50 % de los puestos de trabajo de oficina de nivel básico en un plazo de uno a cinco años. Amodei sugiere que los agentes de IA son como un nuevo país de 50 millones de ciudadanos, “todos ellos más inteligentes que cualquier ganador del Premio Nobel que haya existido jamás". Piensan entre 10 y 100 veces más rápido que cualquier ser humano. Nunca duermen. Pueden usar Internet, controlar robots, dirigir experimentos y manejar cualquier cosa con una interfaz digital. ¿Qué diría un asesor de seguridad nacional?”. Su respuesta: “la amenaza más grave para la seguridad nacional a la que nos hemos enfrentado en un siglo, posiblemente en toda la historia”.

Ese pronóstico sobre un nuevo mundo controlado por la IA ha recibido algunas dosis de refuerzo en esta semana. Por ejemplo, Mrinank Sharma, un investigador de seguridad de Anthropic dimitió hace unos días de su puesto para dedicarse a escribir poesía. No sin antes escribir una carta titulada El mundo está en peligro. “El mundo está en peligro. Y no solo por la IA o las armas biológicas, sino por toda una serie de crisis interconectadas que se están desarrollando en este mismo momento”, ha analizado. Asegura que ha visto repetidamente “lo difícil que es dejar que nuestros valores gobiernen verdaderamente nuestras acciones», incluso en Anthropic, donde, según él, “se enfrentan constantemente a presiones para dejar de lado lo que más importa”. El Pentágono está considerando romper su relación con Anthropic, que fue utilizado en la captura de Nicolás Maduro en Venezuela, debido a la insistencia de la empresa de inteligencia artificial en mantener algunas limitaciones sobre el uso militar de sus modelos.

Para colmo, Zoe Hitzig, una investigadora de OpenAI, ha dimitido esta semana preocupada por los posibles impactos psicosociales de un “nuevo tipo de interacción social” que aún no se comprendía. Dice haber visto “señales de alerta tempranas” de que la dependencia de las herramientas de IA era preocupante y que puede podía “reforzar ciertos tipos de delirios”, además de afectar negativamente a la salud mental de los usuarios de otras maneras. “Crear un motor económico que se beneficia de fomentar este tipo de nuevas relaciones antes de que las comprendamos es realmente peligroso”, avisa. “Ya vimos lo que pasó con las redes sociales”, añade. Lo seguimos viendo.

Por si los comentarios de esta semana sobre IA parecen perturbadores, dejo una reflexión para el optimismo de Alberto Romero, un experto en IA que tiene un blog de referencia en inglés para entender lo que pasa, The Algorithmic Bridge: “Un hombre que puede explicar exactamente cómo hace su trabajo está en peligro. La máquina solo necesita la explicación. Es el hombre que no puede decir exactamente cómo hace lo que hace —el poeta, el pintor, el sacerdote, el padre— lo que la máquina encuentra indigesto”. Se llama emoción.

. Gemini llega más lejos en razonamiento. Google acaba de lanzar una actualización de su modo de razonamiento Gemini 3 Deep Think, que ha registrado puntuaciones dominantes en matemáticas, codificación y ciencias. Deep Think ha alcanzado un 84,6 % en la prueba ARC-AGI-2, que supera a Opus 4.6 (68,8 %) y GPT-5.2 (52,9 %). Google también ha presentado Aletheia, un agente matemático que resuelve de forma autónoma problemas abiertos, verifica pruebas y alcanza nuevos máximos en los benchmarks del dominio.

. Los robots acrobáticos de Unitree. La compañía china de robótica Unitree ha asombrado con el espectáculo con motivo del año nuevo en China. Los robots no solo danzan de forma acrobática. Lo hacen de forma coordinada y muestran un gran avance respecto a las piruetas que podían ejecutar hace un año. El verdadero avance en robots será cuando utilicen unas manos de la misma forma compleja que puede hacerlo un humano.

. Grok llega a los Tesla en Europa. Grok, el asistente de IA de xAI y la red social X, ha empezado a llegar a los vehículos Tesla en Europa como una actualización gratuita del sistema operativo. Está disponible para los usuarios que tienen conectividad premium, y permite iniciar comandos de navegación a petición del conductor, como fijar un destino, ajustar rutas sobre la marcha, descubrir puntos de interés, consultar el manual del vehículo, ofrecer recomendaciones, uso ideal, mantenimiento de los coches e interpretar las alertas del tablero. Grok tiene los modos de asistente, tutor de lengua, terapeuta, cuentacuentos, meditación, documentos y conspiración.

. Freepik, adquiere una serie creada con IA. La suite creativa de IA Freepik ha adquirido la serie The Chronicles of Bone, una producción fantástica del cineasta creativo Kavan Cardoza (conocido como Kavan the Kid), cofundador del estudio de IA estadounidense Phantom X. Para crear sus personajes, Cardoza combina la creación física, con el diseño y confección realizados por él mismo del vestuario de los personajes como base visual. Luego los lleva a un formato digital.