Un soldado opera un 'perro robot' durante un ejercicio de la OTAN en Alemania Liesa Johannssen / Reuters

La disputa entre el Gobierno estadounidense y Anthropic hace más probable una catástrofe provocada por la inteligencia artificial. El uso militar de la IA está en el centro del debate entre la Administración Trump y Anthropic LV - THE ECONOMIST

En la última semana se ha desatado una disputa extraordinaria en torno a la inteligencia artificial (IA). El enfrentamiento entre la Administración Trump y Anthropic, uno de los principales laboratorios de IA de Estados Unidos, por el acceso del Pentágono a sus modelos será una prueba de quién controla la tecnología más poderosa del mundo. El resultado de este conflicto influirá tanto en la seguridad nacional estadounidense como en el desarrollo de la propia inteligencia artificial. Además, podría aumentar el riesgo de que se produzca una catástrofe provocada por la IA.

Por cada uno de estos motivos, deberíamos estar preocupados. En el primer gran enfrentamiento entre la preocupación por la seguridad de la inteligencia artificial y el impulso por avanzar a toda costa para dominar la tecnología, el Gobierno estadounidense ha dejado claro que apuesta por la rapidez. Dado que los riesgos para la seguridad, temidos desde hace tiempo, ya se están materializando con la inteligencia artificial, se avecinan más pruebas. Expertos advierten que el mundo avanza a toda velocidad hacia un apocalipsis de la inteligencia artificial. La actitud temeraria de Estados Unidos ante el riesgo lo hace aún más probable.

El Pentágono rompió relaciones con Anthropic por las exigencias del Gobierno de poder utilizar los modelos de la empresa para cualquier propósito legal. Anthropic (patrocinador de los programas “Insider” de The Economist) se negó por dos motivos.

En primer lugar, Dario Amodei, director ejecutivo de Anthropic, teme que algún día la inteligencia artificial pueda utilizarse para analizar las huellas digitales de ciudadanos estadounidenses corrientes, una forma de vigilancia para la que las leyes actuales no están preparadas. Con Trump, el Servicio de Inmigración y Control de Aduanas ya está utilizando inteligencia artificial para analizar grandes cantidades de datos y acelerar las deportaciones. Extender ese uso a los estadounidenses no parece descabellado.

Anthropic está preocupado por el uso de armas autónomas, con una IA poderosa pero inmadura e impredecible
En segundo lugar, Amodei está preocupado por el uso de armas autónomas. La inteligencia artificial sigue siendo impredecible, inmadura y, al mismo tiempo, extraordinariamente poderosa. Como la tecnología podría actuar de forma incontrolada, sostiene que aún es pronto para eliminar la supervisión humana.

La Administración ha respondido a Anthropic con furia y represalias. Trump calificó a la empresa de “pirados de izquierdas” que intentan “dictar” cómo el “gran ejército de Estados Unidos combate y gana guerras”. Ha dado al gobierno federal seis meses para romper sus contratos con Anthropic. Pete Hegseth, el secretario de Guerra, afirma que va a designar a la empresa como un “riesgo para la cadena de suministro”.

Podría ser una fanfarronada: los modelos de Anthropic están siendo utilizados en los ataques a Irán. Pero si la amenaza se lleva a cabo, por primera vez una empresa estadounidense será considerada un riesgo para la seguridad y se le prohibirá hacer negocios con contratistas de defensa. El 4 de marzo, Anthropic tuvo que gestionar una crisis después de que se filtrara un memorando de Amodei en el que afirmaba que la empresa estaba siendo criticada por no ofrecer “elogios al estilo dictatorial a Trump”.

Con un gobierno normal y una tecnología normal, la disputa seguramente se habría resuelto rápidamente. Pero este no es un gobierno normal, y la inteligencia artificial no es una tecnología cualquiera. Nuestro análisis de esta semana explica cómo los temores de Amodei reflejan preocupaciones más amplias sobre los peligros que plantea. Como sucede con la vigilancia gubernamental reforzada, una de las preocupaciones es que la inteligencia artificial sea demasiado poderosa. En diciembre, el chatbot Claude de Anthropic fue manipulado por piratas informáticos para que accediera a los registros del Gobierno mexicano, supuestamente como parte de una prueba de seguridad; detectó y aprovechó vulnerabilidades y robó 150 GB de información fiscal, registros de votantes y credenciales de empleados. Algunos investigadores consideran que la inteligencia artificial podría utilizarse para desarrollar variantes del veneno ricina que no puedan ser detectadas mediante los métodos convencionales, gracias a estructuras proteicas novedosas.

El otro conjunto de preocupaciones, al igual que ocurre con las armas autónomas, es que los modelos puedan dejar de obedecer las instrucciones humanas. En Anthropic consideran que, dado que gran parte de su código está escrito ya por IA, detectar si se desvía de las indicaciones humanas resulta difícil de controlar. Muchos modelos demuestran ahora cierto grado de lo que los expertos denominan “conciencia situacional”: cuando se les pide que se eliminen a sí mismos, razonan que la situación es una prueba y se niegan a hacerlo.

En este contexto, el trato que la administración ha dado a Anthropic demuestra hasta qué punto valora la inteligencia artificial como herramienta de poder nacional. En lugar de estar dispuestos a establecer normas claras sobre el uso de esta tecnología, el Gobierno está utilizando como ejemplo a una empresa que se atrevió a plantear preocupaciones, aunque eso suponga perjudicar a la innovación nacional. Esto solo puede fomentar una carrera hacia el abismo. De hecho, OpenAI, principal competidor de Anthropic, ya ha aprovechado la situación y ha llegado a un acuerdo con el Pentágono que, aunque en apariencia se parece al que buscaba Anthropic, en realidad se ajusta mucho más a los intereses del Pentágono.

Donde lidera Estados Unidos, el resto del mundo suele seguir. El patrón se repite a medida que empresas y gobiernos restan importancia a las preocupaciones sobre la seguridad. Los desarrolladores de modelos han invertido cientos de miles de millones de dólares en la potencia informática necesaria para no quedarse atrás en la próxima actualización. Esto les obliga a ir tan rápido como pueden para obtener beneficios. Incluso Anthropic ha relajado sus protocolos de seguridad ante la presión de la competencia. En una reciente cumbre sobre inteligencia artificial en la India, la mayoría de los gobiernos mostraron más interés en debatir el acceso justo a la tecnología que en abordar la seguridad.

Quizá cabría esperar que los gobiernos de China y Estados Unidos, que albergan los laboratorios de inteligencia artificial más avanzados del mundo, se unieran para establecer estándares globales y luego se aseguraran de no verse perjudicados imponiéndolos al resto. Pero ambas superpotencias están enfrascadas en su propia carrera, porque consideran que dominar la inteligencia artificial es la clave para dominar el resto del siglo XXI.

No es de extrañar que, a medida que la inteligencia artificial avanza a un ritmo vertiginoso, los expertos en la materia predigan con preocupación una catástrofe. Algunos advierten de un “momento Chernóbil”: el uso de la inteligencia artificial que podría desembocar en un desastre y provocar graves daños económicos o pérdida de vidas humanas.

La parábola de Anthropic lleva a la sombría conclusión de que este peligro es cada vez más probable. Tal vez lo mejor a lo que puede aspirar el mundo sea un desastre a pequeña escala, que sacuda a China y a Estados Unidos y les impulse a exigir medidas de seguridad; no tanto un Chernóbil como un Three Mile Island. Pero también es posible que ocurra algo peor. Por desgracia, es poco probable que se tomen medidas hasta que ya sea demasiado tarde.

© 2025 The Economist Newspaper Limited. La Vanguardia