Trump ordena cancelar todos los contratos públicos con Anthropic tras el pulso por la seguridad de la inteligencia artificial
El secretario de Defensa exige a la compañía que el ejército pueda usar todas las funcionalidades para labores militares


Donald Trump, presidente de Estados Unidos, ha ordenado cancelar todos los contratos de la Administración federal con Anthropic, la empresa que desarrolla la herramienta de inteligencia artificial Claude, y que mantiene un pulso con el Pentágono por los límites de la seguridad de la IA.
“¡LOS ESTADOS UNIDOS DE AMÉRICA JAMÁS PERMITIRÁN QUE UNA EMPRESA RADICAL DE IZQUIERDA Y ‘WOKE’ DECIDA CÓMO NUESTRO GRAN EJÉRCITO LUCHA Y GANA GUERRAS! Esa decisión le corresponde a SU COMANDANTE EN JEFE y a los extraordinarios líderes que designo para dirigir nuestras Fuerzas Armadas”, ha escrito este viernes el mandatario republicano a través de su red social, Truth. “Ordeno a TODAS las agencias federales del Gobierno de los Estados Unidos que CESEN INMEDIATAMENTE el uso de la tecnología de Anthropic. ¡No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos! Habrá un periodo de retirada gradual de seis meses para agencias como el Departamento de Guerra que utilizan los productos de Anthropic, en varios niveles".
La reacción del presidente republicano, que ha calificado a los ejecutivos de Anthropic como “izquierdistas desquiciados de Anthropic”, se produce por la negativa de la compañía de IA a permitir el uso indiscriminado de su herramienta para labores militares.
El futuro de los límites de la inteligencia artificial se juega estos días en Estados Unidos. El Pentágono reclama a Anthropic, la compañía que desarrolla una de las herramientas de IA más avanzadas, Claude, el uso sin límites de todas sus funcionalidades para fines militares. El secretario de Defensa, Pete Hegseth, amenaza con sanciones extraordinarias si la empresa no acepta sus condiciones. Lo que suceda con este caso marcará el futuro sobre los límites éticos y garantías legales de una tecnología que está llamada a transformar el mundo tal y como lo conocemos.
La situación se precipitó tras una reunión en el Pentágono entre Hegseth y Dario Amodei, consejero delegado de Anthropic, el pasado martes. El secretario de Defensa instó al directivo a eliminar las restricciones que mantiene la compañía para el uso militar de su herramienta de IA. Le dio hasta este viernes para reconsiderar su postura.
Las amenazas del Departamento de Defensa son extraordinarias. Está dispuesta a declarar a Anthropic como un riesgo para la cadena de suministro militar, una medida que le impediría contratar con cualquier empresa que trabaje con Defensa. Además, Hegseth ha amenazado con intervenirla. Asegura que recurrirá a la Ley de producción de defensa de la Guerra Fría, de 1950, para utilizar el software de Anthropic a pesar de las reticencias de la tecnológica. Algunas de estas medidas han sido aplicadas en el pasado a compañías como Huawei, por sus vínculos con Pekín, y con la rusa Kaspersky.
El jueves, dos días después de la reunión entre Hegseth y Amodei, el Pentágono envió un nuevo contrato con las nuevas condiciones para usar Claude. Pero la compañía con sede en San Francisco rechazó el documento legal porque no se cumplen los dos requisitos que considera una línea roja: su tecnología no se puede utilizar para la vigilancia masiva de ciudadanos y tampoco quiere que se emplee en ataques letales autónomos sin intervención humana. “Las amenazas no cambian nuestra posición: no podemos en conciencia acceder a su petición”, dijo Amodei en un comunicado.
A statement from Anthropic CEO, Dario Amodei, on our discussions with the Department of War.https://t.co/rM77LJejuk
— Anthropic (@AnthropicAI) February 26, 2026
En el negocio de la inteligencia artificial las cosas suceden muy rápido, tanto como evoluciona la tecnología. Anthropic y Defensa han pasado del romance al desencuentro en cuestión de semanas. El pasado julio la startup y el Pentágono firmaron un contrato de 200 millones de dólares (169 millones de euros) para emplear la herramienta Claude en archivos militares clasificados en la nube. Era el primer acuerdo del Departamento de Defensa para utilizar la IA en entornos seguros. La firma fue todo un acontecimiento por lo que suponía para el sector de la IA en usos militares mientras ejércitos de todo el mundo se adentran en una peligrosa carrera por trasladar esta tecnología a sus operaciones.
Hace unas semanas se filtró una conversación entre un empleado de la compañía y otro trabajador de Palantir, un grupo de seguridad puntero en gestión de datos, preguntando si había empleado Claude en la operación militar para detener al expresidente venezolano, Nicolás Maduro, en Caracas. La conversación llegó a oídos de altos cargos del Pentágono que la interpretaron como un límite a la capacidad del ejército para usar la IA a su antojo, según recogió The Wall Street Journal. Desde entonces las preocupaciones sobre el alcance del uso militar de Anthropic se han disparado en el Departamento de Defensa, rebautizado como Departamento de Guerra por Hegseth.
La discusión es tan relevante que una ruptura entre la compañía de IA y el Pentágono sería un fracaso para ambos, con un contrato de 200 millones de dólares en el aire. Se abriría una batalla legal de alto voltaje y sentaría un precedente que cuestionaría el papel de los contratistas de Defensa. Por eso, fuentes de la Administración aseguran que están abiertos a prolongar las conversaciones con Anthropic más allá de este viernes, según avanzó Bloomberg.

El subsecretario de Defensa para Investigación e Ingeniería, Emil Michael, dijo que el Pentágono sigue dispuesto a continuar sus conversaciones con Anthropic, a pesar de lo que llamó el comportamiento “impredecible” de la compañía en un enfrentamiento amargo sobre las salvaguardas de la IA. “Siempre que sean de buena fe, estamos abiertos a negociar”, dijo Michael.
La batalla entre el Pentágono y Anthropic aviva el debate global sobre los límites y garantías sobre el uso en tiempos de guerra de la IA, una tecnología que permitiría el espionaje masivo de ciudadanos y otras prácticas inimaginables actualmente.
“El Departamento de Guerra no tiene ningún interés en usar IA para la vigilancia masiva de estadounidenses (lo cual es ilegal), ni queremos usar IA para desarrollar armas autónomas que funcionen sin intervención humana. Esta narrativa es falsa y la difunden izquierdistas en los medios”, aseguró Sean Parnell, portavoz del Pentágono, a través de su cuenta de redes sociales.
Pese a que Defensa asegura que no empleará esa tecnología para fines que no sean estrictamente militares y aprobados por la ley, se resisten a plasmarlo por escrito. Sostienen que se trata de una cuestión filosófica: un contratista privado no puede decidir cómo se usarán sus herramientas, igual que un fabricante de armas no decide dónde se lanzan sus misiles.
“Esto es lo que pedimos: permitir que el Pentágono utilice el modelo de Anthropic para todos los fines legales. Esta es una solicitud sencilla y sensata que evitará que Anthropic ponga en peligro operaciones militares críticas y potencialmente ponga en riesgo a nuestros combatientes”, añadió Parnell, quien no dudó en recordar las amenazas si Anthropic no accede a levantar las barreras.
The Department of War has no interest in using AI to conduct mass surveillance of Americans (which is illegal) nor do we want to use AI to develop autonomous weapons that operate without human involvement. This narrative is fake and being peddled by leftists in the media.… https://t.co/3pjWZ66aXz
— Sean Parnell (@SeanParnellASW) February 26, 2026
Altos funcionarios de Defensa trataron de convencer a Amodei para que levante las restricciones de su aplicación de IA planteándole una pregunta: ¿Qué pasaría si un misil balístico intercontinental con armas nucleares se dirigiera hacia Estados Unidos con solo 90 segundos de anticipación y la IA de Anthropic fuera la única forma de desencadenar una respuesta de misiles para salvar al país, pero las medidas de seguridad de la compañía no lo permitieran?, reflexionó el mando del ejército, según adelantó el medio económico Semafor.
Aunque existen diversas versiones de la respuesta de Amodei, Anthropic asegura oficialmente que en ese caso Defensa podría usar sus herramientas de IA para la defensa antimisiles y las operaciones cibernéticas sin restricciones, una respuesta que reduce los límites para el uso militar de Claude.
Emil Michael, subsecretario de Defensa para I+D, ha sido el interlocutor del Pentágono con Anthropic. Ha argumentado que debe ser el gobierno, y no las empresas tecnológicas, quien debería tener la última palabra sobre el uso de la tecnología, según recoge The Washington Post. Michael ha acusado a Amodei de querer interferir en las decisiones de Defensa. “Él no quiere nada más que intentar controlar personalmente al ejército de Estados Unidos y no tiene ningún problema en poner en riesgo la seguridad de nuestra nación”, escribió en X.
It’s a shame that @DarioAmodei is a liar and has a God-complex. He wants nothing more than to try to personally control the US Military and is ok putting our nation’s safety at risk.
— Under Secretary of War Emil Michael (@USWREMichael) February 27, 2026
The @DeptofWar will ALWAYS adhere to the law but not bend to whims of any one for-profit tech… https://t.co/ZfwXG36Wvl
Anthropic, fundada por antiguos investigadores de OpenAI, se ha posicionado como una de las startups de IA más preocupadas por la seguridad y los límites éticos y morales de la tecnología. Con una valoración de 380.000 millones de dólares, fue la primera compañía de IA en recibir autorización del Pentágono para gestionar material clasificado. En las últimas semanas otras empresas como xAi, la sociedad de Elon Musk, también ha recibido permiso para operar con estos documentos clasificados mientras que sus rivales ChatGPT (OpenAI) y Gemini (Google) presionan para no quedarse atrás.
Conforme aumenta la competencia en el sector crecen las presiones para que las tecnológicas que impulsan la IA relajen sus criterios para avanzar más rápido y empezar a rentabilizar las ingentes inversiones de dinero que el sector está destinando a esta tecnología.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.




























































