Ir al contenido
_
_
_
_

La IA entra de lleno en el campo de batalla: un millar de objetivos alcanzados en las primeras 24 horas de la guerra de Irán

Los algoritmos que usa Estados Unidos para identificar y eliminar blancos militares funcionan a una velocidad que desafía la capacidad humana para procesar los datos

El destructor de misiles guiados 'USS Thomas Hudner', de la Armada estadounidense, lanza un misil de ataque terrestre Tomahawk el 1 de marzo de 2026 desde una ubicación no revelada.CONTACTO vía Europa Press (CONTACTO vía Europa Press)

El tiempo que se tarda en leer esta frase le basta a un sistema de inteligencia artificial (IA) para resumir miles de datos de espionaje recabados durante décadas: sesudos informes, fotos de satélites y de drones, antenas de GPS, cámaras de tráfico intervenidas, mensajes de WhatsApp y de correo electrónico… Con todo ello, el sistema puede marcar un punto en la pantalla con dos palabras: “Objetivo prioritario”. Un comandante estadounidense o israelí solo tendría que validar la orden para bombardear cualquier objetivo en Irán. La doctrina militar exige una “cadena de ataque” (en inglés se conoce como kill chain) supervisada por humanos. Pero la velocidad y la avalancha de información que proporciona la IA es de tal magnitud que varios expertos en el sector temen que el ser humano se haya convertido ya en un mero firmante de ejecuciones.

Medios estadounidenses como The Washington Post y la agencia Bloomberg coinciden en señalar que en las primeras 24 horas de la operación Furia Épica, el 28 de febrero, las fuerzas armadas de Israel y Estados Unidos lograron abatir hasta 1.000 objetivos. Esa magnitud de blancos alcanzados habría sido imposible sin el uso de la inteligencia artificial, según los expertos consultados.

Entre los objetivos destruidos se encuentra la escuela primaria Shajareh Tayyebeh, en Minab, en el sur de Irán, donde fallecieron tras un bombardeo 175 menores, en su mayoría niñas. El sitio digital Semafor ha publicado un artículo esta semana donde fuentes confidenciales “familiarizadas con la campaña en Irán” aseguran que la culpa de esas muertes es achacable a humanos y no a la IA. Sin embargo, Craig Jones, docente en la Universidad de Newcastle y autor del libro The War Lawyers, que examina las leyes de la guerra tal como las aplican los abogados militares, señala por videoconferencia: “Me resultaría difícil creer que la IA no participara de alguna forma en la matanza, dada su integración en la cadena de mando”.

Jones apunta que hay que plantearse por qué ningún humano ni una IA “identificaron que una escuela era una escuela”. “Bastaba con observar el objetivo con un dron durante 20 minutos antes del ataque para ver a las niñas en el patio o a los padres dejándolas. Cualquier persona razonable sabría que no eran militares iraníes. Este ha sido el peor caso de víctimas civiles. Pero ahora mismo puede estar repitiéndose el mismo error a menor escala”.

El autor de The War Lawyers explica que el problema del ejército de EE UU en los últimos 20 años nunca ha sido la falta de datos, sino el exceso de ellos. “La IA es la respuesta a cómo procesar eso. Además, la IA ya no solo analiza, sino que decide qué recolectar: qué fotos debe tomar un satélite o adónde debe volar un dron”.

Dos empresas privadas, de perfiles muy distintos, desempeñan un papel estratégico para el Pentágono en su confrontación con Irán. Por un lado, la compañía Palantir actúa como contratista principal del Maven Smart System, evolución del Project Maven, la iniciativa de inteligencia artificial lanzada por el Departamento de Defensa en 2017 con el objetivo de automatizar el análisis de imágenes y vídeo de origen militar.

En paralelo, la empresa Anthropic aporta su modelo de lenguaje Claude, presentado en 2023. Mientras Palantir funciona como un sistema nervioso central, encargado de integrar, procesar y visualizar al instante los datos procedentes del campo de operaciones, Anthropic proporciona capacidades avanzadas de análisis lingüístico que apoyan a los mandos militares en la interpretación de información compleja y en la formulación de decisiones. El Pentágono utilizó el sistema Claude para capturar al presidente Nicolás Maduro en Caracas, según publicó The Wall Street Journal el 15 de febrero.

En una película, los dueños de Palantir serían policías duros y los de Anthropic presentarían un talante más comprensivo. Pero ambas empresas colaboran a las órdenes del Pentágono contra Irán, según ha informado la agencia Reuters, entre otros medios.

Es cierto que el fundador de Anthropic, Dario Amodei, ha marcado dos líneas rojas al Gobierno de Donald Trump: no quiere que su modelo de IA se utilice para el espionaje masivo de ciudadanos ni para la gestión de armas autónomas sin supervisión humana. Trump rechazó ambas exigencias y ordenó el 27 de febrero cancelar todos los contratos de la Administración con Anthropic en un periodo gradual de seis meses. Y calificó a los ejecutivos de la compañía como “izquierdistas desquiciados de Anthropic”. Ocho horas después, ordenó el bombardeo de Irán. Con la colaboración inestimable de Claude.

El funcionamiento de la IA en Irán es un misterio para la mayoría de la gente. Pero han trascendido algunas pistas. Alex Karp, consejero delegado de Palantir, declaró en una entrevista con el canal CNBC el 12 de marzo: “Nuestro trabajo es hacer que Occidente —y especialmente Estados Unidos— sea la fuerza más letal del mundo”. Karp fue muy vago sobre el papel de la IA en Irán, probablemente debido a los contratos de confidencialidad firmados con el Pentágono. Pero sí dejó caer: “He leído en los periódicos que ahora somos capaces de entrar en combate y librar la guerra de una manera en la que antes no podíamos, que hemos recuperado nuestra capacidad de disuasión”. No pudo evitar vanagloriarse: “Nuestros recursos han cambiado la forma en que se libra la guerra”.

Nuria Oliver, doctora en inteligencia artificial por el Instituto de Tecnología de Massachusetts (MIT son sus siglas en inglés) y cofundadora y directora de ELLIS Alicante —fundación que promueve la investigación en inteligencia artificial responsable y para el bien social—, recuerda que Israel “ya usó la IA en Gaza en 2023 y la sigue utilizando”. “Se empleó el sistema Lavender y el Gospel, ambos desarrollados por el propio Gobierno. Al principio hubo escándalo. Les permitió detectar individuos que el sistema de IA consideraba terroristas o identificar zonas que se consideraban objetivos de valor estratégico o refugio de terroristas. A cualquier humano le podría llevar días, semanas o meses procesar esa información. Israel lo hacía en cuestión de minutos”.

Oliver explica que ahora en Irán, la compañía Palantir, con su sistema Maven, no solo identifica patrones y objetivos, sino que aporta una representación en forma de grafo (una red de elementos y las conexiones entre ellos). Ahí se muestran las entidades de interés como fábricas, cuarteles, comandancias y sus vínculos. “El grafo proporciona un conocimiento más completo. Además, al incorporar el modelo de lenguaje Claude, de Anthropic, los humanos pueden utilizar el lenguaje natural para establecer un diálogo con Maven y preguntarle, por ejemplo, dónde está cualquier objetivo”.

Para Oliver, el elemento más preocupante del uso de la IA en Irán es saber dónde queda la decisión humana. “Es muy difícil que ningún humano pueda hacer un análisis de miles de objetivos. También existe falta de transparencia. Probablemente nadie sepa explicar qué hacen o qué están haciendo Palantir y Anthropic en Irán”.

Nuria Oliver señala que la combinación de la IA con el uso de drones deshumaniza aún más un conflicto bélico. “Porque los humanos que toman las decisiones están en una sala a miles de kilómetros… Es muy difícil generar empatía para determinar: ‘¿Esto es un civil? Al final es un puntito en una pantalla y la IA te dice que es un objetivo y que hay prioridad máxima para eliminarlo”.

El jefe del Mando Central del Ejército estadounidense (CENTCOM), Brad Cooper, reconoció dos semanas después de iniciada la guerra, el pasado 11 de marzo, que el Pentágono utiliza en Irán “una variedad de herramientas avanzadas de IA”, con el fin de cribar enormes cantidades de datos. Aunque aseguró: “Los humanos siempre tomarán las decisiones finales sobre a qué disparar y a qué no disparar, y cuándo disparar. (…) Pero las herramientas avanzadas de IA pueden convertir procesos que antes llevaban horas y, a veces, incluso días, en cuestión de segundos”.

Lucy Suchman, profesora de Antropología de la Ciencia y la Tecnología en la Universidad de Lancaster, explica mediante correo electrónico: “Hemos sabido, a partir de informes procedentes de Gaza, que la IA recomienda objetivos basándose en programas de puntuación social, algo que está prohibido en la ley que regula la IA en la Unión Europea [aprobada en 2023]“.

“La opacidad de estos sistemas”, añade Suchman, “junto con el problema de la velocidad, lleva a los comandantes a aprobar lo que el sistema recomienda. El resultado son recomendaciones de ataque discriminatorias (por los sistemas de clasificación en los que se basan) e indiscriminadas, porque violan el Derecho Internacional Humanitario”. La profesora insiste en que “el espacio para un control humano significativo ha desaparecido”. Y recuerda que los militares de Israel y Estados Unidos ensalzan la mayor “precisión” que se consigue con los sistemas algorítmicos. “Pero esa supuesta precisión en los ataques no garantiza que el objetivo sea legítimo, como ilustra trágicamente el ataque a la escuela en Minab”.

“1.000 objetivos en una hora”

La periodista Katrina Manson, autora del libro Project Maven, recordó el 12 de marzo en la agencia Bloomberg que Estados Unidos ya ha empleado el sistema Maven Smart System para compartir información sobre objetivos con Ucrania en 2022 y, “posteriormente, en ataques contra Irak, Siria y los hutíes en 2024″. Pero añade que los ataques contra Irán son la mayor prueba para esta tecnología hasta la fecha. Y precisa que el Pentágono espera llegar al punto en que pueda “identificar y seleccionar 1.000 objetivos no en un día, sino en una sola hora”.

Tal vez la palabra clave en estos momentos para la IA en Irán sea “velocidad”. La estrategia de inteligencia artificial del Departamento de Defensa de Estados Unidos señala: “La IA militar va a ser una carrera en el futuro previsible, y por lo tanto la velocidad gana… Debemos aceptar que los riesgos de no avanzar lo suficientemente rápido superan a los riesgos de una alineación imperfecta”. Craig Jones alerta de que las máquinas de la IA hacen recomendaciones sobre qué objetivos alcanzar de forma “mucho más rápida que la velocidad del pensamiento”.

El profesor Peter Asaro, de la New School de Nueva York, comenzó a escribir sobre el peligro de la autonomía de los robots hace 21 años. Fue cofundador en 2009 junto a otros académicos del Comité Internacional para el Control de Armas Robóticas (ICRAC). Y en 2012 se unieron a varias ONG para iniciar la campaña Stop Killer Robots (Detengamos a los Robots Asesinos). Asaro explica por videoconferencia desde Nueva York: “Cuando comenzamos la campaña hace 14 años, era preventiva para detener estos sistemas antes de que se desarrollaran. Ahora se desarrollan y usan, lo que hace nuestro trabajo más difícil. Pero también el público es más consciente y hay más presión política. La aparición de ChatGPT en 2022 ha concienciado a la gente. Estamos a tiempo aún de crear tratados y normas”.

Por su parte, Craig Jones recalca que bajo el segundo mandato de Trump se ha cerrado el Centro de Excelencia de Protección de Civiles, que se creó durante la presidencia de Joe Biden, y el Pentágono ha despedido a abogados militares experimentados. “Al eliminar a los abogados de la mesa de decisiones, dejas el camino libre a los algoritmos, que no son transparentes”, explica. “Pero la paradoja es que, aunque Trump contara con esos letrados, no tendrían tiempo de reaccionar ante la velocidad de la IA. ¿Qué margen real tiene un asesor legal para vetar un ataque basado en una recomendación algorítmica que no entiende?”.

Jones cree que la IA debería ser una herramienta de apoyo, como un estudiante que la usa éticamente para un ensayo. “Pero los humanos tienen una tendencia psicológica, un sesgo de automatización, que les lleva a no cuestionar los resultados de una computadora”, explica. “Cuando un sistema de IA produce cientos de objetivos y dice ‘todos son válidos’, ¿tenemos capacidad humana para revisarlos uno por uno? La respuesta es no”.

Peter Asaro cree que el escenario más peligroso hoy en día respecto a la intervención de la IA en las guerras son los pequeños drones de ataque que buscan matar humanos, como si fueran minas voladoras. “Ya están desarrollándose en Ucrania”, afirma Asaro. El mayor peligro a medio plazo para él es la selección automatizada de objetivos sin revisión humana. “Que confíen en la IA para decisiones legales y morales”, añade. Y a largo plazo, la existencia de comandantes que no entiendan cómo la IA desarrolla estrategias. “Con lo cual se pueden generar descontrol político y desestabilización geopolítica”, augura.

Asaro colabora con académicos y activistas para redactar un texto sobre la regulación de la IA en conflictos bélicos, que aspira a servir de base para un tratado entre países. “Gobiernos como el de España están apoyando el esfuerzo. Y varios países europeos también. Pero la ONU va muy lenta”, indica el profesor y activista. Asaro cree que las guerras actuales podrían volver a enfocar la opinión pública hacia el respeto del derecho internacional.

Nuria Oliver también emite un mensaje esperanzador sobre el futuro de la IA en las guerras: “Igual que fuimos capaces de regular el uso de armas nucleares, habrá que hacer algo parecido con la inteligencia artificial”.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_