El ejército de Estados Unidos recurrió a la inteligencia artificial más avanzada que jamás utilizó en combate para planificar y ejecutar su ofensiva contra Irán: Claude, el chatbot desarrollado por la empresa Anthropic, integrado en el sistema militar Maven Smart System de la compañía de minería de datos Palantir. Así lo revelaron tres fuentes familiarizadas con el sistema, según reportó The Washington Post.
Maven, potenciado por Claude, procesó información clasificada proveniente de satélites, vigilancia y servicios de inteligencia para sugerir cientos de objetivos, determinar coordenadas precisas y priorizarlos según su importancia estratégica. La combinación de ambas herramientas permitió que la planificación bélica —un proceso que antes demandaba semanas— se convirtiera en una operación en tiempo real, reduciendo además la capacidad de contraataque iraní. En las primeras 24 horas de la ofensiva, las fuerzas estadounidenses atacaron más de 1.000 objetivos.
“El cambio de paradigma clave es que la IA permite al ejército estadounidense desarrollar paquetes de objetivos a velocidad de máquina, no humana”, señaló Paul Scharre, vicepresidente ejecutivo del Centro para una Nueva Seguridad Americana y autor de varios libros sobre inteligencia artificial en la guerra. Scharre, sin embargo, advirtió sobre los riesgos: “La IA se equivoca. Necesitamos que los humanos verifiquen los resultados de la IA generativa cuando lo que está en juego son vidas”.
El uso de Claude en Irán marca un hito: es la primera vez que la herramienta se emplea en operaciones bélicas de gran escala, aunque previamente había sido utilizada para neutralizar complots terroristas y en el operativo que resultó en la captura del venezolano Nicolás Maduro. Más de 20.000 militares utilizaban Maven a partir de mayo pasado, y los comandantes que hoy conducen la campaña contra Irán ya habían trabajado con versiones anteriores del sistema en la retirada de Afganistán en 2021 y en el apoyo a Israel tras los ataques del 7 de octubre de 2023.
La situación tiene, no obstante, una paradoja de fondo. Pocas horas antes de que comenzaran los bombardeos, el presidente Donald Trump anunció la prohibición a los organismos gubernamentales de seguir utilizando herramientas de Anthropic, otorgándoles seis meses para encontrar reemplazos. La medida fue consecuencia de un enfrentamiento entre la empresa y el Pentágono en torno al uso de la tecnología en vigilancia masiva doméstica y en armamento totalmente autónomo, condiciones que Anthropic rechazó.
Pese a la prohibición, el ejército continuará usando Claude mientras implementa un reemplazo. La dependencia generada es tal que, según una fuente, si el CEO de Anthropic, Dario Amodei, ordenara cesar el uso inmediatamente, la administración Trump retendría la tecnología por la fuerza. “Tenga o no razón en sus principios, no vamos a permitir que las decisiones de [Amodei] cuesten una sola vida estadounidense”, afirmó esa fuente.
El propio Amodei había declarado la semana pasada que Claude estaba “ampliamente desplegado” en el Departamento de Defensa y otras agencias de seguridad, y había justificado su postura: “Creo profundamente en la importancia existencial de usar la IA para defender a Estados Unidos y otras democracias, y para derrotar a nuestros adversarios autocráticos”, escribió en un blog cuando las negociaciones con el Pentágono llegaron a un punto muerto.
Con Anthropic en la mira, otras empresas ya se posicionan para ocupar su lugar. xAI, de Elon Musk, y OpenAI firmaron la semana pasada acuerdos para trabajar en sistemas gubernamentales clasificados, abriendo una nueva etapa en la competencia por el negocio de inteligencia artificial militar.