Sesenta segundos. Es el tiempo que, según un exagente del Mossad, tardaron los ataques que acabaron con la vida del líder supremo iraní, Ayatolá Ali Jamenei, el 28 de febrero de 2026. Ese día marcó el inicio de lo que muchos analistas ya denominan "la primera guerra de la IA", un conflicto donde la inteligencia artificial no es una herramienta auxiliar, sino el motor central que redefine la velocidad y la escala de la guerra moderna.

Este hito, sin embargo, no surge de la nada. Representa la culminación de décadas de búsqueda obsesiva por reducir el tiempo en la "cadena de matar" militar —el ciclo desde la detección de un objetivo hasta su neutralización—. Desde los reconocimientos aéreos manuales de la Segunda Guerra Mundial, que podían tardar días, hasta los sistemas de localización por satélite de la Guerra Fría, el imperativo siempre ha sido el mismo: ver más rápido, decidir más rápido, actuar más rápido. La IA ha convertido esa aspiración en una realidad operativa a una escala aterradora.

El problema central que la IA resuelve para los mandos militares es el de la "sobrecarga de datos". Como señalaba ya la Fuerza Aérea de EE.UU. en 2010, los modernos ejércitos "nadan en sensores y se ahogan en datos". Intercepciones de comunicaciones, vigilancia masiva de internet (inteligencia de señales), imágenes de satélite y flujos de video de drones generan un volumen de información que ningún equipo humano puede procesar con la rapidez que exige el combate. Aquí es donde los algoritmos de aprendizaje automado entran en escena, actuando como filtros hiperacelerados.

El general Brad Cooper, del Mando Central de EE.UU. (CENTCOM), confirmó recientemente el uso de estas herramientas en el conflicto con Irán, explicando que "nos ayudan a cribar enormes cantidades de datos en segundos". El resultado no es solo velocidad, sino una transformación estructural: una investigación de la Universidad de Georgetown reveló que el XVIII Cuerpo Aerotransportado del Ejército estadounidense había empleado IA para procesar inteligencia, reduciendo un equipo de 2.000 analistas a apenas 20 personas.

Esta eficiencia brutal tiene implicaciones profundas. Por un lado, ofrece una ventaja táctica indiscutible: la capacidad de "cortar a través del ruido" y tomar decisiones más rápido que el enemigo. En teoría, esto podría salvar vidas propias al neutralizar amenazas antes de que se materialicen. Sin embargo, la velocidad extrema conlleva riesgos existenciales. La "cadena de matar" acelerada por IA comprime drásticamente el tiempo para la verificación humana, la evaluación de daños colaterales o la consideración de alternativas. Cuando el ciclo de decisión pasa de horas a segundos, el margen para el error, la confusión o el malentendido catastrófico se reduce a casi cero.

El conflicto en Oriente Medio se convierte así en un laboratorio vivo de ética militar y derecho internacional. La promesa de una guerra más "limpia" y precisa gracias a la tecnología choca con la realidad de algoritmos entrenados con datos imperfectos, operando en entornos caóticos. La pregunta ya no es si la IA cambiará la guerra —eso ya ha ocurrido—, sino cómo la humanidad gobernará su uso. ¿Quién es responsable cuando un algoritmo selecciona un objetivo? ¿Cómo se garantiza la proporcionalidad en milisegundos? La primera guerra de la IA no solo está redefiniendo el campo de batalla, sino que está forzando un urgente debate global sobre los límites de la tecnología en el arte más antiguo y destructivo de la humanidad.