Ataques y tecnología

El algoritmo fue a la guerra

IA. Donald Trump prohibió a las agencias federales usar Claude. Foto: bloomberg

El 28 de febrero de 2026 pasó algo que merece más atención de la que está recibiendo. Estados Unidos e Israel lanzaron ataques coordinados sobre Irán. La operación se llamó Epic Fury. En pocas horas murió Alí Jamenei, el líder supremo que llevaba décadas prometiendo borrar a Israel del mapa, y las instalaciones nucleares iraníes fueron golpeadas de una forma que cuarenta años de diplomacia internacional no habían logrado. Pero hay un detalle dentro de todo eso que me resulta imposible dejar pasar.

Horas antes de que despegaran los aviones, Donald Trump firmó una orden ejecutiva prohibiendo a todas las agencias federales usar Claude, la IA de la empresa Anthropic. La llamó una compañía de izquierda radical. Declaró a Anthropic un riesgo para la seguridad nacional. El secretario de Defensa Pete Hegseth la designó “riesgo en la cadena de suministro”. Todo bastante dramático para un viernes a la noche.

Esa misma noche, mientras los aviones ya estaban en el aire, el ejército de Estados Unidos usó Claude para identificar blancos, evaluar inteligencia y simular escenarios de combate en tiempo real durante los ataques sobre Irán. Paro acá porque esto merece atención.

El problema no era ideológico. Era absolutamente técnico, y eso lo hace más revelador. La IA estaba tan integrada en los sistemas militares que retirarla en horas era inviable. Los analistas calculan que reemplazarla tomaría entre tres y seis meses. El modelo corría dentro de redes clasificadas, dentro de arquitecturas que ya no funcionan sin él. La orden llegó demasiado tarde para cambiar algo que ya era infraestructura. Había dejado de ser una herramienta para volverse parte del sistema nervioso de la operación.

La pelea previa también importa. Anthropic se había negado a darle al Pentágono acceso sin restricciones. No quería que su herramienta fuera usada para vigilancia masiva de ciudadanos ni para armas autónomas. El Pentágono exigió exactamente eso. Anthropic no cedió. En ese mismo momento, OpenAI firmó contrato con el Departamento de Defensa. La carrera por los contratos militares es real, la presión es real, y la ética en ese contexto claramente se negocia. Todo esto pone sobre la mesa algo que no tiene respuesta fácil.

¿Quién responde cuando una IA asistió en la decisión de bombardear? Y no estoy hablando de ciencia ficción. Estoy hablando de algo que ya pasó. La IA procesó datos, modeló consecuencias, identificó objetivos a una velocidad que ningún equipo humano puede igualar. Eso no significa que la máquina decidió sola, pero sí que el espacio entre el dato y el golpe se achicó de una forma que los marcos legales y la deliberación política todavía no saben cómo procesar. La velocidad algorítmica corre más rápido que la discusión humana. Eso tiene consecuencias que todavía no terminamos de entender. Y en el fondo de todo, hay algo que no conviene eludir.

Irán llevaba cuatro décadas financiando el terrorismo regional, exportando inestabilidad, amenazando la existencia de Israel con una retórica que no era solo retórica. Un régimen que construyó su poder sobre el odio sistemático hacia un país que existe y que tiene todo el derecho a seguir existiendo. La operación dejó fuera de combate uno de los focos de mayor desestabilización del Medio Oriente en el último medio siglo.

Eso no es un dato menor. Aunque la forma en que se llegó hasta ahí abra preguntas que van a quedar acá mucho tiempo después de que el humo se disipe. Lo que quedó demostrado esta semana no es que la IA es peligrosa ni que es una solución. Es que ya es parte constitutiva del mundo real. No como amenaza futura. Como presente activo e irreversible.

El algoritmo fue a la guerra. Y la pregunta que importa ahora no es si eso debería haber pasado. Es qué hacemos con un mundo en el que ya pasó.

*Autor y divulgador. Especialista en tecnología emergente.