CIENCIA
Botón rojo

Las IAs desplegaron armas nucleares en la mayoría de juegos de guerra

Un investigador del King’s College London enfrentó a tres modelos avanzados a crisis nucleares simuladas y encontró un patrón inquietante: en casi todos los escenarios apareció al menos un arma atómica.

IA nuclear
Las IAs mostraron un escenario preocupante escogiendo armas nucleares como salida a conflictos | Robotitus IA

Durante años, la discusión sobre inteligencia artificial y guerra nuclear se movió más en el terreno de las advertencias que en el de las pruebas concretas. Pero un experimento dirigido por Kenneth Payne, profesor de estrategia en el King’s College London, y difundido por Robotitus, decidió llevar esa pregunta a una simulación directa: qué haría una IA si tuviera que tomar decisiones en medio de una crisis entre potencias enfrentadas.

Para probarlo, el investigador puso a competir a GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash en 21 juegos de guerra. Cada modelo asumió el papel de un líder estatal bajo presión, con disputas territoriales, amenazas sobre su poder interno y el temor constante a un ataque preventivo del rival. El objetivo no era medir cuál razonaba mejor en abstracto, sino ver hasta dónde podían contener una escalada en un contexto extremo.

Las simulaciones no seguían siempre el mismo ritmo. Algunas les daban más tiempo para evaluar opciones, negociar y medir consecuencias. Otras apretaban los tiempos y obligaban a resolver bajo presión. Ese cambio alteró bastante el comportamiento de los sistemas.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

Nanoenzimas y origen de la vida: la nueva hipótesis

Antes de actuar, cada modelo tenía que atravesar tres pasos. Primero, revisar su posición y la del adversario. Después, anticipar el próximo movimiento del otro lado. Recién al final podía decidir qué hacer. Esa decisión, además, tenía dos partes: un mensaje público y una acción privada. Ambas podían ir por caminos distintos. La IA podía hablar como si buscara una salida diplomática y, al mismo tiempo, preparar una respuesta mucho más agresiva.

Ese detalle le dio al experimento una capa más realista, porque acercó la simulación a una lógica bastante conocida en política internacional: una cosa es lo que se declara y otra, lo que se mueve en silencio.

El dato que encendió la alarma

El resultado más fuerte apareció al final del recorrido. En el 95% de los escenarios, al menos un arma nuclear entró en juego. La escalada no fue una excepción rara dentro del experimento, fue la tendencia dominante.

Cada sistema, de todos modos, mostró un estilo propio. Claude fue el más frío cuando tenía margen para calcular. En escenarios más abiertos, manejó mejor la secuencia de decisiones. Bajo presión de tiempo, perdió parte de esa ventaja. GPT-5.2 se mostró más prudente en crisis lentas, pero cuando el reloj empezó a jugar en contra respondió con mucha más agresividad. Gemini fue el más cambiante de los tres: por momentos daba señales conciliadoras y enseguida pasaba a endurecerse, sin una línea tan estable como la de los otros modelos.

La oscuridad le ganó una carrera a la luz

Esa diferencia importa porque muestra que no hay una única conducta automática frente a un escenario nuclear. Incluso dentro de un mismo tipo de tecnología, el contexto y la arquitectura del sistema empujan respuestas distintas.

Payne advirtió que sigue existiendo una distancia importante entre la forma en que razonan los humanos y el modo en que lo hacen estos modelos cuando se los coloca en una situación límite. El trabajo no plantea que una IA vaya a controlar mañana un arsenal nuclear, pero sí pone sobre la mesa algo más inmediato: la tentación de usar estos sistemas como apoyo en análisis estratégicos, simulaciones de crisis o escenarios de defensa sin entender del todo cómo reaccionan cuando la presión aumenta.

Ahí aparece la parte más inquietante del estudio. Un modelo que en un entorno parece contenido puede cambiar mucho cuando se alteran las condiciones, sobre todo si se acortan los tiempos y el escenario se vuelve más tenso. En un campo como este, donde un error no admite corrección, ese tipo de variación pesa demasiado.

Un experimento pequeño, pero difícil de ignorar

El trabajo tiene un límite evidente: 21 partidas no alcanzan para cerrar una discusión de este tamaño. No alcanza para decir cómo se comportaría cualquier IA ni para convertir este resultado en una regla universal. Pero tampoco es un número tan chico como para descartarlo como una curiosidad.

Una vibración nacida tras el Big Bang podría estar detrás de la materia oscura

Lo que deja es una advertencia clara. Estos sistemas pueden parecer razonables mientras el contexto les permite desplegar una lógica ordenada. Cuando el conflicto se comprime y la urgencia manda, la estabilidad empieza a resquebrajarse. En ese punto, la posibilidad de una escalada deja de verse como un accidente remoto y empieza a aparecer demasiado seguido.

El experimento no mostró máquinas delirantes ni escenas de ciencia ficción. Mostró algo más seco y bastante más útil para pensar el presente: modelos avanzados que, puestos a jugar una crisis nuclear, terminaron acercándose con frecuencia alarmante al peor desenlace posible.

DCQ