INTERNACIONAL
Guerra algorítmica

Soldados de código: el vacío legal que permite a la IA ejecutar objetivos en el frente

El Día del Desarme, celebrado el 5 de marzo, puso foco en los sistemas de armas autonómocas letales. Un informe reciente de las Naciones Unidas advierte sobre los riesgos de la falta de regulación humana.

El dilema de las máquinas que deciden a quién matar
El dilema de las máquinas que deciden a quién matar | Gemini

El 5 de marzo marcó un punto de inflexión en las discusiones sobre seguridad global en la sede de las Naciones Unidas. El debate se centró en la proliferación de sistemas de armas autónomas letales, conocidos técnicamente como LAWS. Estos dispositivos integran inteligencia artificial para atacar objetivos sin intervención humana.

La preocupación central de los diplomáticos y expertos radica en la velocidad con la que estas herramientas se despliegan en conflictos regionales actuales. Durante las reuniones de Grupo de Expertos Gubernamentales (GGE), se expuso que la tecnología está superando la capacidad de los marcos jurídicos internacionales existentes.

Irán definió el nombre del nuevo Líder Supremo: será Mojtaba Jamenei

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

El concepto de "control humano significativo" se volvió el eje de una disputa entre las potencias que lideran el desarrollo de software bélico y aquellas naciones que exigen una prohibición total.

El riesgo de la carrera armamentista algorítmica

El desarrollo de enjambres de drones y torretas autorizadas ya no es una proyección de ciencia ficción para el año 2026. Diversos informes de Human Rights Watch detallan que la ausencia de un tratado vinculante fomenta una competencia donde la velocidad de procesamiento es el activo más valioso.

El dilema de las máquinas que deciden a quién matar
128 Estados debatirán si acuerdan por consenso un texto no vinculante que podría allanar el camino para futuras negociaciones sobre prohibiciones y regulaciones de las LAWS

En paralelo, la seguridad informática se suma como un factor de inestabilidad crítica en este contexto. Un sistema de armas autónomo es vulnerable a interferencias, suplantación de identidad o errores en el código, que podrían derivar en ataques contra población civil.

La falta de transparencia en los algoritmos de "caja negra" impide determinar por qué una máquina tomó la decisión de disparar, lo que crea un vacío de responsabilidad jurídica. "No hay forma de responsabilizar a una máquina por una violación de las leyes de la guerra", explica el profesor Noel Sharkey.

La tecnología frente a la legislación internacional

A pesar de las advertencias, varios países mantienen una postura ambivalente respecto a la regulación estricta. Argumentan que la inteligencia artificial puede reducir los errores humanos causados por el miedo o la venganza en la guerra.

Día de la Mujer: multitudes marcharon en Europa y América contra la violencia y el conflicto bélico

Por su parte, los críticos señalan que la IA carece de la capacidad de juicio contextual necesaria para distinguir entre un combatiente herido que se rinde y uno que sigue siendo una amenaza activa.

El Comité Internacional de la Cruz Roja (CICR) insistió en que los limites deben ser claro y aplicables de inmediato. Los altos mandos señalan que cualquier arma de este tipo debe ser utilizada bajo restricciones espaciales y temporales para evitar daños colaterales.

El dilema de las máquinas que deciden a quién matar
Estos dispositivos integran inteligencia artificial para atacar objetivos sin intervención humana

En términos de logística militar, el costo de producción de drones autónomos bajó en los últimos años. Esto facilita que actores no estatales o grupos insurgentes accedan a tecnologías que antes eran exclusivas de los presupuestos de defensa de las grandes potencias.

La democratización de la letalidad algorítmica es hoy una de las amenazas más complejas de rastrear para las agencias de inteligencia global, que ven cómo el software se distribuye con mayor facilidad que el hardware físico.