La inteligencia artificial como acelerador de la guerra
La integración de la inteligencia artificial en el ámbito militar representa una transformación tan profunda que los teóricos estratégicos la catalogan como la “tercera gran revolución” en la tecnología militar, sucediendo a la invención de la pólvora y el desarrollo de las armas nucleares. Hoy en día, la IA ya no es una mera herramienta de apoyo, sino un factor de poder que redefine las nociones clásicas de disuasión, soberanía y combate. Sin embargo, la delegación de decisiones de la vida o la muerte a los algoritmos plantea dilemas éticos, legales y geopolíticos sin precedentes.
El impacto más estremecedor de la IA es la drástica compresión de lo que se denomina la “cadena de muerte”, es decir, el tiempo que transcurre entre la detección de un objetivo y el ataque. De este modo, la planificación que antes tomaba semanas ahora ocurre en milisegundos, gracias a la fusión de datos procedentes de satélites, drones y radares.
Esta automatización extrema ha dado lugar al concepto que titula el libro Hiperguerra, un término acuñado por Amir Husain y John R. Allen para describir conflictos controlados por inteligencia artificial con poca o nula toma de decisiones humana.
Como denuncia el investigador Pablo Elorduy en su artículo “La máquina de los asesinatos en masa”, estos sistemas operan como fábricas de asesinatos, donde la velocidad y los sesgos algorítmicos aumentan exponencialmente las bajas civiles sin control humano.
Así, el uso de sistemas de armas autónomas letales desafía los pilares del derecho internacional humanitario, específicamente los principios de distinción, proporcionalidad y precaución. En su artículo “Autonomous Weapon Systems and their Compliance with International Humanitarian Law”, Priyanshu Rani explica que es dudoso que las máquinas puedan replicar los procesos psicológicos y el juicio moral humano necesarios para evaluar el daño. Como consecuencia, se crea un “vacío de responsabilidad”.
A esto se suma un dilema ético fundamental que es la “deshumanización digital”. Bonnie Docherty, en A Hazard to Human Rights: Autonomous Weapons Systems and Digital Decision-Making, subraya que las máquinas carecen de empatía, compasión y de la capacidad de asignar un valor cualitativo a la vida humana. De este modo, permitir que un algoritmo decida a quién matar reduce a los seres humanos a simples puntos de datos o códigos, violando la dignidad humana.
Si una IA comete un crimen de guerra o bombardea una escuela por un error de base de datos, surge la gran pregunta: ¿quién es responsable de estas muertes?
Paul R. Williams y Ryan Jane Westlake proponen en su texto “A Taste of Armageddon: Legal Considerations for Lethal Autonomous Weapons Systems” aplicar el concepto de “responsabilidad estricta” a los desarrolladores y fabricantes de etas armas, bajo el derecho penal internacional. Esto incentivaría a las empresas a programar con extrema cautela, sabiendo que serán responsables si sus creaciones violan las leyes de la guerra de forma autónoma.
Actualmente, Estados Unidos y China están inmersas en una carrera armamentística basada en la IA. Rahul Pandey, en “Great PowerCompetition in AI-ledDrivenWarfarebetweenthe US and China”, destaca que mientras EE.UU. invierte miles de millones en programas como Replicator (para desplegar miles de drones), Beijing cierra la brecha agresivamente, integrando la IA en misiles hipersónicos y enjambres de drones para posibles escenarios hipotéticos como Taiwán.
Como subraya Stéphane Lauer en “La guerre est une affaire trop sensible pour être pilotée parl’IA”, las decisiones militares son demasiado sensibles para dejarlas en manos de algoritmos probabilísticos corporativos.
Entendemos que la clave ética de cualquier marco legal internacional debe garantizar que exista siempre un control humano como última instancia de responsabilidad y conciencia sobre el uso de la fuerza letal.
*Profesor de Relaciones Internacionales de la Universidad de Buenos Aires y la Universidad Austral.
También te puede interesar
-
Un libro anotado por Galileo confirma su conocimiento del geocentrismo
-
A Dios
-
Credibilidad: una inflación que golpea
-
Hay 2027; pero lo que faltan son candidatos
-
Otra vez la inflación resiste la baja y vuelve a complicar el plan económico del Gobierno
-
Fuera de la ley
-
Escribiviendo
-
El amigo americano
-
Reina absoluta