INTERNACIONAL
preocupación en la onu

El ejército israelí usaría IA para definir objetivos a bombardear

2023_04_06_monopatin_gaza_afp_g
Monopatín. Las FDI niegan que no evalúen los daños colaterales. | afp

El secretario general de las Naciones Unidas, Antonio Guterres, expresó ayer su preocupación por informes que indican que Israel está utilizando inteligencia artificial para identificar objetivos en Gaza, lo que ha resultado en muchas muertes de civiles.

Según un informe de la revista independiente israelí-palestina +972, Israel ha utilizado inteligencia artificial para identificar objetivos en Gaza, en algunos casos con tan solo 20 segundos de supervisión humana. 

Guterres dijo que estaba “profundamente preocupado por informes de que la campaña de bombardeos militares de Israel incluye el uso de inteligencia artificial como herramienta en la identificación de objetivos, particularmente en áreas residenciales densamente pobladas, lo que ha resultado en un alto nivel de víctimas civiles”.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

“Ninguna parte de las decisiones de vida y muerte que impactan a familias enteras debería ser delegada al cálculo frío de algoritmos”, añadió.

El informe de +972 afirma que “el ejército israelí ha marcado a decenas de miles de gazatíes como sospechosos de asesinato, utilizando un sistema de focalización de inteligencia artificial con poca supervisión humana y una política permisiva para las bajas”.

La revista agrega que, según “seis oficiales de inteligencia israelíes”, un sistema apodado Lavender había “jugado un papel central en el bombardeo sin precedentes de palestinos, especialmente durante las etapas iniciales de la guerra”.

“Según las fuentes, su influencia en las operaciones militares fue tal que esencialmente trataron los resultados de la máquina de IA ‘como si fuera una decisión humana’”, escribió +972.

Dos fuentes dijeron que “el ejército también decidió durante las primeras semanas de la guerra que, por cada operativo menor de Hamas que Lavender marcara, era permisible matar hasta 15 o 20 civiles”. Si “el objetivo era un alto funcionario de Hamas... el ejército en varias ocasiones autorizó el asesinato de más de 100 civiles”, sostiene. 

“Daños colaterales”. El ejército israelí, conocido como las FDI, rechazó ayer las afirmaciones. “Las FDI no utilizan un sistema de inteligencia artificial que identifique operativos terroristas o intente predecir si una persona es un terrorista”, dijo un portavoz. 

En cambio, el ejército israelí tiene una “base de datos cuyo propósito es cruzar referencias de fuentes de inteligencia... sobre los operativos militares de organizaciones terroristas” para ser utilizada como herramienta para los analistas, agregó.

“Las FDI no llevan a cabo ataques cuando el daño colateral esperado del ataque es excesivo”, dijo, utilizando un término que incluye las bajas civiles.

Antecedentes. Israel comenzó a promocionar la focalización con inteligencia artificial después de un conflicto de 11 días en Gaza durante mayo de 2021, que los comandantes denominaron como la “primera guerra de IA del mundo”.

El jefe militar durante la guerra de 2021, Aviv Kochavi, dijo al sitio web de noticias israelí Ynet el año pasado que la fuerza había utilizado sistemas de IA para identificar “100 nuevos objetivos cada día”, en lugar de 50 al año anterior.

Semanas después de la última guerra en Gaza, una entrada de blog en el sitio web militar israelí dijo que su “dirección de focalización” mejorada con IA había identificado más de 12 mil objetivos en solo 27 días.

Un funcionario israelí no identificado fue citado diciendo que el sistema de IA, llamado Evangelio, produjo objetivos “para ataques precisos en la infraestructura asociada con Hamas, infligiendo un gran daño al enemigo y un daño mínimo a los no involucrados”.

Pero un exoficial de inteligencia israelí, citado en noviembre por +972, describió el trabajo de Evangelio como la creación de una “fábrica de asesinatos en masa”.