El Centro Cultural de la Ciencia, del barrio porteño de Palermo, es sede estos días de una cumbre mundial internacional que busca detener el desarrollo de armas letales totalmente autónomas (LAWS) o "robots asesinos". Se trata de la segunda reunión global de la Campaña para Detener a los Robots Asesinos, una alianza organizaciones como Human Right Watch y Amnistía Internacional, que se realizará desde el miércoles y hasta el viernes en el Centro Cultural de la Ciencia.
La Campaña para Detener a los Robots Asesinos, que se formó en 2012, trabaja para prohibir las armas completamente autónomas y mantener un control humano sobre el uso de la fuerza. En ese sentido, está conformada por 140 organizaciones no gubernamentales en 61 países, que trabaja para prohibir preventivamente el uso de armas autónomas.
En la conferencia de este miércoles, que tuvo como moderadora a la coordinadora de la Red de Seguridad Humana en Latinoamérica y el Caribe (SEHLAC), María Pía Devoto, hubo un panel integrado por Jody Williams (Premio Nobel de la Paz de 1997), Laura Nolan (ingeniera de software), Sylvie Ndongmo (representante por África de la Liga Internacional de Mujeres por la Paz y la Libertad – WILPF-) y Vanina Martínez, investigadora del CONICET.
Son una amenaza para los derechos humanos
Los participantes aseguran que la proliferación de armamento autónomo —software de inteligencia artificial (IA) aplicados a vehículos no tripulados y robots armados— provocará mayores desigualdades entre los países del primer mundo y aquellos en vías de desarrollo. Además, aseguran, perpetuaría la violencia hacia mujeres, niños y civiles y crearía un vacío de responsabilidad que rompería los consensos del derecho internacional.
"La cuestión fundamental es preguntarse por qué los seres humanos creen que está bien darle a una máquina la decisión de matar a un ser humano. Están diciendo que los sistemas automatizadas son parte de la tercera revolución en la guerra. ¿Queremos vivir con la amenaza de robots asesinos?", planteó Jody Williams.
Científicas y activistas locales e internacionales presentaron sus argumentos en contra de la investigación y uso militar de programas informáticos automatizados que activen ataques con drones aéreos, terrestres, marítimos o espaciales. "La cuestión fundamental es preguntarse por qué los seres humanos creen que está bien darle a una máquina la decisión de matar a un ser humano. Están diciendo que los sistemas automatizadas son parte de la tercera revolución en la guerra. ¿Queremos vivir con la amenaza de robots asesinos?", planteó Jody Williams.
Vanina Martínez, investigadora argentina en Ciencias de la Computación y especializada en inteligencia artificial simbólica, quien explicó: “Cuando empecé a pensar en las consecuencias que podían tener el uso bélico de los mismos modelos que yo estaba desarrollando, empecé a desarrollar una postura crítica, que creo que es algo que suele faltarle a la comunidad científica en general, con perspectivas acotadas en la resolución de problemas”.
Martínez explicó que su trabajo se diferencia de otras aplicaciones de la IA como el aprendizaje automático, más conocido como machine learning, en que sus estudios utilizan modelos basados en conocimientos de expertos a través de esquemas de lógica matemática. “Todavía no entendemos bien cómo funcionan ni si van a evolucionar para tener comprensión del contexto. No pueden representar conocimiento de sentido común, interpretar lo que está pasando o discernir entre un combatiente y un civil, mucho menos si los primeros buscan hacerse pasar como los segundos”, explicó.
“Que un software decida sobre la vida y la muerte afecta directamente a la dignidad humana” (María Pía Devoto, coordinadora de la Red de Seguridad Humana en Latinoamérica y el Caribe).
También participó como expositora la ingeniera en software irlandesa Laura Nolan, exempleada de la empresa estadounidense de tecnología Google que renunció a su trabajo en 2018 en protesta por el Proyecto Maven, un contrato que tenía Google con el Departamento de Defensa de los EEUU para desarrollar inteligencia artificial para mejorar las capacidades de apuntado y vigilancia de los drones en el campo de batalla.
"No es posible cuantificar la proporcionalidad, no se puede codificar el discernimiento. Esto puede llevar a la simplificación, como calcular el daño en cantidad de víctimas de un ataque sin una perspectiva humana. Puede bajar la vara de lo que significa iniciar una guerra ya que reduce el riesgo de los combatientes del país que cuenta con esta tecnología", dijo Nolan en su exposición.
María Pía Devoto, explicó que las armas autónomas representan problemas éticos y legales. “Que un software decida sobre la vida y la muerte afecta directamente a la dignidad humana”, señaló. “En derecho internacional humanitario existe lo que se llama 'principio de distinción' en la guerra, que obliga a diferenciar entre objetivos militares y civiles. Es muy difícil que una máquina por sí sola pueda interpretar esa complejidad. Por otro lado, ¿quién se hace responsable de un acto de guerra ilícito cometido por un dron, un robot, un tanque, un submarino?”, se preguntó.
DS