INTERNACIONAL
Inteligencia Artificial “militar y bélica”

Más cerca de Terminator: OpenAI aprobó la utilización de ChatGPT para el ejército de EE.UU

La creadora del chatbot actualizó sus políticas y eliminó, sin manifestaciones públicas, la sección que prohibía expresamente el uso de su tecnología con fines militares. La cooperación con el Departamento de Defensa.

Uso militar de la Inteligencia Artificial
Uso militar de la Inteligencia Artificial | X: @idrwalerts

OpenAI, la creadora del popular chatbot de inteligencia artificial (IA) generativa ChatGPT, actualizó sus políticas de uso y eliminó silenciosamente la sección que prohibía expresamente el uso de su tecnología con fines militares. Esta medida va de la mano con un proyecto de cooperación que está llevando adelante la empresa con el Departamento de Defensa de los Estados Unidos.

Hasta el pasado 10 de enero, la página de “políticas de uso” de OpenAI incluía la prohibición de “actividades que conllevan un alto riesgo de daño físico, incluido”, específicamente, el “desarrollo de armas” y “militares y bélicos”. Esta medida descartaba la posibilidad de cualquier uso oficial de ChatGPT por parte del ejército estadounidense.

Si bien una orden judicial evita que se pueda utilizar la IA para “dañarse a usted mismo o a otros” y “desarrollar o usar armas”, la nueva actualización de las políticas permitió eliminar la restricción del uso “militar y bélico”, con el objetivo de avanzar en las negociaciones con el Departamento de Defensa.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

Avances en inteligencia artificial generativa: ¿Cómo afecta a los puestos de trabajo?

No obstante, el portavoz de OpenAI, Niko Felix, hizo una aclaración sobre la decisión: “Cualquier uso de nuestra tecnología, incluso por parte del ejército, para desarrollar o usar armas, herir a otros o destruir propiedad, o participar en actividades no autorizadas que violen la seguridad de cualquier servicio o sistema, no está permitido".

El trabajo entre Open AI y el ejército de Estados Unidos

Otro portavoz de la compañía aseguró que están en conversaciones con el Departamento de Defensa de Estados Unidos para colaborar en la creación de herramientas de ciberseguridad diseñadas para proteger softwares de código abierto. Esto permitirá a la empresa recaudar dinero por un monto estimativo de 100 mil millones de dólares.

"Nuestra política no permite que nuestras herramientas se utilicen para dañar a personas, desarrollar armas, vigilar las comunicaciones, herir a otros o destruir propiedades. Sin embargo, hay casos de uso de seguridad nacional que se alinean con nuestra misión”, mencionó el portavoz en diálogo con DailyMail.

Y agregó: “Por ejemplo, ya estamos trabajando con la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) para impulsar la creación de nuevas herramientas de ciberseguridad para proteger el software de código abierto del que dependen la industria y la infraestructura crítica”.

Asimismo, el vocero de Open AI hizo referencia a la actualización de sus prohibiciones. “No estaba claro si estos casos de uso beneficiosos se habrían permitido bajo 'militar' en nuestras políticas anteriores. Entonces, el objetivo de nuestra actualización de políticas es brindar claridad y la capacidad de tener estas discusiones", dijo el portavoz.

La utilización militar de la Inteligencia Artificial

El año pasado, 60 países, incluidos Estados Unidos y China, firmaron un "llamado a la acción" para limitar el uso de inteligencia artificial en temas militares. Sin embargo, expertos en derechos humanos de La Hay señalaron que esto "no es legalmente vinculante" y que no abordó cuestiones como el uso de drones letales con IA, o que la utilización de la IA pueda intensificar los conflictos existentes.

Inteligencia y estupidez artificial

A su vez, el uso militar de la inteligencia artificial por parte de las “grandes tecnologías” ya generó controversia en el pasado. En 2018, miles de empleados de Google protestaron contra un contrato del Pentágono, el 'Proyecto Maven', en el que se utilizaban herramientas de IA de la compañía para analizar imágenes de vigilancia de drones. A raíz de las quejas, Google no renovó el contrato.

Un año antes, líderes tecnológicos, incluido Elon Musk, escribieron a la ONU pidiendo que se prohibieran las armas autónomas, en virtud de leyes similares a las que prohíben las armas químicas y los láseres construidos para cegar a las personas. 

El grupo advirtió que las armas autónomas amenazaban con marcar el comienzo de una "tercera revolución bélica": las dos primeras serían la pólvora y las armas nucleares. Los expertos advirtieron que una vez abierta la "caja de Pandora" de armamento totalmente autónomo, puede resultar imposible volver a cerrarla.

 

RV/HB