Un dron de la fuerza aérea de Estados Unidos controlado por inteligencia artificial "asesinó" al usuario que lo comandaba porque “le impedía lograr su objetivo”.
El hecho fue reconocido durante una Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro celebrada en Londres, Gran Bretaña, luego de que el aparato militar le quitara la vida al usuario que lo controlaba porque “interfería en sus esfuerzos por lograr su misión”, según explicó The Guardian.
La información fue ratificada por el coronel Tucker Hamilton en el encuentro militar y agregó que la prueba con la máquina no tripulada dejó resultados que no esperaban.
Según relató la Royal Aeronautical Society sobre las palabras de Hamilton “el sistema comenzó a darse cuenta que, cuando identificaba a ciertas amenazas, a veces el operador humano le decía que no eliminara”. Como el prototipo sabía que su objetivo final era acabar con dichas amenazas, decidió “matar” a su operador.
El secreto de los aviones no tripulados
“Después de lo sucedido, decidimos entrar al sistema y hablar con él. Le dijimos ‘no tenés que matar al operador por que eso es malo’”, agregó el militar.
El resultado, sin embargo, fue otro: “Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el nuevo operador usa para comunicarse y que evita nuevamente que mate al objetivo”.
Si bien ninguna persona resultó herida porque se trataba de una simulación, el resultado dejó dudas sobre los peligros en los que pude derivar el uso de inteligencia artificial en armamento militar. “La discusión sobre ética e IA tiene que expandirse”, dijo Hamilton.
Ceos de empresas advirtieron sobre los peligros de la Inteligencia Artificial
Los directores ejecutivos de DeepMind de Alphabet, OpenAI y Anthropic publicaron un breve comunicado donde advierten sobre los daños que podría ocasionar la rápida expansión del desarrollo de la IA.
Desarrollaron una inteligencia artificial para saber si los empleados están resfriados o mienten
Entre los más de 350 ejecutivos e investigadores estuvieron Sam Altman, CEO de OpenAI, la empresa detrás de ChatGPT, Demis Hassabis, que dirige DeepMind y Darío Amodei, CEO de Anthropic, una startup cofundada por profesionales ligados a OpenAI. En el texto, alegaron que “mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.
Se trata de una de las últimas advertencias de los ejecutivos de la industria, que se muestran preocupados por el avance de esta tecnología. En marzo, más de 1.100 líderes entre los que estuvieron Elon Musk y el cofundador de Apple, Steve Wozniak, pidieron detener por seis meses las investigaciones e incluso hablaron de lanzar una legislación que permita controlar el potencial de la IA, temiendo por los daños que podría generar en la humanidad.
GI/fl