TECNOLOGíA
INTELIGENCIA ARTIFICIAL

El 'lado oscuro' de la IA: Europol alertó sobre el uso de ChatGPT por "facilitar las actividades delictivas"

El organismo advirtió que la herramienta puede utilizarse para cometer fraude e ingeniería social, desinformación, cibercrímenes, entre otros delitos.

Chat GPT
Chat GPT | Agencia Shutterstock

En medio del furor que está ocasionando ChatGPT 4, la Europol alertó una "amplia gamas de casos de uso delictivo" con la herramienta de inteligencia artificial (IA). En ese sentido, desde el organismo advirtieron especialmente sobre fraude, suplantación de identidad, ingeniería social, desinformación y cibercrímenes. Al respecto, explicaron que el sistema "facilita las actividades delictivas", por lo que realizaron "talleres de trabajo" para estudiar el "lado oscuro" de este tipo de IA.

"Los talleres en los que participaron expertos en la materia de toda la gama de conocimientos de Europol identificaron una amplia gama de casos de uso delictivo en GPT-3.5. En algunos casos, las respuestas potencialmente dañinas de GPT-4 fueron aún más avanzadas", detallaron desde la agencia policial de la Unión Europea. En esa línea, el reporte realizado por Europol Chat GPT. El impacto de los modelos de lenguaje extenso en la aplicación de la ley advirtió que la evolución de estos sistemas "ofrece una perspectiva sombría" sobre la posible explotación delictiva.

Elon Musk y varios expertos piden frenar los avances de la inteligencia artificial y ChatGPT 4

Esto no le gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

Respecto al modus operandi de los "criminales potenciales", el ente de seguridad explicó que ChatGPT "puede acelerar significativamente" el proceso de investigación sobre cualquier delito en particular ya que ofrece información que luego se puede explorar en más pasos posteriores. "Como tal, ChatGPT se puede utilizar para obtener información sobre una gran cantidad de posibles áreas delictivas sin conocimientos, que van desde cómo entrar en una casa hasta terrorismo, ciberdelincuencia y abuso sexual", afirmaron.

Y agregaron: "Si bien toda la información que proporciona ChatGPT está disponible de manera gratuita en Internet, la posibilidad de usar el modelo para proporcionar pasos específicos a través de preguntas contextuales hace que sea significativamente más fácil para los actores malintencionados comprender mejor el tema y posteriormente cometer diversos tipos de delitos".

Fraude, desinformación y cibercrimen, las "áreas de preocupación" para los expertos de Europol

El organismo identificó tres "áreas de preocupación" sobre el uso malicioso de sistemas como ChatGPT: fraude e ingeniería social, desinformación y cibercrimen. Sin embargo, reconocieron que es posible que existan más usos delictivos que sean de interés debido a que no se realizó un análisis "exhaustivo". "Los casos de uso identificados que surgieron de los talleres Europol realizados con sus expertos no son en modo alguno exhaustivos. Más bien, el objetivo es dar una idea de cuán diversos y potencialmente peligrosas pueden ser las herramientas como ChatGPT en manos de actores maliciosos", sostuvieron.

Dentro de la arista del fraude e ingeniería social, Europol advirtió que la capacidad de ChatGPT para redactar textos "muy realistas" lo convierte en una herramienta útil para el phishing. En esa línea, explicaron que la capacidad de estos sistemas permite suplantar el estilo de habla de personas o grupos específicos, lo que facilitaría el realizar estafas en línea. "Antes era más fácil detectar las estafas de phishing básicas debido a errores gramaticales y ortográficos evidentes. Ahora es posible hacerse pasar por una organización o individuo de una manera altamente realista", sostuvieron en el reporte

Y agregaron: "Con la ayuda de los modelos de lenguaje extenso, estos tipos de phishing y fraude en línea pueden ser creados más rápido, de manera más auténtica y a una escala significativamente mayor".

20211010_seguridad_ciberdelitos_cedoc_g
Europol calificó como "áreas de preocupación" el fraude e ingeniería social, la desinformación y el cibercrimen.

Sumado a esto, indicaron que las habilidades del programa pueden ser utilizadas para delitos tales como terrorismo, propaganda y desinformación gracias a su capacidad para recolectar información. "Como tal, el modelo se puede utilizar para recopilar más información que pueda facilitar las actividades terroristas, como por ejemplo, el terrorismo financiero o el intercambio anónimo de archivos", manifestaron.

En cuanto a la desinformación, Europol calificó a ChatGPT como el "modelo ideal" para fines propagandísticos y de noticias falsas. En esa línea, explicaron que los usuarios son capaces de generar y distribuir mensajes "reflejando una narrativa específica con poco esfuerzo". "Por ejemplo, ChatGPT se puede usar para generar propaganda en línea en nombre de otros actores para promover o defender ciertos puntos de vista que han sido desacreditados como desinformación o noticias falsas", sostuvieron.

ChatGPT: de qué se trata la nueva Inteligencia Artificial de la que habla el mundo

Además de generar mensajes que parecen provenir de humanos, otra de las capacidades de ChatGPT que encendió las alarmas en la Europol es la posibilidad de crear códigos en distintos lenguajes de programación en tan solo minutos. Según el organismo, esto tendría un "impacto significativo" en el cibercrimen debido a que le permite a alguien sin conocimiento técnico atacar al sistema de una persona. En ese sentido, advirtieron que ya se utilizó el sistema para crear malwares poco después de su lanzamiento. "Para un delincuente potencial con pocos conocimientos técnicos, este es un recurso invaluable para producir código malicioso", manifestaron.

"A medida que avanza la tecnología y se dispone de nuevos modelos, será cada vez más importante que las fuerzas del orden público se mantengan a la vanguardia de estos desarrollos para anticipar y prevenir el abuso, así como para garantizar que se puedan aprovechar los beneficios potenciales", concluyeron en el reporte.

mb / ds