ECONOMIA
Riesgos de IA

Europol advierte que ChatGPT ya está ayudando a cometer delitos

Un reporte de Europol advirtió que los delincuentes ya están utilizando ChatGPT para cometer delitos. En su informe, el organismo de cooperación policial de la Unión Europea detalló cómo los modelos de lenguaje de Inteligencia Artificial (IA), a los que se apuesta para revolucionar la tecnología y la economía global en el futuro cercano, también pueden impulsar el fraude, el ciberdelito y el terrorismo.

Código 20230402
ChatGPT y ciberdelitos | Unsplash | Joan Gamell

Creado por OpenAI, ChatGPT se lanzó en noviembre de 2022 y rápidamente se convirtió en una sensación en Internet a medida que los usuarios acudían en masa al sitio para que el chatbot generara ensayos, memes, correos electrónicos, código de programación y todo tipo de texto.

Ahora, la agencia de aplicación de la ley de la Unión Europea, Europol, ha detallado cómo el modelo puede usarse indebidamente para propósitos más nefastos. De hecho, la gente ya lo está utilizando para llevar a cabo actividades ilegales, afirma la policía.

“Ya se puede anticipar el impacto que este tipo de modelos podrían tener en el trabajo de las fuerzas del orden”, declaró Europol en su informe. “Por lo general, los delincuentes explotan rápidamente las nuevas tecnologías y se los vio rápidamente con explotaciones criminales concretas, lo que brindó los primeros ejemplos prácticos apenas unas semanas después del lanzamiento público de ChatGPT”.

Esto no le gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

Europol destacó que el modelo podría explotarse para hacerse pasar por objetivos, facilitar el fraude y el phishing, producir propaganda o desinformación para apoyar el terrorismo. 

Aunque ChatGPT puede “negarse” a cumplir con las solicitudes de entrada que son potencialmente dañinas, los usuarios han encontrado formas de evitar el sistema de filtro de contenido de OpenAI. Algunos lo han hecho escupir instrucciones sobre cómo crear una bomba casera o crack de cocaína, por ejemplo.

“Si un delincuente potencial no sabe nada sobre un área delictiva en particular, ChatGPT puede acelerar significativamente el proceso de investigación al ofrecer información clave que luego se puede explorar más en pasos posteriores. Como tal, ChatGPT se puede usar para aprender sobre una gran cantidad de posibles áreas criminales sin conocimiento previo, que van desde cómo entrar a una casa, hasta terrorismo o cibercrimen”, advirtió Europol.

La agencia admitió que toda esta información ya está disponible públicamente en Internet, pero el modelo facilita encontrar y comprender cómo llevar a cabo delitos específicos. 

Europol también destacó que el modelo podría explotarse para hacerse pasar por objetivos, facilitar el fraude y el phishing, o producir propaganda y desinformación para apoyar el terrorismo. 

La capacidad de ChatGPT para generar código, incluso código malicioso, aumenta el riesgo de ciberdelincuencia al reducir las habilidades técnicas necesarias para crear malware.

“Para un delincuente potencial con poco conocimiento técnico, este es un recurso invaluable. Al mismo tiempo, un usuario más avanzado puede explotar estas capacidades mejoradas para refinar aún más o incluso automatizar sofisticados modus operandi ciberdelincuentes”, dice el informe.

Los modelos de lenguaje extenso (LLM) no son sofisticados y aún están en su infancia, pero están mejorando rápidamente a medida que las empresas de tecnología invierten recursos en el desarrollo de la tecnología. OpenAI ya lanzó GPT-4, un sistema más potente, y estos modelos se están integrando cada vez más en los productos. 

Europol dijo que a medida que más empresas implementen funciones y servicios de IA, se abrirán nuevas formas de utilizar la tecnología para actividades ilegales. “Sistemas de inteligencia artificial multimodal, que combinan chatbots conversacionales con sistemas que pueden producir medios sintéticos, como falsificaciones profundas altamente convincentes, o incluyen habilidades sensoriales, como ver y oír”, sugirió el informe de la organización de aplicación de la ley.

Las versiones clandestinas de modelos de lenguaje sin filtros de contenido y entrenados en datos dañinos podrían alojarse en la deep web, por ejemplo, según señala el informe.

“Finalmente, existen incertidumbres con respecto a cómo los servicios de LLM pueden procesar los datos de los usuarios en el futuro: ¿se almacenarán las conversaciones y se expondrá potencialmente la información personal confidencial a terceros no autorizados? Y si los usuarios generan contenido dañino, ¿debería informarse a las autoridades policiales?”, se preguntó Europol.

 

Publicado originalmente en El Economista 

 


EUROPOL | Habilidades que se pueden aplicar en diversos contextos

“En respuesta a la creciente atención pública prestada a ChatGPT, el Laboratorio de Innovación de Europol organizó una serie de talleres con expertos en la materia de toda la organización para explorar cómo los delincuentes pueden abusar de los LLM como ChatGPT, y cómo pueden ayudar a los investigadores en su trabajo diario”, señaló la organización policial al explicar las razones de este reporte.

Estos son algunos otros párrafos del informe: 

  • “El modelo tiene una serie de limitaciones importantes que deben tenerse en cuenta. El más obvio se relaciona con los datos sobre los que se ha entrenado: si bien las actualizaciones se realizan de manera constante, la gran mayoría de los datos de capacitación de ChatGPT datan de septiembre de 2021. Las respuestas generadas a partir de estos datos no incluyen referencias para entender de dónde se tomó cierta información y puede estar sesgada. Además, ChatGPT se destaca por proporcionar respuestas que suenan muy plausibles, pero que a menudo son inexactas o incorrectas”.
  • “La mayor limitación de ChatGPT es autoimpuesta. Como parte de la política de moderación de contenido de la modelo, ChatGPT no responde preguntas que hayan sido clasificadas como dañinas o tendenciosas. Estos mecanismos de seguridad se actualizan constantemente, pero aún se pueden eludir en algunos casos con la ingeniería oportuna correcta”.
  • ChatGPT se destaca por proporcionar al usuario información lista para usar en respuesta a una amplia gama de indicaciones. Si un delincuente potencial no sabe nada sobre un área delictiva en particular, ChatGPT puede acelerar significativamente el proceso de investigación al ofrecer información clave que luego se puede explorar más en pasos posteriores”.
  • “Las capacidades de ChatGPT se prestan a una serie de posibles casos de abuso en el área del terrorismo, la propaganda y la desinformación. Como tal, el modelo se puede usar para recopilar información que pueda facilitar las actividades terroristas, como por ejemplo, el financiamiento o el intercambio anónimo de archivos”.