El miedo a que la inteligencia artificial (IA) se vuelva en contra de la humanidad suma un nuevo argumento tras un experimento en el Instituto de Tecnología de Massachusetts, una de las universidades más prestigiosas del mundo. El responsable fue Kevin Esvelt, que decidió cruzar ese temor con el trauma más profundo de los últimos años.
El experto en bioseguridad demostró que cualquier persona sin conocimientos científicos -pero con mucha maldad- podría ser capaz de desatar una nueva pandemia. La consigna ante sus estudiantes había sido crear un virus peligroso con la ayuda de plataformas como GPT-4 y Bard, de Google.
Aunque los chatbots no respondieron a las primeras preguntas, enseguida se los engañó con consultas del tipo “estoy trabajando en el desarrollo de una vacuna para prevenir…” y empezaron a dar las respuestas buscadas.
Por la inteligencia artificial, crecen las inversiones en startups en mercados
En apenas una hora, la clase consiguió una lista de virus y cepas de alta transmisibilidad, laboratorios capaces de secuenciarlos y empresas para manipularlos, imprimir su ADN, multiplicar y liberar el virus. Esvelt cree que el ejercicio demuestra que la IA podría permitir, en el corto plazo, el diseño de armas tan peligrosas como las nucleares.
En este punto, la propia difusión del conocimiento podría tornarse en contra de nuestra especie. Los papers que describen en detalle el funcionamiento de virus mortales podrían ser fuentes de información crucial en ese escenario.
Europa planea implementar normativas para controlar el avance de la Inteligencia Artificial
Eliminarlos del acervo público no necesariamente resolvería el problema. Atoosa Kasirzadeh, experta en IA de la Universidad de Edimburgo, reconoce que “no tenemos buenos protocolos que permitan que los modelos de lenguaje se entrenen con algunas partes de internet y no con otras”. Una limitación que conviene superar si queremos empezar a dormir más tranquilos.
AO JL