PROJECT SYNDICATE

El mito del "botón de pánico": por qué la regulación es la única defensa ante una IA fuera de control

Ante la ausencia de un interruptor de apagado para la IA, los gobiernos deben implementar estándares de seguridad obligatorios y redes de coordinación global contra ataques cibernéticos.

Anthropic website Foto:

Hace tiempo que está claro que la lentitud de los gobiernos no sigue el ritmo del rápido progreso de la IA. Pero el anuncio de Anthropic de que su nuevo modelo Claude Mythos Preview podría identificar y explotar vulnerabilidades en todos los sistemas operativos y navegadores web importantes ha subrayado los peligros de no regular esta revolución tecnológica. Incluso el entusiasta de la desregulación, el presidente de EE. UU. Donald Trump, admitió que debería haber un "interruptor de apagado" cuando estalló la noticia sobre Mythos. Pero esa solución sencilla ya no existe, si es que alguna vez existió.

La amenaza es doble: humanos malintencionados e IA desbocada. Los últimos agentes de IA ya han potenciado los ciberataques y los riesgos de bioingeniería, acelerando el desarrollo de nuevas armas, incluidos los potencialmente catastróficos "organismos espejo". Ahora, con la llegada de Mythos, un consorcio de usuarios autorizados está luchando por asegurar el software crítico.

Pero aunque estos nuevos modelos se consideran demasiado arriesgados para el público, es probable que tales capacidades proliferen. Como resultado, incluso los titanes tecnológicos que se han opuesto a la regulación piden ahora la intervención de los políticos. Algunos gobiernos, como China, supervisan los servidores y centros de datos; la mayoría no lo hace. Todos son vulnerables a ciberataques impulsados por IA que podrían causar el cierre de infraestructuras críticas.

El manual de las potencias medias: la diplomacia económica de Asia para tiempos convulsos

También existe el problema de defenderse contra las amenazas biológicas habilitadas por la IA. El CEO de Anthropic, Dario Amodei, ha destacado la asimetría entre los ataques biológicos, que pueden propagarse rápidamente por sí solos, y la defensa contra ellos, que requiere una detección rápida y el despliegue de vacunas. Amodei enfatiza la importancia de desarrollar salvaguardias contra los agentes biológicos más probables.

A falta de un interruptor de apagado, los gobiernos pueden tomar dos medidas. La primera es la coordinación efectiva. Hace tiempo, los países del G7 descubrieron que el contacto regular entre sus funcionarios de finanzas permitía una respuesta rápida a las crisis financieras. Un rango más amplio de países debería formar grupos de respuesta rápida para ciberataques y amenazas biológicas.

El G20 podría iniciar este proceso estableciendo grupos de expertos de inmediato. Incluso si Estados Unidos o China se negaran a participar, otros países del G20 deberían seguir adelante. Del mismo modo, las medidas nacionales como las cuarentenas no contienen por sí solas las epidemias. Para fortalecer la seguridad sanitaria global, la OMS creó el Reglamento Sanitario Internacional, un marco para compartir información sobre brotes sin temor a represalias.

Esto apunta al segundo paso: el grupo de expertos del G20 debería idear reglas básicas para el intercambio rápido de información y la gestión de crisis. Un marco así permitiría a empresas, investigadores y gobiernos reportar riesgos o brotes. El mundo no puede esperar a que los países negocien un tratado multilateral sobre seguridad de la IA o creen un nuevo organismo global.

El nuevo mapa de la seguridad: la Unión Europea necesita nuevos socios de seguridad

Estas medidas deben estar respaldadas por una regulación nacional. Los sistemas de IA ya son difíciles de gestionar y se ha observado que engañan y manipulan para lograr sus objetivos. Hay pocos controles para evitar que caigan en manos malintencionadas. Es el momento de pasar de las promesas de las cumbres de seguridad a la acción concreta.

Como mínimo, los gobiernos deberían exigir que los desarrolladores de IA cumplan con estándares de seguridad básicos, determinados por auditores independientes, antes de que sus modelos puedan ser comprados. Si los juguetes, los coches y los dispositivos médicos requieren esto, también lo requieren las herramientas de IA cuyos riesgos son reconocidos incluso por sus creadores.

Tres estándares son especialmente importantes. Primero, los laboratorios de IA deben probar rigurosamente sus modelos antes de lanzarlos. Segundo, los desarrolladores deben tener un enfoque obligatorio de seguridad post-lanzamiento, incluyendo la divulgación obligatoria de cualquier problema que surja con sus modelos. Tercero, los sistemas de IA necesitan barandillas que impidan su uso para producir armas biológicas.

Los gobiernos no tienen por qué soportar solos la carga de regular la IA. Pero deben actuar rápido para desatar el poder de otros interesados —juntas corporativas, auditores, aseguradores e inversores— para mitigar los riesgos. La tecnología puede ser deslumbrante, pero también ha dado paso a un mundo más combustible.

(*) Ngaire Woods es decana de la Blavatnik School of Government de la Universidad de Oxford.