CAMBRIDGE – En noviembre de 2024, el presidente de EE. UU. Joe Biden y el presidente chino Xi Jinping realizaron su primera declaración conjunta sustantiva sobre los riesgos para la seguridad nacional que plantea la IA. Específicamente, señalaron que tanto Estados Unidos como China creen en “la necesidad de mantener el control humano sobre la decisión de usar armas nucleares”.
Eso puede sonar a un fruto diplomático fácil de alcanzar, ya que sería difícil encontrar a una persona razonable dispuesta a argumentar que deberíamos entregar el control de las armas nucleares a la IA. Pero con el gobierno chino no existen los frutos fáciles, especialmente en asuntos de seguridad de gran peso. Los chinos son inherentemente escépticos ante las propuestas de reducción de riesgos de EE. UU., y Rusia se había opuesto a un lenguaje similar en organismos multilaterales. Debido a que las conversaciones bilaterales con EE. UU. sobre la IA y la seguridad nuclear abrirían una brecha entre Rusia y China, el progreso en este frente no era una conclusión inevitable.
Al final, hizo falta más de un año de negociaciones para que esa simple declaración conjunta se hiciera realidad. Sin embargo, por sencilla que parezca, el resultado fue significativo porque demostró que las dos superpotencias de la IA pueden participar en una gestión de riesgos constructiva incluso mientras compiten vigorosamente por el liderazgo en esta tecnología.
Además, diplomáticos y expertos de nuestros dos países también se habían reunido a principios de 2024 en Ginebra para una sesión extendida dedicada a los riesgos de la IA. Fue la primera reunión de este tipo y, aunque no produjo resultados significativos, el solo hecho de que ocurriera fue un paso importante, y ambas partes lograron identificar áreas críticas de riesgo que requerían más trabajo.
Ahora, a medida que el impulso detrás del desarrollo y despliegue de la IA, tanto civil como militar, cobra fuerza, EE. UU. y China deben construir sobre esta base mediante una diplomacia sostenida y de alto nivel sobre los riesgos de la IA, incluso mientras cada uno se esfuerza por liderar la carrera. Deben hacerlo porque los riesgos de la IA son reales y no dejan de crecer.
Por ejemplo, a medida que las capacidades de la IA avanzan y se difunden, actores no estatales como organizaciones terroristas podrían aprovecharlas para amenazar tanto a EE. UU. como a China, así como al resto del mundo. Tales amenazas podrían tomar muchas formas, incluyendo ciberataques que paralicen infraestructuras críticas, nuevas armas biológicas que evadan la detección o el tratamiento, campañas de desinformación que desestabilicen gobiernos y sociedades, y drones letales habilitados por IA que pueden atacar en cualquier lugar con poco o ningún aviso.
Y los riesgos no terminan ahí. A medida que los ejércitos de EE. UU. y China aumenten su uso de la IA —acortando los ciclos de decisión y alterando los marcos de disuasión en el proceso— crecerá el riesgo de que los sistemas impulsados por IA desencadenen inadvertidamente un conflicto o una escalada catastrófica. A medida que la IA se vuelve cada vez más central para el sistema bancario global, las operaciones comerciales impulsadas por IA podrían causar un colapso del mercado en ausencia de cortafuegos adecuados. Y mirando más hacia el futuro, uno puede imaginar un sistema de IA poderoso y desalineado (que persiga objetivos distintos a los que pretendían sus creadores) que amenace con daños graves a la humanidad. Como las únicas superpotencias de IA del mundo, EE. UU. y China deben comprometerse directamente para abordar estos y otros peligros.
Competencia gestionada
El compromiso no significa que China y EE. UU. dejarán de competir vigorosamente. Este otoño, China mostró cuán aguda se ha vuelto esa competencia cuando emitió nuevos y extremos controles de exportación sobre tierras raras que son críticas para la producción de microchips y otros componentes de sistemas de IA.
Como asesor de seguridad nacional durante la administración Biden, trabajé duro para asegurar que EE. UU. mantuviera su liderazgo en IA para que la tecnología trabaje para nosotros y no en nuestra contra. Vi que la carrera por el liderazgo en aplicaciones militares, de inteligencia y comerciales, y por la adopción de modelos y aplicaciones de IA estadounidenses y chinos por parte de países de todo el mundo, no haría más que intensificarse.
Pero es precisamente debido a esta intensa competencia que la diplomacia es esencial, incluso en este período de mayores tensiones. Sería profundamente irresponsable que EE. UU. y China avanzaran a toda velocidad sin consultarse sobre los riesgos, o sin hablar sobre las inmensas oportunidades que la IA presenta para abordar desafíos transnacionales, desde la crisis climática hasta la salud pública.
Sin duda, pensadores destacados de ambos países han participado en esfuerzos diplomáticos de "Vía 2" (conversaciones fuera del gobierno que suelen involucrar a universidades, líderes empresariales y grupos de la sociedad civil). Tales discusiones son valiosas y deben continuar. Sin embargo, en última instancia, no hay sustituto para el compromiso directo de gobierno a gobierno, aunque sea muy modesto al principio. Tampoco puede esperar este compromiso, dada la velocidad vertiginosa del avance tecnológico y las dificultades previsibles para alcanzar avances diplomáticos que estén a la altura del momento. La gestión de los riesgos de la IA es territorio inexplorado, por lo que el progreso no será ni rápido ni fácil. EE. UU. y China deben empezar ya.
Muchos comentaristas han trazado paralelismos con el control de armas nucleares tal como se desarrolló a lo largo de las décadas, y esa analogía tiene cierto mérito. Las superpotencias tienen la responsabilidad de gestionar los riesgos asociados con tecnologías poderosas, y hemos cumplido con éxito esa responsabilidad en el pasado a través de acuerdos de control de armas, incluso en el apogeo de la Guerra Fría. Pero la IA también presenta desafíos diferentes que requieren enfoques más innovadores que el control de armas.
Hay varias razones para esto. Primero, la verificación es más compleja. Contar misiles y ojivas, con sus firmas detectables, es una cosa; contar algoritmos —por no hablar de discernir todas las capacidades y aplicaciones de un algoritmo dado— es otra muy distinta.
Segundo, el desafío del doble uso se presenta de manera diferente en el caso de la IA. Sí, la división del átomo tiene usos tanto civiles como militares, pero existe una línea bastante directa entre la energía nuclear pacífica y las armas nucleares, y el Organismo Internacional de Energía Atómica tiene mucha experiencia vigilándola. Por el contrario, el mismo modelo de IA que puede ayudar a avanzar en la investigación científica y generar crecimiento económico también puede ayudar a producir efectos letales aterradores. Esto hace que la dinámica competitiva entre EE. UU. y China sea mucho más difícil de gestionar, y la línea entre oportunidad y riesgo mucho más difícil de discernir.
Tercero, las discusiones sobre el control de armas se han centrado principalmente en estados que amenazan a otros estados, mientras que el riesgo de la IA involucra amenazas entre estados, pero también amenazas no estatales y los riesgos asociados con la desalineación de la IA. Esto presenta desafíos y oportunidades diferentes para la diplomacia.
Cuarto, al menos en EE. UU., el desarrollo de la IA no es impulsado por el gobierno sino por el sector privado, y no por una sola empresa, sino por muchas que compiten entre sí. Eso significa que una gama más amplia de actores debe participar en las discusiones destinadas a mitigar los riesgos que plantea la tecnología.
Por último, existe un amplio espectro de opiniones sobre qué tan rápido y qué tan lejos llegarán las capacidades de la IA. Algunos la ven como una tecnología "normal" cuya adopción completa llevará décadas, mientras que otros argumentan que una explosión de superinteligencia está a solo unos años de distancia. Con las armas nucleares, podías tener una detonación un poco más grande o más pequeña, o un vehículo de entrega más rápido o más maniobrable, pero básicamente sabías a qué te enfrentabas. La evolución e impacto de las capacidades de la IA es mucho menos clara.
Cuando serví como asesor de seguridad nacional, trabajé para asegurar que el gobierno de EE. UU. estuviera preparado para cada escenario a lo largo del espectro de incertidumbre. Hacerlo requiere un nivel adicional de flexibilidad, sutileza y firmeza. El marco de control de armas nucleares no surgió de la noche a la mañana. Llevó años diseñar los controles de exportación pertinentes, los esquemas de prueba, los protocolos de verificación y las salvaguardias, y llevó décadas de diplomacia mantenerlos. Con la IA, estamos en las etapas iniciales de algo similar en ambición, pero diferente en sustancia y complejidad. Eso hace que sea aún más importante proceder con los esfuerzos de reducción de riesgos de inmediato.
Jake Sullivan, asesor de Seguridad Nacional de EE. UU. (2021-25) del presidente Joe Biden, es profesor de Práctica de Arte de Gobernar y Orden Mundial en la Harvard Kennedy School.