Las herramientas basadas en inteligencia artificial generativa han sido objeto de un mayor escrutinio normativo en los últimos meses, luego del salto de popularidad de ChatGPT, publicado por OpenAI en noviembre pasado, y de los diversos lanzamientos y anuncios que le siguieron (incluyendo Dall-E, Midjourney, StableDiffusion, Bardy Bing, estos últimos de Google y Microsoft, respectivamente).
En los últimos años hemos asistido a distintas iniciativas enfocadas en comprender los riesgos y oportunidades asociados a la inteligencia artificial, y brindar herramientas que faciliten la tarea legislativa y permitan a las empresas que impulsan el desarrollo de soluciones basadas en inteligencia artificial contener los riesgos asociados a dichos desarrollos.
Entre estas iniciativas se destacan, por ejemplo, los Principios de la OCDE sobre Inteligencia Artificial (2019), la Asociación Mundial sobre Inteligencia Artificial (Global Partnershipon Artificial Inteligence o GPAI) (2020), la Recomendación sobre la Ética de la Inteligencia Artificial de la UNESCO (2021), y la norma ISO/IEC 23053(2022), todas ellas de carácter voluntario y no vinculante.
OpenAI dejará que los usuarios decidan si ChatGPT puede usar sus datos
Sin embargo, en los últimos meses, la carrera legislativa por una regulación vinculante se ha intensificado, incluyendo más notoriamente el avance por parte del Consejo de Europa en un borrador de tratado de derechos humanos e inteligencia artificial, la propuesta de una Ley de Inteligencia Artificial (AI Act) sumamente ambiciosa en la Unión Europea (ambos esperados para fines de 2023), y el desfile de diversos expertos y empresarios del rubro por la Casa Blanca y el Congreso de los Estados Unidos.
Por un lado, la inteligencia artificial presenta riesgos que podrían tener impactos significativos en un amplio espectro de derechos, incluyendo en materia de protección de datos personales, discriminación, propiedad intelectual, y la proliferación de información errónea. Por otro lado, sin embargo, toda regulación presenta el riesgo de asfixiar y volver inviable la inversión y el desarrollo, particularmente tratándose de industrias incipientes.
Microsoft ofrecerá el modelo GPT-4 al Gobierno de Estados Unidos
En ese sentido, los Estados Unidos parecen haber dado un primer paso acertado, al apostar a una regulación colaborativa con expertos de la industria – incluyendo Sam Altman, quien puso de manifiesto frente al Congreso de los Estados Unidos su convicción acerca de la necesidad de crear un ente a cargo de controlar los desarrollos de inteligencia artificial.
Domando el algoritmo
En la Unión Europea, en cambio, mientras la AI Act se encuentra en discusión, OpenAI está siendo investigada por autoridades de protección de datos personales por la forma en que recopila y utiliza datos para entrenar el modelo de ChatGPT. En Italia, por ejemplo, ChatGPT fue temporariamente suspendido hasta tanto OpenAI adapte la aplicación para adecuarse a ciertas exigencias de la autoridad italiana en el marco del Reglamento General de Protección de Datos (GDPR, la normativa europea en materia de datos personales).
Es precisamente en materia de protección de datos donde la industria tecnológica ha sufrido con particular agonía el desfasaje entre las normativas europea y norteamericana, y la dificultad de las autoridades de ambos bloques de alcanzar un acuerdo de transferencia de datos que resulte compatible con ambos ordenamientos, lo cual ha resultado en multas multimillonarias por la transferencia de datos de titulares europeos a servidores en los Estados Unidos.
Afortunadamente, a diferencia de lo ocurrido durante la sanción de GDPR, las autoridades estadounidenses se han mostrado receptivas de los esfuerzos legislativos de sus pares europeos, lo cual permite pensar que ambas normativas se encontrarán más cerca que en materia de datos.
*Asociado de MHR,líder del área de Tecnologías de la Información y Privacidad (TIP) del estudio MHR Abogados.