En un mundo dividido entre innovación sin controles y regulaciones estrictas, Argentina busca dar sus primeros pasos legislativos hacia una regulación integral de la inteligencia artificial.
Para hablar sobre este tema, Canal E se comunicó con Sebastián Di Doménica, especialista en tecnología, quien comentó que, “la inteligencia artificial necesita ser regulada”, al señalar el consenso global sobre los riesgos de esta tecnología. La IA, al imitar acciones cognitivas humanas, “puede tener un impacto importante”, lo que obliga a los Estados a intervenir con marcos normativos sólidos.
Modelos en juego: Estados Unidos, Europa y China
El especialista identificó tres modelos de regulación: “Estados Unidos propone innovación con baja regulación, lo cual es muy riesgoso porque queda todo en manos del mercado”, advirtió. En contraste, “el modelo europeo impulsa inversión, pero con una gran prevención de los riesgos”. Este enfoque europeo se organiza según una jerarquía de cuatro niveles de riesgo, donde “los desarrollos de riesgo inaceptable están directamente prohibidos”.
China, por su parte, aplica una regulación centralizada: “Como es un gobierno autocrático, todo está centralizado en lo que decide el Estado”.
En Argentina, aún sin ley
“Todavía no tenemos una ley debatida y aprobada en el Congreso”, remarcó Di Doménica, aunque reconoció que existen resoluciones administrativas y varios proyectos en marcha. El más avanzado, según explicó, es el del senador rionegrino Claudio Martín Doñate, de Unión por la Patria: “Ya está aceptado para llegar al debate dentro de la comisión”.
Otros proyectos, como los de Silvia Lospennato, Daniel Gollán y el ya vencido de Facundo Manes, también abordan la IA desde una perspectiva general: “Son leyes marco de inteligencia artificial”, afirmó.
Enfoques comunes: riesgos, brechas y fake news
Los proyectos argentinos comparten preocupaciones clave: “Tienen foco en los riesgos que puedan surgir con el uso de la inteligencia artificial”, en particular los relacionados con las brechas digitales, el acceso al conocimiento y la propagación de desinformación.
Como ejemplo, Di Doménica mencionó el reciente caso de un video falso (deep fake) contra la periodista Julia Mengolini: “Refleja claramente el gran peligro que tiene la inteligencia artificial cuando se pone al servicio de la desinformación”.
Dinamarca como modelo: copyright sobre la identidad
Di Doménica destacó una iniciativa en Dinamarca que podría marcar un nuevo estándar internacional: “Se está analizando un proyecto que convierte a la cara y la voz de cada uno en un valor de copyright”, explicó. Esta ley agravaría las sanciones y ampliaría los derechos de protección de imagen para combatir los deep fakes.
“Las deep fakes no tendrían tanto impacto si las plataformas tuvieran una precaución mayor”, apuntó, subrayando la necesidad de que las redes sociales también asuman responsabilidades.
La traza auditable: clave para el control
Frente a la pregunta sobre cómo controlar el uso de IA, el entrevistado propuso la creación de órganos estatales de auditoría tecnológica: “Se plantea lo que se llama el recorrido auditable”, dijo, que permitiría analizar la trazabilidad de cada desarrollo y establecer niveles de riesgo. A futuro, “se está pensando en algo parecido a las normas ISO, pero aplicadas a la inteligencia artificial”, agregó.
En el caso de las fake news o contenidos dañinos generados con IA, recordó que “hoy existen leyes que nos protegen si nos ubican en situaciones ofensivas”, aunque advirtió que deben actualizarse para enfrentar los desafíos del presente.
Como cierre, Di Doménica advirtió sobre un riesgo más profundo: “Esto puede afectar a la democracia también, cuando hay figuras públicas que están en juego”. Por eso, concluyó que regular la IA ya no es una opción, sino una necesidad urgente.