ELOBSERVADOR
Tecnología

Solo un debate continuo y humanizado puede regular la inteligencia artificial

Ante la reciente sanción de la primera ley que regula la inteligencia artificial, queda claro que el Viejo Continente sigue siendo el faro que señala reflexiones y prudencias propias de un esperable equilibrio, entre la innovación y la protección de derechos. Un análisis sobre la iniciativa y otro sobre qué puede significar específicamente para nuestro país.

2023_03_24_tecnologia_cedoc_g
Tecnología. | cedoc

La Eurocámara ha dado un firme respaldo a la ley de inteligencia artificial (IA) acordada por las instituciones europeas, marcando un hito en la regulación de esta tecnología. Este reglamento, que entrará en vigor dentro de dos años tras recibir el visto bueno final de los Estados miembros, se aprobó por una gran mayoría el miércoles 13 de marzo en Estrasburgo, con 523 votos a favor y tan solo 46 en contra.

Basada en los diferentes niveles de riesgo que el uso de la IA trae consigo, la nueva norma prohíbe ciertas aplicaciones que atentan contra los derechos de la ciudadanía, y ofrece una protección crucial frente a prácticas invasivas y potencialmente perjudiciales. 

Límites. Así, por ejemplo, se prohíben los sistemas de categorización biométrica basados en características sensibles; la captura indiscriminada de imágenes faciales y el reconocimiento de emociones en el lugar de trabajo y en las escuelas. Estas medidas aseguran un uso ético y responsable de la IA, priorizando el bienestar y la privacidad de las personas, desde un enfoque preventivo.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

Además, el uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad se regula con cautela, garantizando su empleo solo en situaciones específicas y con estrictas salvaguardas. De este modo, se busca equilibrar la seguridad pública con el respeto a los derechos individuales, evitando abusos y asegurando una supervisión adecuada.

Asimismo, se establecen obligaciones claras para los sistemas de IA de alto riesgo, con el objetivo de mitigar cualquier impacto negativo en la salud, la seguridad, el ambiente, la democracia y los derechos fundamentales. Se fomenta la transparencia y la rendición de cuentas, brindando a los ciudadanos el derecho a presentar reclamaciones y recibir explicaciones sobre las decisiones basadas en IA que afecten sus derechos.

Estos sistemas abarcan una variedad de sectores críticos, como educación, empleo, servicios públicos y privados vitales (por caso, la atención médica o el sistema financiero, así como aplicaciones en las fuerzas de seguridad, migración, gestión aduanera, y Justicia).

Para mitigar los riesgos asociados, estos sistemas deben someterse a evaluaciones rigurosas, mantener registros detallados de su uso, ser transparentes y precisos, y contar con supervisión humana adecuada.

Transparencia. Los sistemas de IA de uso general y los modelos asociados deben cumplir con requisitos específicos de transparencia, además de adherirse a las leyes de derechos de autor de la Unión Europea (UE). Se requiere que divulguen resúmenes detallados del contenido utilizado para su entrenamiento. Para aquellos modelos más avanzados que puedan representar riesgos sistémicos, se imponen requisitos adicionales, como la realización de evaluaciones exhaustivas, la identificación y mitigación de riesgos, así como la notificación de incidentes.

También, cualquier imagen, audio o video artificial o manipulado –se los denomina “ultrafalsificaciones”– debe estar claramente etiquetado como tal para evitar malentendidos o confusiones.

De igual forma, se deberá proporcionar a las pequeñas y medianas empresas, así como a las nuevas empresas, espacios controlados para pruebas y ensayos con sistemas expertos en condiciones reales a nivel nacional. Esto les permitirá desarrollar y entrenar la IA de manera innovadora antes de su lanzamiento al mercado.

A favor y en contra. Entre las y los especialistas, e instituciones y organizaciones que siguen este debate, hay voces tanto a favor como en contra.

Para la primera de estas posiciones esta regulación es necesaria. Muchos expertos consideran que esta ley es un paso clave para abordar los desafíos éticos y de seguridad relacionados con la IA, y proporciona directrices claras para el desarrollo y uso responsable de esta tecnología.

En función de ello, se destaca el equilibrio entre innovación y protección. La normativa camina a medio paso entre el fomento de la ciencia aplicada y la salvaguarda de derechos fundamentales; establece límites sin asfixiar la creatividad ni la investigación.

Por último, se destaca un nuevo modelo de gobernanza con la conformación de un panel asesor multidisciplinario. Es decir, la creación de un panel de científicos y organizaciones de la sociedad civil para asesorar sobre la implementación de la IA, es vista como una medida positiva. Esto garantiza una visión amplia y experta.

Sin embargo, quienes desaprueban esta ley enfatizan la complejidad y desafíos de su implementación: algunos expertos advierten sobre lo poco práctico de aplicar la ley, ya que entienden que la implementación efectiva requerirá colaboración entre gobiernos, empresas y sociedad civil.

Por otro lado, apuntan a que se abre un campo de restricciones para la innovación. Hay preocupaciones por parte de sectores tech, que identifican las condiciones desfavorables para el crecimiento de la IA en Europa frente a los dos grandes jugadores de este mercado, Estados Unidos y China. 

Pionera. Sin embargo, debo destacar que la UE nuevamente marca el rumbo del debate mundial, como es en el uso y aplicación de la IA, y que ya lo había hecho con el dictado del Reglamento General de Protección de Datos Personales (Rgpdp), en 2016 y su entrada en vigor, en mayo de 2018. 

El camino para arribar a la decisión que tomó la Eurocámara comenzó con el “Libro Blanco de la IA”, en 2020, donde se formuló un modelo de gestión de riesgos. Posteriormente, en abril de 2021, cuando la Comisión Europea propuso el primer marco regulador de la UE para la IA. Esta propuesta establecía pautas para evaluar y clasificar los sistemas de IA según el riesgo que representan para los usuarios.

Ahora, para la implementación de esta norma, la ley también debe ser adoptada formalmente por el Consejo de Europa.

El acuerdo provisional establece que el Reglamento de IA debe aplicarse dos años después de su entrada en vigor, por lo tanto, se espera que eso se produzca en 2026.

Los objetivos trazados fueron que la UE regule la IA para garantizar un desarrollo y uso responsable de esta tecnología.

La hoja de ruta hacia esta ley ha sido un proceso de deliberación para equilibrar la innovación con la protección de los derechos fundamentales y la seguridad.

Debemos considerar que la IA es un campo en constante evolución, con desafíos y oportunidades emergentes. Por ello, un debate duradero permite adaptar la regulación a medida que se desarrollan nuevas tecnologías y se descubren riesgos adicionales.

El análisis continuo permite reflexionar sobre los impactos sociales, éticos y económicos de la IA, asegurando que las decisiones sean informadas y equilibradas.

La reflexión incesante admite recopilar retroalimentación de diversos actores, como expertos, empresas, ciudadanos y organizaciones. Esta información es crucial para ajustar y mejorar la ley con el tiempo y garantizar diversas perspectivas y puntos de vista.

América Latina. En este contexto, Latinoamérica debe tomar en cuenta la avanzada de Europa e incorporar en la agenda regional el fenómeno IA, sin desatender las propias vulnerabilidades sociales y económicas que hoy presenta la región, pero advirtiendo que esta nueva tecnología modela la humanidad.

La UE puede aprender de experiencias y desafíos en otros lugares del mundo, adaptando su enfoque según las lecciones aprendidas.

La flexibilidad es esencial para garantizar que la regulación no se vuelva obsoleta o rígida, más si su objeto se encuentra en constante evolución, como son las nuevas tecnologías.

La constancia en sostener en los últimos años este tema dentro de la agenda ha sido una fortaleza clave en el proceso de regulación de la IA en la UE, lo que permite una permanente adaptación y una toma de decisión informada para abordar los desafíos y maximizar los beneficios de esta tecnología, que se encuentra en continuo movimiento y expansión.

*Ministro de la Suprema Corte de Justicia de Mendoza. Cofounder Juslab.