ECONOMIA

¿Quién quiere regular el negocio de la Inteligencia Artificial?

La Inteligencia Artificial ya llegó y no se trata solamente de robots o de dispositivos de ciencia ficción: está presente en equipos que se utilizan ampliamente en terrenos que van desde la salud a la educación, pasando por el comercio y las finanzas. En este caso, como suele ocurrir, la tecnología va muy por delante de la legislación. En el viejo continente, la Unión Europea está discutiendo una AI Act que deberá imponer normas para el sector, mientras que en Estados Unidos la Casa Blanca lanzó un proyecto que apuesta a la auto-regulación del sector privado. ¿En Argentina? Por ahora, un “vacío legal”.

Inteligencia artificial 20230128
LEYES. Hasta ahora, ninguna jurisdicción en el mundo desarrolló una legislación comprensiva sobre la Inteligencia Artificial. | Unsplash | Possessed Photography

En el invierno de 2016, el gestor de domótica (los sistemas que automatizan edificios inteligentes) Google Nest realizó una actualización del software de sus termostatos que causó un daño en las baterías. Un gran número de usuarios quedó desconectado, aunque muchos pudieron cambiar las baterías, comprar un nuevo termostato o esperar a que Google lo solucionase. La empresa indicó que el fallo habría sido causado por el sistema de Inteligencia Artificial (IA) que gestionaba esas actualizaciones.

¿Qué hubiera pasado si la mayor parte de la población usase uno de esos termostatos y el fallo dejase a medio país expuesto al frío durante días? Un problema técnico se habría convertido en una emergencia social que habría requerido de la intervención del estado. Todo por un sistema de inteligencia artificial defectuoso.

Ninguna jurisdicción en el mundo ha desarrollado una regulación comprensiva y específica para los problemas generados por la inteligencia artificial. Eso no quiere decir que exista un vacío legislativo completo: muchos de los daños que la inteligencia artificial pueda causar tienen otras vías de respuesta.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

Por ejemplo:

  • Para accidentes causados por coches autónomos los seguros seguirán siendo el primer destinatario de las reclamaciones.
  • Las compañías que utilicen sistemas de inteligencia artificial para sus procesos de selección laboral podrán ser demandadas en caso de incurrir en prácticas discriminatorias.
  • Las aseguradoras que incurran en prácticas contra el consumidor derivadas de los análisis generados por sus modelos de inteligencia artificial para fijar precios y decidir a quién aseguran seguirán teniendo que responder como empresas.

En general, otras normas que ya existen –como el derecho de contratos, transporte, daños, de consumo, incluso normas de protección de los derechos humanos– cubrirán de manera adecuada muchas de las necesidades regulatorias de la inteligencia artificial.

En general no parece suficiente. Existe un cierto consenso en que el uso de estos sistemas va a generar problemas que no tienen fácil solución en nuestros sistemas jurídicos. Desde la difusión de responsabilidad entre desarrolladores y usuarios profesionales hasta la escalabilidad de los daños, los sistemas de inteligencia artificial desafían nuestra lógica jurídica.

Por ejemplo, si una inteligencia artificial encuentra información ilegal en la web profunda y toma decisiones de inversión basadas en ella, ¿debe responder el banco que gestiona los fondos de pensiones o la empresa que crea el sistema automatizado de inversión por esas prácticas ilegales de inversión?

Si una comunidad autónoma decide incorporar un copago en recetas médicas gestionado por un sistema de inteligencia artificial y ese sistema comete pequeños errores (por ejemplo, unos céntimos en cada receta), pero que afectan a casi toda la población, ¿quién es responsable por la falta de control inicial? ¿La administración? ¿El contratista que instala el sistema?

Inteligencia Artificial 20230128
Inteligencia Artificial. FOTO: Unsplash | Andy Kelly

Hacia un sistema regulatorio europeo (y global)

Desde la presentación en abril de 2021 de la propuesta de reglamento de la Unión Europea para la regulación de la inteligencia artificial, la llamada AI Act, se ha puesto en marcha el lento proceso legislativo que debería llevar a la comunidad a un sistema regulatorio para todo el Espacio Económico Europeo y, tal vez, Suiza, en 2025. Los primeros pasos ya se están haciendo notar con las agencias estatales, que ejercerán parte del control sobre los sistemas.

¿Quién más quiere regular la Inteligencia Artificial además de la Unión Europea?

En estas cuestiones tendemos a mirar a Estados Unidos, China y Japón, y a menudo asumimos que la legislación es una cuestión de grados: más o menos protección ambiental, más o menos protección del consumidor. Sin embargo, en el contexto de la inteligencia artificial sorprende lo diferentes que son las visiones de los legisladores.

Estados Unidos: la legislación fundamental sobre IA es una norma de limitado contenido sustantivo, más preocupada por la ciberseguridad que, en su lugar, remite a otras técnicas regulatorias indirectas, como la creación de estándares. La idea subyacente es que los estándares desarrollados para controlar el riesgo de los sistemas de inteligencia artificial irán siendo aceptados voluntariamente por las empresas y devendrán sus normas de facto.

Estados Unidos está así inmerso en un proceso abierto a industria, consumidores y usuarios para crear estándares. Este va ahora acompañado por un borrador de la Casa Blanca para una Carta de Derechos para la IA, también de carácter voluntario. Al mismo tiempo, numerosos estados están intentando desarrollar legislación específica para ciertos contextos concretos, como el uso de inteligencia artificial en procesos de selección laboral.

China: allí se ha desarrollado un complejo plan para no solo liderar el desarrollo de la inteligencia artificial, sino también su regulación.

Para ello, combinan:

  1. Experimentación regulatoria (ciertas provincias podrán desarrollar sus propias normas para, por ejemplo, facilitar el desarrollo de la conducción autónoma).
  2. Desarrollo de estándares (con un complejo plan que cubre más de treinta subsectores).
  3. Regulación dura (por ejemplo, de los mecanismos de recomendación en internet para evitar recomendaciones que puedan alterar el orden social).

Por todo ello, China está comprometida con un control regulatorio de la inteligencia artificial que no impida su desarrollo.

Japón: en la isla, en cambio, no parecen particularmente preocupados por la necesidad de regular la Inteligencia Artificial.

En su lugar confían en que su tradición de partenariado entre estado, empresas, trabajadores y usuarios evite los peores problemas que la inteligencia artificial pueda causar. De momento centran sus políticas en el desarrollo de la sociedad 5.0.

Canadá: tal vez el país más avanzado desde un punto de vista regulatorio sea esta nación norteamericana. Allí, desde hace dos años, todo sistema de Inteligencia Artificial usado en el sector público debe someterse a un análisis de impacto que prevea sus riesgos.

Para el sector privado el legislativo canadiense está discutiendo ahora una norma similar (si bien mucho más simplificada) a la europea. Un proceso similar fue iniciado el año pasado en Brasil. Si bien parecía haber perdido impulso, puede ahora ser rescatado tras las elecciones.

De Australia a India: otros países, desde México a Australia, pasando por Singapur e India, están en una situación de compás de espera.

Estos países parecen confiar en que sus normas actuales puedan adaptarse para prevenir los peores daños que la inteligencia artificial pueda causar y permitirse esperar a ver qué pasa con otras iniciativas.
Dos partidos con visiones diferentes

Dentro de esta diversidad legislativa se están jugando dos partidos. El primero, entre quienes afirman que es demasiado pronto para regular una tecnología disruptiva –-y no bien entendida-– como la Inteligencia Artificial; y aquellos que prefieren tener un marco regulatorio claro que ataque los principales problemas y que al mismo tiempo cree seguridad jurídica para los desarrolladores y usuarios.

El segundo partido, y tal vez el más interesante, es una competición por ser el regulador de facto a nivel global de la inteligencia artificial.

La apuesta de la Unión Europea es clara: crear normas primero que vinculen a todo aquel que quiera vender sus productos en su territorio. El éxito del Reglamento General de Protección de Datos, que es hoy por hoy la referencia global para empresas tecnológicas, anima a las instituciones europeas a seguir dicho modelo.

Frente a ellos, China y Estados Unidos han optado por evitar regulaciones detalladas, con la esperanza de que sus empresas puedan desarrollarse sin excesivas cortapisas y que sus estándares, aun voluntarios, se conviertan en la referencia para otros países y empresas.

En esto, el tiempo juega en contra de Europa. Estados Unidos publicará la primera versión de sus estándares en los próximos meses. La Unión Europea no contará con una legislación aplicable hasta dentro de dos años. Tal vez el exceso de ambición europea vaya a tener un coste, dentro y fuera del continente, creando normas que cuando entren en vigor hayan sido ya sobrepasadas por otras regulaciones.

Publicado originalmente en The Conversation