BLOOMBERG
TECNOLOGÍA

El G7 planea exigir normas a las empresas de tecnología para mitigar los efectos de la IA

Las mismas, once en total, incluyen pruebas externas de productos de IA antes de su implementación, informes públicos sobre medidas de seguridad y controles para proteger la propiedad intelectual. Esto podría acordarse esta semana en Japón.

20231007_ia_inteligencia_artificial_shutterstock_g
IA. Es una tecnología revolucionaria, como lo fue la electricidad. | shutterstock

Los países del Grupo de los Siete se preparan para pedir a las empresas de tecnología que acepten un conjunto de reglas para mitigar los riesgos de los sistemas de la inteligencia artificial como parte de una propuesta destinada a unir los enfoques divididos en Europa y Estados Unidos.

Los borradores de las once directrices, que serán voluntarias, incluyen pruebas externas de productos de IA antes de su implementación, informes públicos sobre medidas de seguridad y controles para proteger la propiedad intelectual, según una copia a la que tuvo acceso Bloomberg News y que podría acordarse la próxima semana en Japón. El documento aún está bajo discusión y su contenido y el momento del anuncio aún pueden cambiar.

Aun así, los países (Canadá, Francia, Alemania, Italia, Japón, el Reino Unido y EE.UU.) están divididos sobre si el progreso de las empresas debe ser monitoreado, dijeron personas familiarizadas con el asunto. Si bien EE.UU. se opone a cualquier supervisión, la Unión Europea apoya un mecanismo que verificaría el cumplimiento y nombraría públicamente a las empresas que infrinjan el código, dijeron las personas, que pidieron no ser identificadas porque las negociaciones son privadas.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

Tom Hanks alertó sobre un anuncio que usa un impostor creado por IA para suplantarlo

Después de que el servicio ChatGPT de OpenAI desató una carrera entre las empresas de tecnología para desarrollar sus propios sistemas y aplicaciones de inteligencia artificial, Gobiernos de todo el mundo comenzaron a analizar cómo imponer barreras de seguridad a la tecnología disruptiva y al mismo tiempo aprovechar los beneficios.

La UE probablemente será el primer Gobierno de Occidente en establecer reglas obligatorias para los desarrolladores de IA. Su propuesta de Ley de IA se encuentra en negociaciones finales con el objetivo de llegar a un acuerdo antes de fin de año.

EE.UU. viene presionando para que los otros países del G7 adopten compromisos voluntarios que acordó con empresas, incluida OpenAI. Microsoft Corp. y Google, de Alphabet Inc., en julio. La Administración del presidente Joe Biden también ha presionado para que se regule la IA en EE.UU. Sin embargo, el Gobierno está limitado en lo que puede hacer sin la acción del Congreso.

Inteligencia Artificial

Las directrices propuestas incluyen requisitos para:

  • Ejecutar pruebas internas y externas antes y después de implementar productos para verificar vulnerabilidades de seguridad, incluido el “equipo rojo” que emula ataques.
  • Hacer públicos los informes sobre evaluaciones de seguridad y protección y compartir información con organizaciones, incluidos Gobiernos y académicos.
  • Divulgar políticas de privacidad y gestión de riesgos, e implementar controles para la seguridad física y la ciberseguridad.
  • Identificar contenido generado por IA con marcas de agua u otros métodos.
  • Invierta en investigación sobre la seguridad de la IA.
  • Priorizar el desarrollo de sistemas de IA que aborden desafíos globales, incluida la crisis climática, la salud y la educación.
  • Adoptar estándares internacionales para pruebas y autenticación de contenido.
  • Controlar los datos que ingresan a los sistemas para proteger la propiedad intelectual y la información personal.

Traducido por Malu Poveda.