Era casi esperable: frente al desarrollo vertiginoso de herramientas de capacidades asombrosas como Chat GPT y otra familia de aplicaciones de Inteligencia Artificial (IA), un grupo de más de 1.000 académicos, expertos e intelectuales, entre los que se encuentran Steve Wozniak, cofundador de Apple, y Elon Musk, quien no necesita presentación, firmaron una carta en la que proponen una moratoria mínima de 6 meses en el desarrollo de estas aplicaciones de prestaciones sin precedentes, hasta tanto se pueda desarrollar un marco regulatorio que acote sus riesgos.
Entre otras medidas, proponen generar protocolos de seguridad para el diseño de aplicaciones avanzadas de inteligencia artificial, rigurosamente auditados y supervisados por expertos independientes y externos a los laboratorios que desarrollan estas aplicaciones. También la creación de autoridades que regulen y certifiquen lo concerniente a IA.
Inteligencia artificial: Mientras pregunto por las nuevas olas al ChatGPT
Como toda innovación disruptiva y de gran poder, el desarrollo sostenido de aplicaciones de Inteligencia Artificial conlleva riesgos por su potencial uso para fines inapropiados, por más que las que actualmente están disponibles explícitamente intentan prevenirlo.
Al igual que otros desarrollos tecnológicos que finalmente cambiaron el mundo, como la computadora personal o Internet, nadie puede predecir su potencial impacto, ni en sentido positivo ni negativo.
Pero algo debiéramos haber aprendido de la historia de los desarrollos tecnológicos y culturales: sólo el intercambio abierto de ideas y la competencia asociada al progreso han permitido que hoy, a pesar de todos los problemas que nos aquejan, vivamos en el mejor de los mundos.
I.A: riesgos del progreso, peligros de la regulación
Los riesgos son reales y su alcance es desconocido, como también lo es el potencial para democratizar el conocimiento y resolver esos mismos problemas que todavía nos acompañan.
Lo que sí sabemos es que jamás debiéramos someter el progreso al criterio de expertos, entes regulatorios, gobiernos o grupos de interés. Aun con los peligros que estos sistemas puedan representar, siempre es preferible informarse, aprender sobre las limitaciones y malos usos y acompañar su desarrollo con una mirada crítica, dejando que su propio uso regule su impacto.
Ninguna restricción, por mejor que sea, puede ser perfecta en su capacidad de cercenar el progreso. Marginalizar el desarrollo de aplicaciones de inteligencia artificial nos expondrá, en ese caso sí, a quienes fuera de las normas eventuales continúen con estos desarrollos con fines que no sean beneficiosos para la humanidad.
Nuestros esfuerzos deberían estar orientados a aprender, informarnos y generar una mirada crítica para que estos sistemas no sean una caja negra. Si los sistemas de inteligencia artificial nos alcanzaron y hasta superaron, el desafío es reconectar con el verdadero valor de nuestra humanidad, no suprimirlos.