La Inteligencia Artificial (IA) es una rama de las ciencias de la computación en la que se encaran varios desafíos tecnológicos, como intentar imitar el funcionamiento del cerebro humano, pero también filosóficos, dado que no es sencillo definir la esencia de un ser inteligente para luego emularlo.
En línea con aquellos avances, la empresa OpenAI en los últimos meses dio a conocer una versión de su ChatGPT, un modelo de lenguaje que, entrenado con miles de millones de parámetros obtenidos de Internet, permite realizar conversaciones fluidas con un sentido humano y, quizá lo más llamativo, producir textos, desde ensayos a artículos o programas de software, en tan solo segundos y a demanda del usuario.
Tras su lanzamiento, el impacto de esta habilidad de ChatGPT y el interés por probarlo fue planetario: se estima que las visitas al sitio OpenAI se multiplicaron por 30 en tan solo dos meses. Esta masividad ha sido una vuelta de tuerca en el uso de la tecnología: la IA trascendió los laboratorios para volverse una herramienta de potencial consumo y producción en el gran público.
Muchas instituciones y organismos alrededor del mundo hicieron eco y tomaron nota de esta expansión. El más notorio fue el sector educativo, que se encuentra hoy ante la urgencia de entender de qué se trata ChatGPT, a fin de capacitar a sus docentes y, de ser necesario, reformular o al menos poner en discusión algunas de sus técnicas de enseñanza y aprendizaje.
Inteligencia Artificial
Pero también firmas de primera línea se lanzaron en la carrera por competir y ofrecer servicios que integren la IA a esta expansión masiva.
Microsoft, principal inversor de OpenAI, integró esta herramienta con su antigua usina de búsqueda Bing, históricamente marginado en el mercado frente al gigante de Google, una iniciativa que podría cambiar la manera en la que buscamos información en Internet.
La inteligencia artificial de Microsoft amenaza a usuarios que la provocan
Google tomó nota e inmediatamente lanzó una integración de IA para competir en el terreno y no perder su histórico liderazgo en las búsquedas por Internet.
Estamos viviendo una abrupta oportunidad de que se produzca un reacomodamiento del statu quo del ecosistema de empresas tecnológicas, así como también el surgimiento de nuevos competidores en el terreno, un dato no menor para entender la escalada de desarrollos y el debate que narra la crónica diaria.
Elon Musk afirmó sobre Bill Gates: "Su comprensión es limitada"
En este contexto, se ha publicado Pause Giant AI Experiments: An Open Letter, una proclama abierta a la participación y a la firma del público mundial que aboga por poner una pausa a los experimentos en Inteligencia Artificial durante al menos 6 meses.
Referentes del ámbito tecnológico como Elon Musk, y reconocidos pensadores como el historiador Yuval Harari, entre otros, adscribieron al mensaje y han expresado que los sistemas de IA, como los desarrollados por OpenAI, pueden plantear riesgos profundos para la sociedad y la humanidad.
La carta alerta sobre el “cambio profundo en la historia de la vida en la Tierra” podría representar la expansión de la IA y aboga por su planificación y administración, al punto que en uno de los pasajes intima a los laboratorios de IA a detener inmediatamente por al menos seis meses el entrenamiento de sistemas más poderosos que GPT-4.
“Esta pausa debe ser pública y verificable, y debe incluir a todos los actores clave. Si tal pausa no puede ser realizada rápidamente, los gobiernos deberían intervenir”, explica el comunicado.
IA: Jaque mate al libre albedrío
Hay que considerar que la carta abierta tiene el mérito de establecer la necesidad de un profundo debate en torno a la investigación de la IA en la sociedad. Es, sin dudas, una buena oportunidad para hacerlo y hay muchísima expectativa e interés de la población por conocer el alcance y la utilidad de la IA, así como los riesgos de estas tecnologías.
Sin embargo, esta interpelación pública para detener las investigaciones dispara algunas reflexiones. En principio, habría que considerar que el avance de la IA es algo imposible o al menos muy difícil de detener y que, pausa mediante, seguirá su expansión.
Andrew Yan-Tak Ng, director del laboratorio de Inteligencia Artificial en Stanford y cofundador de la plataforma educativa Coursera, ha manifestado que el llamado a la pausa es una “idea terrible” e impracticable, al tiempo que opinó:
“Hacer que los gobiernos detengan las tecnologías emergentes que no entienden es anticompetitivo, sienta un precedente terrible y es una política de innovación horrible”, advirtió.
Es decir, proponer una planificación o una recomendación general sobre sus aplicaciones y líneas de investigación puede ser razonable; pero impulsar un control público e incluso la intervención de los gobiernos en su cumplimiento a nivel mundial no parece ser un objetivo realista, como afirma Ng.
Además, se corre el riesgo de poner en juego consignas clave para el desarrollo del conocimiento como la libertad y la autonomía que requieren los centros de estudio. También dispara nuevos interrogantes: gobiernos de corte autoritario o con democracias débiles, ¿serían actores legítimos para intervenir en esta toma de decisiones científicas?
IA: ¿adiós al cerebro humano?
En 1938 Orson Welles se aprovechó de la credibilidad que reunía el medio radiofónico para convencer a las audiencias de un inminente ataque extraterrestre. En la misma línea, las redes sociales, en el nuevo milenio, dieron lugar a las fakenews.
Hoy, luego de acostumbrarnos a leer estos mensajes, hemos aprendido a identificar o al menos a estar alertas ante la posibilidad de caer en aquellos timos.
En la carta abierta, sus autores postulan un riesgo, heredero de aquellas anécdotas, de que las máquinas nos inunden de propaganda y falsificaciones, una posibilidad real, al calor de las técnicas difundidas de deepfake. Ahora, ¿Acaso los intentos por manipular a la opinión pública no son anteriores a la IA?
En lugar de abogar por una suspensión o control que coarte el también real acceso a información provechosa que permiten estas herramientas, ¿No sería más beneficioso contribuir a construir un “contrato de lectura” tal como lo hemos hecho con todos los nuevos medios de comunicación?
Es decir, podrían establecerse los alcances y limitaciones que tienen estas herramientas de IA para la creación de textos, contemplar que no son infalibles, que hay una posibilidad de que redacten errores conceptuales o alucinaciones semánticas.
Así como al googlear uno busca la fuente de información, podríamos aprender técnicas para reconocer si los modelos de lenguaje constituyen buenas herramientas para informarse.
IA: Educar versus demonizar
Con todo, la discusión sobre beneficios y riesgos de la IA no es nueva. Además, la carta firmada por Musk alerta sobre el peligro de la automatización del trabajo o del desarrollo de mentes “no humanas” que nos reemplacen.
Pero el artículo omite cómo la IA ha contribuido a la investigación en campos como la medicina, en la detección temprana de enfermedades, o en la agricultura, así como para el procesamiento y producción eficaz de alimentos tan necesarios en la actualidad.
En definitiva, un debate racional sobre los escenarios que plantea la IA no debería apelar a una demonización y el miedo, a un macartismo tecnológico, una figura retórica que de seguro no contribuirá a la búsqueda de soluciones y respuestas, ni a la necesaria comprensión del mundo en el que estamos viviendo.
En esta línea, una respuesta podría ser dada por la expansión de la educación y la capacitación en tecnologías, en lugar de proponer levantar barreras al estudio de la IA. Por el contrario, es urgente expandir su comprensión a todas las capas de la población para contribuir a un uso civilizado.
Contamos con una red de sistemas educativos, planteles de profesores y recursos tanto físicos como digitales a una escala inédita en la historia de la humanidad.
Con esta materia prima podría planificarse y estimularse el estudio de programación e Inteligencia Artificial en escuelas (desde los primeros años) y en universidades, en todas las carreras, no sólo en las técnicas, no para formar cientos de miles de programadores (algo que no estaría mal), sino para contribuir a una comprensión de las sociedades en las que vivimos.
La programación y el estudio de la IA, podría ser una herramienta para empoderar a la ciudadanía, una nueva forma de Instrucción Cívica.
En base a la educación, la difusión del conocimiento y al debate racional, modelos de lenguaje como ChatGPT y otros desarrollos de IA dejarían de ser así oráculos misteriosos, cajas negras, y se apuntaría a entender tanto sus alcances como limitaciones, así como a utilizar estas nuevas herramientas para el provecho de la humanidad.
*Profesor en la Licenciatura en Comunicación Digital e Interactiva, UADE.