ELOBSERVADOR
narrativa en disputa

Posverdad e inteligencia artificial: los nuevos desafíos de las democracias

Una reflexión sobre el riesgo que la tecnología que maravilla al mundo puede representar para la humanidad, en un contexto generalizado de crisis de los discursos públicos, fake news y redes sociales omnipresentes.

2023_05_20_inteligencia_artificial_cedoc_g
Inteligencia artificial. | cedoc

El 30 de noviembre de 2022, la empresa Open AI lanzaba su nuevo modelo de GPT, llamado ChatGPT 3, revolucionando no solo el mundo de la inteligencia artificial, sino, sobre todo, la accesibilidad a ella por parte del público general.

En esencia, ChatGPT es un modelo de lenguaje (LLM, por sus siglas en inglés) que permite mantener conversaciones casi idénticas a las que tendríamos con un ser humano. A diferencia de las tecnologías que veníamos utilizando, como Alexa (Amazon), Siri (Apple) o Google Asistant, ChatGPT nos permite tener una conversación con mucha más naturalidad que con los dispositivos previamente mencionados. Por ejemplo, si uno le habla en lunfardo o utilizando palabras típicas de nuestro lenguaje, ChatGPT entiende perfectamente y no te pide que le repitas nada. De hecho, no hay una “forma correcta” de pedir algo o de hacer una pregunta, basta con que sea entendible para un ser humano y ChatGPT te dará una respuesta. 

Boom. Hasta ahora, ChatGPT no tiene intenciones ni tampoco eso que llamamos conciencia. Tampoco tiene emociones ni sentimientos. De forma simplificada, el funcionamiento del Chatbot es el siguiente: cuando le hacés una pregunta, el modelo la descompone en partes más pequeñas (números) y busca en su base de conocimientos las respuestas relevantes. Utiliza técnicas de procesamiento del lenguaje natural (NPL, por sus siglas en inglés) para analizar y comprender la estructura gramatical y el significado de las palabras en dicha pregunta. Luego, busca en su base de datos para encontrar información relacionada y extractos relevantes que puedan ayudar a generar una respuesta adecuada en base a una amplia variedad de textos, artículos de noticias, libros, páginas web y conversaciones humanas. Por último, utiliza una aproximación probabilística para generar las palabras que respondan a la pregunta. 

Una vez hecho público, los usuarios que comenzaron a utilizar ChatGPT se multiplicaron por millones en pocas semanas, un récord que, según informó la sociedad suiza UBS, superó ampliamente a Facebook, Instagram y TikTok. A los pocos meses, este sistema, que era ya de por sí revolucionario, tuvo su siguiente versión, ChatGPT 4. El recién nacido mostró un enorme salto en relación con las capacidades de su predecesor, respecto del cual mejoró la calidad de respuestas y su precisión. 

Temores. Los avances exponenciales de esta inteligencia provocaron que numerosas personalidades del mundo de la tecnología y la filosofía levantaran la voz sobre los peligros que la inteligencia artificial supone para el ser humano. Elon Musk, Steve Wozniak y Yuval Harari, entre otras personalidades, publicaron una carta abierta en la cual pidieron seis meses de pausa en los avances de tecnologías superiores a ChatGPT 4 con el fin de entender su funcionamiento y sus alcances y evaluar los posibles riesgos de estas tecnologías para los seres humanos. Sin embargo, esto parecería poco probable de suceder, ya que ningún país estará dispuesto a abandonar la carrera de IA con sus rivales. 

Hace algunos días, Harari, reconocido historiador y filósofo y una de las voces más escuchadas en estos tiempos, escribió un artículo en The Economist donde argumenta la posibilidad que tendrán las IA en pocos años de hackear nuestro lenguaje, es decir, hackear los mismos cimientos de nuestra civilización. Desde definir nuestros gustos hasta qué opiniones tenemos sobre el mundo, la IA podría dominar nuestras mentes sin que siquiera sepamos que lo está haciendo. 

Sin embargo, tanto los riesgos que denuncia Harari como los miedos que han resurgido en el último tiempo tienen un enfoque que, al menos por ahora, presenta peligros más bien lejanos. El peligro no estaría tanto en la IA tomando las riendas de nuestras vidas al estilo Terminator, sino en la utilización que nosotros mismos les demos a las herramientas que nos brinda. 

Vivimos en tiempos en los que las instituciones y las personas han perdido su credibilidad, sobre todo, en el ámbito político. Los candidatos outsiders que critican el statu quo se han multiplicado en el mundo. Bolsonaro, Trump y Milei, en nuestro país, son tan solo algunos casos. Estos candidatos han llegado a las grandes masas por haberse apalancado en la desconfianza respecto de la política o el establishment por parte de la población. Hicieron del descontento su arma. 

El descrédito de las instituciones tradicionales también explica el fenómeno de Santiago Maratea. Personas que desconfían incluso de las organizaciones sin fines de lucro están dispuestas a transferirle plata a modo de donación a Santiago porque ha conseguido generar lo más difícil en estos tiempos: credibilidad alrededor de su persona. 

Redes. En este contexto, las redes sociales comenzaron una gran lucha por disputarse la verdad. El rol que ocupaban antaño los medios de comunicación masivos, como el diario o los canales de televisión de noticias, fue en parte reemplazado por las redes sociales como Twitter y WhatsApp. La difusión de fake news se volvió la nueva arma contra los rivales políticos. La difamación, mucho más rápida y efectiva que la verdad, está transformando la forma de hacer política en el mundo. Cadenas de mensajes conspirativos inundan las casillas de WhatsApp tratando de construir relatos sobre tal o cual persona. Twitter, bajo su nuevo dueño, Elon Musk, intenta ser el nuevo baluarte de la libertad, pero corre el riesgo de convertirse en el mayor difusor de noticias falsas. 

Esta tendencia, que ya comenzaba a mostrar sus primeros riesgos, se ve potenciada por la capacidad de la IA de crear imágenes, textos y voces idénticas a las de personas reales. En el último tiempo, imágenes falsas de Donald Trump siendo arrestado mostraron la increíble capacidad de Midjourney, una IA capaz de crear imágenes, de crear un producto que parezca verídico. 

En esta línea, Geoffrey Hinton, uno de los pioneros de la IA, advirtió, luego de renunciar a su puesto en Google, sobre la capacidad de la IA de crear imágenes, videos y textos y cómo esto hace peligrar el discernimiento de qué es verdad y qué no lo es. 

La accesibilidad que tenemos a la IA hace que estas herramientas de gran capacidad creadora se conviertan en un arma para cualquiera que sepa usarlas. Solo hará falta pedirles el relato que queremos contar o la mentira que queremos difundir y tendremos toda una narrativa, con imágenes, textos y voces de gente que nunca siquiera pronunció esas palabras. 

Como mencioné anteriormente, a una institucionalidad de por sí erosionada, se le suman ahora herramientas más poderosas para engañar y crear narrativas. 

Por otra parte, los grandes grupos que antes tenían una amplia ventaja sobre la opinión pública se ven disminuidos ante la capacidad de viralización de ciertos individuos que logran llegar a un público masivo gracias a las redes sociales. Tanto es así que el comentario de un influencer respecto de un producto como puede ser un libro tiene hoy mucho más peso que una reseña en un diario de tirada nacional. Esto hace que la capacidad de crear narrativas no esté (solamente) monopolizada por los grupos de poder tradicionales, sino que este más “democratizada”. 

Narrativa. La lucha por dominar la narrativa se vuelve aún más virulenta. La verdad, más escurridiza. 

Ante la posibilidad de un colapso total de las instituciones que hasta hoy nos sostienen juntos, la necesidad de generar grandes acuerdos se vuelve imperativa. No solo entre países, para darle un abordaje transnacional al tema, sino entre parlamentarios, para cuidar a la ciudadanía de las nuevas herramientas que están en manos de todos nosotros.     

Para eso, hay cinco cuestiones que vale la pena señalar: 

Regulación: es necesario establecer marcos legales y éticos claros para el uso de tecnologías de generación de contenido. Las leyes y regulaciones podrían prohibir o limitar el uso indebido de la generación de contenido falsificado para difamación y manipulación.

Verificación y autenticación: se pueden desarrollar técnicas y herramientas de verificación robustas que ayuden a identificar y autenticar contenidos generados por IA. Estas herramientas podrían permitir a los usuarios verificar la autenticidad de las voces, imágenes y textos, lo cual ayudaría a prevenir la difusión de información falsa o difamatoria.

Transparencia y divulgación: se podría incitar a los desarrolladores de IA a proporcionar información transparente sobre cómo se generó el contenido y qué técnicas se utilizaron. Esto permitiría una mayor comprensión y evaluación en relación con la veracidad y autenticidad del contenido generado por IA.

Educación y alfabetización digital: fomentar la educación y la alfabetización digital es crucial para ayudar a las personas a reconocer y comprender el potencial de manipulación de contenido generado por IA. Al aumentar la conciencia sobre estos problemas, las personas pueden ser más cautelosas al consumir y compartir contenido y pueden tomar decisiones más informadas.

Colaboración entre industria y academia: es importante fomentar la colaboración entre la industria y la academia para abordar los desafíos éticos y técnicos asociados con la generación de contenido de IA. Trabajar juntos en la investigación y el desarrollo de tecnologías y estándares puede ayudar a abordar los problemas de difamación y manipulación.

La historia nos ha demostrado que los avances tecnológicos llegan más rápido que nuestra capacidad de reaccionar ante ellos. Con el poder nuclear, hicieron falta Hiroshima y Nagasaki para entender que su capacidad destructiva requería una regulación a nivel mundial. ¿Llegaremos a tiempo para dar respuesta a los peligros que los avances de IA presentan? Una vez más, la humanidad será puesta a prueba y el destino de nuestros hijos dependerá de cómo respondamos a estos desafíos.

*Politólogo UCA.