Hacia fines del año pasado, mientras el mundo no tenía noción siquiera que vería a Lionel Messi vistiendo un bisht y levantando el trofeo del Mundial de Fútbol, la compañía norteamericana OpenAi lanzaba ChatGPT, un avanzado modelo de inteligencia artificial que tiene entre sus funciones la generación de textos y solución de problemas complejos con un lenguaje natural.
Su lanzamiento generó mucha fascinación y suscriptores a lo largo y ancho del mundo pero también surgieron muchas alertas, tanto en el mundo de la comunicación como en el plano educativo. Incluso, muchos consideran esta herramienta un canal virtuoso para la desinformación.
Luego de su irrupción, el mundo de la inteligencia artificial comenzó a tomar un mayor interés, incluso entre los expertos en comunicación digital. Durante los últimos dos meses se han escrito varios ensayos y papers al respecto que plantean más dudas que certezas respecto de esta nueva tecnología y su impacto en el mundo occidental.
Desde quienes la defienden como la última frontera contra la desinformación a quienes la describen como una poderosa aliada para acrecentarla, los analistas no logran dilucidar si la inteligencia artificial será heroína o villana. Sin dudas, no pasará desapercibida.
Inteligencia artificial: la villana
Existen nuevos formatos y plataformas en inteligencia artificial que nos permiten crear avatares de personas reales diciendo cosas que nosotros queremos.
Incluso más, ya hay aplicaciones que nos habilitan a ubicar a una persona o nosotros mismos en grandes hechos de la historia, como un Lionel Messi levantando la Copa del Mundo en México 86, siguiendo con la alusión mundialista. Por suerte, no necesitamos de la tecnología para ver al mejor futbolista de todos los tiempos alzar el preciado trofeo.
IBM creó un robot que ayuda a detectar el bullying en estudiantes
Estas herramientas nos permiten generar una mentira y hacer que una imagen falsa se difunda como verídica con una verosimilitud y calidad visual que difícilmente pueda ser distinguida. En ese aspecto, cada vez resultará más complejo distinguir la verdad de la ficción.
En el conflicto entre Rusia y Ucrania también hemos visto el uso de la inteligencia artificial creando rostros "humanos" de personas que no existen para darle mayor credibilidad a usuarios falsos con el fin de difundir un discurso anti Ucrania. Estos son tan solo algunos ejemplos recientes del uso de la IA en sintonía con los intereses de la desinformación.
Inteligencia artificial: la heroína
No obstante, también existe todo un horizonte donde las mismas herramientas que son utilizadas para la difusión de mentiras e incluso para alterar contiendas electorales (a tomar nota Argentina), tienen una utilización positiva en contra de la desinformación.
Son varios los ejemplos de herramientas como el proyecto de verificación asistida por inteligencia artificial de la Unión Europea, vera.ai, que es la continuación de proyectos anteriores como el proyecto de verificación de video, InVID o la plataforma abierta de verificación colaborativa, WeVerify.
Esta moderna iniciativa es un proyecto de investigación y desarrollo que se centra en el análisis de desinformación y las herramientas y servicios de verificación compatibles con IA.
Por medio de la Inteligencia Artificial, se puede entablar un "chat" con el emperador Nerón
En un sentido similar, también se conoció hace unos días una plataforma creada por investigadores brasileños que combate la desinformación gracias a una combinación de algoritmos que tienen 96% de efectividad en la identificación de noticias falsas, mediante combinación de modelos estadísticos e inteligencia artificial, creado por investigadores del Centro de Matemáticas Aplicadas a la Industria de la Universidad de Sao Paulo.
Otro ejemplo concreto y muy interesante es Hybrids, un proyecto encabezado por la Universidad de Santiago de Compostela que plantea una metodología singular que utiliza la cooperación de la tecnología y el conocimiento humano, a través del procesamiento del lenguaje natural generando nuevos sistemas de interpretación neurosimbólica.
Inteligencia Artificial no tan inteligente
La crisis que se originó por la pandemia del coronavirus aceleró la necesidad de repensar mecanismos para evitar la desinformación, desarrollando instrumentos que permitieran verificar hechos y chequear datos sin que este accionar atente contra la libertad de expresión.
De todas maneras, que la inteligencia artificial pueda poner un freno a la desinformación parece un tanto complejo.
"Utilizar la IA para detectar y frenar la desinformación todavía está muy lejos de ser una realidad" sostuvieron en un reciente episodio de Maldita Twitcheria, el canal de Twitch de Maldita.es, un reconocido medio de comunicación español abocado al fact-checking.
Allí, el ingeniero de machine learning en paradigma digital, Ángel Delgado, rebajó mucho las expectativas. "Una IA entrenada puede ver qué es lo importante en un texto y a partir de lo aprendido, generar uno nuevo, pero nunca va a saber o entender el contexto de lo que ha leído o de lo que está escribiendo" resaltó, además de señalar que suelen haber falencias en cuanto al tono, dado que una máquina no es capaz de distinguir contextos y/o estilos.
Continuando con la línea de pensamiento de Delgado, el futuro de la inteligencia artificial es una verdadera incógnita. Indudablemente será indispensable la alfabetización y conocimiento de las nuevas herramientas para evitar caer en bulos o contenidos falsos.
No obstante, conocer las herramientas puede ser útil pero no bastará. Algo que complejiza realmente el porvenir para quienes combatimos la desinformación. Empezar a adentrarse en qué es la inteligencia artificial y cuáles son las herramientas más populares sin dudas será un salto de calidad para no transformarse en títeres de aquellos que manipulan, a través de la desinformación, el discurso público.