En diálogo con Canal E, Yas García, CEO de Fundación Conocimiento Abierto, advirtió que la falta de regulación sobre la inteligencia artificial pone en riesgo la libertad de expresión y la veracidad de la información.
El riesgo de una IA sin límites
Las recientes polémicas por las respuestas de Grok, la IA desarrollada por Elon Musk, reavivaron el debate global sobre la libertad de expresión y el rol de la tecnología. Para Yas García, “la inteligencia artificial todavía no está de alguna manera controlada”, y esto genera un escenario incierto. Si bien algunas regiones, como Europa, avanzan con regulación, “en la mayoría del mundo es todavía tierra de nadie”, alertó.
En ese contexto, surge la pregunta de fondo: ¿la libertad de expresión es un derecho exclusivo de los humanos? Según García, “hay dos mundos: uno donde cada uno puede decir lo que quiere, y otro donde las LLM como Grok no tienen filtros reales”. Grok, alimentado por los contenidos de la red social X, no solo replica discursos sino que los amplifica. “El entrenamiento que tiene se basa en una bolsa de opiniones”, señaló, lo que aumenta el riesgo de sesgos ideológicos si la fuente dominante es una figura como Elon Musk.
“Somos parte de un experimento”
Yas García fue categórica al referirse a la situación actual: “Estamos en un proceso de experimentación, y todos nosotros somos parte del laboratorio”. En ese contexto, señaló que “vale todo en este proceso, y después se regula”, una lógica que permite que errores graves escalen sin control. El caso de Grok es solo un ejemplo, pero “puede sentar un precedente, como en su momento lo hizo Zuckerberg con la filtración de datos”, remarcó.
Uno de los aspectos más preocupantes es la relación entre estas tecnologías y el poder económico y político. “Estas empresas tienen un poder inclusive más grande que quienes toman decisiones políticas”, afirmó. Y sin marcos legales definidos, “cualquiera con recursos podría crear una IA que diga lo que quiera”. El peligro, según García, no es solo que las personas crean ciegamente lo que una IA responde, sino que “estamos en la era de la posverdad, donde la verdad ya no tiene tanto valor”.
Grok actualmente lidera el Humanity Last Exam, un índice que mide cuán “humana” parece una IA. Pero, aclara la especialista, “no mide cuán certera o confiable es, sino cuán humana parece”. Esto lleva a confundir cercanía con veracidad. “Si una IA dice algo parecido a un humano, no significa que sea cierto”, subrayó.
Para cerrar, Yas García hizo un llamado urgente: “Hasta que no haya reglas del juego claras, esto seguirá pasando todos los días”, dijo. Y recordó las palabras del experto Geoffrey Hinton: “Lo más importante llegará cuando la robótica piense de verdad”. Mientras tanto, la advertencia está clara: la inteligencia artificial necesita supervisión humana, ética y legal para no volverse una amenaza.