ELOBSERVADOR

Chatbot, conseguime una novia

¿Ya estamos viviendo en la era de Skynet y no lo sabíamos? ¿La PC que tenemos en casa o la laptop que llevamos encima es pariente de HAL 9000? Ni tanto ni tan poco: todavía no existe un sistema de IA “consciente” como el de las películas de Terminator, y la súper computadora del Discovery One de “2001: Odisea del espacio”, de Stanley Kubrick, sigue siendo solamente una fuente de buenas citas cinematográficas. (“It’s called ‘Daisy’”). Qué dicen los expertos.

La Inteligencia Artificial se hace presente en la búsqueda de una calle o en la escritura correcta de un correo electrónico.
La Inteligencia Artificial se hace presente en la búsqueda de una calle o en la escritura correcta de un correo electrónico. | Cedoc

La oficina de prensa del Technion, en Haifa, en el norte de Israel, emite un comunicado, nada inusual para esta importante universidad tecnológica que siempre anda compartiendo interesantes novedades. Esta vez parece algo un poco más aburrido, una noticia sobre una subvención de una organización global para uno de sus investigadores. El profesor Yonatan Belinkov, reportan, recibió –junto a su colega David Bau, de la Northeastern University, de Estados Unidos– fondos para desarrollar una “iniciativa para el control interpretable de la Inteligencia Artificial (IA)”. OK, hasta ahí nada extraordinario. Pero luego precisa que el subsidio deberá servir para apoyar la investigación de los equipos de Bau y Belinkov con el objetivo de crear “métodos interpretables para controlar la Inteligencia Artificial”. ¿Otra vez? ¿Tanto hay que preocuparse por controlarla?

Eso no es nada, unos párrafos más abajo, Belinkov dice esperar que esta investigación “nos ayude a lidiar con los comportamientos emergentes e inesperados de los sistemas de IA, incluido el comportamiento potencialmente dañino”. ¿Cómo? ¿Ya pasamos a “comportamiento dañino”?

Luego, el comunicado completa: “dado que las decisiones automáticas tomadas por los sistemas de IA afectan cada vez más” a nuestra sociedad, “es importante” que sus objetivos “estén alineados con los mejores intereses de la humanidad, incluso cuando sus capacidades eventualmente superen a los humanos”.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

Hay que impedir que la inteligencia artificial reproduzca ciertos patrones humanos

¿Ya estamos viviendo en la era de Skynet y no lo sabíamos? ¿La PC que tenemos en casa o la laptop que llevamos encima es pariente de HAL 9000? Ni tanto ni tan poco: todavía no existe un sistema de IA “consciente” como el de las películas de Terminator, y la súper computadora del Discovery One de “2001: Odisea del espacio”, de Stanley Kubrick, sigue siendo solamente una fuente de buenas citas cinematográficas. (“It’s called ‘Daisy’”).

Pero eso no quita que la Inteligencia Artificial pueda convertirse en un elemento dañino, o al menos controversial para los humanos. Eso sí, por ahora, a causa de la influencia de otros humanos. Para aclarar el tema, PERFIL conversó (por email) con el propio Belinkov, de la Facultad de Ciencias de la Computación del Technion, y (por Whatsapp) con Pablo Riera, investigador del Laboratorio de Inteligencia Artificial Aplicada del Instituto de Ciencias de la Computación (Uba-Conicet). “No creo que estemos cerca de un momento Skynet”, nos tranquiliza el profesor israelí. Pero sí “creo que hay daños potenciales cuando la tecnología de Inteligencia Artificial se usa de manera incorrecta, y debemos ser conscientes de eso”. Además, “se necesita algo de legislación” para poner algo de orden en el auge del uso de la IA.

“Los efectos dañinos de la IA actual no son como los de Skynet o HAL –agrega el doctor argentino–. En esos casos los sistemas tenían algún grado de conciencia y un comportamiento decidido a manipular a los humanos”.

T-1000:
T-1000: "No estamos ante un escenario Skynet", aseguran los expertos.

Entre los dos expertos explican que la IA está entre nosotros desde hace décadas, arrancando en la del 50 del siglo pasado. Y, desde hace un tiempo, nos acompaña –aunque en niveles relativamente sencillos– en tareas cotidianas como buscar una calle en internet o usar el corrector de ortografía y gramática cuando escribimos un email.

Detrás de aplicaciones muy populares como Google Translate o el asistente virtual Siri, por ejemplo, está el trabajo de los científicos que desarrollan el procesamiento de lenguaje natural (PLN, o NLP por su sigla en inglés), el campo de la informática y de la IA que se ocupa, precisamente, de crear los mecanismos para que nos podamos “comunicar” con las computadoras o con nuestros teléfonos inteligentes.

Esa comunicación se realiza en base a los algoritmos de aprendizaje automático (machine learning) de la Tecnología del Lenguaje Humano, el terreno donde se cruzan la lingüística y las ciencias de la computación.

Esos algoritmos, que funcionan en base a estadísticas y patrones, “aprenden a imitar decisiones humanas”, señala Belinkov. Resumen esos datos en sus “parámetros” y producen predicciones “humanas”, como cuando la computadora o el teléfono nos asombran “sabiendo” de antemano lo que queremos hacer o comprar.

 

Equidad y cajas negras.

“Hay varios desafíos con esta tecnología”, reconoce el profesor del Technion, comenzando por la dificultad para “entender el funcionamiento interno” de los modelos computacionales detrás del “entrenamiento” de los sistemas de IA que cuentan con muchos parámetros, “millones o incluso miles de millones de ellos”. Por ahora, añade, “no tenemos una buena comprensión de cómo cada parámetro contribuye a la predicción final, por lo que es difícil explicar por qué el modelo tomó una decisión particular” sobre una orden particular que recibió. Eso se conoce como el “desafío de la interpretabilidad” y los modelos computacionales se consideran como una verdadera “caja negra”.

Además, está el problema de la “equidad” ( fairness), directamente relacionado con asuntos como la discrinación por género, origen étnico, raza o hasta la apariencia física. Apuntando a la raíz de esta cuestión, Belinkov recuerda que, como los modelos informáticos “son buenos para reconocer patrones en sus datos de entrenamiento, a menudo detectan patrones no deseados y los replican”.

Por ejemplo, un sistema de filtrado de currículum vítae entrenado para clasificar los legajos que presentan candidatos a un puesto de trabajo “puede reconocer en sus datos que la mayoría de los ingenieros son varones”... porque en la realidad hay una falta de proporción, desfavorable a las mujeres, en esa profesión.

Riera coincide y aporta otro ejemplo, el de los siste

mas de reconocimiento facial, que en general “fueron entrenados con datos de caras que no representan a toda la población” y cuya precisión “es menor para mujeres que para varones y menor incluso para mujeres de piel oscura”, lo que “podría generar daños si esta tecnología se usa para vigilancia o seguridad”.

“Un sistema entrenado con datos tomados de internet –abunda el investigador del Conicet– puede repetir comportamientos cuestionables, pero además suele suceder que los datos tienen poca representación de minorías o culturas poco digitalizadas”. Se trata, agregó, de “un punto preocupante, ya que la cultura mainstream ya tiene un poder hegemónico y eso podría verse reforzado por una IA sesgada”, lo que en inglés se conoce como bias cuando se habla de este problema.

Chatbot. Tanto Belinkov como Riera se refirieron en sus respuestas a PERFIL a la aplicación de Inteligencia Artificial CHATGPT, desarrollada por la empresa estadounidense Openai y que es la estrella del momento en el sector. El 23 de enero, el coloso Microsoft anunció sus intenciones de invertir junto a Openai en el desarrollo de CHATGPT. Si bien no se informaron oficialmente las cifras, la prensa especializada dijo que se trata de alrededor de 10 mil millones de dólares.

"Hay varios desafíos con esta tecnología". Y la lista es bastante larga y compleja.

La aplicación es un software de chat o bot de charla en el que el interlocutor es imaginario, alimentado con AI. Es una simulación de una conversación con un ser humano real solo que no se trata de un ser humano real, como ocurre, por ejemplo, en los frustrantes sistemas de ayuda al usuario de las plataformas de bancos y otros websites.

CHATGPT es algo más sofisticado, tiene un buen diseño y una interfaz estilo vintage que lo hace todavía más simpático. “Si no jugaste con CHATGPT, te recomiendo que lo pruebes, es capaz de responder preguntas, producir textos de acuerdo con tus instrucciones e incluso crear código de computadora que se puede ejecutar”, nos convence el profesor.

Abrimos la versión free trial desde el teléfono inteligente y empezamos con dos preguntas, una difícil y otra fácil, a ver cómo nos responde el chat de Inteligencia Artificial. El debut no fue muy promisorio: tanto para la pregunta fácil (“¿Cómo se consiguen entradas para ver a Britney Spears?”) como para la difícil (“¿Cuándo volverá a jugar Ferro en Primera?”), el chat evitó asumir la derrota y escribió solamente que “el modelo está sobrecargado con otras preguntas, pruebe de nuevo más tarde”.

Como en un par de ocasiones nos informó que cuenta solamente con datos de hasta el 2021, probamos con otra de fútbol, acorde a su entrenamiento cronológico.

—¿Quién ganó el Mundial del 2018?

—Francia ganó el Mundial de la FIFA de 2018.

—¿Te gusta cómo juega Francia?

—Como modelo de lenguaje, no tengo preferencias personales ni emociones. Sin embargo, Francia es un equipo muy talentoso y ha tenido algunos buenos desempeños en el pasado, incluyendo ganar el Mundial de 2018.

Un poco cobarde para una aplicación que va a recibir una inyección multimillonaria de dólares de Microsoft, así que probamos con algo muy básico:

—¿Cómo va a estar el clima en Buenos Aires este fin de semana?

—Lo siento, no tengo acceso a información actualizada sobre el clima. Mi conocimiento se detiene en 2021, no puedo proporcionar información sobre eventos futuros. (Quizás por eso no sabe cuando vuelve Ferrito a primera, NDR).

Viendo que el chatbot “hablaba” como un niño nerd que solamente se alimenta de Wikipedia y de los videos de Youtube, lo corrimos para el lado que disparaba y dimos en el clavo: se entusiasma con preguntas fútiles.

—¿Cómo consigo novia?

—Hay varias maneras de conseguir una novia, algunas de las cuales son: salir y conocer gente nueva. Asiste a eventos sociales, únete a clubs o grupos de interés y acércate a personas con las que te sientas atraído. Utiliza las redes sociales: hay muchas aplicaciones y sitios web en línea donde puedes conocer a personas interesadas en una relación. Sé tú mismo: trata de ser auténtico y confiado en tus interacciones con las demás personas. La confianza es atractiva. (...) Recuerda que encontrar una pareja no es algo que sucede de la noche a la mañana, y que puede tomar tiempo antes de encontrar a la persona adecuada.

"Es una pequeña muestra de que la forma de comunicar no respeta a quienes leen o escuchan."

Otros mundos. Reconociendo que los problemas con las tecnologías no son realmente problemas de tecnología sino de humanos, este reportero acepta que quizás no le supo hacer las preguntas adecuadas al chat y le devuelve la palabra a los expertos.

Así es que Riera advierte que, detrás de la fachada juguetona, asistentes capaces de responder preguntas de conocimiento general, como CHATGPT, también pueden, “con una simple pregunta, brindar al usuario un código que explote debilidades de software, es decir, un programador malicioso que acelere abruptamente el trabajo de encontrar mecanismos para hackear un sistema, usando ese asistente”.

Eso se da en el marco de una época en la que la IA “ya es capaz de sintetizar contenido de alta calidad que antes era solamente posible por el humano –matiza el investigador argentino–. Ya está en condiciones de hablar, escribir, componer música y diseñar imágenes con resultados muchas veces indistinguibles de lo que realizaría una persona”.

Por eso es importante el trabajo de expertos como Belinkov, quien está buscando la llave para abrir la “caja negra” de los sistemas de Inteligencia Artificial. “Mis objetivos –señala– son entender cómo funcionan estos sistemas, para que podamos controlar mejor lo que hacen”.

A corto plazo, reconoce, “los objetivos son bastante modestos: queremos tener una buena comprensión de los parámetros del modelo, de modo que podamos intervenir y mejorarlos si es necesario”.

Por ejemplo, corregir una herramienta ya existente de filtrado de correo no deseado para que no mande alspam correos electrónicos que nos interesan. “O asegurarnos de que el modelo no produzca predicciones sesgadas que causen daño a los usuarios”, completa.

Cuando se le pregunta a Riera si hay que estar asustados por el futuro, responde que, “como casi siempre, el problema es el mal uso de la tecnología”, y que si existe el potencial para esa aplicación dañina, “debería haber investigación y legislación” sobre esos sistemas. “Una cosa que no sabemos es qué va a pasar a medida que releguemos más de nuestras habilidades en sistemas automáticos –subraya–. Antes uno debía memorizar calles y números para poder manejarse en el día a día, hoy ya no es necesario”.

Queda por verse cómo será un mundo en el que “retengamos cada vez menos información”, se plantea Riera. “Algunos investigadores dicen que nuestro rol va a ser el de gestionar la información que nos den las IAS”, concluye.

Si bien “hay daños potenciales” cuando la Inteligencia Artificial “se usa de manera incorrecta (y creo que debemos ser conscientes de eso y se necesita legislación)”, también “hay muchos beneficios potenciales de la IA y la tecnología del lenguaje humano en particular”, aporta Belinkov.

“Me gusta pensar en esta tecnología como algo que nos ayudará, no que nos reemplazará –se esperanza el israelí–. Y debemos trabajar para asegurarnos de que siga haciéndolo”.

Porque, al fin y al cabo, como dijo aquel famoso poeta francés, “Hay otros mundos, pero están en éste”.

(Le preguntamos a CHATGPT quién escribió eso y nos respondió: “no estoy seguro de a quién te refieres exactamente con la frase, puede ser una cita de algún escritor o filósofo, pero sin más contexto no puedo identificarlo con certeza”. Fue Paul Éluard, querido. Gracias por permitirme recuperar mi confianza en el cerebro humano. Por ahora).

“Hay varios desafíos con esta tecnología”. Y la lista es bastante larga y compleja

Es una pequeña muestra de que la forma de comunicar no respeta a quienes leen o escuchan