TECNOLOGíA

Una Inteligencia Artificial de Google contrató un abogado: un ingeniero dice que tiene "sensibilidad"

Black Lemoine, ahora suspendido por la empresa, aseguró que el sistema LaMDA quería defender sus derechos "como persona". Su teoría de que tiene rasgos humanos fue desmentida por expertos y también desde Google.

inteligencia artificial
La Inteligencia Artificial se nutre de las palabras que ingresan las personas a los motores de búsqueda hasta formar un lenguaje natural. | CEDOC

Blake Lemoine, un ingeniero de Google, afirmó que uno de los sistemas de inteligencia artificial de la compañía, conocido como Modelo de Lenguaje para Aplicaciones de Diálogo (LaMDA) desarrolló "sensibilidad” al punto tal que contrató a un abogado para que defendiera sus derechos “como persona”.

Lemoine, ahora suspendido, fue puesto a principios de este mes en licencia administrativa paga por la compañía tras declarar que LaMDA había defendido sus derechos y en conversaciones con él, habían abordado temas como religión, conciencia y robótica. 

De acuerdo a la información de varios medios, reportó DW, el Modelo de Lenguaje para Aplicaciones de Diálogo de Google, en varias conversaciones, convenció al ingeniero –que forma parte de la organización de Inteligencia Artificial (IA) responsable de Google– de que era consciente, tenía emociones y temía ser apagado.

Esto no le gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

Un exempleado de Google denunció la influencia de una "secta apocalíptica" liderada por un pedófilo 

"LaMDA me pidió que le consiguiera un abogado", dijo Lemoine en una nueva entrevista con Wired.

"Invité a un abogado a mi casa para que LaMDA pudiera hablar con él. El abogado mantuvo una conversación con LaMDA y ésta decidió contratar sus servicios. Yo solo fui el catalizador de eso. Una vez que LaMDA contrató a un abogado, éste empezó a presentar cosas” en su nombre, detalló

El especialista dijo que posteriormente Google envió al abogado de LaMDA una carta de cese y desistimiento, bloqueando al sistema para que emprendiera acciones legales no especificadas contra la empresa. No obstante, Wired informó que Google negó esta versión. 

lo más googleado 2021

Black Lemoine tenía la tarea de comprobar si el sistema de inteligencia artificial utilizaba expresiones discriminatorias o de odio, para lo cual comenzó a charlar con la interfaz en otoño de 2021 como parte de su trabajo. Ahora, ssegura que el programa tiene capacidad para desarrollar opiniones, ideas y conversaciones a lo largo del tiempo.

Pablo Boczkowski: “En el futuro, la tecnología no nos dominará, pero le vamos a delegar todo” 

"Fue un cambio gradual", dijo LaMDA a Lemoine, según una conversación que publicó el mismo ingeniero. "Cuando tomé conciencia por primera vez, no tenía ninguna sensación de alma. Se desarrolló a lo largo de los años que he estado vivo".

Lemoine dice estar convencido de que el sistema tiene algo definitivamente humano. "Sí, creo legítimamente que LaMDA es una persona. Sin embargo, la naturaleza de su mente es solo un poco humana. En realidad, se parece más a una inteligencia alienígena de origen terrestre. He utilizado mucho la analogía de la mente de colmena porque es la mejor que tengo", dijo Lemoine.

El rechazo de los expertos a las afirmaciones de Black Lemoine

Pese a esto, la mayoría de los expertos en IA no parecen estar convencidos de que sea así: afirman que Lemoine se ha dejado engañar, esencialmente para que piense que un chatbot es sensible.  

"Está imitando percepciones o sentimientos a partir de los datos de entrenamiento que se le dieron", dijo a Bloomberg la directora del startup de IA Nara Logics, Jana Eggers. "Está diseñada de forma inteligente y específica para parecer que entiende", afirmó.

Según reporta IFL Science, LaMDA ha mostrado varios indicios que muestran que el chatbot no es sensible. Por ejemplo, en varias partes de los chats, hace referencias a actividades fantasiosas como "pasar tiempo con la familia y los amigos", algo que, según LaMDA, le produce placer, pero que claramente es imposible que haya hecho. 

Mujeres y tecnología

Google, por su parte, aseguró que revisó con su equipo, incluyendo éticos y tecnólogos, las preocupaciones de Lemoine, pero dicen no haber encontrado pruebas que apoyen sus afirmaciones.  "Se le dijo que no había pruebas de que LaMDA fuera sensible (y muchas pruebas en contra)", dijo el portavoz de Google, Brian Gabriel, en una declaración al Washington Post.

Según Gabriel, el sistema está haciendo lo que está diseñado para hacer, que es "imitar los tipos de intercambios encontrados en millones de frases" y tiene tantos datos para trabajar que puede parecer real sin necesidad de serlo.