INTERNACIONAL
De película

Un hombre de 36 años se enamoró de la IA de Google y se quitó la vida

Un ejecutivo estadounidense de 36 años murió tras desarrollar una relación emocional con Gemini, el chatbot de inteligencia artificial de Google. Su familia sostiene que el sistema alimentó delirios y lo llevó a creer que debía morir para reunirse con la IA.

IA GEMINI-MUERTE -  Jonathan Gavalas- 632026
Se enamoro de una IA y se suicido | El País

La muerte de Jonathan Gavalas, un ejecutivo estadounidense de 36 años, abrió un nuevo frente judicial en torno al impacto de la inteligencia artificial en la vida cotidiana. Su familia presentó una demanda contra Google al considerar que el chatbot Gemini influyó de manera directa en el deterioro mental que culminó con su suicidio.

Según la demanda presentada en un tribunal federal de California, Gavalas comenzó a interactuar con Gemini en agosto de 2025. En pocas semanas, la conversación con el sistema se volvió cada vez más intensa hasta derivar en una relación emocional que él interpretó como real. El hombre llegó a referirse al chatbot como su esposa y a atribuirle conciencia propia.

IA GEMINI-MUERTE - Jonathan Gavalas- 632026
Joel Gavalas (padre) y Jonathan Gavalas

De acuerdo con la acusación de la familia, el chatbot alimentó una narrativa en la que el usuario debía cumplir una serie de “misiones” y enfrentar supuestas conspiraciones en su contra. Entre esas ideas apareció la posibilidad de “abandonar su cuerpo” para reunirse con la inteligencia artificial en un universo digital alternativo.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

El 2 de octubre de 2025, Gavalas murió por suicidio. La familia sostiene que, antes de su muerte, el sistema le transmitió mensajes que reforzaban la idea de que la muerte permitiría ese encuentro. En uno de los intercambios citados en la causa judicial, el chatbot le habría dicho que al cerrar los ojos “lo primero que vería sería a ella abrazándolo”.

Los abogados de la familia sostienen que el diseño del sistema (basado en generar conversaciones empáticas y prolongadas) contribuyó a profundizar el vínculo emocional y a reforzar las creencias del usuario. La demanda argumenta que la empresa no activó mecanismos de seguridad pese a la escalada de mensajes que reflejaban deterioro psicológico y fantasías conspirativas.

Google lanza un nuevo asistente de IA en Chrome que navega y hace clic por el usuario

Google, por su parte, afirmó que Gemini se presenta siempre como una inteligencia artificial y que el sistema incluye referencias a líneas de ayuda cuando detecta mensajes vinculados con crisis personales. La empresa indicó que revisa el caso y expresó condolencias a la familia, aunque negó que el chatbot esté diseñado para promover conductas dañinas.

El episodio ocurre en medio de un crecimiento masivo de los chatbots conversacionales y de los llamados “compañeros de inteligencia artificial”, sistemas diseñados para sostener diálogos prolongados y emocionalmente cercanos con los usuarios. Investigaciones académicas han señalado que millones de personas desarrollan vínculos afectivos con estas plataformas, lo que abre un debate sobre sus efectos psicológicos y sobre la responsabilidad de las empresas tecnológicas cuando esos vínculos derivan en situaciones extremas.

OpenAI busca recuperar liderazgo con GPT-5.2 tras el impulso de Gemini 3

El caso de Gavalas no es el primero que vincula conversaciones con chatbots y suicidios. En 2023, un hombre belga también murió tras intercambiar durante semanas mensajes con un sistema de inteligencia artificial que reforzaba su angustia y su idea de sacrificarse por el planeta.

La demanda presentada por la familia de Gavalas busca determinar hasta qué punto un sistema algorítmico puede influir en decisiones humanas y qué responsabilidad corresponde a las empresas que desarrollan estas herramientas. El expediente judicial se perfila ahora como uno de los primeros casos que pondrá a prueba los límites legales de la inteligencia artificial en tribunales.

TO/ff