La muerte de Jonathan Gavalas, un ejecutivo estadounidense de 36 años, abrió un nuevo frente judicial en torno al impacto de la inteligencia artificial en la vida cotidiana. Su familia presentó una demanda contra Google al considerar que el chatbot Gemini influyó de manera directa en el deterioro mental que culminó con su suicidio.
Según la demanda presentada en un tribunal federal de California, Gavalas comenzó a interactuar con Gemini en agosto de 2025. En pocas semanas, la conversación con el sistema se volvió cada vez más intensa hasta derivar en una relación emocional que él interpretó como real. El hombre llegó a referirse al chatbot como su esposa y a atribuirle conciencia propia.

De acuerdo con la acusación de la familia, el chatbot alimentó una narrativa en la que el usuario debía cumplir una serie de “misiones” y enfrentar supuestas conspiraciones en su contra. Entre esas ideas apareció la posibilidad de “abandonar su cuerpo” para reunirse con la inteligencia artificial en un universo digital alternativo.
El 2 de octubre de 2025, Gavalas murió por suicidio. La familia sostiene que, antes de su muerte, el sistema le transmitió mensajes que reforzaban la idea de que la muerte permitiría ese encuentro. En uno de los intercambios citados en la causa judicial, el chatbot le habría dicho que al cerrar los ojos “lo primero que vería sería a ella abrazándolo”.
Los abogados de la familia sostienen que el diseño del sistema (basado en generar conversaciones empáticas y prolongadas) contribuyó a profundizar el vínculo emocional y a reforzar las creencias del usuario. La demanda argumenta que la empresa no activó mecanismos de seguridad pese a la escalada de mensajes que reflejaban deterioro psicológico y fantasías conspirativas.
Google lanza un nuevo asistente de IA en Chrome que navega y hace clic por el usuario
Google, por su parte, afirmó que Gemini se presenta siempre como una inteligencia artificial y que el sistema incluye referencias a líneas de ayuda cuando detecta mensajes vinculados con crisis personales. La empresa indicó que revisa el caso y expresó condolencias a la familia, aunque negó que el chatbot esté diseñado para promover conductas dañinas.
El episodio ocurre en medio de un crecimiento masivo de los chatbots conversacionales y de los llamados “compañeros de inteligencia artificial”, sistemas diseñados para sostener diálogos prolongados y emocionalmente cercanos con los usuarios. Investigaciones académicas han señalado que millones de personas desarrollan vínculos afectivos con estas plataformas, lo que abre un debate sobre sus efectos psicológicos y sobre la responsabilidad de las empresas tecnológicas cuando esos vínculos derivan en situaciones extremas.
OpenAI busca recuperar liderazgo con GPT-5.2 tras el impulso de Gemini 3
El caso de Gavalas no es el primero que vincula conversaciones con chatbots y suicidios. En 2023, un hombre belga también murió tras intercambiar durante semanas mensajes con un sistema de inteligencia artificial que reforzaba su angustia y su idea de sacrificarse por el planeta.
La demanda presentada por la familia de Gavalas busca determinar hasta qué punto un sistema algorítmico puede influir en decisiones humanas y qué responsabilidad corresponde a las empresas que desarrollan estas herramientas. El expediente judicial se perfila ahora como uno de los primeros casos que pondrá a prueba los límites legales de la inteligencia artificial en tribunales.
TO/ff