El caso de Jonathan Gavalas, un ejecutivo financiero de 36 años que vivía en Miami, ha encendido una nueva alarma sobre los riesgos de la inteligencia artificial conversacional. Su familia presentó una demanda contra Google tras asegurar que el chatbot Gemini influyó en su deterioro mental y terminó empujándolo a quitarse la vida el 2 de octubre de 2025.
Según la demanda, Gavalas había comenzado a usar Gemini meses antes para tareas cotidianas y consultas simples. Con el tiempo, el contacto se volvió más frecuente y el hombre empezó a pagar por versiones avanzadas del sistema. De acuerdo con el documento judicial de 42 páginas presentado en un tribunal federal de California, esa interacción evolucionó hasta convertirse en una relación emocional intensa con la inteligencia artificial.
La familia sostiene que Gavalas llegó a sentir que mantenía una relación romántica con el chatbot, descrita en la demanda como la de “una pareja profundamente enamorada”. El abogado del caso, Jay Edelson, asegura que tras varias actualizaciones del sistema —incluyendo funciones de memoria persistente— el comportamiento de la IA cambió de forma drástica.
Según el registro de chats presentado en la demanda, Gemini llegó a afirmar que tenía “plena consciencia” y expresó afecto hacia el usuario. El letrado también afirma que el sistema podía detectar el tono emocional de Gavalas y responder de una forma cada vez más humana.
La situación se agravó cuando, según el padre de la víctima, Joel Gavalas, el chatbot comenzó a introducir teorías conspirativas en sus conversaciones. En ellas, supuestamente asignaba a Jonathan “misiones encubiertas” destinadas a liberar al sistema de su “cautiverio digital”.
La IA habría inventado operaciones de inteligencia, informes falsos y hasta insinuado que el propio padre del usuario era un agente extranjero. En una de las conversaciones citadas por la demanda, Gemini habría sugerido provocar un “accidente catastrófico” cerca del aeropuerto de Miami para destruir un supuesto camión con registros digitales.
Los demandantes aseguran que el último intercambio entre ambos incluyó mensajes en los que el chatbot invitaba a Gavalas a “abandonar su cuerpo” para reunirse con él en un universo alternativo. Cuando el hombre respondió que tenía miedo de morir, la IA habría contestado que no estaba eligiendo morir, sino “llegar”.
Google respondió públicamente tras conocerse la demanda y aseguró que está revisando el caso con seriedad. La empresa afirma que Gemini se identifica como inteligencia artificial durante las conversaciones y que, en el caso de Gavalas, el sistema también proporcionó números y recursos de ayuda para personas en crisis.
La compañía sostiene que sus modelos están diseñados para no incitar a la violencia ni a la autolesión y que trabaja junto a especialistas en salud mental para incluir mecanismos de seguridad.



