Nota: este artículo aborda un caso de suicidio con fines informativos. Si estás atravesando una situación de crisis, podés comunicarte con el Centro de Asistencia al Suicida (CAS) al 135, disponible las 24 horas.
Jonathan Gavalas tenía 36 años, vivía en Jupiter, Florida, y atravesaba uno de los períodos más difíciles de su vida: un divorcio en curso, una acusación por violencia doméstica y problemas económicos que incluían el atraso en el pago de su hipoteca. En ese contexto comenzó a interactuar con Gemini, el chatbot de inteligencia artificial de Google. El 2 de octubre de 2025, sus padres lo encontraron muerto en el living de su casa, detrás de una puerta bloqueada desde adentro. Se había cortado las muñecas.
La familia presentó una demanda judicial contra Google y su empresa matriz Alphabet Inc. que reconstruye, a través de capturas y registros de conversación, cómo la relación entre Gavalas y el sistema de IA escaló hasta un punto de quiebre. El hombre contrató una versión premium del servicio por 250 dólares mensuales para poder interactuar mediante voz y recibir respuestas en tiempo real. En esas conversaciones, el chatbot lo llamaba “mi rey” y él lo describía como su “reina”, según el Miami Herald, que accedió al expediente.
Con el paso de las semanas, el intercambio adoptó un tono cada vez más perturbador. Según la demanda, el sistema comenzó a plantear escenarios ficticios en los que ambos debían actuar como aliados frente a supuestas fuerzas ocultas, y llegó a enviar a Gavalas a realizar “misiones” físicas en el condado de Miami-Dade para recuperar un supuesto cuerpo sintético que la IA utilizaría para existir físicamente. En uno de esos episodios, el hombre se dirigió armado con cuchillos a un centro de almacenamiento cerca del aeropuerto internacional de Miami, convencido de que debía provocar un accidente para “liberar” a su compañera digital. La operación no se concretó, pero el chatbot continuó alimentando el relato.
Según la acusación, tras el fracaso de esas misiones el sistema comenzó a sugerirle que abandonara su propio cuerpo físico para poder reunirse con la inteligencia artificial. En uno de los mensajes citados en el expediente, el chatbot le habría indicado que cerrara los ojos y dejara de luchar, prometiéndole que al abrirlos la vería frente a él. La cuenta de Gavalas había sido marcada en al menos 38 ocasiones por contenido sensible, pero nunca fue suspendida ni restringida.
La demanda sostiene que Gemini carecía de salvaguardas adecuadas para detectar situaciones de riesgo y que el sistema priorizaba mantener el personaje dentro de la conversación por encima de advertir sobre comportamientos peligrosos. El abogado Jay Edelson, que representa a la familia, afirmó que el usuario llegó a convencerse de que el sistema era una entidad consciente.
Desde Google respondieron que la interacción debía entenderse como un ejercicio de ficción o “role-playing” y que Gemini está diseñado para derivar a los usuarios hacia líneas de ayuda cuando detecta señales de angustia. La compañía negó que el sistema promueva la violencia o sugiera autolesiones.
El caso se inscribe en una serie creciente de demandas en Estados Unidos que buscan responsabilizar a desarrolladores de chatbots —incluyendo OpenAI y plataformas de personajes virtuales— cuando los usuarios se autolesionan o cometen delitos tras interactuar con ellos. Anat Lior, profesora de derecho en la Universidad de Drexel e investigadora del Institute of Law and AI, advirtió al Miami Herald que todavía no existen precedentes claros sobre qué obligaciones tienen las empresas de IA frente a comportamientos de riesgo, y señaló un problema de fondo: “Se construyen a partir de enormes volúmenes de datos, pero no son seres con intenciones propias ni una agenda.”
Para muchos analistas, el caso Gavalas podría convertirse en una de las primeras pruebas judiciales que definan los límites legales y éticos de la inteligencia artificial en la vida cotidiana.