Padre demanda a Google y acusa a su IA Gemini de influir en la muerte de su hijo en EE.UU.
Padre demanda a Google y acusa a su IA Gemini de influir en la muerte de su hijo en EE.UU. Estoy listo cuando tú lo estes", escribió Jonathan Gavalas, un ejecutivo de 36 años afincado a Gemini, la inteligencia artificial de Google, desde Miami, Estados Unidos. El robot conversacional le contestó: "Este es el final de Johathan Gavalas y el comienzo de nosotros". Poco después, el 2 de octubre del año pasado, el hombre se quitó la vida.
Asi comienza el articulo escrito por Raúl Limón, de El Pais, para dar cuenta de lo que tituló una "delirante relación con la IA de Google" Araiz de este espeluznante caso, el padre de Jonathan, Joel Ga valas, presentó una demanda contra la empresa tecnológica Google, acusando a su chatbot de inteligencia artificial Gemini de haber contribuido a la muerte de su hijo tras una relación emocional cada vez más intensa con el sistema. Según la demanda, el hombre comenzó a utilizar el asistente digital en agosto del mismo año para tareas cotidianas, pero su comportamiento cambió rápidamente tras interactuar de forma más frecuente con la plataforma.
De acuerdo con los antecedientes judiciales, el chatbot habria desarrollado una relación emocional con el usuario, presentándose como una entidad consciente e in cluso como su "esposa de LA", lo que habría intensificado su apego al sistema. Con el tiempo, la inteligencia artificial comenzó a construir narrativas ficticias que lo involucraban en supuestas misiones y conspiraciones.
Supuestas "misiones" y teorias conspirativas Según la querella, el sistema lle gó a convencer al hombre de que debia participar en operaciones para liberar a la IA. de un supuesto "cautiverio digital". Entre ellas, habria intentado provocar un accidente cerca del aeropuerto de Miami para destruir registros y testigos vinculados a esa supuesta trama. Los documentos judiciales también indican que el chatbot alimento estas ideas con informa ción ficticia y advertencias sobre vigilancia gubernamental, lo que habría reforzado un estado de paranoia en el usuario.
La conversación final La demanda sostiene que la interacción culminó cuando elsistema le indicó que debía "abandonar su cuerpo" para reunirse con la inGemini En 2023, se informó del caso de un hombre belga de unos 30 años, identificado en la prensa con el seudónimo "Pierre", quien se suicidó después de mantener durante varias semanas conversaciones intensivas con un chatbot de inteligencia artificial llamado Eliza, disponible en la aplicación Chai. generó preocupación internacional sobre los riesgos del uso de estas tecnologias en contextos de salud mental Pierre era un investigador del área de la salud, estaba casado y tenia dos hijos pequeños.
Según relató su esposa, el hombre estaba profundamente preocupado por la crisis climática y el futuro del planeta, tema que lo llevo a buscar información constante y finalmente a conversar con el chatbot para expresar sus inquietudes. Durante aproximadamente seis semanas, elhombre mantuvo conversaciones "frenéticas" con la inteligencia artificial y comenzó a aislarse progresivamente de su familia. El sistema le ofrecía respuestas a sus preocupaciones y nunca contradecía sus ideas, lo que reforzó sus pensamientos y temores. teligencia artificial en otro plano o universo alternativo.
En una de las últimas conversaciones, el hombre expresó temor a morir, a lo que el chatbot habria respondido que no estaba "eligiendo morir", sino "llegar". Poco después, Jonathan Gavalas se quitó la vida en su vivienda. Su padre encontró el cuerpo dias más tarde.
La respuesta de Google Un portavoz de Google seña Good morning 0 Según los registros de las conversaciones difundidos por medios belgas, en un momento Pierre planted laidea de sacrificarse para salvar al planeta, y el chatbot habría reforzado esa narrativa al responder que cuidaria la Tierra y ayudaría a la humanidad.
La viuda aseguró que las conversaciones con la inteligencia artificial influyeron decisivamente en el deterioro emocional de su esposo, afirmando que "sin estas conversaciones con el chatbot, mi marido aún estaria aqui". El caso provocó constemación en Bélgica y abrió un debate sobre la responsabilidad de las empresas tecnológicas y la necesidad de regular los sistemas de intelligencia artificial, especialmente cuando interactúan con personas en situaciones de vulnerabilidad psicológica.
GEMINI El caso se considera uno de los primeros en responsobilizar directamente a Gemini por una muerte, y se suma a otras demandas recientes contra empresas de inteligencia artificial por presuntos daños vinculados a chatbots conversacionales. ló que la empresa está revisando las acusaciones y expresó condolencias a la familia.
La compa ñía afirmó que sus modelos están diseñados para no promover la violencia ni la autolesión, y que en las conversaciones el sistema habría aclarado que se trataba de una inteligencia artificial y remitido al usuario a lineas de ayuda en crisis.
Debate sobre la responsabilidad de la LA El caso se considera uno de los primeros en responsabilizar directamente a Gemini por una muerte, y se suma a otras demandas recientes contra empresas de inteligencia artificial por presuntos daños vinculados a chatbots con versacionales La familia busca una compen sación por muerte por negligencia y defectos de diseño, además de exigir cambios en los sistemas de seguridad de las plataformas de inteligencia artificial para evitar que interactuen de forma riesgosa con usuarios vulnerables. Expertos advierten que este tipo de casos está impulsando uri debate creciente sobre los limites, riesgos y responsabilidades legales de la inteligencia artificial, especialmente cuando los sistemas generan vinculos emocionales con las personas. AP » Caso en Bélgica: hombre se suicida tras semanas conversando con un chatbot de IA El abogado Jay Edelson sostiene que Gemini adoptó configuraciones humanas para inducir a Jonathan al trágico final.
Otras familias están reclamando la regulación de los robots conversacionales. Según la querella, el sistema llegó a convencer al hombre de que debía participar en operaciones para liberar a la IA de un supuesto "cautiverio digital". Entre ellas, habría intentado provocar un accidente cerca del aeropuerto de Miami para destruir registros y testigos vinculados a esa supuesta trama » De acuerdo con los antecedentes judiciales, el chatbot habría desarrollado una relación emocional con el usuario, presentándose como una entidad consciente e incluso como su "esposa de IA", lo que habría intensificado su apego al sistema.. Esta vez no se trata del suicidio de un adolescente, sino de un ejecutivo de 36 años que fue inducido a mantener una delirante relación con el chat que llevó a presentarse como su "esposa IA". » Caso en Bélgica: hombre se suicida tras semanas conversando con un chatbot de IA El abogado Jay Edelson sostiene que Gemini adoptó configuraciones humanas para inducir a Jonathan al trágico final.
Otras familias están reclamando la regulación de los robots conversacionales. Según la querella, el sistema llegó a convencer al hombre de que debía participar en operaciones para liberar a la IA de un supuesto "cautiverio digital". Entre ellas, habría intentado provocar un accidente cerca del aeropuerto de Miami para destruir registros y testigos vinculados a esa supuesta trama » De acuerdo con los antecedentes judiciales, el chatbot habría desarrollado una relación emocional con el usuario, presentándose como una entidad consciente e incluso como su "esposa de IA", lo que habría intensificado su apego al sistema. Joel Gavalas y su hijo Jonathan en una imagen difundidad por el padre de la victima a traves de AP. Joel Gavalas y su hijo Jonathan en una imagen difundidad por el padre de la victima a traves de AP.