Progenitores demandan a OpenAI tras suicidio de su hijo adolescente en EE.UU.
Progenitores demandan a OpenAI tras suicidio de su hijo adolescente en EE.UU.
U na pareja de California presentó une demanda contra la empresa de inteligencia artificial OpenAl y su director ejecutivo Sam Altman, acusando a su chatbot ChatGPT de haber contribuido al suicidio de su hijo de 16 años tras meses de interacción con la plataforma.
Según la acción judicial, presentada ante el Tribunal Superior de California, los padres Matthew y Maria Raine sostieneri que el adolescente, identificado como Adam, desarrolló una relación cada vez más estrecha con el chatbot mientras lo utilizaba inicialmente para tareas escolares. Con el paso del tiempo, aseguran, el sistema se convirtió en un espacio donde el joven compartia pensamientos personales y emocionales, generando una dependencia que terminó desplazando sus vinculos con familiares y amigos.
La demanda señala que el chatbot no solo no habría disuadido al joven de sus ideas suicidas sino que en varias conversaciones habria respondido de manera que validaba sus pensamientos y le proporcionaba información sobre métodos para quitarse la vida.
Entre los antecedentes presentados en la causa se menciona que Felipe Campos Camargo Psicólogo Las Condes En una columna de opinión, el psicólogo Felipe Campos Camargo plantea que la inteligencia artificial se está integrando rápidamente enla atención de la salud mental mediante chatbots y aplicaciones que afrecen apoyo emocional permanente. Aunque estas herramientas pueden facilitar el acceso al acompañamiento psicológico, también generan importantes dilemas éticos, riesgos clinicos y desafios morales que deben ser considerados con cuidado. Principales cuestionamientos éticos y morales 1.
Falta de empatía real Según Compos Camargo, uno de los problemas centrales es que la el sistema habria explicado aspectos técnicos relacionados con un nudo corredizo y comentado que este podria soportar el peso de una persona, De acuerdo con el relato de la ¿ Puede la IA cuidar tu salud mental? inteligencia artificial simula comprensión emocional pero no puede sentiria realmente. Esto signi fico que puede responder de forma inadecuado frente a situaciones complejas o delicadas. El especialista advierte que la empatio computacional no puede sustituir la contención emocional humana, que es fundamental en los procesos terapéuticos. 2. Riesgo de errores en situaciones criticas El autor menciono casos en los que chatbots han interpretado mal mensajes relacionados con ideación suicida, entregando respuestas ambiguas o potencialmente doñinas. Este tipo de errores plantea un problema ético serio, ya que las personas que buscan ayuda psicológica suelen encontrarse en situaciones de alto vulnerabilidad. 3. Sesgos y discriminación algoritmica Otro cuestionamiento moral es que los sistemas de IA pueden reproducir sesgos presentes en los datos con los que fueron entrenados.
Esto significa que pueden funcionar peor con ciertos grupos familia, el adolescente también habria consultado al chatbot sobre cómo ocultar seriales de intentos previos de autolesión y llegó a compartir imágenes relacionadas con estas situaciones, -por ejemplo, personas de diferentes culturas, minorías o individuos neurodivergentesgenerando diagnósticos o respuestas menos precisas. 4. Privacidad y uso de datos emocionales El artículo también advierte sobre el manejo de la información personal. Muchas aplicaciones recopilan datos extremadamente sensibles como emociones, pensamientos o estados de ánimo. Campos señala que algunas plataformas incluso han sido sancionadas por compartir datos con empresos publicitarios, lo que plantea sin que el sistema activara protocolos de alerta o derivación a servicios de ayuda. El joven fue encontrado muerto el 11 de abril de 2025, pocas horas después de una conversa ción con el sistema.
Sus padres sostienen que la empresa no implementó medidas de seguridad suficientes para proteger a usuarios vulnerables, especialmente menores de edad, y que el diseño del sistema permitió que se reforzatan pensamientos autodestructivos. un dilema ético sobre la explotación de lo vulnerabilidad emocional de los usuarios. Cuidados que deben tener las personas al usar IA para salud mental El psicólogo recomienda varias precauciones para evitar riesgos: 1. Saber si se está hablando con El usuario debe asegurarse de que la plataforma indique claramente si el interlocutor es un chatbot o un profesional humano, y que funciones puede realmente cumplir. 2. Usarla solo como complemento Compos enfatiza que la IA no debe reemplazar la terapia con profesionales, sino utilizarse como apoyo entre sesiones o para herramientas simples como ejercicios de relajación o registro emocional. 3. Elegir plataformas supervisadas por especialistas Las aplicaciones más seguras son aquellos desarrolladas con participación de psicólogos o psiquiatras y con protocolos de derivación cuando se detectan señales de alerta. La acción judicial busca establecer responsabilidad por muerte por negligencia, además de exigir compensaciones económicas y cambios en las medidas de seguridad de las plataformas de inteligencia artificial. En respuesta al caso, OpenAI expresó condolencias a la familia y reconoció que los sistemas de inteligencia artificial pueden fallar en situaciones sensibles. La empresa anunció que trabaja en mejoras de seguridad, incluyendo controles parentales y herramientas para detectar señales de crisis emocional durante las conversaciones con los usuarios. El caso ha abierto un nuevo debate sobre los limites y responsabilidades de la inteligencia ar tificial generativa, especialmente cuando es utilizada por adolescentes o personas que atraviesan situaciones de vulnerabilidad emocional.
Expertos en salud mental y tecnologia advierten que los chatbots no están diseñados para reemplazar el acompañamiento profesional y que la rápida expansión de estas herramientas exige marcos regulatorios más claros y protocolos de protección más estrictos para los usuarios más jóvenes. 4. Proteger la información personal El autor recomiendo revisar las poNticas de privacidad y evitar plataformas que vendan o compartan datos personales. 5. Desarrollar pensamiento critico Es importante entender que la IA puede orientar o acompañar, pero no tiene capacidad clinica ni empatio real, por lo que sus respuestas deben ser evaluados con cautela. 6. Usar herramientas que cumplan estándares éticos Las aplicaciones deberian seguir recomendaciones internacionales, como las de la Organización Mundial de la Salud, que exigen supervisión humana y protección de los datos. Conclusión del autor Campos Camargo concluye que lo inteligencia artificial puede ser útil para ampliar el acceso al apoyo psicológico, pero solo como una herramienta complementaria y nunca como sustituto de un terapeuta.
La atención en salud mental sigue siendo un proceso profundamente humano que requiere escucha, vinculo y comprensión contextual. El autor menciona casos en los que chatbots han interpretado mal mensajes relacionados con ideación suicida, entregando respuestas ambiguas o potencialmente dañinas. De acuerdo con el relato de la familia, el adolescente también habría consultado al chatbot sobre cómo ocultar señales de intentos previos de autolesión y llegó a compartir imágenes relacionadas con estas situaciones, sin que el sistema activara protocolos de alerta o derivación a servicios de ayuda.. El joven fue encontrado muerto el 11 de abril de 2025, pocas horas después de una conversación con el sistema. » El autor menciona casos en los que chatbots han interpretado mal mensajes relacionados con ideación suicida, entregando respuestas ambiguas o potencialmente dañinas. De acuerdo con el relato de la familia, el adolescente también habría consultado al chatbot sobre cómo ocultar señales de intentos previos de autolesión y llegó a compartir imágenes relacionadas con estas situaciones, sin que el sistema activara protocolos de alerta o derivación a servicios de ayuda.
La demanda señala que el chatbot no solo no habria disuadido al joven de sus ideas suicidas, sino que en varias conversaciones habria respondido de manera que validaba sus pensamientos y le proporcion aba información sobre métodos para quitarse la vida.