La "psicosis por IA" provoca una distorsión de la realidad en usuarios más vulnerables
La "psicosis por IA" provoca una distorsión de la realidad en usuarios más vulnerables también nuestra forma de interactuar con otros humanos, se está observando que tras interacciones prolongadas, los usuarios reducen su conciencia algorítmica. Es decir, dejan de darse cuenta de que están interactuando con un algoritmo", explica Marcelo Mendoza, académico del Departamento de Ciencias de la Computación de la Escuela de Ingeniería de la U. Católica.
El especialista agrega que "hemos observado que luego de varias interacciones, los humanos humanizan a la IA y preguntan sobre aspectos de índole personal, usándola como una máquina confidente que nos escucha y nos acompaña". D elirios, alucinaciones y una distorsión de la realidad, que deterioran los vínculos sociales y familiares, son algunos episodios que especialistas en el planeta han comenzado a advertir en aquellos usuarios que establecen vínculos intensos y prolongados con los asistentes virtuales de intelig e n c i a a r t i f i c i a l ( I A ), c o m o ChatGPT y otros chatbots similares. Una realidad emergente que genera preocupación y que ha sido llamada como "psicosis por IA", aun cuando no existe como un término clínico o un diagnóstico formal.
Hace unos días, en su cuenta de X, Mustafa Suleyman, director ejecutivo del área de IA de Microsoft, compartió una serie de mensajes en los que advierte del fenómeno: "Los informes de delirios, de `psicosis por IA' y apego poco saludable siguen en aumento". "Hoy en día no hay ninguna prueba de que la IA sea consciente.
Pero si las personas simplemente la perciben como tal, creerán que esa percepción es la realidad", escribió Suleyman sobre estos episodios que aunque en la mayoría de los casos graves conocidos corresponde a personas con predisposición a cuadros de salud mental, también se reportan en personas sin antecedentes. "La conciencia algorítmica es la capacidad emergente que desarrollan los humanos para darse cuenta de que están interactuando con un algoritmo.
Como la IA generativa ha adquirido capacidades para imitar no solo el lenguaje natural, sino Nativos digitales Katherina Llanos, del Departamento de Psiquiatría de la Clínica las Condes, comenta que, "sobre todo en aquellos pacientes vulnerables o sensibles a psicotizarse, la larga exposición a la IA puede ser un mecanismo de entrada a este estado mental. Las inteligencias artificiales, los chatbots, tienen un fenómeno súper interesante, porque al utilizarlas pareciera que interactúas con una persona, pero no es real. Se están siempre gratificando las respuestas, sin contraparte, sin un otro para contrastar la realidad". Según la psiquiatra, "uno suele ver a pacientes, sobre todo nativos digitales, que se encierran en su propio mundo.
Los más jóvenes es más fácil que estén enganchados a sistemas digitales, que les hagan caso, y podrían llegar a presentar episodios de esta enfermedad". Mirada con la que concuerda Luis Risco, psiquiatra y expresidente de la Sociedad de Neurología, Psiquiatría y Neurología de Chile. "En Chile se está viendo que las generaciones más jóvenes, entre los 12 y 14 años, están haciendo su vida con mucho mayor compromiso de la virtualidad. Hoy es difícil delimitar cuándo el uso es exagerado o no.
Los muchachos de ahora conversan con las IA prácticamente para todo". Para aquellos que no han vivido esa realidad, agrega, "esto resulta perturbador, pero para los preadolescentes y adolescentes de hoy se ha convertido en un instrumento que se utiliza con extrema naturalidad, pero todavía estamos demasiado temprano con estos fenómenos sociales como para hacerse una idea de si están desarrollando problemas de salud mental". Y puntualiza que el momento de pedir ayuda sería cuando "las personas empiezan a perder funcionalidad, cuando, por ejemplo, se deja de hacer cosas que son parte de la vida habitual por estar excesivamente interactuando con chatbots". Jeannette Vega, psicóloga de la Clínica Indisa, advierte que una señal de riesgo es cuando el usuario "está consultando todo a la IA y lo que le dice esta es la realidad, la respuesta, lo que debe ser y no hay una reflexión de decir, por ejemplo, `¿será tan así?'". C. MENARES La inteligencia artificial de tipo generativo, como ChatGPT, ha avanzado tanto que cada vez se reportan más casos de usuarios que le atribuyen conciencia propia.
PEXELS MATHEUS BERTELLI Demanda La empresa OpenAI reconoció que su chatbot de inteligencia artificial (AI) ChatGPT comete fallos en casos "sensibles" y prometió cambios tras recibir este martes una demanda por la responsabilidad de su tecnología en el suicidio de un menor de 16 años en EE.UU.
Los padres del adolescente que se quitó la vida tras meses de interactuar con ChatGPT demandaron en California a OpenAI y su dueño, Sam Altman, argumentando que el chatbot, bajo el modelo GPT-4o, no aplicó medidas de seguridad pese a reconocer las intenciones suicidas del menor. OpenAI, si bien no hizo referencia a la demanda, indicó que ChatGPT está entrenado para recomendar a aquellos usuarios que "expresen intención suicida" el contacto con organizaciones de ayuda profesional.
Fenómeno estaría en aumento en el mundo, advierten expertos: La "psicosis por IA" provoca una distorsión de la realidad en usuarios más vulnerables Vínculos intensos y prolongados con asistentes virtuales de inteligencia artificial están detrás de episodios de delirios y alucinaciones, sobre todo en personas predispuestas a problemas de salud mental y entre los más jóvenes..