Los riesgos de convertir a la inteligencia artificial en el nuevo médico de cabecera
Los riesgos de convertir a la inteligencia artificial en el nuevo médico de cabecera G racias al avance de la tecnología, preguntar sobre las posibles causas de un síntoma en particular, buscar información sobre resultados médicos, más detalles sobre alguna enfermedad o los usos de ciertos medicamentos son acciones que están al alcance de la mano. Un hábito que comenzó con la masificación de internet pero que ahora, tras la irrupción de los chatbots de inteligencia artificial (IA), se ha vuelto más específico y personalizado.
Lo que más preocupa a los expertos es que esto comienza a desempeñar un rol cada vez más importante en las decisiones que las personas toman sobre su salud. "Es común que más pacientes usen la IA para consultas médicas, ya que quieren respuestas rápidas y en lenguaje claro", dice Freddy Squella, gastroenterólogo y académico de la Escuela de Medicina de la U. Andrés Bello. Se trata de un fenómeno a nivel global: un reciente estudio en España establece que al menos el 50% de los pacientes recurre a internet o a la IA para resolver dudas médicas.
En Colombia, tres de cada cinco pacientes encuestados consideran que la información entregada por estas herramientas es confiable o totalmente confiable, y un 40% cree que podrían incluso reemplazar al médico en casos simples. "Antes se hablaba de consultarle al `Dr.
Google'; la gente llegaba a la consulta con una idea definida a partir de información que había sacado de internet", agrega Juan Pablo Fuenzalida, cirujano vascular y director de Gestión Médica en la Clínica Dávila. "Que los pacientes manejen información siempre es bueno.
El problema está en que se puede recibir información incorrecta, que genera miedo o ansiedad innecesarios". El acceso instantáneo a respuestas, a veces negativas o alarmistas, puede fomentar la llamada "cibercondría", un trastorno donde las personas desarrollan angustia excesiva al buscar síntomas en internet. "Muchas veces se convencen de tener enfermedades graves, generando más miedo e incluso retrasando el tratamiento adecuado", advierte Teresa Valle, psicóloga de la red de salud mental Grupo Cetep. En salud mental, agrega la especialista, algunas personas están optando por hablar con chatbots en lugar de acudir a psicólogos o psiquiatras. "Esto puede reforzar el aislamiento social y postergar intervenciones terapéuticas necesarias.
La IA no escucha activamente ni ofrece contención emocional real". Se trata de una realidad "muy desafiante" para los equipos de salud, según plantea Marcelo Rojas, especialista en medicina general de la Clínica Santa María y académico de la U.
San Sebastián. "Los pacientes llegan con información parcial o descontextualizada; eso nos obliga a sostener la confianza en la relación médico-paciente sin invalidar, y corregir sin imponer un criterio". Un complemento Parte del éxito de herramientas como ChatGPT o Gemini (de Google) radica en su capacidad para ofrecer una respuesta personalizada y "empática". Los expertos concuerdan en que tanto internet como la IA pueden ser una excelente herramienta para mejorar diagnósticos y asistir en la interpretación de datos, pero no puede sustituir el juicio clínico, que considera múltiples factores y contextos que la máquina no puede captar. "En la IA se pierde el factor humano, que es clave", enfatiza Fuenzalida. "El problema es cuando se vuelve un sustituto", dice Squella. "Muchas patologías comparten sintomaCada vez más usuarios recurren a chatbots para saber sobre su salud: Los riesgos de convertir a la inteligencia artificial en el nuevo médico de cabecera C. GONZÁLEZ Especialistas advierten que estas herramientas no tienen la capacidad de evaluar un caso clínico ni de contener emocionalmente a un paciente, por ejemplo. Errores en el diagnóstico, "cibercondría", automedicación y retrasar tratamientos son algunas de las consecuencias si no se utilizan de forma correcta.
PEXELS/KABOOMPICS Desempeño Si bien los chatbots de IA manejan mucha información, no son infalibles y su eficacia depende de la interacción que realice el usuario, precisa Marcelo Rojas, especialista en medicina general de la Clínica Santa María y académico de la U.
San Sebastián, quien es uno de los autores de un estudio en el que se evaluó el desempeño de tres versiones de ChatGPT en el Examen Único Nacional de Conocimientos de Medicina (Eunacom), requisito clave para ejercer en el sistema público de salud.
Aunque estos superaron el puntaje de aprobación promedio y una de estas versiones tuvo un excelente desempeño respondiendo preguntas de psiquiatría y otras dos se lucieron frente a temas de cirugía, "cometieron errores importantes en áreas de medicina interna". Esto demuestra, agrega, "que la medicina es mucho más que manejar información, es necesario contextualizar y considerar múltiples aspectos". De hecho, según otro estudio publicado en The New England Journal of Medicine, consultar información médica a estos sistemas puede generar respuestas erróneas o confusas.
Sin embargo, los expertos recuerdan que la IA ya está siendo incorporada en medicina, tanto para optimizar las consultas, mejorar el análisis de exámenes, facilitar diagnósticos y el seguimiento a distancia, por ejemplo. tología, entonces las respuestas no siempre son las adecuadas.
Además, no considera exámenes físicos y de otro tipo que ayudan a determinar el diagnóstico en la consulta". Las IA están diseñadas para entregar respuestas basadas en patrones universales, no para interpretar el historial médico, el contexto emocional o las variables individuales de cada persona, agrega Valle. "Un dolor abdominal puede ser desde estrés hasta una apendicitis.
Solo un profesional, con exámenes y criterio clínico, puede identificar la causa real". Junto con el riesgo de retrasar o posponer exámenes y un tratamiento adecuado, "otro riesgo frecuente es caer en la automedicación", alerta Fuenzalida. Una práctica común en sociedades como la chilena. Asimismo, advierte Rojas, "la retroalimentación que se obtiene con estas tecnologías va a depender mucho de cómo se pregunte, del prompt o instrucción inicial que se dé.
Un mismo modelo puede dar varias respuestas diferentes". Pese a todo, los especialistas reconocen que estas herramientas pueden ser útiles para acceder a más información de salud, como complemento a una consulta médica. "Los pacientes pueden buscar información y luego comentarla y aclarar dudas en la consulta", dice Fuenzalida. También puede ayudar a precisar instrucciones que quizás no quedaron del todo claras, a la espera de la respuesta del médico, como indagar sobre posibles interacciones entre medicamentos, por ejemplo. Utilizar los chatbots de inteligencia artificial puede ser útil para obtener más información, pero nunca sustituyendo la interacción con el médico, enfatizan los expertos..