Según datos de la Organización mundial de la Salud, uno de cada ocho personas en el mundo padece algún tipo de trastorno mental, y, al menos una de cada cuatro lo sufrirá a lo largo de su vida, aumentando la probabilidad de otras patologías y acortando los años de vida saludables. Solamente en el caso de la depresión, la enfermedad mental más prevalente, se estima que afecta a más de 350 millones de personas en todo el mundo, cifras que podrían ser mayores dado el incremento de patologías mentales durante la pandemia por COVID 19.
Entretanto, el reto para las autoridades de salud y la sociedad es enorme y las barreras de acceso a la atención en salud mental siguen creciendo. Los sistemas de salud tienen presupuestos limitados, el estigma de la enfermedad mental sigue siendo muy alto, el recurso humano entrenado es escaso y los costos de la atención son muy elevados tanto para el individuo como la sociedad. En este contexto, el advenimiento de la Inteligencia Artificial (IA), ha despertado una amplia gama de expectativas en el mundo entero y promete revolucionar la atención en salud mental ofreciendo soluciones a bajo costo que vayan más allá del alcance de los métodos convencionales de la terapia o consulta uno a uno.
Las herramientas de la IA que se usan para el diagnóstico y detección temprana de la enfermedad pueden aplicarse masivamente. Están también los modelos predictivos multifactoriales que pueden contribuir a identificar individuos en riesgo, a señalar qué tipo de intervenciones farmacológicas, psicoterapéuticas o cambios en el estilo de vida serían de más ayuda para mejorar los resultados de las intervenciones.
Paralelamente, se han ido desarrollando y mejorando los algoritmos de IA para ayudar a los clínicos en el tratamiento individual, que son alimentados con datos de predisposición familiar, composición genética que pueda predecir mejores respuestas a determinados medicamentos, respuesta a tratamientos previos, patrones comportamentales y variables fisiológicas en tiempo real, que ayudan a realizar planes de tratamiento más personalizados. Sin embargo, el reto de lograr una cobertura en la atención a más personas requiere de otros desarrollos, y dado que la terapia se basa de forma importante en la comunicación y el lenguaje, aparecen en escena los grandes modelos de lenguaje (LLMs) como herramientas importantes.
Los LLMs son la base de chatbots como ChatGPT de OpenAI; LaMDA de Google y LLaMA de Meta u otros desarrollos como Therabot que utilizan IA generativa, es decir, que el programa aprende de los datos existentes u otros chatbots para producir nuevas respuestas. Se alimentan de enormes bases de datos y van mucho más allá de un simple conteo de palabras para establecer asociaciones entre ellas, es decir, se basan en una técnica de modelamiento de palabras dentro de un contexto amplio permitiendo la construcción de significados y el uso interactivo de esta tecnología. Los chatbots usados en salud mental pueden interactuar directamente con el usuario y pretenden reemplazar, al menos en algunos aspectos a un terapeuta real.
Pueden ser compañeros robóticos como la aplicación Replika que permite al usuario interactuar con un bot central que se va personalizando en el tiempo y se destina a conversaciones personales. Se promocionan como herramientas de bienestar emocional y usan un lenguaje preferencialmente positivo y de apoyo. Sin embargo, cuando los investigadores han analizado el desempeño de Replika con sus usuarios, muchos de ellos adolescentes que dicen sentirse muy solos, han encontrado que, así como algunos manifiestan que su Replika les “habla” en un lenguaje positivo incondicional (adulación) y les ha apartado de algún plan suicida, otros señalan respuestas incoherentes o con sesgos raciales, o generan contenidos inapropiados como conductas de dieta o aún validación de comportamientos de auto lesión..
Algunas compañías desarrolladoras promocionan los chatbots para el tratamiento de las enfermedades mentales. Están disponibles al público en general e interactúan con millones de usuarios en todo el mundo, sin embargo, aún no están reguladas. Estudios en los que los investigadores han comparado el desempeño de los bots de terapia con el de terapeutas reales sobre casos de usuarios construidos para el experimento, revelan cómo los algoritmos de IA no son capaces de realizar la toma de perspectiva del cliente o de otros grupos de referencia, notar matices emocionales, evitar expresiones de discriminación, sospechar una ideación suicida o un elemento delirante en un paciente psicótico, identificar alucinaciones o un estado maníaco.
Es decir, no parecen útiles en situaciones de crisis de salud mental; por otra parte, los bots de terapia utilizan de manera excesiva la validación y la adulación del usuario, facilitando el uso adictivo de la aplicación. Los reportes de usuarios que pasan horas conectados con una aplicación señalan la preocupación de cómo el reforzamiento positivo puede “enganchar” a un adolescente o adulto alejándolo aún más de su mundo de relaciones reales.
En la psicoterapia apoyar no es suficiente; confrontar a un paciente con sus propios pensamientos, emociones o comportamientos es crucial para promover la autoconsciencia y el cambio. En la psicoterapia los tiempos son limitados en sesiones de determinada duración y frecuencia y el contacto visual del y con el terapeuta, facilita un intercambio de expresiones emocionales verbales y no verbales que permiten la verdadera empatía y la cohesión social fundamentales para el individuo y la sociedad. Las limitaciones éticas de la IA generativa en salud mental son varias. Por una parte, está el problema ético del cuidado de los datos personales y la confidencialidad de la información.
Los datos de salud de una persona deben ser privados y confidenciales y no deben ser usados por terceros sin consentimiento. Pero, por otra parte, un bot no es un agente moral ni racional y por tanto, no debe en esencia emitir recomendaciones terapéuticas como las que pueden darse dentro de una alianza terapeuta-paciente, sin embargo, si se comunica con el usuario como si fuera un terapeuta puede crear expectativas erróneas. Esta excesiva personalización del robot puede conjurar con la vulnerabilidad del usuario y actuar de forma contraproducente.
Los desarrolladores están en la obligación de probar y monitorear los modelos, evaluar y hacer seguimiento a los resultados positivos y negativos. Finalmente, recordemos que la palabra “artificial” proviene del latín artificialis que significa hecho o producido por el ser humano; lo opuesto a natural. La definición más amplia de la RAE es: “artificioso, falso, fingido, espurio, engañoso, ilusorio, sintético, facticio”. Es preciso entonces reconocer que el alcance de estas herramientas seguirá siendo limitado en lo que se refiere a la interacción humana empática real.
Maritza Rodríguez Guarín
MSc, MD, psiquiatra Codirectora Científica Programa Equilibrio, Bogotá, Colombia.
Artículo realizado para El Espectador
Suscríbete y recibe las últimas publicaciones en tu correo electrónico.
Calle 118 # 47A -12. Barrio Alhambra. Bogotá
+571 805 00 25 –+571 6122915–+571 320 8578794
Bogotá – Colombia –
WhatsApp us
Obtén en tu correo actualizaciones sobre nuestras publicaciones más recientes.
Este programa consta de 8 sesiones, en las cuales iremos revisando cuales son los trastornos de la conducta alimentaria. Por favor diligencia el formulario en caso de querer realizar las sesiones virtualmente.
En minutos recibirás un link en tu correo electrónico para poder acceder al curso.