Autor/es reacciones

Pere Castellvi Obiols

Profesor agregado del departamento de Medicina de la Universitat Internacional de Catalunya (UIC)

“Este artículo analiza cómo la inteligencia artificial (IA) puede transformar la investigación y la atención en la salud mental superando los métodos diagnósticos tradicionales. Los autores exploran el uso de datos biométricos complejos, la monitorización digital a través de dispositivos portátiles y la implementación de chatbots terapéuticos para personalizar los tratamientos. Aunque señalan estas oportunidades, los autores también informan de retos éticos, como la privacidad, los sesgos algorítmicos y la preservación de la relación humana médico-paciente. Finalmente, proponen un modelo centrado en el paciente que integre estas tecnologías de forma segura y validada en la práctica clínica en el que se fomente el desarrollo de normativas y formación actualizada a clínicos”.  

¿Qué implicaciones tiene y cómo encaja con la evidencia existente?  

“La aplicación de la IA en la salud mental tiene implicaciones profundas tanto en la investigación como en la clínica. Actualmente, el diagnóstico se realiza mediante evaluaciones subjetivas guiadas por manuales diagnósticos, como el DSM o el CIE. la IA permite integrarlos con datos fenotípicos complejos y multidimensionales (voz, expresión facial, movimientos corporales captados con dispositivos digitales…) que pueden ayudar a la precisión y la personalización. Además, permite evaluar su evolución, desde el cribaje hasta el tratamiento, las recaídas y la recuperación, reduciendo la carga administrativa y mejorando la eficiencia del clínico.  

La evidencia existente nos muestra resultados prometedores en algunos campos, como en el alzhéimer, que han demostrado ser superiores respecto a los biomarcadores tradicionales, aunque modestos en psiquiatría. Por ejemplo, en depresión mayor no han sido superiores respecto a las variables clínicas tradicionales y los modelos predictivos de conductas suicidas no han predicho aquellos que van a tener estas conductas, aunque ya se están utilizando chatbots terapéuticos con resultados prometedores.  

Sin embargo, debería tenerse en cuenta los riesgos éticos implícitos del uso de la IA, como la vulneración de la privacidad de los usuarios y del mal uso por parte de empresas o aseguradoras si no hay regulaciones estrictas, los sesgos e inequidades existentes en los datos de entrenamiento en poblaciones minoritarias y vulnerables, y las alucinaciones mediante respuestas incorrectas o falsas y consejos con asesoramiento inapropiado que puede causar iatrogenia e incluso conductas suicidas o síntomas psicóticos. Lo que sí es importante es la necesidad de regulación y supervisión humana constante con un enfoque centrado en el paciente en vez de en la tecnología”.  

¿Cualquier persona con problemas de salud mental puede beneficiarse de la IA?  

A priori, podemos decir que cualquier persona puede beneficiarse de la IA. Aun así, su beneficio no es universal ni está exento de riesgos. El hecho de que se pueden beneficiar pacientes con trastorno mental depende de muchos factores como el tipo de trastorno, su nivel de empoderamiento o el acceso a la tecnología, entre otros.  

Como hemos dicho anteriormente, se ha mejorado la precisión en la detección precoz y la predicción del declive cognitivo en los pacientes con alzhéimer, los chatbots híbridos como Therabot han demostrado reducciones clínicamente significativas en ensayos. Sim embargo, siempre sería muy recomendable el asesoramiento de un profesional en salud mental durante todo el proceso y que la IA no sustituya al terapeuta.  

Finalmente, también mencionar que las personas con trastorno mental graves y/o ingresadas en unidades psiquiátricas pueden quedar excluidas de esta herramienta”.  

¿En qué se debe tener más cuidado al aplicar la IA para tratar a personas con problemas de salud mental?  

“La aplicación de la IA en personas con salud mental presenta diversos retos a tener en cuenta a causa de su naturaleza sensible e íntima de la información que se maneja, ya que exige los estándares más altos de protección de datos. Podríamos decir que las principales áreas donde tener una especial atención serían la privacidad, el estigma asociado y el uso o mal uso de los datos por empresas o gobiernos.  

Además, debemos tener en cuenta que la IA no tiene una verdad epistemológica, aunque muchos usuarios lo den por supuesto. La IA está sujeta a alucinaciones, errores, sesgos, malos consejos y discriminaciones, y deberíamos tener un análisis crítico de las respuestas que nos da y no darlo todo por sentado. Deberíamos recordar que, aunque esté programada para simular empatía, la IA no la tiene y eso puede confundir al usuario.  

Finalmente, los adolescentes deberían considerarse como una población especialmente vulnerable porque están en una etapa de desarrollo cerebral, emocional y social en la que se combinan alta búsqueda de recompensa, necesidad de pertenencia y escaso control inhibitorio, al tiempo que pasan muchas horas conectados a entornos digitales como la IA. Esto aumenta el riesgo de exposición a contenidos dañinos, dependencia de asistentes/algoritmos y victimización (por ejemplo, deepfakes sexuales y ciberacoso), donde existe un riesgo de problemas de salud mental”. 

ES