La IA es útil para el tratamiento en salud mental, siempre que el factor humano esté en el centro

La revista Science publica una revisión sobre el emergente uso de la inteligencia artificial (IA) en el tratamiento de la salud mental, con ejemplos como bots conversacionales para la reducción de síntomas depresivos. Los autores defienden la utilidad de esta tecnología en las diferentes etapas de la atención psicológica, siempre y cuando el factor humano, tanto del clínico como del paciente, sea el que lidere el abordaje. En este sentido, destacan que las IAs no pueden sustituir el juicio clínico. Las características diferenciales de la atención psicológica, como el revelado de información personal en personas vulnerables, hacen también necesarios unos marcos regulatorios que garanticen “una implementación ética y eficaz de las tecnologías de IA”. 

15/01/2026 - 20:00 CET
Reacciones

Pere Castellvi Obiols - IA revisión salud mental

Pere Castellvi Obiols

Profesor agregado del departamento de Medicina de la Universitat Internacional de Catalunya (UIC)

Science Media Centre España

“Este artículo analiza cómo la inteligencia artificial (IA) puede transformar la investigación y la atención en la salud mental superando los métodos diagnósticos tradicionales. Los autores exploran el uso de datos biométricos complejos, la monitorización digital a través de dispositivos portátiles y la implementación de chatbots terapéuticos para personalizar los tratamientos. Aunque señalan estas oportunidades, los autores también informan de retos éticos, como la privacidad, los sesgos algorítmicos y la preservación de la relación humana médico-paciente. Finalmente, proponen un modelo centrado en el paciente que integre estas tecnologías de forma segura y validada en la práctica clínica en el que se fomente el desarrollo de normativas y formación actualizada a clínicos”.  

¿Qué implicaciones tiene y cómo encaja con la evidencia existente?  

“La aplicación de la IA en la salud mental tiene implicaciones profundas tanto en la investigación como en la clínica. Actualmente, el diagnóstico se realiza mediante evaluaciones subjetivas guiadas por manuales diagnósticos, como el DSM o el CIE. la IA permite integrarlos con datos fenotípicos complejos y multidimensionales (voz, expresión facial, movimientos corporales captados con dispositivos digitales…) que pueden ayudar a la precisión y la personalización. Además, permite evaluar su evolución, desde el cribaje hasta el tratamiento, las recaídas y la recuperación, reduciendo la carga administrativa y mejorando la eficiencia del clínico.  

La evidencia existente nos muestra resultados prometedores en algunos campos, como en el alzhéimer, que han demostrado ser superiores respecto a los biomarcadores tradicionales, aunque modestos en psiquiatría. Por ejemplo, en depresión mayor no han sido superiores respecto a las variables clínicas tradicionales y los modelos predictivos de conductas suicidas no han predicho aquellos que van a tener estas conductas, aunque ya se están utilizando chatbots terapéuticos con resultados prometedores.  

Sin embargo, debería tenerse en cuenta los riesgos éticos implícitos del uso de la IA, como la vulneración de la privacidad de los usuarios y del mal uso por parte de empresas o aseguradoras si no hay regulaciones estrictas, los sesgos e inequidades existentes en los datos de entrenamiento en poblaciones minoritarias y vulnerables, y las alucinaciones mediante respuestas incorrectas o falsas y consejos con asesoramiento inapropiado que puede causar iatrogenia e incluso conductas suicidas o síntomas psicóticos. Lo que sí es importante es la necesidad de regulación y supervisión humana constante con un enfoque centrado en el paciente en vez de en la tecnología”.  

¿Cualquier persona con problemas de salud mental puede beneficiarse de la IA?  

A priori, podemos decir que cualquier persona puede beneficiarse de la IA. Aun así, su beneficio no es universal ni está exento de riesgos. El hecho de que se pueden beneficiar pacientes con trastorno mental depende de muchos factores como el tipo de trastorno, su nivel de empoderamiento o el acceso a la tecnología, entre otros.  

Como hemos dicho anteriormente, se ha mejorado la precisión en la detección precoz y la predicción del declive cognitivo en los pacientes con alzhéimer, los chatbots híbridos como Therabot han demostrado reducciones clínicamente significativas en ensayos. Sim embargo, siempre sería muy recomendable el asesoramiento de un profesional en salud mental durante todo el proceso y que la IA no sustituya al terapeuta.  

Finalmente, también mencionar que las personas con trastorno mental graves y/o ingresadas en unidades psiquiátricas pueden quedar excluidas de esta herramienta”.  

¿En qué se debe tener más cuidado al aplicar la IA para tratar a personas con problemas de salud mental?  

“La aplicación de la IA en personas con salud mental presenta diversos retos a tener en cuenta a causa de su naturaleza sensible e íntima de la información que se maneja, ya que exige los estándares más altos de protección de datos. Podríamos decir que las principales áreas donde tener una especial atención serían la privacidad, el estigma asociado y el uso o mal uso de los datos por empresas o gobiernos.  

Además, debemos tener en cuenta que la IA no tiene una verdad epistemológica, aunque muchos usuarios lo den por supuesto. La IA está sujeta a alucinaciones, errores, sesgos, malos consejos y discriminaciones, y deberíamos tener un análisis crítico de las respuestas que nos da y no darlo todo por sentado. Deberíamos recordar que, aunque esté programada para simular empatía, la IA no la tiene y eso puede confundir al usuario.  

Finalmente, los adolescentes deberían considerarse como una población especialmente vulnerable porque están en una etapa de desarrollo cerebral, emocional y social en la que se combinan alta búsqueda de recompensa, necesidad de pertenencia y escaso control inhibitorio, al tiempo que pasan muchas horas conectados a entornos digitales como la IA. Esto aumenta el riesgo de exposición a contenidos dañinos, dependencia de asistentes/algoritmos y victimización (por ejemplo, deepfakes sexuales y ciberacoso), donde existe un riesgo de problemas de salud mental”. 

Declara no tener conflicto de interés
ES

Albert “Skip” Rizzo - IA revisión salud mental

Albert “Skip” Rizzo

Director del equipo de Realidad Virtual Médica en el Instituto de Tecnologías Creativas de la Universidad del Sur de California (EE. UU.)

Science Media Centre España

Esta revisión refleja el momento en el que nos encontramos: la IA ya no es un complemento especulativo para la salud mental, sino que se está acercando al uso cotidiano en el apoyo a la toma de decisiones, la monitorización digital e incluso los chatbots terapéuticos. Esto se debe principalmente a que la psiquiatría, la psicología, etc., siguen basándose en gran medida en la observación conductual y afectiva, en lugar de en biomarcadores objetivos.  

Comparto el optimismo cauteloso de los autores, especialmente en lo que respecta a la idea de que la IA debe evaluarse a lo largo de todo el proceso del paciente (pródromo → síntomas agudos → tratamiento → recuperación), en lugar de como un dispositivo independiente para la ‘reducción de los síntomas’. Este enfoque se ajusta a cómo funciona realmente la realidad clínica: las necesidades, los riesgos y las prioridades cambian a lo largo de las fases, y las herramientas deben juzgarse en función de si mejoran las decisiones y el compromiso en los momentos adecuados (cribado/triaje, apoyo durante la sesión, prevención de recaídas).  

El artículo también es adecuadamente prudente en lo que respecta a la ‘colaboración entre humanos y IA —a quién se dirige la IA (médico frente a paciente), dónde se utiliza (equipos de hospitalización frente a entornos remotos/sin supervisión) y cuándo entra en la atención— ya que esas decisiones de diseño determinan si la tecnología apoya la atención o la socava silenciosamente. También agradezco el recordatorio de que los modelos híbridos (apoyo digital + humano) tienden a superar a los enfoques totalmente autoguiados, lo que debería moderar cualquier prisa por sustituir la atención humana por una apariencia automatizada. 

Lo más valioso de este artículo, especialmente para quienes desarrollamos sistemas de IA orientados al paciente, es su énfasis en las medidas de protección, la validación, la privacidad y la gobernanza como requisitos previos, en lugar de considerarlos aspectos secundarios (véase Rizzo et al., 2025). Los autores señalan que las medidas de seguridad en conversaciones con una sola respuesta (single-turn conversation) pueden fallar en conversaciones con varias respuestas (multi-turn conversations), con riesgos como respuestas inconsistentes o que normalizan implícitamente las ideas de autolesión, lo que es especialmente preocupante en el caso de los adolescentes, cuyo lenguaje difiere de los datos de entrenamiento de los adultos. También subrayan la privacidad y la protección de datos como un requisito fundamental, y no una ‘característica’, y señalan que muchas aplicaciones de salud mental se quedan cortas en este aspecto. Si a esto se añaden los riesgos de la elaboración de perfiles latentes y el uso indebido discriminatorio (por ejemplo, en el ámbito laboral o de los seguros), se obtiene una clara necesidad de establecer límites políticos explícitos y marcos normativos que mantengan las inferencias sobre la salud mental dentro de los límites clínicos adecuados. Sus directrices sobre buenas prácticas también están en consonancia con las políticas en este ámbito: necesidades y preferencias centradas en el paciente (no en el entusiasmo por la tecnología), diseño conjunto con médicos y pacientes, validación en el mundo real con replicación independiente y trabajo sobre sesgos y equidad que sea sensible a los contextos culturales y comunitarios. En general, cualquiera que haya prestado atención en los últimos años verá la IA como un verdadero potenciador al acceso y la personalización de tratamientos, pero solo si consideramos la seguridad, la evidencia y la ética como requisitos fundamentales de la ingeniería, y no como visiones idealistas. 

No declara conflicto de interés
ES

Alba Marmol - IA revisión salud mental

Alba María Mármol Romero

Doctoranda y contratada en el grupo de investigación SINAI de la Universidad de Jaén

Science Media Centre España

La revisión encaja bien con la evidencia actual sobre el uso de la inteligencia artificial en la salud mental y resulta especialmente útil para enmarcar las aplicaciones de la IA en todo el proceso asistencial. El artículo identifica cuatro fases clave en las que la IA puede desempeñar un papel: detección temprana de cambios en el comportamiento o el estado emocional; apoyo al diagnóstico mediante el análisis de datos complejos, como el lenguaje, los patrones de comportamiento o las señales digitales; tratamiento mediante la asistencia en la toma de decisiones clínicas o la personalización de las intervenciones; y cuidados posteriores mediante la supervisión a largo plazo y la prevención de recaídas. Este marco ayuda a aclarar tanto las oportunidades realistas de la IA como sus limitaciones actuales.    

Es probable que no todas las personas se beneficien por igual de las herramientas basadas en la IA en el ámbito de la salud mental. Su utilidad depende de factores como el tipo y la gravedad de la afección, la edad, el contexto social y la alfabetización digital. Además, la aplicación de la IA en este campo exige especial precaución dada la sensibilidad de los datos sobre salud mental, el riesgo de sesgos y la posibilidad de respuestas inadecuadas o perjudiciales en situaciones vulnerables. Por estas razones, la IA debe entenderse como una herramienta complementaria y no como un sustituto del juicio clínico humano, y su implementación debe estar respaldada por una validación rigurosa, una supervisión profesional y marcos éticos y normativos sólidos. 

Declara no tener conflicto de interés
ES
Publicaciones
Transforming mental health research and care through artificial intelligence
    • Revisión
Revista
Science
15/01/2026
Autores

Nils Opel and Michael Breakspear.

Tipo de estudio:
  • Revisión
Las 5W +1
Publica
FAQ
Contacto