Albert “Skip” Rizzo
Director del equipo de Realidad Virtual Médica en el Instituto de Tecnologías Creativas de la Universidad del Sur de California (EE. UU.)
Esta revisión refleja el momento en el que nos encontramos: la IA ya no es un complemento especulativo para la salud mental, sino que se está acercando al uso cotidiano en el apoyo a la toma de decisiones, la monitorización digital e incluso los chatbots terapéuticos. Esto se debe principalmente a que la psiquiatría, la psicología, etc., siguen basándose en gran medida en la observación conductual y afectiva, en lugar de en biomarcadores objetivos.
Comparto el optimismo cauteloso de los autores, especialmente en lo que respecta a la idea de que la IA debe evaluarse a lo largo de todo el proceso del paciente (pródromo → síntomas agudos → tratamiento → recuperación), en lugar de como un dispositivo independiente para la ‘reducción de los síntomas’. Este enfoque se ajusta a cómo funciona realmente la realidad clínica: las necesidades, los riesgos y las prioridades cambian a lo largo de las fases, y las herramientas deben juzgarse en función de si mejoran las decisiones y el compromiso en los momentos adecuados (cribado/triaje, apoyo durante la sesión, prevención de recaídas).
El artículo también es adecuadamente prudente en lo que respecta a la ‘colaboración entre humanos y IA —a quién se dirige la IA (médico frente a paciente), dónde se utiliza (equipos de hospitalización frente a entornos remotos/sin supervisión) y cuándo entra en la atención— ya que esas decisiones de diseño determinan si la tecnología apoya la atención o la socava silenciosamente. También agradezco el recordatorio de que los modelos híbridos (apoyo digital + humano) tienden a superar a los enfoques totalmente autoguiados, lo que debería moderar cualquier prisa por sustituir la atención humana por una apariencia automatizada.
Lo más valioso de este artículo, especialmente para quienes desarrollamos sistemas de IA orientados al paciente, es su énfasis en las medidas de protección, la validación, la privacidad y la gobernanza como requisitos previos, en lugar de considerarlos aspectos secundarios (véase Rizzo et al., 2025). Los autores señalan que las medidas de seguridad en conversaciones con una sola respuesta (single-turn conversation) pueden fallar en conversaciones con varias respuestas (multi-turn conversations), con riesgos como respuestas inconsistentes o que normalizan implícitamente las ideas de autolesión, lo que es especialmente preocupante en el caso de los adolescentes, cuyo lenguaje difiere de los datos de entrenamiento de los adultos. También subrayan la privacidad y la protección de datos como un requisito fundamental, y no una ‘característica’, y señalan que muchas aplicaciones de salud mental se quedan cortas en este aspecto. Si a esto se añaden los riesgos de la elaboración de perfiles latentes y el uso indebido discriminatorio (por ejemplo, en el ámbito laboral o de los seguros), se obtiene una clara necesidad de establecer límites políticos explícitos y marcos normativos que mantengan las inferencias sobre la salud mental dentro de los límites clínicos adecuados. Sus directrices sobre buenas prácticas también están en consonancia con las políticas en este ámbito: necesidades y preferencias centradas en el paciente (no en el entusiasmo por la tecnología), diseño conjunto con médicos y pacientes, validación en el mundo real con replicación independiente y trabajo sobre sesgos y equidad que sea sensible a los contextos culturales y comunitarios. En general, cualquiera que haya prestado atención en los últimos años verá la IA como un verdadero potenciador al acceso y la personalización de tratamientos, pero solo si consideramos la seguridad, la evidencia y la ética como requisitos fundamentales de la ingeniería, y no como visiones idealistas.