El uso de la IA puede provocar la pérdida de habilidades en quienes realizan colonoscopias
La introducción de la inteligencia artificial (IA) para ayudar a realizar colonoscopias está relacionada con una reducción en la capacidad de los profesionales sanitarios para detectar crecimientos precancerosos (adenomas) en el colon sin la ayuda de la IA, según un artículo publicado en la revista The Lancet Gastroenterology & Hepatology.
Venet Osmani - IA colon
Venet Osmani
Catedrático de IA Clínica y Aprendizaje Automático en la Queen Mary University of London (Reino Unido)
Hay varias razones para ser cautelosos antes de concluir que la IA por sí sola está provocando una pérdida de destrezas en los clínicos. Los resultados del estudio podrían estar influidos por otros factores.
Por ejemplo, el número de colonoscopias realizadas casi se duplicó tras la introducción de la herramienta de IA, pasando de 795 a 1.382. Es posible que este fuerte aumento de la carga de trabajo, más que la propia IA, haya llevado a una menor tasa de detección. Un calendario más intenso podría significar que los médicos tienen menos tiempo o estén más fatigados, lo que afectaría a su rendimiento.
Además, la introducción de una nueva tecnología como la IA suele ir acompañada de otros cambios, como nuevos flujos de trabajo clínico o una redistribución de los recursos. Estos cambios organizativos, que el estudio no midió, también podrían estar afectando a las tasas de detección.
Por último, el estudio sugiere una caída en la habilidad en apenas tres meses. Este es un periodo muy corto, especialmente para un médico con más de 27 años de experiencia. Esto plantea la cuestión de si una verdadera pérdida de destreza puede producirse tan rápido, o si simplemente los médicos estaban cambiando sus hábitos de forma que afectaba a su rendimiento cuando la IA no estaba disponible.
Allan Tucker - IA colon
Allan Tucker
Catedrático de Inteligencia Artificial en el departamento de Ciencias de la Computación de la Universidad Brunel de Londres (Reino Unido)
Parece un trabajo sólido que pone de relieve lo que muchos investigadores en IA temen: el sesgo de automatización. Es solo un estudio y sus limitaciones están explícitamente señaladas en el artículo.
En cuanto a las limitaciones, los autores solo analizaron un sistema de IA; existen muchos sistemas y tecnologías diferentes que pueden ser mejores para apoyar o explicar decisiones que otros. Los profesionales sanitarios seleccionados eran claramente experimentados y estaban interesados en participar en el estudio; otros profesionales menos familiarizados con la tecnología o con menos experiencia podrían comportarse de forma distinta. También cabe señalar que se llevaron a cabo cambios importantes en el departamento de endoscopia en mitad del estudio y los autores dejan claro que se necesitan ensayos cruzados aleatorizados para poder hacer afirmaciones más sólidas.
Ha habido otros ejemplos reportados de sesgo de automatización que ponen de relieve algunos de los riesgos en la sanidad en general.
Esto no es exclusivo de los sistemas de IA y es un riesgo que existe con la introducción de cualquier tecnología nueva, pero el riesgo asociado a los sistemas de IA es potencialmente más extremo. La IA busca imitar la toma de decisiones humana, lo que puede ejercer mucha más presión sobre una persona en términos de su propia toma de decisiones que otras tecnologías. Por ejemplo, podría sentirse presionada a estar de acuerdo con la nueva tecnología. Imaginemos que se comete un error y el experto humano tiene que defender el hecho de haber anulado una decisión de la IA; podría parecerle menos arriesgado simplemente aceptar la decisión de la IA.
El artículo es especialmente interesante porque indica que la IA sigue detectando más cánceres en general. La cuestión ética entonces es si confiamos en la IA más que en los humanos. A menudo, esperamos que siempre haya un humano supervisando todas las decisiones de la IA, pero si los expertos humanos están poniendo menos esfuerzo en sus propias decisiones como resultado de introducir sistemas de IA, esto podría ser problemático.
Un lado del argumento sería: “¿qué importa si se identifica más cáncer?”. El otro podría responder: “pero si la IA tiene sesgos y comete errores, podría cometerlos a gran escala si se deja sin supervisión”.
Conflicto de interés: "Mis únicos compromisos fuera del ámbito académico son asesorar a la MHRA sobre el uso de la inteligencia artificial en la asistencia sanitaria (actualmente sin coste alguno)".
- Artículo de investigación
- Revisado por pares
- Estudio observacional
Budzyri et al.
- Artículo de investigación
- Revisado por pares
- Estudio observacional