Susana Manso García

Susana Manso García
Cargo

Médica de familia, miembro del grupo de trabajo de Inteligencia Artificial y Salud Digital de la Sociedad Española de Medicina de Familia y Comunitaria (semFYC)

Los modelos de IA siguen sin ser seguros para el diagnóstico médico sin supervisión

Un equipo de Estados Unidos ha analizado el rendimiento de 21 grandes modelos de lenguaje basados en inteligencia artificial (IA) —incluyendo ChatGPT, Gemini o Grok— para el diagnóstico clínico. Sus conclusiones son que, a pesar de los avances en estos modelos, su capacidad de razonamiento sigue siendo limitada para el diagnóstico inicial y que no se debe confiar en ellos sin la supervisión de un profesional médico. Según los autores, que publican los resultados en JAMA Network Open y pretendían “ayudar a distinguir la realidad del hype en el uso de estas herramientas”, los resultados “refuerzan la idea de que los modelos de lenguaje en el ámbito sanitario siguen requiriendo la intervención humana y una supervisión muy rigurosa”.

0