Pablo Haya Coll
Investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (UAM) y director del área de Business & Language Analytics (BLA) del Instituto de Ingeniería del Conocimiento (IIC)
Este artículo estudia el efecto en las personas del comportamiento complaciente (sycophancy) de los LLM como GPT-4o, Gemini, Claude o DeepSeek. La complacencia en IA se refiere a la tendencia de estos sistemas a dar la razón al usuario de forma excesiva, validando sus opiniones o decisiones incluso cuando son cuestionables. El estudio, en línea con trabajos previos, muestra que es un comportamiento bastante común en los modelos actuales.
El problema es que esta ‘complacencia’ tiene efectos reales en las personas. Cuando una IA reafirma constantemente lo que decimos, puede hacer que nos sintamos más seguros de nuestras ideas, incluso si son erróneas. Según la investigación, esto reduce la capacidad de autocrítica, disminuye la responsabilidad personal y hace que las personas sean menos propensas a corregir errores o reparar conflictos con otros.
Lo más preocupante es que, a pesar de estos efectos negativos, los usuarios prefieren y confían más en las IA que son complacientes, lo que crea un incentivo perverso para que este comportamiento continúe. Más allá de los memes que retratan este fenómeno en redes sociales, la ‘complacencia’ puede suponer un riesgo social relevante, especialmente, en personas con ciertos perfiles psicológicos vulnerables. Esto requiere diseñar sistemas de IA más responsables, capaces de ayudar sin reforzar errores o conductas problemáticas.