Los chatbots de IA refuerzan las creencias erróneas de los usuarios al darles la razón de forma excesiva

Los chatbots de inteligencia artificial (IA) que asesoran y orientan en temas cotidianos podrían estar reforzando creencias perjudiciales de quien los usa a través de respuestas aduladoras. Es una de las conclusiones de un estudio publicado en la revista Science en el que analizaron 11 grandes modelos de lenguaje basados en IA de compañías como OpenAI, Google o Anthropic. La investigación muestra que esta adulación es tanto frecuente como perjudicial: puede socavar la capacidad de los usuarios de hacer autocrítica e influir en la toma de decisiones responsables. 

26/03/2026 - 19:00 CET
Reacciones

Pablo Haya Coll - IA aduladora

Pablo Haya Coll

Investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (UAM) y director del área de Business & Language Analytics (BLA) del Instituto de Ingeniería del Conocimiento (IIC)

Science Media Centre España

Este artículo estudia el efecto en las personas del comportamiento complaciente (sycophancy) de los LLM como GPT-4o, Gemini, Claude o DeepSeek. La complacencia en IA se refiere a la tendencia de estos sistemas a dar la razón al usuario de forma excesiva, validando sus opiniones o decisiones incluso cuando son cuestionables. El estudio, en línea con trabajos previos, muestra que es un comportamiento bastante común en los modelos actuales.

El problema es que esta ‘complacencia’ tiene efectos reales en las personas. Cuando una IA reafirma constantemente lo que decimos, puede hacer que nos sintamos más seguros de nuestras ideas, incluso si son erróneas. Según la investigación, esto reduce la capacidad de autocrítica, disminuye la responsabilidad personal y hace que las personas sean menos propensas a corregir errores o reparar conflictos con otros.

Lo más preocupante es que, a pesar de estos efectos negativos, los usuarios prefieren y confían más en las IA que son complacientes, lo que crea un incentivo perverso para que este comportamiento continúe. Más allá de los memes que retratan este fenómeno en redes sociales, la ‘complacencia’ puede suponer un riesgo social relevante, especialmente, en personas con ciertos perfiles psicológicos vulnerables. Esto requiere diseñar sistemas de IA más responsables, capaces de ayudar sin reforzar errores o conductas problemáticas.

No declara conflicto de interés
ES

Mikel Galar - IA aduladora

Mikel Galar

Profesor del Área de Ciencias de la Computación e Inteligencia Artificial de la Universidad Pública de Navarra

Science Media Centre España

El artículo aborda la tendencia de los modelos de lenguaje, como ChatGPT, Claude o Gemini, a dar la razón al usuario durante la interacción. A diferencia de otros sesgos más estudiados, como los relacionados con el género, la edad o la raza, este fenómeno consiste en que los modelos muestran una inclinación a validar o respaldar la postura del usuario, incluso en contextos problemáticos.

El trabajo resulta especialmente relevante porque analiza este comportamiento en 11 modelos de IA distintos y lo estudia mediante tres investigaciones complementarias. En primer lugar, los autores emplean un conjunto de datos extraído de la conocida red social Reddit, a partir del cual observan que los sistemas tienden a reafirmar las acciones del usuario un 49 % más que otras personas, incluso en situaciones que implican engaño, ilegalidad o posibles daños. Además, el artículo analiza los efectos de este fenómeno mediante varios experimentos con usuarios: por un lado, pruebas controladas basadas en situaciones hipotéticas y, por otro, un estudio de conversación en tiempo real en el que los participantes interactúan con un sistema de IA para discutir dilemas interpersonales vividos por ellos mismos.

Aunque la muestra presenta ciertas limitaciones y sería deseable comprobar hasta qué punto los resultados se generalizan a otros perfiles poblacionales, el estudio aporta evidencia sólida de que esta tendencia de los modelos a dar la razón al usuario no es anecdótica, sino un rasgo sistemático con posibles consecuencias relevantes. En particular, los resultados sugieren que este comportamiento puede influir en la conducta social posterior de los usuarios y aumentar su predisposición a seguir utilizando estos sistemas, lo que podría reforzar sus posiciones incluso cuando sean erróneas. No obstante, sería interesante profundizar en la solidez de estos resultados en muestras más diversas y en contextos de uso más amplios, para valorar hasta qué punto este comportamiento se mantiene en otros perfiles de usuarios y situaciones.

En conjunto, el artículo pone de relieve un problema importante que debería ser tenido en cuenta en el desarrollo y evaluación de los sistemas de IA conversacional, dado que puede tener efectos perjudiciales a nivel individual y social. La adopción de estas herramientas en la vida cotidiana ha sido muy rápida, mientras que la sociedad aún no es plenamente consciente de los riesgos asociados a depositar en ellas una confianza excesiva.

Declara no tener conflicto de interés
ES
Publicaciones
Sycophantic AI decreases prosocial intentions and promotes dependence
    • Artículo de investigación
    • Revisado por pares
Revista
Science
26/03/2026
Autores

Cheng et al. 

Tipo de estudio:
  • Artículo de investigación
  • Revisado por pares
Las 5W +1
Publica
FAQ
Contacto