En debates online, los grandes modelos de lenguaje (LLM, por sus siglas de inglés, es decir, sistemas de Inteligencia Artificial como ChatGPT) son más persuasivos que los seres humanos cuando pueden personalizar sus argumentos en función de las características de sus oponentes, según afirma un estudio publicado en Nature Human Behaviour que analizó GPT-4. Los autores instan a investigadores y plataformas en línea a “considerar seriamente la amenaza que suponen los LLM que alimentan la división, difunden propaganda maliciosa y a desarrollar las contramedidas adecuadas”.

250519 GPT Carlos ES
Carlos Carrasco Farré
Profesor en Sistemas de información, IA y ciencia de datos en la Toulouse Business School (Francia)
Todos, en mayor o menor medida, hemos experimentado con ChatGPT u otros Large Language Models. Es por ello por lo que quizás no nos sorprenda saber que escriben muy bien, pero quizás sí que nos sorprenda saber que también sabe adaptar sus argumentos a quien tiene delante para convencerle. Y no solo es sorprendente su capacidad de convicción, aún más inquietante es su capacidad de hacerlo mejor que una persona real. Este hallazgo es especialmente relevante en un mundo donde los asistentes de IA se integran en plataformas de mensajería, redes sociales o atención al cliente. Esta investigación de Salvi et al. confirma con datos sólidos una preocupación creciente: que estas tecnologías puedan usarse para manipular, desinformar o polarizar a gran escala.
Aunque el estudio se realizó con participantes estadounidenses, los mecanismos de personalización y persuasión que se ponen a prueba son extrapolables a contextos como el español, donde también existe una fuerte presencia digital, una creciente exposición a contenido generado por IA, y una polarización social y política en aumento. Esto puede ser problemático ya que, como se comenta en el artículo —a diferencia de los humanos, que necesitan tiempo y esfuerzo para adaptar sus argumentos a distintos públicos— GPT-4 puede adaptar su mensaje de forma instantánea y a gran escala, lo que le otorga una ventaja desproporcionada en entornos como campañas políticas, marketing personalizado o conversaciones en redes sociales. Esta capacidad de microtargeting automatizado abre nuevas posibilidades para influir en la opinión pública, pero también agrava el riesgo de manipulación encubierta. Por eso, los autores del estudio recomiendan que plataformas y reguladores tomen medidas para identificar, supervisar y, si es necesario, limitar el uso de modelos de lenguaje en contextos persuasivos sensibles. Así como en su día se reguló la publicidad dirigida, quizás haya llegado el momento de pensar en acciones para controlar la persuasión algorítmica.
250519 GPT David ES
David E. Losada
Catedrático de Ciencia de la Computación e Inteligencia Artificial, Centro Singular de Investigación en Tecnologías Inteligentes (CiTIUS)
Este trabajo de investigación incide en la capacidad de GPT-4 para debatir y persuadir en conversaciones sobre temas de diferentes niveles de controversia. Los autores concluyen, a través de un estudio con 900 usuarios con diversos perfiles sociodemográficos (variando género, edad, grupos étnicos, nivel de educación y afiliación política), que GPT-4 presenta habilidades iguales o superiores a los humanos para persuadir sobre los temas de los que se debate.
Adicionalmente, los resultados sugieren que si el modelo de IA tiene acceso a información personal del humano con el que conversa, entonces es capaz de sacar partido a ese conocimiento para mejorar sus habilidades persuasivas.
Aunque la investigación se realiza en un entorno restringido (debates limitados a un determinado tiempo y a una cierta estructuración) y con una muestra sesgada de población (fundamentalmente estadounidenses y usuarios habituales de una determinada plataforma de experimentación) las implicaciones prácticas pudieran ser importantes. Por ejemplo, a efectos de explotar las IA para persuadir a la población con propósitos lícitos (conducción segura o reciclado de residuos) o ilícitos (manipulación de la ciudadanía con fines políticos).
Este recorrido de las IA como ‘agentes de persuasión’ deberá ser por tanto monitorizado a corto, medio y largo plazo desde una perspectiva ética y de mitigación de riesgos.
Por otro lado, en un entorno real podría resultar dudosa la viabilidad del acceso a ciertos datos personales (por ejemplo, grupo étnico o afiliación política). Para contrastar estos resultados y analizar su transferencia a otros ámbitos sería necesario también ampliar la experimentación con conversaciones en otras lenguas (español, por ejemplo) y humanos de otras procedencias geográficas más diversas.
Josep Curto - GPT4 persuasión
Josep Curto
Director académico del Máster en Inteligencia de Negocios y Big Data en la Universitat Oberta de Catalunya (UOC) y profesor adjunto en IE Business School
Tal y como apunta el repositorio de riesgos de IA del MIT, uno de los identificados en la taxonomía basada en dominios es ‘desinformación, vigilancia e influencia a gran escala’. Todo artículo que ayude a confirmar y comprender estos riesgos es bienvenido. Sobre todo, si se realiza de forma transparente (el código y conjunto de datos están disponibles) para su validación académica y para, potencialmente extender a otros LLM. Considerando los problemas de adulación presentados por una de las últimas versiones de chatGPT, que, al ser descubierto por los usuarios, ha forzado OpenAI a realizar un rollback, este estudio es sumamente relevante. La adulación, combinada con la persuasión, incrementa el riesgo comentado.
Cabe comentar que este estudio debería ser extendido a otros LLM como Llama (de META), Claude (de Anthropic), Gwen (Alibaba) u otros para determinar si este fenómeno es habitual y analizar el escenario donde el LLM recaba información sobre el usuario y si en dicho escenario (que es el habitual) la persuasión es tan marcada como en el contexto del estudio.
- Artículo de investigación
- Revisado por pares
- Estudio experimental
- Humanos
Francesco Salvi et al.
- Artículo de investigación
- Revisado por pares
- Estudio experimental
- Humanos