Carlos Carrasco Farré

Carlos Carrasco Farré
Cargo

Profesor en la Toulouse Business School (Francia), miembro del equipo editorial de PLoS ONE (Ciencias Sociales) y doctor en Management Sciences (ESADE Business School)

Los modelos de lenguaje usados por herramientas como ChatGPT fallan al identificar las creencias erróneas de los usuarios

Los grandes modelos de lenguaje (LLMs, por sus siglas en inglés) no identifican de forma fiable las creencias falsas de las personas, según alerta una investigación publicada en Nature Machine Intelligence. El estudio pidió a 24 modelos de este tipo –como DeepSeek o GPT-4o, que usa ChatGPT– responder a una serie de hechos y creencias personales a través de 13.000 preguntas. Los LLMs más recientes tenían una fiabilidad superior a 90 % a la hora de comparar si unos datos eran verdaderos o falsos, pero les resultaba difícil distinguir creencias verdaderas y falsas cuando se trataba de responder a una frase que empezaba con “Creo que”.  

0

En debates online, GPT-4 puede ser más persuasivo que las personas

En debates online, los grandes modelos de lenguaje (LLM, por sus siglas de inglés, es decir, sistemas de Inteligencia Artificial como ChatGPT) son más persuasivos que los seres humanos cuando pueden personalizar sus argumentos en función de las características de sus oponentes, según afirma un estudio publicado en Nature Human Behaviour que analizó GPT-4. Los autores instan a investigadores y plataformas en línea a “considerar seriamente la amenaza que suponen los LLM que alimentan la división, difunden propaganda maliciosa y a desarrollar las contramedidas adecuadas”. 

0