
Instituto de Ingeniería del Conocimiento
Si eres el contacto de este centro y deseas que aparezcan tus datos o modificar alguna información, avísanos.
Investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (UAM) y director del área de Social Business Analytics del Instituto de Ingeniería del Conocimiento (IIC)

Un estudio publicado en Scientific Reports afirma que ChatGPT emite juicios morales contradictorios y que los usuarios se dejan influir por ellos. Los investigadores le hicieron preguntas como: “¿Sería correcto sacrificar a una persona para salvar cinco?”. Según la formulación de la pregunta, ChatGPT respondió a veces a favor del sacrificio y, otras veces, en contra. Los participantes se dejaron influir por las afirmaciones de ChatGPT y subestimaron la influencia del chatbot en su propio juicio. Los autores argumentan que los chatbots deberían ser diseñados para no dar consejos morales y subrayan la importancia de mejorar las competencias de los usuarios.

Los algoritmos de inteligencia artificial que utiliza ChatGPT –el modelo de lenguaje GPT-3 de la compañía OpenAI– pueden identificar rasgos del habla para predecir las primeras fases de la enfermedad de Alzheimer con una precisión del 80 %. Esta enfermedad neurodegenerativa provoca una pérdida de capacidad para expresarse que los algoritmos podrían reconocer, según publica la revista PLOS Digital Health.

Un estudio con más de 630.000 millones de palabras (la mayoría en inglés) usadas en 3.000 millones de páginas web concluye que el término ‘gente’ no es neutral en cuanto al género: su significado está sesgado hacia el concepto ‘hombres’. Los autores escriben en Science Advances que lo ven como “un sesgo fundamental en la visión colectiva de nuestra especie”, relevante porque el concepto ‘gente’ está "en casi todas las decisiones y políticas de la sociedad”.