Instituto de Ingeniería del Conocimiento
Si eres el contacto de este centro y deseas que aparezcan tus datos o modificar alguna información, avísanos.
Investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (UAM) y director del área de Business & Language Analytics (BLA) del Instituto de Ingeniería del Conocimiento (IIC)
Los grandes modelos de lenguaje –sistemas de Inteligencia Artificial (IA) basados en aprendizaje profundo, como la IA generativa que es ChatGPT– no son tan fiables como los usuarios esperan. Es una de las conclusiones de una investigación internacional publicada en Nature en la que participan investigadores de la Universidad Politécnica de Valencia. Según los autores, en comparación con los primeros modelos y atendiendo a ciertos aspectos, la fiabilidad ha empeorado en los modelos más recientes, como por ejemplo GPT-4 respecto a GPT-3.
El uso de conjuntos de datos generados por inteligencia artificial (IA) para entrenar futuras generaciones de modelos de aprendizaje automático puede contaminar sus resultados, un concepto conocido como ‘colapso del modelo’, según un artículo publicado en Nature. La investigación muestra que, en unas pocas generaciones, el contenido original se sustituye por tonterías sin relación, lo que demuestra la importancia de utilizar datos fiables para entrenar los modelos de IA.
El presidente del Gobierno, Pedro Sánchez, anunció anoche en la cena de bienvenida del GSMA Mobile World Congress (MWC) Barcelona 2024, la construcción de un modelo fundacional de lenguaje de inteligencia artificial, entrenado en español y lenguas cooficiales, en código abierto y transparente, y con la intención de incorporar a los países iberoamericanos. Para su desarrollo, el Gobierno va a trabajar con el Barcelona Supercomputing Center y la Red Española de Supercomputación, junto con la Academia Española de la Lengua y la Asociación de Academias de la Lengua Española.
Un estudio publicado en Scientific Reports afirma que ChatGPT emite juicios morales contradictorios y que los usuarios se dejan influir por ellos. Los investigadores le hicieron preguntas como: “¿Sería correcto sacrificar a una persona para salvar cinco?”. Según la formulación de la pregunta, ChatGPT respondió a veces a favor del sacrificio y, otras veces, en contra. Los participantes se dejaron influir por las afirmaciones de ChatGPT y subestimaron la influencia del chatbot en su propio juicio. Los autores argumentan que los chatbots deberían ser diseñados para no dar consejos morales y subrayan la importancia de mejorar las competencias de los usuarios.
Los algoritmos de inteligencia artificial que utiliza ChatGPT –el modelo de lenguaje GPT-3 de la compañía OpenAI– pueden identificar rasgos del habla para predecir las primeras fases de la enfermedad de Alzheimer con una precisión del 80 %. Esta enfermedad neurodegenerativa provoca una pérdida de capacidad para expresarse que los algoritmos podrían reconocer, según publica la revista PLOS Digital Health.
Un estudio con más de 630.000 millones de palabras (la mayoría en inglés) usadas en 3.000 millones de páginas web concluye que el término ‘gente’ no es neutral en cuanto al género: su significado está sesgado hacia el concepto ‘hombres’. Los autores escriben en Science Advances que lo ven como “un sesgo fundamental en la visión colectiva de nuestra especie”, relevante porque el concepto ‘gente’ está "en casi todas las decisiones y políticas de la sociedad”.