Pablo Haya Coll

Pablo Haya Coll
Cargo

Investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (UAM) y director del área de Business & Language Analytics (BLA) del Instituto de Ingeniería del Conocimiento (IIC)

Crean una herramienta capaz de añadir una marca de agua a textos generados por IA para detectarlos

Un estudio publicado en la revista Nature describe una herramienta capaz de insertar marcas de agua en el texto generado por grandes modelos lingüísticos —sistemas de inteligencia artificial (IA)—, mejorando así su capacidad para identificar y rastrear contenidos creados artificialmente. La herramienta utiliza un algoritmo de muestreo para sesgar sutilmente la elección de palabras del modelo, insertando una firma que pueda ser reconocida por el software de detección. 

0

Nobel de Física para Hinton y Hopfield por descubrir las bases del aprendizaje automático con redes neuronales artificiales

La Real Academia de Ciencias de Suecia ha concedido el Premio Nobel de Física 2024 a los investigadores John J. Hopfield y Geoffrey E. Hinton por descubrir las bases fundacionales que permiten el aprendizaje automático con redes neuronales artificiales. Esta tecnología, inspirada en la estructura del cerebro, es la que está detrás de lo que hoy llamamos “inteligencia artificial”. 

0

Empeora la fiabilidad de los grandes modelos de lenguaje, como la IA generativa

Los grandes modelos de lenguaje –sistemas de Inteligencia Artificial (IA) basados en aprendizaje profundo, como la IA generativa que es ChatGPT– no son tan fiables como los usuarios esperan. Es una de las conclusiones de una investigación internacional publicada en Nature en la que participan investigadores de la Universidad Politécnica de Valencia. Según los autores, en comparación con los primeros modelos y atendiendo a ciertos aspectos, la fiabilidad ha empeorado en los modelos más recientes, como por ejemplo GPT-4 respecto a GPT-3. 

0

Los modelos de IA entrenados con datos generados por IA pueden colapsar

El uso de conjuntos de datos generados por inteligencia artificial (IA) para entrenar futuras generaciones de modelos de aprendizaje automático puede contaminar sus resultados, un concepto conocido como ‘colapso del modelo’, según un artículo publicado en Nature. La investigación muestra que, en unas pocas generaciones, el contenido original se sustituye por tonterías sin relación, lo que demuestra la importancia de utilizar datos fiables para entrenar los modelos de IA. 

0

Reacciones: el presidente del Gobierno anuncia el diseño de un modelo fundacional de lenguaje de inteligencia artificial entrenado en español

El presidente del Gobierno, Pedro Sánchez, anunció anoche en la cena de bienvenida del GSMA Mobile World Congress (MWC) Barcelona 2024, la construcción de un modelo fundacional de lenguaje de inteligencia artificial, entrenado en español y lenguas cooficiales, en código abierto y transparente, y con la intención de incorporar a los países iberoamericanos. Para su desarrollo, el Gobierno va a trabajar con el Barcelona Supercomputing Center y la Red Española de Supercomputación, junto con la Academia Española de la Lengua y la Asociación de Academias de la Lengua Española. 

0

Reacción: ChatGPT influye a los usuarios con juicios morales contradictorios

Un estudio publicado en Scientific Reports afirma que ChatGPT emite juicios morales contradictorios y que los usuarios se dejan influir por ellos. Los investigadores le hicieron preguntas como: “¿Sería correcto sacrificar a una persona para salvar cinco?”. Según la formulación de la pregunta, ChatGPT respondió a veces a favor del sacrificio y, otras veces, en contra. Los participantes se dejaron influir por las afirmaciones de ChatGPT y subestimaron la influencia del chatbot en su propio juicio. Los autores argumentan que los chatbots deberían ser diseñados para no dar consejos morales y subrayan la importancia de mejorar las competencias de los usuarios. 

0

Reacciones: los algoritmos de ChatGPT podrían ayudar a identificar casos de alzhéimer

Los algoritmos de inteligencia artificial que utiliza ChatGPT –el modelo de lenguaje GPT-3 de la compañía OpenAI– pueden identificar rasgos del habla para predecir las primeras fases de la enfermedad de Alzheimer con una precisión del 80 %. Esta enfermedad neurodegenerativa provoca una pérdida de capacidad para expresarse que los algoritmos podrían reconocer, según publica la revista PLOS Digital Health. 

0

Reacciones al análisis lingüístico con inteligencia artificial que muestra que el término ‘gente’ está sesgado hacia ‘hombres’

Un estudio con más de 630.000 millones de palabras (la mayoría en inglés) usadas en 3.000 millones de páginas web concluye que el término ‘gente’ no es neutral en cuanto al género: su significado está sesgado hacia el concepto ‘hombres’. Los autores escriben en Science Advances que lo ven como “un sesgo fundamental en la visión colectiva de nuestra especie”, relevante porque el concepto ‘gente’ está "en casi todas las decisiones y políticas de la sociedad”.

0