Autor/es reacciones

Víctor Etxebarria

Catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco (UPV/EHU)

Este artículo demuestra, desde el punto de vista matemático y con todo rigor, que las IA generativas pueden funcionar incorrectamente si se entrenan con datos generados por IA. El efecto que los autores proponen llamar ‘colapso del modelo’ es cierto: los modelos de lenguaje de gran tamaño (LLM) —en los que basan su funcionamiento las IA generativas actuales— realmente colapsan (dejan de funcionar, responden mal, dan información incorrecta). Se trata de un efecto estadístico perfectamente demostrado en el artículo e ilustrado con ejemplos y experimentos, siempre que los modelos LLM se entrenen recursivamente (es decir: dando a la IA generativa datos de entrenamiento generados previamente por una IA generativa). En este sentido, el artículo demuestra que las IA generativas entrenadas de esta manera son realmente degenerativas.  

Las IA son entrenadas con enormes cantidades de datos presentes en internet, producidos por personas que tienen derechos legales de autoría de su material. Para evitar demandas judiciales o para ahorrar costes las empresas tecnológicas utilizan datos generados por sus propias IA para seguir entrenando sus máquinas. Este procedimiento cada vez más generalizado hace que las IA no sirvan para ninguna función realmente fiable. Ello transforma las IA en herramientas no solo inútiles para ayudarnos a solucionar nuestros problemas, sino que pueden ser nocivas, si basamos nuestras decisiones en información incorrecta.  

Los autores de este excelente articulo recomiendan a la industria IA usar entrenamiento con datos realmente inteligentes (es decir: humanos). También reconocen que el prefiltrado de datos generados automáticamente para evitar la degeneración no es necesariamente imposible, pero requiere mucha investigación seria al respecto. 

ES