Autor/es reacciones

Anabel Forte Deltell

Profesora Titular del Departamento de Estadística e Investigación Operativa de la Universitat de València

El trabajo de Hinton en la conocida como Retropropagación y su aplicación a las redes neuronales fue fundamental para que se pudiese dar “profundidad” al aprendizaje profundo. 

En estadística lo que hacemos es aprender de los datos para estimar parámetros que nos dicen como se relacionan las variables. Esto se hace tratando de minimizar el error que se comete en las predicciones. Pero cuando se añaden capas de profundidad a una red neuronal (que es lo que permite hacer cosas tan impresionantes como entender el lenguaje o crear una imagen) la relación entre el error cometido en la predicción y los datos de entrada se pierde. Para evitar ese problema, el mecanismo impulsado por Hinton hace que el error se reparta hacia atrás desde la capa en la que se predice el resultado hacia la capa de entrada de los datos, permitiendo establecer el mejor valor para los parámetros en todas las capas. 

En definitiva, sin el trabajo de Hinton no tendríamos chatGPT ni videos generados por IA ni nada de lo que hoy nos sorprende.

ES