Este artículo se publicó hace más de 7 meses
Reacción: un método de inteligencia artificial muestra una capacidad de generalización similar a la humana

En un trabajo publicado en la revista Nature, dos investigadores de la Universidad de Nueva York (EEUU) y de la Universidad Pompeu Fabra de Barcelona afirman haber demostrado que una red neuronal artificial puede tener capacidades de generalización sistemática similares a las humanas, es decir, de aprender nuevos conceptos y combinarlos con los ya existentes. Esta afirmación pone en entredicho la idea de hace 35 años de que las redes neuronales no son modelos viables de la mente humana. 

25/10/2023 - 17:00 CEST
 
Reacciones

Teodoro - IA

Teodoro Calonge

Profesor Titular del departamento de Informática en la Universidad de Valladolid

Science Media Centre España

El artículo me parece ingenioso, cómo desde las redes neuronales artificiales (ANN) se intenta dar una explicación de cómo funcionan ellas mismas, de ahí el prefijo ‘meta’ [en el título del artículo]. Esto es lo que a primera vista trata de ofrecer en su resumen. Sin embargo, lo que hace realmente es comparar la capacidad de predecir de las redes neuronales generativas (GAN) con la de los humanos. Para ello monta una batería de pruebas basadas en la psicología, esto es, trata de comparar la respuesta de las GAN con las obtenidas en los equivalentes estudios psicológicos con humanos acerca de la inteligencia.  

He tenido oportunidad de echar un vistazo al código con el que han implementado las GAN. He comprobado que han usado para ello PyTorch. Desde el punto de vista técnico, me parece que es impecable.  

Sin embargo, las GAN han despertado una gran expectativa que conviene matizar para evitar el ‘efecto suflé’. Las ANN, en general, se basan en un aprendizaje. Normalmente esto es a base de datos y más datos, es decir, suele ser una información en bruto, lo que implica una cantidad numérica ingente para proporcionar cierto conocimiento. Y esto explica por qué ahora han eclosionado las GAN como ChatGPT. Eran modelos conocidos ya a nivel teórico, pero que han tenido que esperar a recientes avances en el hardware y en el software —en particular, de los transformers (2018)— para poder ejecutarlos en un tiempo razonable mediante su procesamiento en paralelo.   

Volviendo al tema central del artículo, creo que conviene matizar que es un primer trabajo. No sabría decir si es una línea de investigación que vaya a ofrecer grandes avances a corto o medio plazo. Desde luego, no creo que vaya a dar respuesta a los interrogantes que actualmente se plantean en el campo de la ‘explicabilidad de la inteligencia artificial’ y, en particular, en el campo de la inteligencia artificial y la medicina, donde está el principal punto de recelo. 

En general, los profesionales biosanitarios desconfían de esa ‘caja negra’ (ANN), que da muy buenos resultados, pero que no les dice gran cosa sobre en qué se basa para obtener ese nivel de éxito. Avances en la ‘explicabilidad’ están empezando a ofrecer pequeños resultados que están revelándose útiles en determinadas investigaciones biomédicas. Por ejemplo, los sistemas de clasificación de imágenes médicas basados en ANN están siendo complementados con algoritmos que analizan la representación interna de esas imágenes por parte de las ANN. Así, por ejemplo, se están delimitando las zonas de una radiografía de tórax detonantes para una ANN, con el fin de detectar un tipo particular de neumonía. Esta información puede complementar lo que ya conocía un neumólogo e incluso ayudar a verificar si zonas no tenidas en cuenta antes, pero que sí cuentan para una ANN, realmente son influyentes desde el punto de vista médico en el diagnóstico de la enfermedad.

No declara conflicto de interés
ES
Publicaciones
Human-like systematic generalization through a meta-learning neural network
  • Artículo de investigación
  • Revisado por pares
Revista
Nature
Fecha de publicación
Autores

Lake and Baroni.

Tipo de estudio:
  • Artículo de investigación
  • Revisado por pares
Las 5W +1
Publica
FAQ
Contacto