Inteligencia artificial abierta o cerrada: así se resiente la ciencia cuando la tecnología queda en manos de las grandes empresas

Dos de los premiados con el Nobel de Química 2024 son empleados de Google DeepMind que en mayo generaron un enorme malestar entre sus colegas. Hassabis y Jumper anunciaron en Nature los resultados de su modelo AlphaFold 3, con aplicaciones en diseño de fármacos; pero lo publicaron cerrado, sin que ni siquiera los revisores tuvieran acceso al sistema, lo que contradice los principios básicos de la publicación científica. Corremos el riesgo de que el potencial transformador de la IA quede controlado por las grandes tecnológicas.

11/10/2024 - 07:44 CEST
 
alphafold

Alphafold. / Adobe Stock

La irrupción de la Inteligencia Artificial (IA) está revolucionando la ciencia y la economía a una velocidad sin precedentes. ChatGPT, el ejemplo más visible, se ha convertido en la tecnología de adopción más rápida en la historia de la humanidad. Los recientes premios Nobel de Física y de Química, otorgados por avances cruciales en redes neuronales y su aplicación a la predicción de estructuras proteínicas, son una prueba irrefutable de su impacto. Sin embargo, como con todas las nuevas tecnologías, surgen discusiones sobre potenciales peligros y la necesidad de regulación. Entre los muchos aspectos a considerar, este vertiginoso progreso plantea un dilema sobre el nivel de accesibilidad de los sistemas y los posibles problemas asociados a cada nivel.

El vertiginoso progreso de la IA plantea un dilema sobre el nivel de accesibilidad de los sistemas y los posibles problemas asociados a cada nivel

La accesibilidad a los modelos de lenguaje (Large Language Models, Modelos Fundacionales) incluye tanto los datos usados para el entrenamiento como sus parámetros (los pesos son en las redes neuronales el equivalente al código fuente en software). Existen modelos completamente abiertos (como EleutherAI), otros con pesos abiertos (como Llama de Meta), algunos abiertos, pero con restricciones de uso (Bloom de Hugging Face), y finalmente, modelos cerrados, accesibles solo a través de servidores (como OpenAI). Esta disparidad genera un debate sobre las posibles vulnerabilidades de los sistemas abiertos a ataques maliciosos y uso inadecuado de los datos o los modelos, contrapuestos a los obvios beneficios en el fomento de la colaboración científica y técnica, la innovación y la verificación.

En un artículo recién publicado en Science, diez investigadores discuten cómo el temor a estos riesgos potenciales puede llevar a una regulación excesiva de los modelos abiertos que puede inhibir el desarrollo científico, favoreciendo a las grandes corporaciones que controlan modelos cerrados, más fáciles de controlar, pero también más difíciles de verificar y regular. Como señalan los autores, "las diferentes propuestas de políticas regulatorias pueden afectar de manera desproporcionada al ecosistema de innovación". La experiencia con el software libre, como Linux, demuestra el potencial del desarrollo abierto para el crecimiento económico y la independencia tecnológica.

Una regulación excesiva de los modelos abiertos puede inhibir el desarrollo científico, favoreciendo a las grandes corporaciones que controlan modelos cerrados, más fáciles de controlar, pero también más difíciles de verificar y regular

El caso de AlphaFold —un sistema de predicción de estructura de proteínas— ejemplifica este dilema. AlphaFold 2, de acceso abierto, revolucionó la biología y es el objeto directo del reciente Nobel de Química. Sin embargo, el siguiente sistema —AlphaFold 3, con capacidades en el campo de diseño de fármacos—, se mantiene cerrado y solo accesible bajo condiciones restrictivas a través de un servidor que no garantiza la confidencialidad de los datos. Esta decisión de la compañía DeepMind de Google, de la que los dos premiados Denis Hassabis y John Jumper son empleados, contraria al enfoque abierto del otro premiado, el investigador David Baker, de la Universidad de Washington, ha generado un enorme malestar en la comunidad científica.

La publicación de los resultados de AlphaFold 3 en Nature el 8 de mayo de 2024, sin que ni siquiera los revisores de la publicación tuvieran acceso al sistema para verificar los resultados publicados, contradice los principios básicos de la publicación científica, y ha sido denunciada. Así expresaba su decepción nuestra comunidad investigadora en una carta abierta dirigida a los editores de Nature, y que suscribimos más de 1.000 científicos: “Aunque AlphaFold3 amplía las capacidades de AlphaFold2 (…), se publicó sin los medios necesarios para probar y utilizar el software de forma eficiente. Esto no se ajusta a los principios del progreso científico, que se basan en la capacidad de evaluar, utilizar y desarrollar el trabajo existente. La publicación de alto nivel anuncia capacidades que permanecen ocultas tras las puertas de la empresa matriz”. 

Parece abrirse un nuevo camino en el que las grandes corporaciones están dispuestas a subvertir el sistema de publicaciones científicas a medida de sus necesidades, como parecen indicar acciones adicionales de Google DeepMind

La justificación que dio más tarde Nature en un editorial, basada en preocupaciones de bioterrorismo, resulta poco convincente cuando sabemos que la comunidad científica reproducirá los resultados en unos pocos meses. Una lamentable situación que parece abrir un nuevo camino en el que las grandes corporaciones están dispuestas a subvertir el sistema de publicaciones científicas a medida de sus necesidades, como parecen indicar acciones adicionales de Google DeepMind.

En conclusión, la ola actual de la inteligencia artificial es un fenómeno disruptivo. Su enorme potencial transformador suscita una lícita preocupación social que puede acabar transformándose en regulaciones que limiten el desarrollo de modelos abiertos necesarios para la investigación, independencia tecnológica y desarrollo económico —como los que el Barcelona Supercomputing Center-Centro Nacional de Supercomputación desarrolla—, favoreciendo modelos cerrados controlados por grandes corporaciones americanas.

Image
Alfonso Valencia
Sobre el/la autor/a: Alfonso Valencia

Profesor ICREA y director de Ciencias de la Vida en el Centro Nacional de Supercomputación de Barcelona​ (BSC)

Las 5W +1
Publica
FAQ
Contacto