inteligencia artificial

inteligencia artificial

La expansión de la IA generativa podría generar hasta cinco millones de toneladas de basura electrónica

El desarrollo de la inteligencia artificial generativa y, en particular, de los modelos lingüísticos de gran tamaño, podría generar entre 1,2 y 5 millones de toneladas de basura electrónica acumulada entre 2020 y 2030, según estima un estudio publicado en Nature Computational Science. El análisis calcula la masa de basura generada por elementos del hardware, como las unidades de procesamiento, de almacenamiento y los sistemas de alimentación. 

0

Crean una herramienta capaz de añadir una marca de agua a textos generados por IA para detectarlos

Un estudio publicado en la revista Nature describe una herramienta capaz de insertar marcas de agua en el texto generado por grandes modelos lingüísticos —sistemas de inteligencia artificial (IA)—, mejorando así su capacidad para identificar y rastrear contenidos creados artificialmente. La herramienta utiliza un algoritmo de muestreo para sesgar sutilmente la elección de palabras del modelo, insertando una firma que pueda ser reconocida por el software de detección. 

0

Inteligencia artificial abierta o cerrada: así se resiente la ciencia cuando la tecnología queda en manos de las grandes empresas

Dos de los premiados con el Nobel de Química 2024 son empleados de Google DeepMind que en mayo generaron un enorme malestar entre sus colegas. Hassabis y Jumper anunciaron en Nature los resultados de su modelo AlphaFold 3, con aplicaciones en diseño de fármacos; pero lo publicaron cerrado, sin que ni siquiera los revisores tuvieran acceso al sistema, lo que contradice los principios básicos de la publicación científica. Corremos el riesgo de que el potencial transformador de la IA quede controlado por las grandes tecnológicas.

1

Nobel de Química para Baker, Hassabis y Jumper por el diseño computacional de proteínas y la predicción de su estructura

La Real Academia de Ciencias de Suecia ha concedido el Premio Nobel de Química 2024, por una parte, a David Baker por el diseño computacional de proteínas, lo que permite construir proteínas con funciones no presentes en la naturaleza. Por otra parte, conjuntamente a Demis Hassabis y John M. Jumper de Google DeepMind, por del desarrollo de AlphaFold2, que permite predecir con gran velocidad la estructura de los 200 millones de proteínas conocidas. 

0

Nobel de Física para Hinton y Hopfield por descubrir las bases del aprendizaje automático con redes neuronales artificiales

La Real Academia de Ciencias de Suecia ha concedido el Premio Nobel de Física 2024 a los investigadores John J. Hopfield y Geoffrey E. Hinton por descubrir las bases fundacionales que permiten el aprendizaje automático con redes neuronales artificiales. Esta tecnología, inspirada en la estructura del cerebro, es la que está detrás de lo que hoy llamamos “inteligencia artificial”. 

0

Empeora la fiabilidad de los grandes modelos de lenguaje, como la IA generativa

Los grandes modelos de lenguaje –sistemas de Inteligencia Artificial (IA) basados en aprendizaje profundo, como la IA generativa que es ChatGPT– no son tan fiables como los usuarios esperan. Es una de las conclusiones de una investigación internacional publicada en Nature en la que participan investigadores de la Universidad Politécnica de Valencia. Según los autores, en comparación con los primeros modelos y atendiendo a ciertos aspectos, la fiabilidad ha empeorado en los modelos más recientes, como por ejemplo GPT-4 respecto a GPT-3. 

0

La nueva IA de AstraZeneca podría predecir más de mil enfermedades antes del diagnóstico

Un estudio publicado hoy en Nature Genetics analiza la nueva herramienta de AstraZeneca, MILTON, que utiliza inteligencia artificial para detectar biomarcadores y predecir enfermedades antes de que sean diagnosticadas. Según este análisis, la herramienta podría llegar a predecir más de mil enfermedades y ser incluso más eficaz que las escalas disponibles para medir el riesgo poligénico. 

0

Los modelos de IA entrenados con datos generados por IA pueden colapsar

El uso de conjuntos de datos generados por inteligencia artificial (IA) para entrenar futuras generaciones de modelos de aprendizaje automático puede contaminar sus resultados, un concepto conocido como ‘colapso del modelo’, según un artículo publicado en Nature. La investigación muestra que, en unas pocas generaciones, el contenido original se sustituye por tonterías sin relación, lo que demuestra la importancia de utilizar datos fiables para entrenar los modelos de IA. 

0

Un estudio asegura que los sistemas de IA actuales ya son capaces de engañar y manipular a los humanos

Un artículo de revisión publicado en Patterns afirma que muchas inteligencias artificiales ya han aprendido a engañar a los humanos, incluso las entrenadas para ser honestas. Ponen como ejemplo el modelo CICERO, de Meta, que gana jugando sucio al Diplomacy. Los investigadores describen riesgos potenciales en problemas relacionados con la seguridad, el fraude y la manipulación de elecciones, y llaman a los gobiernos para que elaboren con urgencia normativas estrictas. 

0

Reacciones: el presidente del Gobierno anuncia el diseño de un modelo fundacional de lenguaje de inteligencia artificial entrenado en español

El presidente del Gobierno, Pedro Sánchez, anunció anoche en la cena de bienvenida del GSMA Mobile World Congress (MWC) Barcelona 2024, la construcción de un modelo fundacional de lenguaje de inteligencia artificial, entrenado en español y lenguas cooficiales, en código abierto y transparente, y con la intención de incorporar a los países iberoamericanos. Para su desarrollo, el Gobierno va a trabajar con el Barcelona Supercomputing Center y la Red Española de Supercomputación, junto con la Academia Española de la Lengua y la Asociación de Academias de la Lengua Española. 

0