inteligencia artificial

inteligencia artificial

Una IA permite diagnosticar enfermedades inmunológicas

Según un nuevo estudio publicado en Science, un sistema de inteligencia artificial (IA) basado en aprendizaje automático —denominado Mal-ID— puede descifrar el historial de infecciones y enfermedades del sistema inmunitario de un individuo. Los autores afirman que esto supone una potente herramienta con potencial para diagnosticar con precisión trastornos autoinmunitarios, infecciones víricas y respuestas a vacunas.  

0

Meta diseña un modelo de inteligencia artificial capaz de traducir de forma instantánea de voz a voz

Un modelo de inteligencia artificial (IA) liderado por la compañía Meta es capaz de traducir voz y texto, incluidas traducciones directas de voz a voz, de hasta 101 idiomas en algunos casos. Según el equipo investigador, este modelo —denominado SEAMLESSM4T— puede allanar el camino hacia traducciones universales rápidas “con recursos que se pondrán a disposición del público para uso no comercial”. El trabajo se publica en la revista Nature

0

La expansión de la IA generativa podría generar hasta cinco millones de toneladas de basura electrónica

El desarrollo de la inteligencia artificial generativa y, en particular, de los modelos lingüísticos de gran tamaño, podría generar entre 1,2 y 5 millones de toneladas de basura electrónica acumulada entre 2020 y 2030, según estima un estudio publicado en Nature Computational Science. El análisis calcula la masa de basura generada por elementos del hardware, como las unidades de procesamiento, de almacenamiento y los sistemas de alimentación. 

0

Crean una herramienta capaz de añadir una marca de agua a textos generados por IA para detectarlos

Un estudio publicado en la revista Nature describe una herramienta capaz de insertar marcas de agua en el texto generado por grandes modelos lingüísticos —sistemas de inteligencia artificial (IA)—, mejorando así su capacidad para identificar y rastrear contenidos creados artificialmente. La herramienta utiliza un algoritmo de muestreo para sesgar sutilmente la elección de palabras del modelo, insertando una firma que pueda ser reconocida por el software de detección. 

0

Inteligencia artificial abierta o cerrada: así se resiente la ciencia cuando la tecnología queda en manos de las grandes empresas

Dos de los premiados con el Nobel de Química 2024 son empleados de Google DeepMind que en mayo generaron un enorme malestar entre sus colegas. Hassabis y Jumper anunciaron en Nature los resultados de su modelo AlphaFold 3, con aplicaciones en diseño de fármacos; pero lo publicaron cerrado, sin que ni siquiera los revisores tuvieran acceso al sistema, lo que contradice los principios básicos de la publicación científica. Corremos el riesgo de que el potencial transformador de la IA quede controlado por las grandes tecnológicas.

1

Nobel de Química para Baker, Hassabis y Jumper por el diseño computacional de proteínas y la predicción de su estructura

La Real Academia de Ciencias de Suecia ha concedido el Premio Nobel de Química 2024, por una parte, a David Baker por el diseño computacional de proteínas, lo que permite construir proteínas con funciones no presentes en la naturaleza. Por otra parte, conjuntamente a Demis Hassabis y John M. Jumper de Google DeepMind, por del desarrollo de AlphaFold2, que permite predecir con gran velocidad la estructura de los 200 millones de proteínas conocidas. 

0

Nobel de Física para Hinton y Hopfield por descubrir las bases del aprendizaje automático con redes neuronales artificiales

La Real Academia de Ciencias de Suecia ha concedido el Premio Nobel de Física 2024 a los investigadores John J. Hopfield y Geoffrey E. Hinton por descubrir las bases fundacionales que permiten el aprendizaje automático con redes neuronales artificiales. Esta tecnología, inspirada en la estructura del cerebro, es la que está detrás de lo que hoy llamamos “inteligencia artificial”. 

0

Empeora la fiabilidad de los grandes modelos de lenguaje, como la IA generativa

Los grandes modelos de lenguaje –sistemas de Inteligencia Artificial (IA) basados en aprendizaje profundo, como la IA generativa que es ChatGPT– no son tan fiables como los usuarios esperan. Es una de las conclusiones de una investigación internacional publicada en Nature en la que participan investigadores de la Universidad Politécnica de Valencia. Según los autores, en comparación con los primeros modelos y atendiendo a ciertos aspectos, la fiabilidad ha empeorado en los modelos más recientes, como por ejemplo GPT-4 respecto a GPT-3. 

0

La nueva IA de AstraZeneca podría predecir más de mil enfermedades antes del diagnóstico

Un estudio publicado hoy en Nature Genetics analiza la nueva herramienta de AstraZeneca, MILTON, que utiliza inteligencia artificial para detectar biomarcadores y predecir enfermedades antes de que sean diagnosticadas. Según este análisis, la herramienta podría llegar a predecir más de mil enfermedades y ser incluso más eficaz que las escalas disponibles para medir el riesgo poligénico. 

0

Los modelos de IA entrenados con datos generados por IA pueden colapsar

El uso de conjuntos de datos generados por inteligencia artificial (IA) para entrenar futuras generaciones de modelos de aprendizaje automático puede contaminar sus resultados, un concepto conocido como ‘colapso del modelo’, según un artículo publicado en Nature. La investigación muestra que, en unas pocas generaciones, el contenido original se sustituye por tonterías sin relación, lo que demuestra la importancia de utilizar datos fiables para entrenar los modelos de IA. 

0