inteligencia artificial

inteligencia artificial

Reacciones: acuerdo de las instituciones europeas sobre la ley de inteligencia artificial

Después de largas negociaciones, la Comisión Europea, el Parlamento Europeo y el Consejo de la UE ―que representa a los Estados miembros― llegaban la pasada madrugada a un acuerdo provisional sobre el contenido de la ‘AI Act’, la futura ley que regulará el desarrollo de la inteligencia artificial en Europa, la primera en todo el mundo. El acuerdo limita el uso de los sistemas de identificación biométrica por las fuerzas de seguridad, recoge normas para modelos de IA generativa como ChatGPT y contempla multas que pueden llegar a los 35 millones de euros a quien vulnere las normas, entre otras medidas. El texto ahora deberá ser adoptado formalmente por el Parlamento y el Consejo antes de convertirse en legislación de la UE. 

 

 

0

Reacción: un estudio alerta sobre el desconocimiento hacia los deepfakes en tiempos de guerra

Una investigación ha analizado el discurso relacionado con deepfakes en Twitter en el contexto de la guerra entre Rusia y Ucrania en 2022, estudiando casi 5.000 tuits relacionados con estos vídeos. Los deepfakes son medios sintéticos que mezclan un vídeo original con contenido generado por una inteligencia artificial, a menudo con el fin de imitar a una persona. La investigación, publicada en PLoS ONE, analiza la falta de conocimiento sobre los deepfakes y el escepticismo y la desinformación que pueden surgir cuando medios reales son identificados erróneamente como falsos. Los autores alertan de que los esfuerzos para sensibilizar al público sobre este fenómeno pueden minar la confianza en otros medios legítimos que serán vistos también como sospechosos. 

0

Reacción: un método de inteligencia artificial muestra una capacidad de generalización similar a la humana

En un trabajo publicado en la revista Nature, dos investigadores de la Universidad de Nueva York (EEUU) y de la Universidad Pompeu Fabra de Barcelona afirman haber demostrado que una red neuronal artificial puede tener capacidades de generalización sistemática similares a las humanas, es decir, de aprender nuevos conceptos y combinarlos con los ya existentes. Esta afirmación pone en entredicho la idea de hace 35 años de que las redes neuronales no son modelos viables de la mente humana. 

0

Reacción: diseñan una proteína artificial capaz de degradar microplásticos

Basándose en una proteína de defensa de la anémona de fresa, investigadores del Barcelona Supercomputing Center, el CSIC y la Universidad Complutense de Madrid han diseñado mediante inteligencia artificial y el uso de superordenadores una proteína artificial capaz de degradar micro y nanoplásticos de PET, como los usados en las botellas. Según los autores, su eficacia es entre 5 y 10 veces superior a la de las proteínas usadas en la actualidad y funciona a temperatura ambiente. Los resultados se publican en la revista Nature Catalysis. 

0

Víctimas de la inteligencia artificial

No tenemos tipos penales para castigar la pornografía sintética, ni suficientes medios para hacer las periciales forenses de los teléfonos de las víctimas y los victimarios, ni suficiente personal para tramitar estos procesos con celeridad. Con imponer una limitación de uso a entornos profesionales y virtuosos de las herramientas, solo para desarrolladores conocidos y para productos que no tengan finalidades que atenten contra el orden público, la intimidad ni sean delictivas, sería más que suficiente.

1

Reacción: los deepfakes de voz engañan a los humanos incluso aunque se entrenen para detectarlos

Los deepfakes de voz son voces sintéticas producidas por modelos de aprendizaje automático que pueden parecerse a voces humanas reales. Una investigación publicada en PLoS ONE que contó con medio millar de participantes muestra que estos consiguieron identificar correctamente que no eran voces reales el 73 % de las veces. Los resultados del estudio —realizado en inglés y en mandarín— mostraron solo una ligera mejoría en aquellas personas que fueron entrenadas específicamente para detectar estos deepfakes. 

0

Reacciones: la mamografía apoyada por la IA reduce la carga de trabajo de los radiólogos

Un ensayo aleatorizado realizado con más de 80.000 mujeres suecas ha mostrado que la inteligencia artificial es tan buena como dos radiólogos especializados que trabajen juntos a la hora de detectar cáncer de mama, sin aumentar los falsos positivos y reduciendo la carga de trabajo en casi la mitad. La investigación se publica en The Lancet Oncology.

0

Reacción a dos métodos que usan técnicas de inteligencia artificial para pronosticar el tiempo

Dos investigaciones publicadas en la revista Nature utilizan la inteligencia artificial (IA) para tratar de predecir el tiempo. Uno de los sistemas, entrenado con datos meteorológicos mundiales de casi 40 años, es capaz de pronosticar patrones meteorológicos globales con hasta una semana de antelación. El segundo, denominado NowcastNet, combina reglas físicas y aprendizaje profundo para la predicción inmediata de precipitaciones, incluidas las extremas.  

0

Reacción a una interfaz capaz de reconstruir frases largas a partir de imágenes del cerebro

Un equipo de Estados Unidos ha desarrollado un descodificador de lenguaje no invasivo: una interfaz entre cerebro y ordenador que pretende reconstruir frases completas a partir de imágenes de resonancia magnética funcional (fMRI). Aunque ya existían otros intentos de descodificadores, algunos son invasivos —requieren neurocirugía— y otros no, pero solo identificaban palabras o frases cortas. En este caso, tal y como recoge la revista Nature Neuroscience, el equipo grabó las respuestas cerebrales —registradas con fMRI— de tres participantes mientras escuchaban 16 horas de historias. Los autores usaron estos datos para entrenar el modelo, que luego pudo descodificar otros datos de fMRI de la misma persona escuchando historias nuevas. El equipo sostiene que el modelo entrenado con los datos de una persona no descodifica bien los datos de otra, lo cual indicaría que se requiere la cooperación del sujeto para que funcione.  

0

Reacción: ChatGPT influye a los usuarios con juicios morales contradictorios

Un estudio publicado en Scientific Reports afirma que ChatGPT emite juicios morales contradictorios y que los usuarios se dejan influir por ellos. Los investigadores le hicieron preguntas como: “¿Sería correcto sacrificar a una persona para salvar cinco?”. Según la formulación de la pregunta, ChatGPT respondió a veces a favor del sacrificio y, otras veces, en contra. Los participantes se dejaron influir por las afirmaciones de ChatGPT y subestimaron la influencia del chatbot en su propio juicio. Los autores argumentan que los chatbots deberían ser diseñados para no dar consejos morales y subrayan la importancia de mejorar las competencias de los usuarios. 

0