ética

ética

¿Qué sabemos sobre la mala conducta científica? Guía para informar sobre integridad en la investigación

Según una encuesta llevada a cabo en España, respondida por 403 investigadores en biomedicina, cuatro de cada diez admiten haber cometido algún tipo de mala práctica en su trabajo. La prensa se hace eco regularmente de escándalos en ciencia. Entre los casos más recientes, El País informó de que el CSIC ha abierto un expediente disciplinario a cinco personas por sospechas de recibir dinero a cambio de afiliaciones falsas. Estas malas conductas pueden parecer aisladas, pero reflejan disfunciones más amplias del sistema de investigación. Ofrecemos claves para entender cómo nacen y evolucionan estos casos, y para cubrir sus matices. 

0

Reacciones: cuatro de cada diez investigadores en biomedicina en España admiten malas conductas científicas en un estudio

En un estudio reciente sobre las experiencias de investigadores en biomedicina en España, el 43 % de los encuestados admitieron haber cometido intencionadamente algún tipo de mala conducta científica. La mala práctica más frecuente es la falsa autoría de artículos científicos: 35 % de los 403 encuestados dijeron haber participado en alguna instancia, según el estudio publicado en la revista Accountability in Research. El 10 % declaró una falta de consentimiento informado, y el 3,6 % admitió haber participado al menos una vez en una falsificación o manipulación de datos.  

0

Reacción: ChatGPT influye a los usuarios con juicios morales contradictorios

Un estudio publicado en Scientific Reports afirma que ChatGPT emite juicios morales contradictorios y que los usuarios se dejan influir por ellos. Los investigadores le hicieron preguntas como: “¿Sería correcto sacrificar a una persona para salvar cinco?”. Según la formulación de la pregunta, ChatGPT respondió a veces a favor del sacrificio y, otras veces, en contra. Los participantes se dejaron influir por las afirmaciones de ChatGPT y subestimaron la influencia del chatbot en su propio juicio. Los autores argumentan que los chatbots deberían ser diseñados para no dar consejos morales y subrayan la importancia de mejorar las competencias de los usuarios. 

0

Reacciones: los algoritmos de ChatGPT podrían ayudar a identificar casos de alzhéimer

Los algoritmos de inteligencia artificial que utiliza ChatGPT –el modelo de lenguaje GPT-3 de la compañía OpenAI– pueden identificar rasgos del habla para predecir las primeras fases de la enfermedad de Alzheimer con una precisión del 80 %. Esta enfermedad neurodegenerativa provoca una pérdida de capacidad para expresarse que los algoritmos podrían reconocer, según publica la revista PLOS Digital Health. 

0