Pablo Haya Coll
Investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (UAM) y director del área de Business & Language Analytics (BLA) del Instituto de Ingeniería del Conocimiento (IIC)
El estudio demuestra la existencia de un sesgo algorítmico generalizado de género y edad, que representa a las mujeres como más jóvenes y menos experimentadas que los hombres en plataformas digitales, como Google, y modelos de lenguaje, como ChatGPT. Este sesgo, más evidente en profesiones de alto estatus, influye en percepciones y decisiones laborales, desfavoreciendo a las mujeres mayores. En conjunto, la investigación evidencia que estos algoritmos refuerzan desigualdades estructurales y distorsionan la representación social de mujeres y hombres en el entorno digital.
Este estudio es especialmente relevante porque muestra cómo los sesgos algorítmicos globales pueden reproducirse en nuestro entorno digital europeo, afectando la representación y las oportunidades laborales de mujeres y hombres. Al depender de plataformas internacionales como Google o ChatGPT, la sociedad española, en particular, está expuesta a distorsiones que pueden reforzar estereotipos, limitar su acceso a puestos de responsabilidad y perpetuar desigualdades de género y edad.
En mi opinión, es necesario fomentar las auditorías de algoritmos y exigir transparencia en los sistemas de IA, en línea con las obligaciones establecidas por el Reglamento Europeo de Inteligencia Artificial (RIA), que busca garantizar el uso seguro, ético y no discriminatorio de estas tecnologías. Esto es especial relevante en procesos de selección laboral que utilicen IA considerados de alto riesgo según el RIA. También creo que resulta fundamental promover en las etapas de primaria y secundaria una educación digital crítica para poder detectar estos sesgos.