Imágenes y textos online representan a las mujeres como menos experimentadas que los hombres en todas las profesiones
En internet las mujeres profesionales están representadas como más jóvenes —y, por tanto, más inexpertas— que sus compañeros, aunque esta diferencia de edad no corresponda con los datos reales en EE.UU., según un artículo publicado en Nature. Este estudio de estereotipos de género y de edad se basa en un análisis de 1,4 millones de imágenes en cinco plataformas (Google, Wikipedia, IMDb, Flickr y YouTube), además de nueve modelos extensos de lenguaje, como ChatGPT, entrenados con textos provenientes de Reddit, Google News, Wikipedia y Twitter.
251008 sesgo juventud marian ES
Marian Blanco Ruiz
Profesora permanente laboral de Comunicación Audiovisual y Publicidad, coordinadora de la línea de Publicidad y RR.PP. del programa de doctorado Ciencias de la Comunicación
El estudio publicado en Nature sobre la distorsión de edad y género en imágenes y modelos de lenguaje refuerza lo que la investigación de los estudios feministas lleva décadas señalando: la tecnología no es neutral, sino que reproduce, e incluso amplifica, los estereotipos y roles de género culturales preexistentes. La constatación de que las mujeres aparecen representadas como más jóvenes que los hombres en ocupaciones de prestigio refleja un patrón cultural de larga duración, vinculado a lo que Laura Mulvey denominó la ‘mirada masculina’.
Estos resultados confirman, además, lo advertido por los distintos estudios de los feminist technoscience studies: los algoritmos aprenden de un archivo cultural sesgado, organizado en torno a jerarquías de género, raza y clase, entre otras. Lo preocupante es que, al incorporarse en sistemas automatizados con gran autoridad social, tales sesgos no sean solo simbólicos y se conviertan en discriminaciones con efectos reales en la vida cotidiana de las personas, por ejemplo, en el acceso a una cobertura médica, a un alquiler de vivienda o a un puesto de trabajo. Es precisamente esta parte práctica la aportación central de la evidencia de este trabajo. El artículo señala que no solo se representa a las mujeres como más jóvenes, sino que también se las evalúa como menos competentes en comparación con los varones. Este hallazgo demuestra que el ‘efecto Jennifer y John’ continúa estando muy presente en los desarrollos de IA.
Estos resultados, no obstante, cuentan con la limitación del propio método de investigación. Los modelos están también sesgados por las propias herramientas que se emplean; sería interesante complementar este estudio con un análisis cualitativo que incorporase la mirada crítica y que pudiera leer dichos resultados en clave interseccional, ya que los sesgos de género se entrelazan con otros ejes de exclusión, como la clase o la raza, afectando de manera desigual a distintos colectivos. Pero, más allá de la descripción de estas dinámicas de desigualdad, este artículo demuestra que el desafío urgente es diseñar estrategias que cuestionen los supuestos culturales sobre los que se entrenan los modelos de inteligencia artificial y que permitan construir infraestructuras digitales más justas e inclusivas.
251008 sesgo juventud nuria ES
Nuria Oliver
Directora científica y cofundadora de la Fundación ELLIS Alicante
El artículo realiza contribuciones significativas al proporcionar la primera evidencia a gran escala de que el sesgo de género relacionado con la edad es una distorsión generalizada, presente en contenido visual digital (imágenes, vídeos) y en nueve modelos de lenguaje, y que es además es sistemáticamente amplificada por los algoritmos. Según este sesgo, existe una tendencia de asumir que las mujeres son más jóvenes –y por tanto menos experimentadas— que los hombres en relación con sus profesiones o roles sociales.
La relevancia de este estudio radica en la cuantificación rigurosa de este sesgo frente a anclajes objetivos verificables —en particular, datos del Censo de EE.UU. que muestran que no existen diferencias sistemáticas de edad entre mujeres y hombres entre la población trabajadora—, lo que permite superar el debate controvertido sobre la exactitud de los estereotipos. El estudio demuestra de manera causal que las búsquedas de Google Imágenes amplifican la brecha de edad percibida en 5,46 años, y que ChatGPT propaga este sesgo al generar currículos que asumen que las mujeres son más jóvenes y menos experimentadas que los hombres, especialmente en ocupaciones de alto estatus y elevados ingresos.
Esto resalta la necesidad urgente de intervenciones, particularmente dado que el sesgo es más fuerte allí donde las mujeres enfrentan una presión persistente para aparentar juventud (el ‘impuesto de belleza’) y donde las mujeres mayores sufren desventajas en contratación y promoción (edadismo de género). Este trabajo está relacionado con el trabajo realizado desde ELLIS Alicante sobre el sesgo del atractivo y los filtros de belleza (What is beautiful is still good: the attractiveness halo effect in the era of beauty filters), ya que los filtros de belleza tienden a hacer que las personas parezcan más jóvenes (5,87 años en media).
La solidez técnica del artículo es elevada, caracterizada por una metodología a gran escala que combina el análisis de casi 1,4 millones de imágenes y vídeos de Google, Wikipedia, IMDb, Flickr y YouTube, un experimento humano prerregistrado con una muestra representativa a nivel nacional en EE.UU. (n=459), y una auditoría cuantitativa que involucra casi 40.000 currículos generados por ChatGPT. Los métodos están cuidadosamente controlados para generalizar los resultados, incluyendo la comparación con datos censales y el uso de información objetiva sobre la edad como es en el caso de personas famosas.
La principal limitación es que, si bien el estudio confirma la amplificación algorítmica, identificar los mecanismos causales precisos mediante los cuales las normas estéticas específicas de la industria o los sesgos se trasladan a los de IA de generativa sigue siendo un área crítica para investigaciones futuras. También sería importante desarrollar estrategias de mitigación de este sesgo, así como extender el trabajo a otras regiones del mundo ya que tanto la información del censo como los estudios de usuario se han realizado con poblaciones representativas de EE.UU.
251008 sesgos juventud pablo ES
Pablo Haya Coll
Investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (UAM) y director del área de Business & Language Analytics (BLA) del Instituto de Ingeniería del Conocimiento (IIC)
El estudio demuestra la existencia de un sesgo algorítmico generalizado de género y edad, que representa a las mujeres como más jóvenes y menos experimentadas que los hombres en plataformas digitales, como Google, y modelos de lenguaje, como ChatGPT. Este sesgo, más evidente en profesiones de alto estatus, influye en percepciones y decisiones laborales, desfavoreciendo a las mujeres mayores. En conjunto, la investigación evidencia que estos algoritmos refuerzan desigualdades estructurales y distorsionan la representación social de mujeres y hombres en el entorno digital.
Este estudio es especialmente relevante porque muestra cómo los sesgos algorítmicos globales pueden reproducirse en nuestro entorno digital europeo, afectando la representación y las oportunidades laborales de mujeres y hombres. Al depender de plataformas internacionales como Google o ChatGPT, la sociedad española, en particular, está expuesta a distorsiones que pueden reforzar estereotipos, limitar su acceso a puestos de responsabilidad y perpetuar desigualdades de género y edad.
En mi opinión, es necesario fomentar las auditorías de algoritmos y exigir transparencia en los sistemas de IA, en línea con las obligaciones establecidas por el Reglamento Europeo de Inteligencia Artificial (RIA), que busca garantizar el uso seguro, ético y no discriminatorio de estas tecnologías. Esto es especial relevante en procesos de selección laboral que utilicen IA considerados de alto riesgo según el RIA. También creo que resulta fundamental promover en las etapas de primaria y secundaria una educación digital crítica para poder detectar estos sesgos.
- Artículo de investigación
- Revisado por pares
Douglas Guilbeault et al.
- Artículo de investigación
- Revisado por pares