Autor/es reacciones

Pablo Haya Coll

Investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (UAM) y director del área de Business & Language Analytics (BLA) del Instituto de Ingeniería del Conocimiento (IIC)

Durante siglos las mujeres han estado excluidas de la esfera pública. No ha sido hasta después de la Revolución Francesa que esta situación se empezó a revertir, aunque el eco de sus consecuencias resuena hasta nuestros días. El artículo añade una evidencia más sobre cómo esta asimetría ha influido en el lenguaje en favor de una asociación del concepto ‘persona’ con el concepto ‘hombre’ más fuerte que con el concepto ‘mujer’.

El poder detectar sesgos de género computacionalmente es un aviso en el desarrollo de sistemas de Inteligencia Artificial. Estos sistemas aprenden a partir de los datos vinculando diferencias en el uso del lenguaje con las predicciones del modelo. Dependiendo de la aplicación pueden contravenir principios éticos y legales, lo cual implica incluir medidas paliativas. No obstante, hay que tener en cuenta que existen aplicaciones donde los sesgos pueden ser beneficiosos, como a la hora de detectar enfermedades que tienen distinta prevalencia por género. 

Este trabajo demuestra el potencial de técnicas computacionales y estadísticas para analizar inmensos volúmenes de textos. Ahora bien, hay que seguir profundizando en las conclusiones del artículo. Grandes volúmenes de datos no garantizan la representatividad de los mismos. Sería interesante ampliar el horizonte temporal para entender si los sesgos detectados están aumentando o disminuyendo. Y, finalmente, pasar de un análisis basado en correlaciones a modelos que capturen relaciones causales. 

En particular, la influencia entre lenguaje y pensamiento es una asociación controvertida que todavía sigue en discusión.

 

ES