Autor/es reacciones

Daniel Gayo Avello

Profesor titular de la Universidad de Oviedo en el área “Lenguajes y Sistemas Informáticos”

El artículo analiza la prevalencia del discurso de odio y de cuentas ‘falsas’ en Twitter (ahora X) tras su compra por parte de Elon Musk.  

Para ello se analizaron datos desde principios de 2022 hasta mediados de 2023. La entrada de Elon Musk con el lavabo en las oficinas de Twitter tuvo lugar el 22 de octubre de 2022 y marcó gráficamente su toma de posesión de la plataforma; en consecuencia, el dataset cubre de manera más que razonable la situación de la plataforma con anterioridad a la compra y durante un período de tiempo más que suficiente para que los cambios de Elon tanto en la plataforma como entre el personal, así como su actitud de troll-in-chief ‘permeasen’ entre los usuarios. 

Los autores del estudio encontraron un aumento significativo del discurso de odio manifestado como racismo, homofobia y transfobia, junto con mayor interacción de los usuarios con ese tipo de contenidos. 

El estudio no muestra reducción alguna en la actividad de cuentas falsas (como bots) e, incluso, señalan que podría haber aumentado. 

Los resultados contradicen muchas de las afirmaciones de Elon Musk en relación la reducción de la actividad de cuentas ‘falsas’ tras su entrada en la empresa y la implementación de sus cambios. 

De manera global el estudio es sólido, y el hecho de que Kristina Lerman lo firme es una garantía de calidad, habida cuenta las enormes limitaciones que existen para estudiar Twitter desde su compra por parte de Elon Musk. El enfoque longitudinal seguido, aun cuando no permite hacer afirmaciones de causalidad (por ejemplo, no podemos ‘acusar’ a Elon Musk de ser el culpable de los nuevos problemas en Twitter ni de pretenderlos de manera intencionada), sí muestra claramente que hay un cambio a peor en el discurso y toxicidad de la plataforma tras la compra. 

La captura de datos se realizó con la Twitter API for Academic Research, lo que garantiza una recolección de datos sistemática y transparente dentro de las limitaciones establecidas por la propia compañía. Es preciso señalar que el acceso académico cesó en torno al 21 de septiembre de 2023; es posible que este sea uno de los últimos estudios extensos que se hayan realizado con el API académico y que, a día de hoy, un estudio de esta índole sea básicamente imposible de realizar. 

Por lo que respecta a los métodos utilizados para detectar discurso de odio o cuentas ‘falsas’ son razonables, en el sentido que cualquier investigador que afrontase este tipo de investigación utilizaría enfoques similares. Por supuesto, esto no significa que sean a ‘prueba de balas’. El uso de un diccionario para encontrar tuits con discurso de odio y luego pasarlos por el API de Perspective (un servicio de detección de contenido tóxico) es razonable, pero no tiene una exactitud del 100 %. Es decir, seguramente haya discurso de odio que se haya escapado y puede haber un porcentaje, seguramente pequeño, de textos groseros y malsonantes que hayan sido calificados como discurso de odio. 

Con todo y con eso, el enfoque es razonable y estoy seguro de que, de manera agregada, los indicadores de aumento de discurso de odio son correctos. 

Por lo que respecta a la detección de cuentas ‘falsas’, un enfoque basado en la detección de campañas coordinadas es lo más razonable según la literatura reciente, en lugar de tratar de determinar de forma simplista si una cuenta individualmente es o no un bot. 

El trabajo coincide a grandes rasgos con otras investigaciones anteriores centradas en la misma cuestión —a saber, cambios en la toxicidad de Twitter tras la compra por parte de Musk— en dos sentidos: 

  1. Muestra un aumento en el discurso de odio (aunque no tan extremo como, por ejemplo, Hickey et al. Auditing Elon Musk’s impact on hate speech and bots). Los autores de este estudio argumentan que la diferencia se debe a que Hickey et al. incluyeron en su léxico la palabra "retarded" que ahora mismo se usa a modo de insulto por parte de usuarios de derechas pero no debería considerarse (según los autores) como discurso de odio hacia ningún grupo minoritario. 
  2. La actividad de cuentas inauténticas no se ha reducido de manera sensible y, de hecho, puede haber aumentado (en particular entre cuentas que publican sobre criptomonedas). 

Por lo que respecta a las novedades interesantes de este trabajo: 

  • El período de tiempo analizado es mucho más largo, tanto en la etapa anterior a la compra por parte de Elon Musk como en su etapa como CEO de la empresa; estudios de índole social (y este no deja de serlo) son más robustos cuando los períodos objeto de estudio son más dilatados. 
  • El estudio de cuentas inauténticas emplea distintas métricas para su detección, lo cual ofrece una mayor robustez a los hallazgos. 
  • El discurso de odio no se analiza de manera monolítica sino en distintas dimensiones (racismo, homofobia y transfobia), encontrando que el discurso tránsfobo es el que experimento un mayor crecimiento (nota: Elon Musk ha hecho muchos comentarios que han sido interpretados como transfóbicos). 
  • Confronta abiertamente las afirmaciones de Elon Musk con los resultados de los investigadores. 
  • Tiene en cuenta eventos externos que pudieron jugar algún papel en los cambios del discurso de odio (por ejemplo, un anuncio de cerveza protagonizado por una mujer trans). 

Por lo que respecta a las implicaciones: 

  • Permite argumentar que tener plantillas de moderación de contenidos (Elon Musk despidió a la mayor parte, creo recordar) tiene un impacto positivo en la plataforma al mantener razonablemente a raya el discurso de odio. 
  • Confirma empíricamente las ‘sensaciones’ (y decisiones) de muchas personas y organizaciones de que la toxicidad y el odio en Twitter han aumentado y lo convierten en una plataforma insana donde es preciso valorar estar o no. 
  • A falta de otros estudios que enfoquen el aumento de este tipo de discurso (racista, homófobo y tránsfobo) en otros medios (por ejemplo, prensa tradicional), en las cámaras legislativas (por ejemplo, en las actas del Congreso o el Senado de EEUU) o incluso el incremento en los crímenes de odio, tan solo se pueden hacer ‘cábalas’ sobre el impacto en el mundo real de este incremento. No obstante, el aumento del discurso de odio en redes sociales puede influir en la agenda pública y en actitudes offline, lo que debería suscitar preocupación sobre el posible impacto (y daño) sobre personas de los grupos objeto del odio. 

En cuanto a las limitaciones: 

  • Solo se analizó discurso en inglés, con lo cual nada se puede decir del aumento del discurso de odio ni de la actividad inauténtica en otras culturas. La elección del idioma, no obstante, es razonable habida cuenta que, vista a posteriori, la compra de Twitter podría estar relacionada con las elecciones en EEUU. En ese sentido hay que señalar que, aunque mayoritariamente los tuits en inglés seguramente fuesen de ciudadanos de EEUU, también habría presencia de usuarios de otros países. 
  • El análisis de discurso de odio se centró en discurso claramente odioso (toxicidad según el API de Perspective superior o igual a 0,7); los propios autores destacan que el estudio del discurso de odio más sutil/sibilino estaría por hacer. 
  • El estudio de actividad coordinada e inauténtica podría refinarse. 
  • El estudio depende enormemente de herramientas de terceros como el API de Perspective o Botometer (el cual ha sido criticado abiertamente, véase aquí
  • Aparentemente, los autores ya vieron cambios y limitaciones en el acceso académico durante la realización de su estudio (ver página 6 del artículo). 

No obstante, debo insistir en que muchas de las limitaciones no son inherentes a este estudio sino a cualquier estudio realizado sobre Twitter y que, en consecuencia, son inevitables. 

En resumidas cuentas, me parece un estudio robusto, interesante, que aporta argumentos contundentes sobre el discurso del odio y la toxicidad en Twitter en el ámbito de EEUU tras la compra de Elon Musk.

ES