Un equipo de investigadores de la Universidad de California (EEUU) ha analizado la presencia de discursos de odio en la red social X (antes Twitter) desde su compra por parte de Elon Musk en octubre de 2022 hasta junio de 2023. Sus conclusiones son que este tipo de discursos racistas, homófobos y transfóbicos aumentaron aproximadamente en un 50 % durante todo este periodo. Además, la presencia de bots y cuentas falsas no se redujo, en contra de lo prometido por el propio Musk. Los resultados se publican en la revista Plos One.

Gayo - Musk
Daniel Gayo Avello
Profesor titular de la Universidad de Oviedo en el área “Lenguajes y Sistemas Informáticos”
El artículo analiza la prevalencia del discurso de odio y de cuentas ‘falsas’ en Twitter (ahora X) tras su compra por parte de Elon Musk.
Para ello se analizaron datos desde principios de 2022 hasta mediados de 2023. La entrada de Elon Musk con el lavabo en las oficinas de Twitter tuvo lugar el 22 de octubre de 2022 y marcó gráficamente su toma de posesión de la plataforma; en consecuencia, el dataset cubre de manera más que razonable la situación de la plataforma con anterioridad a la compra y durante un período de tiempo más que suficiente para que los cambios de Elon tanto en la plataforma como entre el personal, así como su actitud de troll-in-chief ‘permeasen’ entre los usuarios.
Los autores del estudio encontraron un aumento significativo del discurso de odio manifestado como racismo, homofobia y transfobia, junto con mayor interacción de los usuarios con ese tipo de contenidos.
El estudio no muestra reducción alguna en la actividad de cuentas falsas (como bots) e, incluso, señalan que podría haber aumentado.
Los resultados contradicen muchas de las afirmaciones de Elon Musk en relación la reducción de la actividad de cuentas ‘falsas’ tras su entrada en la empresa y la implementación de sus cambios.
De manera global el estudio es sólido, y el hecho de que Kristina Lerman lo firme es una garantía de calidad, habida cuenta las enormes limitaciones que existen para estudiar Twitter desde su compra por parte de Elon Musk. El enfoque longitudinal seguido, aun cuando no permite hacer afirmaciones de causalidad (por ejemplo, no podemos ‘acusar’ a Elon Musk de ser el culpable de los nuevos problemas en Twitter ni de pretenderlos de manera intencionada), sí muestra claramente que hay un cambio a peor en el discurso y toxicidad de la plataforma tras la compra.
La captura de datos se realizó con la Twitter API for Academic Research, lo que garantiza una recolección de datos sistemática y transparente dentro de las limitaciones establecidas por la propia compañía. Es preciso señalar que el acceso académico cesó en torno al 21 de septiembre de 2023; es posible que este sea uno de los últimos estudios extensos que se hayan realizado con el API académico y que, a día de hoy, un estudio de esta índole sea básicamente imposible de realizar.
Por lo que respecta a los métodos utilizados para detectar discurso de odio o cuentas ‘falsas’ son razonables, en el sentido que cualquier investigador que afrontase este tipo de investigación utilizaría enfoques similares. Por supuesto, esto no significa que sean a ‘prueba de balas’. El uso de un diccionario para encontrar tuits con discurso de odio y luego pasarlos por el API de Perspective (un servicio de detección de contenido tóxico) es razonable, pero no tiene una exactitud del 100 %. Es decir, seguramente haya discurso de odio que se haya escapado y puede haber un porcentaje, seguramente pequeño, de textos groseros y malsonantes que hayan sido calificados como discurso de odio.
Con todo y con eso, el enfoque es razonable y estoy seguro de que, de manera agregada, los indicadores de aumento de discurso de odio son correctos.
Por lo que respecta a la detección de cuentas ‘falsas’, un enfoque basado en la detección de campañas coordinadas es lo más razonable según la literatura reciente, en lugar de tratar de determinar de forma simplista si una cuenta individualmente es o no un bot.
El trabajo coincide a grandes rasgos con otras investigaciones anteriores centradas en la misma cuestión —a saber, cambios en la toxicidad de Twitter tras la compra por parte de Musk— en dos sentidos:
- Muestra un aumento en el discurso de odio (aunque no tan extremo como, por ejemplo, Hickey et al. Auditing Elon Musk’s impact on hate speech and bots). Los autores de este estudio argumentan que la diferencia se debe a que Hickey et al. incluyeron en su léxico la palabra "retarded" que ahora mismo se usa a modo de insulto por parte de usuarios de derechas pero no debería considerarse (según los autores) como discurso de odio hacia ningún grupo minoritario.
- La actividad de cuentas inauténticas no se ha reducido de manera sensible y, de hecho, puede haber aumentado (en particular entre cuentas que publican sobre criptomonedas).
Por lo que respecta a las novedades interesantes de este trabajo:
- El período de tiempo analizado es mucho más largo, tanto en la etapa anterior a la compra por parte de Elon Musk como en su etapa como CEO de la empresa; estudios de índole social (y este no deja de serlo) son más robustos cuando los períodos objeto de estudio son más dilatados.
- El estudio de cuentas inauténticas emplea distintas métricas para su detección, lo cual ofrece una mayor robustez a los hallazgos.
- El discurso de odio no se analiza de manera monolítica sino en distintas dimensiones (racismo, homofobia y transfobia), encontrando que el discurso tránsfobo es el que experimento un mayor crecimiento (nota: Elon Musk ha hecho muchos comentarios que han sido interpretados como transfóbicos).
- Confronta abiertamente las afirmaciones de Elon Musk con los resultados de los investigadores.
- Tiene en cuenta eventos externos que pudieron jugar algún papel en los cambios del discurso de odio (por ejemplo, un anuncio de cerveza protagonizado por una mujer trans).
Por lo que respecta a las implicaciones:
- Permite argumentar que tener plantillas de moderación de contenidos (Elon Musk despidió a la mayor parte, creo recordar) tiene un impacto positivo en la plataforma al mantener razonablemente a raya el discurso de odio.
- Confirma empíricamente las ‘sensaciones’ (y decisiones) de muchas personas y organizaciones de que la toxicidad y el odio en Twitter han aumentado y lo convierten en una plataforma insana donde es preciso valorar estar o no.
- A falta de otros estudios que enfoquen el aumento de este tipo de discurso (racista, homófobo y tránsfobo) en otros medios (por ejemplo, prensa tradicional), en las cámaras legislativas (por ejemplo, en las actas del Congreso o el Senado de EEUU) o incluso el incremento en los crímenes de odio, tan solo se pueden hacer ‘cábalas’ sobre el impacto en el mundo real de este incremento. No obstante, el aumento del discurso de odio en redes sociales puede influir en la agenda pública y en actitudes offline, lo que debería suscitar preocupación sobre el posible impacto (y daño) sobre personas de los grupos objeto del odio.
En cuanto a las limitaciones:
- Solo se analizó discurso en inglés, con lo cual nada se puede decir del aumento del discurso de odio ni de la actividad inauténtica en otras culturas. La elección del idioma, no obstante, es razonable habida cuenta que, vista a posteriori, la compra de Twitter podría estar relacionada con las elecciones en EEUU. En ese sentido hay que señalar que, aunque mayoritariamente los tuits en inglés seguramente fuesen de ciudadanos de EEUU, también habría presencia de usuarios de otros países.
- El análisis de discurso de odio se centró en discurso claramente odioso (toxicidad según el API de Perspective superior o igual a 0,7); los propios autores destacan que el estudio del discurso de odio más sutil/sibilino estaría por hacer.
- El estudio de actividad coordinada e inauténtica podría refinarse.
- El estudio depende enormemente de herramientas de terceros como el API de Perspective o Botometer (el cual ha sido criticado abiertamente, véase aquí)
- Aparentemente, los autores ya vieron cambios y limitaciones en el acceso académico durante la realización de su estudio (ver página 6 del artículo).
No obstante, debo insistir en que muchas de las limitaciones no son inherentes a este estudio sino a cualquier estudio realizado sobre Twitter y que, en consecuencia, son inevitables.
En resumidas cuentas, me parece un estudio robusto, interesante, que aporta argumentos contundentes sobre el discurso del odio y la toxicidad en Twitter en el ámbito de EEUU tras la compra de Elon Musk.
Amalia - Musk
Amalia Álvarez Benjumea
Investigadora en el Instituto de Políticas y Bienes Públicos del CSIC (IPP-CSIC)
Este estudio supone un avance sobre investigaciones previas porque analiza un periodo más largo en X desde la compra de Twitter por Elon Musk, lo que permite a los investigadores comparar el contenido de la plataforma con el mismo periodo anterior a la compra. En términos generales, los resultados muestran que el discurso de odio aumenta en X tras la compra de la plataforma y lo hace en distintos ámbitos, como racismo, homofobia y transfobia, así como también aumenta el engagement con estos mensajes. Sin embargo, la mayor limitación del estudio es que no puede establecer una relación causal directa entre este aumento del odio y la compra de la plataforma o los cambios en sus políticas de moderación, ya que no cuenta con un grupo de comparación adecuado. Los resultados cuantifican el aumento de los mensajes de odio, pero este crecimiento puede deberse a eventos específicos, efectos de llamada o cambios en la composición de los usuarios de X.
Además, los autores utilizan el número de likes en publicaciones de odio como un indicador de engagement, pero dado que las políticas sobre quién puede ver y dar like habían cambiado durante el periodo analizado, la comparación no es del todo precisa. También hay limitaciones en la metodología empleada para detectar el contenido de odio: el estudio usa un método basado en buscar palabras de un listado predeterminado (dictionary-based method), que, si bien es útil para analizar grandes volúmenes de datos, tiene problemas importantes. Por un lado, este enfoque depende de listas predefinidas de palabras consideradas ofensivas, lo que puede generar falsos positivos si se identifican términos fuera de contexto (por ejemplo, una palabra que es ofensiva en un contexto, pero no en otro). Por otro lado, puede haber falsos negativos, ya que el lenguaje es flexible y cambia con el tiempo; el odio puede expresarse de manera sutil o mediante eufemismos que no están en el listado de palabras usado para la clasificación. Aun así, el estudio es relevante porque muestra un aumento dramático en la cantidad de mensajes con contenido de odio en la plataforma.
Walter - Musk
Walter Quattrociocchi
Director del Laboratorio de Datos y Complejidad para la Sociedad de la Universidad de Roma La Sapienza (Italia)
Este estudio analiza las tendencias del discurso del odio en X y sugiere un aumento tras su adquisición por parte de Elon Musk. Utiliza herramientas de clasificación automática basadas en léxicos y métricas de compromiso [engagement], que son habituales en las ciencias sociales computacionales pero que tienen limitaciones inherentes.
-
Contribuciones clave:
El estudio ofrece una perspectiva temporal útil sobre los cambios en la moderación de contenidos y sus posibles efectos en la prevalencia de la incitación al odio.
Se suma al debate en curso sobre el papel de las políticas de las plataformas en la configuración del discurso en línea.
-
Contexto más amplio y limitaciones:
Una sólida investigación ha demostrado que la toxicidad en línea sigue patrones persistentes a través de diferentes plataformas y períodos de tiempo, impulsada más por la dinámica de la interacción humana que por las políticas específicas de la plataforma.
Los clasificadores automatizados, como los utilizados en este estudio, pueden introducir sesgos y tener problemas con los matices contextuales, lo que puede dar lugar a una clasificación errónea del discurso.
La correlación no implica causalidad: aunque el estudio identifica un aumento del discurso de odio, atribuirlo directamente a la adquisición de Musk requiere un diseño experimental más controlado.
El análisis se limita a contenidos en inglés, lo que puede no reflejar las tendencias globales de la plataforma.
-
Reflexiones finales:
Aunque este estudio contribuye al debate sobre la gobernanza y la moderación en las plataformas, investigaciones más amplias sugieren que los comportamientos tóxicos son notablemente estables a lo largo del tiempo, independientemente de los cambios en las políticas específicas de las plataformas. Los estudios futuros deberían incorporar perspectivas multiplataforma y multilingües para comprender plenamente la dinámica de la incitación al odio en los espacios en línea.
- Artículo de investigación
- Revisado por pares
- Estudio observacional
Hickey et al.
- Artículo de investigación
- Revisado por pares
- Estudio observacional