El Ministerio de Inclusión, Seguridad Social y Migraciones ha convocado a los representantes de las principales plataformas digitales, como Meta, X, TikTok y Google, para abordar el alarmante aumento de los discursos de odio en las redes sociales. Durante este encuentro, la ministra Elma Saiz destacó la importancia de analizar la respuesta y eficacia de estas empresas en la eliminación de contenidos nocivos.
Saiz expresó su gratitud hacia los asistentes por su interés en participar y aprovechó la ocasión para detallar las iniciativas que se están llevando a cabo desde el Ministerio, a través del Observatorio Español del Racismo y la Xenofobia (OBERAXE), con el objetivo de frenar el discurso de odio dirigido a las personas migrantes. Un ejemplo relevante es el informe sobre los incidentes en Torre-Pacheco.
Creación del grupo de seguimiento
Como resultado de esta reunión, se acordó establecer un grupo de seguimiento permanente que analice periódicamente los discursos de odio en las redes. La colaboración entre todos los actores involucrados es considerada «fundamental» por Saiz, quien subrayó que esta iniciativa carece de precedentes.
«Agradezco a todas las plataformas su disposición para intensificar esfuerzos ante esta ola de odio. El Gobierno no hará oídos sordos, ya que lo que ocurre en las redes tiene repercusiones en la realidad», afirmó la ministra, haciendo referencia al caso mencionado anteriormente.
Análisis y estadísticas preocupantes
El propósito principal del encuentro fue evaluar cómo responden las plataformas y cuáles son las tendencias en la moderación de estos contenidos. Los representantes tecnológicos compartieron sus políticas internas sobre detección y monitorización de campañas de desinformación y discursos de odio.
En 2024, OBERAXE notificó un total de 2.870 contenidos considerados como odio xenófobo y racista que podrían constituir delitos o infracciones administrativas. De este total, solo se retiraron 1.010 contenidos, lo que representa un 35%, una cifra inferior en 14 puntos porcentuales respecto al año anterior.
Desafíos persistentes
En la primera mitad de 2025, gracias al sistema monitor FARO implementado en marzo, se detectaron más de medio millón de discursos de odio. Las plataformas eliminaron el 33% de los reportados, manteniendo un porcentaje similar al del año previo. La ministra Saiz reconoció que estos resultados son insuficientes y enfatizó la necesidad urgente de mejorar tanto la rapidez como la eficacia en la eliminación.
La vía conocida como trusted flagger sigue siendo el mecanismo más efectivo para retirar contenido relacionado con discursos de odio; un 26% fue eliminado tras ser reportado por este método, frente al 9% cuando se realizó desde perfiles normales. Esto resalta la necesidad imperiosa de fortalecer el proceso de denuncia por parte del público general.
Un paso hacia adelante
Finalmente, Saiz instó a las plataformas a reforzar sus mecanismos de moderación para crear entornos digitales libres de odio y racismo. «Hoy hemos dado un gran paso hacia una colaboración vital entre plataformas y autoridades», concluyó.
La noticia en cifras
| Cifra |
Descripción |
| 2,870 |
Total de contenidos de odio notificados en 2024 |
| 1,010 |
Contenidos retirados por las plataformas (35%) |
| 33% |
Porcentaje de contenido reportado retirado en la primera mitad de 2025 |
| 26% |
Porcentaje de eliminación mediante trusted flagger |
Preguntas sobre la noticia
¿Cuál es el objetivo del grupo de seguimiento creado por el Gobierno?
El objetivo del grupo de seguimiento es analizar periódicamente los discursos de odio en las redes sociales y colaborar con las grandes plataformas digitales para crear un entorno digital más seguro y respetuoso.
¿Qué plataformas digitales han sido convocadas a la reunión?
Las plataformas digitales convocadas incluyen Meta, X (anteriormente Twitter), TikTok y Google.
¿Cuántos contenidos de odio fueron notificados en 2024 y cuántos fueron retirados?
En 2024, se notificaron un total de 2.870 contenidos de odio xenófobo y racista, de los cuales las plataformas retiraron 1.010, lo que representa un 35% del total.
¿Cómo ha cambiado la efectividad en la retirada de contenido de odio entre 2024 y 2025?
En la primera mitad de 2025, se ha detectado más de medio millón de discursos de odio y las plataformas han retirado el 33% de los reportados, un porcentaje similar al del año anterior, pero se considera insuficiente.
¿Qué mecanismo se considera más efectivo para la retirada de contenido de discurso de odio?
La vía de trusted flagger se consolida como el mecanismo más efectivo, ya que un 26% de los contenidos notificados a través de este método fueron eliminados, en comparación con solo el 9% cuando la notificación provino de un usuario normal.
¿Qué acciones se están promoviendo para mejorar la moderación del contenido en redes sociales?
Se está animando a las plataformas a fortalecer sus mecanismos de moderación para crear entornos digitales libres de odio y racismo, enfatizando la colaboración entre plataformas y autoridades.