El Gobierno de España y plataformas digitales como Meta, YouTube y TikTok han acordado reunirse trimestralmente para analizar y mejorar la gestión del discurso de odio en redes sociales. Durante una reciente reunión, se presentó el informe anual de 2024 del Observatorio Español del Racismo y la Xenofobia (OBERAXE), que reveló que solo el 35% de los 2.870 contenidos notificados fueron retirados. La ministra de Inclusión, Elma Saiz, destacó la necesidad de un esfuerzo conjunto para frenar la desinformación y el racismo en línea. Además, se discutieron estrategias para implementar la Ley de Servicios Digitales y se propuso una cumbre internacional sobre el odio en redes sociales. El informe también mostró un incremento alarmante en los discursos de odio, con un 70% de contenidos utilizando lenguaje agresivo en 2025.
El Gobierno español ha presentado a las plataformas digitales la memoria anual de monitorización del discurso de odio correspondiente al año 2024, elaborada por el Observatorio Español del Racismo y la Xenofobia (OBERAXE). Este informe revela que se notificaron un total de 2.870 contenidos con carácter racista, de los cuales solo fue retirado el 35%.
En una reunión reciente, donde participaron representantes de Meta, YouTube y TikTok (aunque X no pudo asistir), se estableció el compromiso de mejorar tanto los datos como los tiempos de retirada de contenido relacionado con el odio. Esta colaboración se formalizará a través de reuniones técnicas trimestrales que permitirán analizar la evolución de los mensajes racistas en las redes sociales.
La ministra de Inclusión, Seguridad Social y Migraciones, Elma Saiz, expresó su agradecimiento a las plataformas digitales por su participación en esta reunión. “Hoy retomamos los trabajos del grupo de colaboración creado el pasado 30 de julio, un espacio pionero en España y sin precedentes en la Unión Europea”, afirmó Saiz. La ministra subrayó la importancia de frenar la desinformación y el discurso de odio en las redes sociales como una tarea colectiva.
Las plataformas y el Ministerio han acordado reunirse cada tres meses y crear grupos internos para abordar cuestiones técnicas relacionadas con la implementación de la Ley de Servicios Digitales (DSA) y para establecer una definición homogénea del "discurso de odio". Las empresas han mostrado su interés por eliminar estos mensajes antes de que sean visibles para los usuarios.
Durante 2024, OBERAXE notificó a cinco plataformas (Facebook, X, Instagram, TikTok y YouTube) un total de 2.870 contenidos considerados discursos de odio racista, xenófobo o antisemita. En 2025, este número ha aumentado considerablemente debido a un nuevo sistema basado en inteligencia artificial llamado Sistema FARO, que ha detectado 614.833 contenidos reportables entre enero y agosto.
A pesar del esfuerzo por retirar contenido ofensivo, los informes indican que el 65% del material reportado en 2024 y el 66%% en la primera mitad de 2025 no fue eliminado por las plataformas. Esto plantea serias dudas sobre la efectividad actual de sus políticas contra el discurso de odio.
Los datos revelan que en 2024, el 35% del discurso de odio se dirigió hacia personas originarias del norte de África. Otros grupos afectados incluyen a personas africanas y afrodescendientes (24%) y una categoría más amplia que abarca inmigrantes (21%). Sin embargo, este enfoque varía según la plataforma utilizada.
En X, el foco principal son las personas del norte de África (30%), mientras que Facebook tiende a dirigir sus ataques hacia inmigrantes generales (42%). Este patrón destaca cómo el contexto digital influye en la naturaleza del discurso odioso.
El informe también señala que el fenómeno del discurso odioso ha evolucionado hacia formas más agresivas. La deshumanización aparece en el 37%% de los casos notificados, mientras que un 29%% incluye incitaciones directas o indirectas a la violencia contra migrantes o personas extranjeras. Además, un 15%% promueve la expulsión del colectivo objetivo.
A medida que avanza 2025, se observa un aumento significativo en los contenidos con lenguaje agresivo: mientras que en 2024 representaban 53%% del total monitorizado, este porcentaje ha crecido hasta alcanzar un alarmante 70%% durante el primer trimestre.
A lo largo de 2024, las plataformas lograron retirar solo el 35%% de los contenidos notificados; sin embargo, apenas un 4%% fue eliminado dentro de las primeras 24 horas tras su reporte. Este tiempo es crucial para evitar la viralización y minimizar el impacto negativo asociado al discurso odioso.
A pesar del marco normativo establecido por la Ley DSA y otras regulaciones internas, sigue siendo insuficiente frente al desafío planteado por el discurso odioso; un preocupante 96%% permanece activo tras ser reportado.
A partir del análisis realizado por OBERAXE sobre los datos recogidos durante 2024, se concluye que la hostilidad hacia personas extranjeras ha dejado atrás su carácter coyuntural para convertirse en un fenómeno estructural arraigado en estereotipos y bulos propagados rápidamente a través de las redes sociales. Esta situación pone en evidencia una base persistente de racismo y xenofobia.
Episodios recurrentes como la vinculación entre inmigración e inseguridad alimentan este tipo de discursos; sin embargo, alrededor del 40%% son percepciones infundadas basadas en información falsa o incidentes descontextualizados. Un claro ejemplo es la catástrofe provocada por DANA el 29 de octubre de 2024, donde se criminalizó injustamente a comunidades específicas.
Sistema FARO, desarrollado gracias a un convenio con LALIGA firmado en 2024, representa una metodología innovadora para monitorear contenidos relacionados con discursos odiosos motivados por razones racistas o xenófobas. Su implementación busca facilitar una respuesta más efectiva ante este creciente problema social.
| Descripción | Cifra |
|---|---|
| Total de contenidos notificados en 2024 | 2,870 |
| Porcentaje de contenidos retirados en 2024 | 35% |
| Porcentaje de contenido retirado en las primeras 24 horas | 4% |
| Total de contenidos reportables detectados entre enero y agosto de 2025 | 614,833 |
El Gobierno ha decidido reunirse trimestralmente con plataformas digitales como Meta, YouTube y TikTok para analizar los discursos de odio y mejorar los datos sobre la retirada de contenidos. Se busca un trabajo colaborativo para frenar la desinformación y el odio en las redes.
En 2024, el Observatorio Español del Racismo y la Xenofobia (OBERAXE) notificó un total de 2.870 contenidos considerados como discurso de odio racista, xenófobo, antisemita, antigitano o islamófobo.
Las plataformas retiraron solo el 35% de los contenidos que fueron notificados, y solo un 4% de esos se retiraron en las primeras 24 horas, lo que es crucial para evitar la viralización del contenido.
Los datos indican que las personas originarias del norte de África son el principal grupo diana del discurso de odio, representando el 35% del total identificado. Otros grupos afectados incluyen a personas africanas y afrodescendientes (24%) y a inmigrantes en general (21%).
Se ha implementado un sistema llamado FARO que utiliza inteligencia artificial para detectar contenidos reportables. Desde enero hasta agosto de 2025, este sistema detectó más de 614.000 contenidos potencialmente problemáticos.
El OBERAXE concluye que el discurso de odio ha dejado de ser un fenómeno coyuntural y se ha consolidado como una manifestación persistente, alimentada por estereotipos y bulos que se propagan rápidamente en las redes sociales.