Las comunidades de odio a menudo han florecido en línea durante años, lo que plantea la cuestión de cómo sobreviven. Mi equipo de investigación descubrió que las narrativas poderosas envalentonan a los miembros de los grupos de odio, ya sea repitiendo la historia una y otra vez o agregando constantemente nuevas acusaciones e interpretaciones.
Soy un científico social computacional que estudia las redes sociales y políticas. Mis colegas y yo descubrimos estas tendencias examinando 10 años de publicaciones, reacciones y patrones de participación en grupos de Facebook que compartían contenido antisemita e islamófobo. Nuestros hallazgos fueron aceptados en la Conferencia Internacional sobre Web y Redes Sociales de 2026.
Primero, medimos quién publica y cómo se relaciona eso con la participación en el sitio. Los grupos donde un pequeño número de personas producían la mayor parte del contenido atrajeron más reacciones y respuestas. Luego analizamos los temas que estaban discutiendo los miembros del grupo (religión, inmigración, geopolítica) y los tipos de historias que contaban sobre esos temas, como describir a todo un grupo de personas como criminales o advertir que ciertos tipos de personas se están apoderando secretamente del modo de vida de un país.
Cuando juntamos estas piezas, descubrimos algunos patrones claros. Los mensajes publicados por algunas personas muy activas se asociaron fuertemente con una mayor participación en el sitio en forma de “me gusta” y acciones compartidas en el futuro cercano. Y la repetición (tomar las mismas ideas una y otra vez) fue una táctica eficaz. También descubrimos que cuando muchos usuarios seguían añadiendo nuevas acusaciones, teorías de conspiración y explicaciones, el grupo tendía a persistir. El contenido muy uniforme que utilizaba el mismo encuadre generó una menor participación con el tiempo.
Diferentes comunidades parecían sentirse atraídas por diferentes patrones de mensajería. En los grupos islamófobos, los carteles más prolíficos tendían a repetir un conjunto limitado y coherente de mensajes. A menudo se trataba de publicaciones con un marco religioso que presentaban a los musulmanes como moralmente condenados. En los grupos antisemitas, los miembros más activos tienden a transmitir una mezcla de narrativas, desde historias de victimización hasta teorías de conspiración sobre figuras públicas.
Una mujer protesta después de que un vendedor de mantones de Cachemira fuera atacado en India el 31 de enero de 2026. NurPhoto vía Getty Images
Nuestros hallazgos sugieren que las comunidades de odio pueden mantenerse de diferentes maneras, por lo que los intentos de mitigarlas deberían tener en cuenta estas variaciones. Si varias voces dirigen la conversación, eliminarlas podría silenciar el ruido. Si siguen apareciendo nuevas historias de muchos contribuyentes, las ideas dañinas pueden sobrevivir incluso si se eliminan algunas cuentas clave en línea. Las redes de odio pueden persistir incluso después de que las plataformas de redes sociales prohíban ciertos grupos o cuentas.
También es importante comprender cómo las historias pueden hacer que los prejuicios sean justificables y emocionalmente convincentes. Las narrativas extremistas pueden afirmar que el grupo está bajo ataque, que los forasteros son peligrosos o infrahumanos, o que la violencia es la única forma de mantenerse a salvo. Los grupos vistos como forasteros –como los inmigrantes– son objetivos comunes y pueden describirse como una “invasión” que amenaza a la nación.
¿Qué otras investigaciones se están realizando?
Los investigadores encuentran que las ideas extremistas ahora se difunden a través de redes más flexibles donde contribuyen muchas voces y los mensajes pueden variar ampliamente. Esto podría afectar si el compromiso futuro continúa dependiendo de la repetición o novedad constante. Algunos investigadores también examinan cómo evolucionan con el tiempo el lenguaje dañino, las teorías de conspiración y la propaganda.
¿Qué sigue?
Otra dirección importante es monitorear cómo las figuras públicas y personas influyentes difunden las narrativas de odio, cómo las narrativas se mueven entre plataformas en línea y cómo aparecen en grupos fuera de línea y los esfuerzos para organizar a sus seguidores, todo lo cual puede normalizar ideas dañinas. Mi grupo está empezando a estudiar cómo funciona esta amplificación: quién comparte qué narrativas y por qué, qué tipos de personas se convierten en puentes entre diferentes plataformas en línea y cómo esos roles dan forma a los mensajes que se difunden.
El Research Brief es una breve descripción de trabajos académicos interesantes.
Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US
Suscríbete y recibe las últimas entradas en tu correo electrónico.


