Cómo la inteligencia artificial está reviviendo los estereotipos racistas y la desinformación, y por qué la verificación de hechos no es suficiente

ANASTACIO ALEGRIA
10 Lectura mínima

Desde cualquier punto de vista, 2025 es el año en el que la inteligencia artificial (IA) cambiará rápidamente la forma en que trabajamos, interactuamos entre nosotros y colaboramos con el mundo en general. También hizo innegable la perdurable realidad del racismo y los límites de la verificación de datos en la era de la desinformación.

Gracias a los sistemas algorítmicos, las narrativas que aprovechan miedos y ansiedades profundamente arraigados viajan más lejos y más rápido que nunca. Dan la vuelta al mundo antes de que los verificadores de datos puedan detectar una publicación problemática.

La segunda mitad del año vio otra disrupción tecnológica con Sora de OpenAI, un software de generación de vídeo realista. Al parecer, nada era inmune, ni siquiera la política.

Sora afectó especialmente al panorama político durante el cierre del gobierno federal más largo en la historia de Estados Unidos. El estancamiento de 43 días ha causado una presión significativa y una controversia pública, particularmente por la incertidumbre y los retrasos que podrían afectar el Programa de Asistencia Nutricional Suplementaria (SNAP).

Blackface digital y la vigilancia de la pobreza negra

En medio de las preocupaciones sobre los efectos del cierre de los beneficios de SNAP, que atienden a aproximadamente 42 millones de estadounidenses, una avalancha de videos cortos de mujeres negras hablando con trabajadores de servicios sociales o expresando sus frustraciones en una audiencia en vivo ha llamado la atención de la esfera en línea.

La suspensión del SNAP fue finalmente bloqueada por los tribunales. También se descubrió rápidamente que los clips circulantes fueron generados por IA.

En la tensa economía de la atención digital, y gracias a los sistemas algorítmicos, las narrativas que aprovechan miedos y ansiedades profundamente arraigados viajan más lejos y más rápido que nunca. (desinstalar)

Lo más sorprendente de estos vídeos es cómo se monta deliberadamente la caricatura de la “Reina Negra del Bienestar”. En un vídeo, un orador declara: “Necesito SNAP para comprar un iPhone. En otro, ‘Estoy comiendo solo un bistec, necesito fondos’. Y en el vídeo con los niños de fondo, la mujer insiste: “Tengo que arreglarme las uñas”.

Cualquier expresión de malversación de fondos es una abreviatura de la supuesta irresponsabilidad y deficiencia moral que durante mucho tiempo ha estado entrelazada con el tropo racista de la “reina negra del bienestar”. Un usuario de X llamó acertadamente a estos videos nada más que “cara negra digital”.

Según las escritoras feministas negras Moya Bailey y Trudy, estos videos transmiten “misoginoir”, un término desarrollado para abarcar “las formas en que la lucha contra la negritud y la misoginia se combinan para denigrar a las mujeres negras”. Bailey y Trudy señalan que las representaciones de las mujeres negras como indignas, una carga para el erario público e inherentemente falsas están más arraigadas que excepcionales.

Incluso los clips “claramente con marcas de agua de Sora han obtenido casi 500.000 visitas sólo en TikTok”, señaló el periodista Joe Wilkins. Wilkins continúa explicando que incluso cuando a los espectadores se les dijo que los videos fueron generados por IA, algunos insistieron (“Pero eso es lo que está pasando”. Algunos argumentaron que incluso si los videos eran técnicamente “falsos”, todavía “destacan los problemas reales con SNAP”.

Estos comentarios revelan los límites de la verificación de hechos como antídoto contra la desinformación, especialmente cuando se trata de tropos cargados. Una vez que el encuadre dañino se revive y se empuja al éter colectivo, Ctrl+Alt+Suprimir se vuelve ineficaz.

Lo que requiere atención, entonces, no es sólo cómo nos enfrentamos al nuevo terreno de la desinformación impulsada por la IA, sino también cuestionar críticamente por qué ciertas representaciones tienen una resonancia masiva.

¿Por qué ciertas imágenes y narrativas viajan tan bien?

De un caso de fraude resuelto a un espectáculo viral

Otro caso de blackface digital que llamó la atención del público se centró en la saga “Black Fraud Alert” de Somalia en Minnesota. Aunque todavía tiene sus raíces en la misma lucha contra la negritud que animaba las caricaturas de la “Reina Negra del Bienestar”, este incidente incluyó islamofobia y un creciente sentimiento antiinmigrante.

Tres hombres negros sostienen sus teléfonos y hablan.

La sociedad necesita lidiar con el nuevo terreno de la desinformación impulsada por la IA y cuestionar críticamente por qué ciertas representaciones tienen una resonancia masiva. (desinstalar)

El caso se remonta al plan de abuso de la era COVID de 2022, que ya ha dado lugar a arrestos y condenas. El plan estaba dirigido por Aimee Marie Bock, una mujer blanca, e involucraba a una red de habitantes de Minnesota, muchos de los cuales eran de ascendencia somalí.

En diciembre de 2025, el presidente estadounidense Donald Trump revivió el caso resuelto, convirtiéndolo en un arma y vinculándolo con su antiguo desprecio por los “países del tercer mundo” y la gente de los “países de mierda”. Esta retórica también se tradujo en su hostilidad hacia sus oponentes políticos, el gobernador de Minnesota, Tim Walz, y la congresista Ilhan Omar.

Lo que siguió no fue una discusión seria sobre fraude o políticas de salvaguardia. En cambio, el episodio reavivó los debates sobre el nacionalismo blanco, la ciudadanía racial y la eugenesia racial.

El llamado de Trump a deportar a los somalíes a través de ICE, declarando “No los quiero en nuestro país”, hizo explícita esta lógica. El hecho de que la mayoría de los somalíes de Minnesota tengan ciudadanía estadounidense, lo que equivale a una tasa de ciudadanía del 84 por ciento, hizo poco para alterar la narrativa racista que se estaba propagando.

Poco después de los comentarios del presidente, AI amplió el contenido. El vídeo generado por IA circuló ampliamente, animando el tropo del “pirata somalí”. Representaba a los negros, supuestamente somalíes, como inmigrantes que planeaban robar a los contribuyentes. En él escuchamos: “Ya no tenemos que ser piratas. Encontré una manera mejor. Una guardería financiada por el gobierno. Tenemos que ir a Minnesota”.

Esta referencia al cuidado infantil tuvo eco en un vídeo viral producido por un comentarista de derecha que pretende exponer otro capítulo del “escándalo de estafa en Somalia”, esta vez dirigido a los centros de cuidado infantil gestionados por Somalia. El video provocó una investigación a nivel estatal, que finalmente encontró que todos los centros enumerados menos uno estaban operando normalmente, sin evidencia clara de fraude.

El tropo de la “reina negra del bienestar” y el marco del “pirata somalí” pueden parecer nombrar diferentes crisis y diferentes temas, pero ambos se basan en la misma gramática racial anti-negra. De cualquier manera, la negritud es retratada como falsa, criminal y moralmente deficiente, presentada como un defecto personal y una carga nacional.

Mujer racial sostiene un cartel en una protesta.

Lo que está en juego con la cara negra digital de IA no es sólo el refuerzo del racismo, sino la arquitectura de la vida política. (Unsplash) Por qué estas ideas viajan incluso cuando son falsas

Estos ejemplos de blackface digital tuvieron éxito porque el misoginoir y la lucha contra la negritud siguieron siendo recursos discursivos fácilmente disponibles. La IA simplemente acelera su movimiento. La negativa del público a corregir el rumbo cuando se verifican los hechos subraya cuán intuitivas y preconcebidas son ya las cartas racistas y xenófobas.

Tanto en los videos misóginos con temas de SNAP como en el contenido de “Piratas somalíes” generado por IA, los matices y la precisión de los hechos eran irrelevantes. En cambio, hay un proyecto político más amplio en marcha ligado a la lógica eugenista del capitalismo racial.

Como sostiene el académico radical negro Cedric Robinson, el racismo no es secundario al capitalismo, sino la base de la desigualdad que exige. La pobreza está mal dirigida como evidencia de fallas personales y sociales en lugar de ser el resultado de una desigualdad estructural masiva. Y cuando se aplica a los racialmente pobres, especialmente cuando son negros, musulmanes e inmigrantes, esta lógica cristaliza en “sentido común”.

Lo que está en juego con la cara negra digital de IA no es sólo el refuerzo del racismo, sino la arquitectura de la vida política. En este clima, el análisis sobrio y los matices retroceden, reemplazados por la ansiedad paralizante que estructura el discurso público contemporáneo.


Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo