Un amigo en Indonesia me contó recientemente sobre una conversación que tuvo con ChatGPT. Escribió una pregunta en indonesio (bahasa indonesio) sobre cómo resolver una difícil disputa familiar. El chatbot respondió con fluidez en perfecto indonesio, con consejos sobre estrategias de comunicación y resolución de conflictos. La gramática era impecable. El tono era apropiado. Y, sin embargo, se sintió algo.
Lo que ofreció la IA fue un consejo arraigado en supuestos culturales estadounidenses: priorice sus propias preferencias, comuníquese directamente y, si los miembros de la familia no respetan sus límites, considere eliminarlos.
La respuesta estaba en indonesio, pero moldeada por valores que centraban la autonomía individual en la creación de consenso, la armonía social y las dinámicas familiares colectivas que son más importantes en la vida social indonesia.
Mi amigo fue lo suficientemente escéptico como para notar la discrepancia y mencionármelo. Es posible que muchos usuarios no lo hagan. Eso es lo que impulsó mi investigación, publicada en la Revista Internacional de Sociología Moderna, sobre un patrón que encontré en los principales sistemas de IA: incluso cuando hablaban con fluidez varios idiomas, los modelos lingüísticos conservaban su visión del mundo occidental. Yo lo llamo “persistencia epistemológica”.
La fluidez no es lo mismo que la comprensión.
He estudiado la sociedad, los medios y la cultura de Indonesia durante más de 30 años. Me brinda un punto de vista único sobre un problema que va mucho más allá de Indonesia: los modelos de lenguajes grandes (LLM) como ChatGPT, Claude y Gemini ahora pueden hablar docenas de idiomas con una fluidez notable. Esa fluidez crea la impresión de que la IA comprende las culturas locales.
Sin embargo, crear indonesio, árabe, swahili o hindi gramaticalmente correctos no cambia la visión básica del mundo a través de la cual piensan estos sistemas. No cambia su forma de pensar sobre las personas, las relaciones, la responsabilidad o lo que se considera un buen resultado.
Esos supuestos están moldeados por datos de capacitación extraídos predominantemente de fuentes en inglés ubicadas en los Estados Unidos. El modelo abierto LLaMA 2 de Meta se entrena en aproximadamente el 89,7% del texto en inglés; LLaMA 3 incluye sólo alrededor del 5% de los datos que no están en inglés. Los principales modelos comerciales no publican divisiones equivalentes, sino que dependen en gran medida de las mismas fuentes. El árabe, el quinto idioma más hablado del mundo, representa menos del 1% del contenido en grandes conjuntos de datos de capacitación. Apenas aparecen lenguas con decenas de millones de hablantes, entre ellas el bengalí y el hausa.
Debajo de la superficie de estas conversaciones multilingües, el inglés funciona como un mediador oculto. Un estudio realizado por investigadores de la Universidad de Oxford encontró que los LLM rutinariamente llevan a cabo su pensamiento básico en inglés, incluso cuando se les pide que lo hagan en otros idiomas. Traducen el resultado en la etapa final. El usuario recibe un texto impecable en su idioma preferido, pero la lógica subyacente se origina en otra parte.
Lo que muestran los datos
Para examinar cómo se desarrolla esto en la práctica, realicé experimentos con ChatGPT, Claude y Gemini. Hice preguntas tanto en inglés como en indonesio sobre conceptos como educación, responsabilidad, bienestar y varios términos indonesios que se resisten a la traducción directa al inglés. Estos incluían términos como “gotong roiong”, que describe una tradición de ayuda mutua.
Luego hice preguntas sobre educación en ambos idiomas, usando la palabra “pendidikan” en indonesio. Las respuestas se centraron sistemáticamente en el desarrollo individual, la autonomía personal, el pensamiento crítico y la preparación para el mercado laboral.
Lo que en gran medida ha desaparecido son las dimensiones del pendikanda que históricamente han enfatizado las tradiciones educativas indonesias. En Indonesia, la educación se ha centrado durante mucho tiempo en la disciplina ética. Académicos de la educación indonesios como Christopher Bjork y Robert Hefner han documentado cómo estas tradiciones difieren de los modelos que tratan la educación principalmente como un camino hacia el avance individual y la preparación profesional, la lente a través de la cual las herramientas de IA han visto la educación.
El concepto indonesio de “malu” ofrece un ejemplo más claro. A menudo traducido como “vergüenza” o “vergüenza”, los antropólogos Clifford Gertz y Tom Belstorf lo han analizado como algo más cercano a una conciencia social compartida.
Una persona puede sentirse mal cuando habla fuera de turno frente a sus mayores o cuando el comportamiento de un miembro de la familia da una mala imagen del hogar. Regula el comportamiento y señala la conciencia de la propia posición dentro de una red de relaciones. Se nutre, no sólo se siente. Es una forma de conciencia relacional más que un evento psicológico privado.
Cuando se les pidió directamente que definieran lo pequeño, los modelos reconocieron sus dimensiones sociales. Sin embargo, en preguntas basadas en escenarios que simplemente usaban la palabra sin pedir una definición, los tres recurrieron a la traducción al inglés de vergüenza, enmarcándola consistentemente como una experiencia emocional individual.
Una respuesta representativa enmarcó lo pequeño como una reacción emocional normal que debe gestionarse mediante la autorreflexión y el fomento de la confianza: un problema psicológico personal, no social. La dimensión relacional del concepto ha desaparecido por completo, sustituida por el lenguaje de la regulación emocional individual.
Una visión del mundo claramente estadounidense viaja a través de la traducción, en su mayoría sin ser anunciada.
Por qué esto probablemente no cambiará pronto
Las empresas de IA dependen de las traducciones, ya que los modelos específicos de una región serían prohibitivamente costosos. Cravetiger/Momento vía Getty Images
La traducción es mucho más barata: entrene un modelo en la vasta red en inglés y luego utilice capacidades de salida multilingües para atender a los mercados globales. Mientras la especialista en medios Safia Umoja Noble analiza los sistemas algorítmicos de manera más amplia, lo que parece ser un resultado técnico es en realidad un resultado estructural, determinado por quién tiene la riqueza y la infraestructura para construir estos sistemas.
Una visión del mundo arraigada no es un error; sucede cuando la producción de conocimiento busca ganancias.
Las principales excepciones son los modelos chinos como DeepSeek y Alibaba Quen. Representan una alternativa real al oleoducto dominado por Estados Unidos, aunque las investigaciones muestran que operan a través de una lente cultural claramente china. Cuando se les pregunta sobre desacuerdos en el lugar de trabajo, por ejemplo, tienden a recomendar el silencio o la expresión indirecta para preservar la armonía, en lugar de la corrección directa y privada recomendada por los modelos occidentales.
Otros esfuerzos regionales, como SEA-LION para el sudeste asiático y Kan-LLaMA para el idioma indio kannada, utilizan modelos estadounidenses como base. Añaden vocabulario adicional e información cultural relacionada con los idiomas locales. Pero la lógica subyacente sigue ligada al entrenamiento original de Estados Unidos.
Por qué esto es más importante de lo que parece
Uno podría preguntarse razonablemente si esto es simplemente una limitación que los usuarios pueden solucionar. Décadas de estudios sobre los medios muestran cómo las audiencias interpretan los medios extranjeros a través de sus propios marcos culturales.
Por ejemplo, el antropólogo Brian Larkin ha documentado cómo los espectadores del norte de Nigeria reelaboran las narrativas cinematográficas de Bollywood para alinearlas con los valores islámicos locales. Larkin descubrió que los espectadores musulmanes en Kano reinterpretaban las películas de Bollywood a través de una lente moral islámica, leyendo sus narrativas como reforzando los valores locales de propiedad y comportamiento ético. Esa dinámica depende del encuentro con los medios como algo que tiene un origen visible. Pero para hacer eso, necesita saber de dónde provienen sus medios.
La IA conversacional es diferente. Una investigación de la Harvard Business School revela que las personas utilizan cada vez más los sistemas de inteligencia artificial para obtener apoyo emocional, asesoramiento y compañía. Cuando una visión del mundo culturalmente específica se transmite a través de una relación atenta y empática, en su propio idioma, se presenta menos como una demanda de juicio y más como una premisa compartida dentro del diálogo. Se vuelve difícil notarlo y más difícil de discutir.
La preocupación es que estas perspectivas se conviertan en la nueva normalidad. Ciertas formas de pensar sobre la vida familiar, la educación y la responsabilidad pueden volverse naturales y obvias. La diversidad lingüística entre los sistemas de IA es real y está creciendo. Sin embargo, la diversidad de la visión cultural del mundo no ha seguido el mismo ritmo.
Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US
Suscríbete y recibe las últimas entradas en tu correo electrónico.


