OpenAI retiró oficialmente su herramienta de generación de vídeos, Sora, el 26 de abril de 2026.
Soy un científico informático que desarrolló herramientas de inteligencia artificial y estudió su evolución y adopción durante la última década, y no me sorprendió la decisión de OpenAI de cerrar Sora.
Para mí, los desafíos que enfrenta Sora reflejan las limitaciones más profundas de la capacidad creativa de la IA que son cada vez más difíciles de ignorar.
Problemas desde el principio
OpenAI presentó Sora el 15 de febrero de 2024 como una herramienta de inteligencia artificial que brindaba a los usuarios la posibilidad de crear videos cortos a partir de consultas de texto. Para lograr esto, la tecnología esencialmente predijo cómo cambiarían las imágenes de un cuadro a otro basándose en lo que “aprendió” de millones de horas de metraje existente.
Pero hubo problemas desde el principio.
Primero, Sora era caro. Generar vídeo requiere mucha más potencia informática que crear texto o imágenes, lo que convierte a OpenAI en un desafío para mantener los costos bajo control. Tampoco ha generado suficientes ingresos para justificar esos costos, especialmente en comparación con otros productos de IA que son más baratos de ejecutar y más fáciles de monetizar. Según The Wall Street Journal, Sora estaba perdiendo 1 millón de dólares al día.
En segundo lugar, el revuelo inicial (TechPoverUp presentó a Sora como “un modelo de inteligencia artificial para la conversión de texto a video más allá de nuestra imaginación más loca”) no parecía un compromiso duradero. Después de que se desvaneció el rumor inicial, los usuarios parecieron tener dificultades para encontrar un uso consistente y práctico para la tecnología.
En conjunto, estos desafíos probablemente obligaron a OpenAI a trasladar sus recursos a otra parte, especialmente a medida que se intensificó la competencia en la industria de la IA.
Un síntoma de problemas mayores
Pero también hay un patrón que no es exclusivo del fracaso de Sora para prosperar.
Muchos programas de IA generativa dirigidos a campos creativos se han topado con un problema común: una rápida adopción inicial, seguida de una disminución del compromiso sostenido.
Muchos usuarios parecen estar probando herramientas de generación de imágenes y vídeos como Midjourney y Stability AI por curiosidad. Pero si las cifras de tráfico estancadas son una indicación, pocos profesionales creativos las están integrando en sus flujos de trabajo habituales.
Después de una rápida adopción inicial, Midjourney y Stability AI, dos de las plataformas de IA de texto a imagen y de texto a video más conocidas, experimentaron una participación cada vez menor. Los datos de tráfico orgánico estimado para Midjourney aparecen en el gráfico de la parte superior, mientras que Stability AI aparece en el gráfico de abajo. Ahmed Elgamal/Ubersuggest
OpenAI y otras empresas han introducido herramientas de imagen y vídeo de alta velocidad con la esperanza de que la eficiencia de su producto proporcione una alternativa atractiva al lento proceso de producción de películas, fotografías y diseños gráficos. En lugar de gastar mucho tiempo y dinero haciendo un vídeo, simplemente podrías escribir una consulta y una IA, entrenada en miles de millones de contenidos generados por humanos, te la mostraría.
El sesgo contracreativo de la IA generativa
Entonces, ¿qué pasó?
Los resultados de imágenes y texto generados por IA pueden parecer increíblemente realistas. Los bots parecen seguir bien las instrucciones y dar control a los usuarios.
Pero hay un problema importante. En el fondo, estos sistemas están diseñados para imitar lo que ya han visto, y ese es especialmente el caso de las imágenes y los vídeos. Se les entrena con vastas colecciones de datos visuales y se les recompensa por producir resultados que coincidan estrechamente con los patrones contenidos en esos elementos visuales. Es por eso que los resultados pueden parecer tan realistas y reconocibles.
Debido a que están optimizados para producir resultados conocidos, terminan suprimiendo la novedad. Esto, por supuesto, no conduce a verdaderos avances creativos. Incluso los estándares que los investigadores utilizan para evaluar el desempeño de tales sistemas tienden a favorecer resultados que parecen “correctos” en lugar de aquellos que realmente rompen las expectativas o llevan el panorama al siguiente nivel.
Además, estos sistemas no aprenden del vasto almacén de datos que abarca el mundo visual y toda la producción artística humana. En cambio, los datos utilizados para entrenar estos modelos a menudo se seleccionan para favorecer ciertas imágenes y videos que son elegantes, claros y visualmente atractivos. De hecho, el proceso de formación enseña a los modelos no sólo cómo se ven las cosas, sino también qué contenido debe verse bien.
En un artículo reciente, destaqué este problema, al que llamo “sesgo contracreativo”: la tendencia de estos sistemas a favorecer la familiaridad sobre la novedad significativa.
El sesgo contracreativo explica por qué tantas imágenes y vídeos generados por IA, incluso cuando difieren en el tema o el estilo, terminan compartiendo una apariencia similar. Y creo que eso explica por qué tantos artistas y otros creativos no parecen estar adoptando estas herramientas en gran medida. Un buen trabajo creativo implica superar los límites, no sólo inventar algo pasable y aceptable.
Los límites del incentivo
Hay otro problema con estas herramientas.
Cuando uno utiliza inteligencia artificial para generar una imagen o un vídeo a través de una consulta, ya está trabajando dentro de las limitaciones del lenguaje.
Un artista que quiera utilizar la inteligencia artificial debe aprender a escribir instrucciones detalladas con las palabras clave adecuadas que obliguen al sistema a generar la composición, los colores, la iluminación y la estética deseadas. Para crear una imagen o un vídeo interesante, es necesario manipular hábilmente las palabras, combinar conceptos extraños y utilizar metáforas. Es un conjunto de habilidades completamente diferente.
Esto fue obvio desde el principio. Cuando OpenAI lanzó DALL-E 2 en julio de 2022, la compañía demostró una serie de imágenes interesantes utilizando consultas elaboradas como “máquina de café expreso que prepara café a partir de almas humanas” o “científico panda loco mezclando productos químicos burbujeantes”.
Las fuentes de creatividad en estos ejemplos fueron las propias instrucciones escritas por humanos, no la forma en que la IA generó la imagen. Para hacer algo visualmente creativo, debes ser hábil en la manipulación de palabras. Los usuarios se ven obligados a afrontar cualquier cantidad de variaciones rápidas para lograr un resultado deseado o incluso satisfactorio.
Él pisa fuerte por la pendiente
Hay una razón por la que Merriam-Webster y la American Dialect Society eligieron “bazo” como palabra del año para 2025: Internet está plagado de imágenes virales generadas por IA de líderes mundiales y niños con los ojos muy abiertos, diseñadas para provocar el compromiso pero desprovistas de valor creativo. El sesgo contracreativo inherente a estos modelos se refleja en el hecho de que muchas personas se están acostumbrando a una estética de la IA caracterizada por imágenes hiperpulidas, bien iluminadas, perfectamente compuestas y generalmente hermosas.
Hubo un tiempo en el que el arte con IA se consideraba una forma creciente de arte conceptual.
En el verano de 2019, el Barbican Centre de Londres incluyó el arte de la inteligencia artificial en su exposición “AI: More Than Human”. En noviembre de ese año, el Museo Nacional de China en Beijing exhibió 120 obras de arte integradas con inteligencia artificial, que fueron vistas por más de un millón de personas. He defendido a algunos de los artistas que están incorporando esta nueva tecnología en su trabajo.
Ese período de esperanza parece haber terminado. Una vez que los píxeles tuvieron que representarse mediante el control del lenguaje, creo que eso obstaculizó su potencial como medio artístico. Y ahora nos quedamos con una tecnología que parece más adecuada para memes, spam, deepfakes y pornografía.
Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US
Suscríbete y recibe las últimas entradas en tu correo electrónico.


