Michael Jackson realiza stand-up; el extraterrestre de las películas “Depredador” voltea hamburguesas en McDonald’s; una cámara de seguridad de una casa capta un alce atravesando la puerta de cristal; La reina Isabel se lanza desde lo alto de una mesa en un pub.
Realidades tan improbables, futuros fantásticos y movies absurdos son el pilar de la aplicación Sora, una nueva aplicación de movies cortos lanzada por OpenAI, fabricante de ChatGPT.
El flujo continuo de movies hiperreales y de formato corto creados por inteligencia synthetic es alucinante y fascinante al principio. Pero rápidamente desencadena una nueva necesidad de cuestionar cada contenido si es actual o falso.
«El mayor riesgo con Sora es que hace que la negación believable sea imposible de superar y erosiona la confianza en nuestra capacidad para distinguir lo auténtico de lo sintético», dijo Sam Gregory, experto en deepfakes y director ejecutivo de WITNESS, una organización de derechos humanos. «Las falsificaciones individuales importan, pero el daño actual es una niebla de duda que se posa sobre todo lo que vemos».
Todos los vídeos de la aplicación Sora se generan íntegramente con IA y no existe la opción de compartir imágenes reales. Pero desde la primera semana de su lanzamiento, los usuarios compartieron sus vídeos de Sora en todo tipo de redes sociales.
Menos de una semana después de su lanzamiento el 30 de septiembre, la aplicación Sora superó el crecimiento inicial de ChatGPT. Sora también alcanzó la cima de la App Retailer en los EE. UU. Por ahora, la aplicación Sora está disponible solo para usuarios de iOS en los Estados Unidos y las personas no pueden acceder a ella a menos que tengan un código de invitación.
Para usar la aplicación, las personas deben escanear sus rostros y leer tres números que aparecen en la pantalla para que el sistema seize una firma de voz. Una vez hecho esto, los usuarios pueden escribir un mensaje de texto personalizado y crear movies hiperrealistas de 10 segundos con sonido de fondo y diálogos.
A través de una función llamada «Cameos», los usuarios pueden superponer su cara o la de un amigo en cualquier vídeo existente. Aunque todos los resultados llevan una marca de agua seen, numerosos sitios internet ofrecen ahora la eliminación de marcas de agua para los vídeos de Sora.
En su lanzamiento, OpenAI adoptó un enfoque laxo a la hora de hacer cumplir las restricciones de derechos de autor y permitió la recreación de materials protegido por derechos de autor de forma predeterminada, a menos que los propietarios optaran por no hacerlo.
Los usuarios comenzaron a generar movies de IA con personajes de títulos como «Bob Esponja», «South Park» y «Breaking Dangerous», y movies con el estilo del programa de juegos «The Worth Is Proper» y la comedia de los años 90 «Buddies».
Luego vino la recreación de celebridades muertas, incluido Tupac Shakur deambulando por las calles de Cuba, Hitler enfrentándose a Michael Jackson y remezclas del reverendo Martin Luther King Jr. pronunciando su icónico discurso “Tengo un sueño”, pero pidiendo la liberación del rapero caído en desgracia Diddy.
«Por favor, deja de enviarme movies de papá con IA», publicó Zelda Williams, hija del fallecido comediante Robin Williams, en . «No estás haciendo arte, estás haciendo sizzling canine repugnantes y sobreprocesados a partir de la vida de los seres humanos, de la historia del arte y la música, y luego se los metes en la garganta de otra persona, con la esperanza de que te den el visto bueno y les guste. Asqueroso».
Otras recreaciones de celebridades muertas, incluidos Kobe Bryant, Stephen Hawking y el presidente Kennedy, creadas en Sora se han publicado en sitios internet de redes sociales, obteniendo millones de visitas.
Christina Gorski, directora de comunicaciones de Fred Rogers Productions, dijo que la familia de Rogers estaba «frustrada por los movies de IA que tergiversaban al señor Rogers y que circulaban en línea».
En Sora se han compartido ampliamente movies del Sr. Rogers sosteniendo un arma, saludando al rapero Tupac y otras situaciones satíricas falsas.
«Los movies están en directa contradicción con la cuidadosa intencionalidad y el cumplimiento de los principios básicos de desarrollo infantil que Fred Rogers trajo a cada episodio de Mister Rogers’ Neighborhood. Nos hemos puesto en contacto con OpenAI para solicitar que la voz y la imagen de Mister Rogers sean bloqueadas para su uso en la plataforma Sora, y esperaríamos que ellos y otras plataformas de IA respeten las identidades personales en el futuro», dijo Gorski en un comunicado a The Occasions.
Las agencias y sindicatos de talentos de Hollywood, incluido SAG-AFTRA, han comenzado a acusar a OpenAI de uso indebido de imágenes. La tensión central se cut back al management sobre el uso de imágenes de actores y personajes autorizados, y a una compensación justa por su uso en vídeos de IA.
A raíz de las preocupaciones de Hollywood sobre los derechos de autor, Sam Altman compartió una publicación en un weblog, prometiendo un mayor management para que los titulares de derechos especifiquen cómo se pueden usar sus personajes en movies de IA, y está explorando formas de compartir los ingresos con los titulares de derechos.
También dijo que los estudios ahora podrían “optar por” que sus personajes sean utilizados en recreaciones de IA, una inversión de la postura authentic de OpenAI de un régimen de exclusión voluntaria.
El futuro, según Altman, se dirige hacia la creación de contenido personalizado para una audiencia de unos pocos, o para una audiencia de uno solo.
«La creatividad podría estar a punto de sufrir una explosión cámbrica y, junto con ella, la calidad del arte y el entretenimiento puede aumentar drásticamente», escribió Altman, llamando a este género de participación «fan fiction interactiva».
Los herederos de los actores fallecidos, sin embargo, se apresuran a proteger su imagen en la period de la IA.
CMG Worldwide, que representa los patrimonios de celebridades fallecidas, se asoció con una empresa de detección de deepfake para proteger las listas de actores y patrimonios de CMG del uso digital no autorizado.
Loti AI monitoreará constantemente las imitaciones de IA de 20 personalidades representadas por CMG, incluidos Burt Reynolds, Christopher Reeve, Mark Twain y Rosa Parks.
«Desde el lanzamiento de Sora 2, por ejemplo, nuestros registros se han multiplicado aproximadamente por 30 a medida que las personas buscan formas de recuperar el management sobre su imagen digital», dijo Luke Arrigoni, cofundador y director ejecutivo de Loti AI.
Desde enero, Loti AI dijo que ha eliminado miles de instancias de contenido no autorizado a medida que las nuevas herramientas de inteligencia synthetic hicieron que fuera más fácil que nunca crear y difundir deepfakes.
Después de numerosas «representaciones irrespetuosas» de Martin Luther King Jr., OpenAI dijo que estaba deteniendo la generación de movies con la imagen del ícono de los derechos civiles en Sora, a pedido de . Si bien existen fuertes intereses de libertad de expresión al representar figuras históricas, las figuras públicas y sus familias deberían, en última instancia, tener management sobre cómo se utiliza su imagen, dijo OpenAI en una publicación.
Ahora, los representantes autorizados o los propietarios pueden solicitar que sus imágenes no se utilicen en los cameos de Sora.
A medida que aumenta la presión authorized, Sora se ha vuelto más estricto sobre cuándo permitirá la recreación de personajes protegidos por derechos de autor. Cada vez publica más avisos de violaciones de políticas de contenido.
Ahora, la creación de personajes de Disney u otras imágenes genera una advertencia de infracción de la política de contenido. Los usuarios que no son fanáticos de las restricciones han comenzado a crear memes en video sobre las advertencias de violación de la política de contenido.
Hay una creciente viralidad en lo que se ha denominado «baja de IA».
La semana pasada aparecieron imágenes de una cámara de anillo de una abuela persiguiendo a un cocodrilo en la puerta, y una serie de movies de “olimpiadas de gordos” donde personas obesas participan en eventos deportivos como salto con pértiga, natación y eventos de atletismo.
Las fábricas dedicadas a la basura han convertido el compromiso en una fuente de ingresos, generando un flujo constante de movies que son difíciles de ignorar. Un conciso comentarista tecnológico lo denominó «Cocomelon para adultos».
Incluso con protecciones cada vez mayores para las imágenes de celebridades, los críticos advierten que la “apropiación informal de la imagen” de cualquier persona o situación común podría generar confusión pública, aumentar la desinformación y erosionar la confianza del público.
Mientras tanto, incluso cuando la tecnología está siendo utilizada por malos actores e incluso algunos gobiernos para propaganda y promoción de ciertas opiniones políticas, las personas en el poder pueden esconderse detrás de la avalancha de noticias falsas afirmando que incluso pruebas reales fueron generadas por IA, dijo Gregory de WITNESS.
«Me preocupa la capacidad de fabricar imágenes de protestas, escenificar atrocidades falsas o insertar a personas reales con palabras en la boca en escenarios comprometedores», dijo.
Descubre más desde Breaking News 24
Suscríbete y recibe las últimas entradas en tu correo electrónico.





