Disney und OpenAI läuten das Zeitalter des KI-generierten Video-Streamings ein

9

Der früheste erhaltene Film, „Roundhay Garden Scene“ (1888), zeigt nur zwei Sekunden lang Menschen, die durch einen Garten gehen. Heute ist KI bereit, Video-on-Demand in einem Ausmaß zu erstellen, das noch vor Jahrzehnten unvorstellbar war. Eine neue Partnerschaft zwischen Disney und OpenAI signalisiert den Beginn dieser Zukunft: Ab 2026 wird Sora von OpenAI Videos mit Disney-, Marvel-, Pixar- und Star Wars -Charakteren erstellen, die direkt auf Disney+ gestreamt werden.

Das ist kein ferner Traum. Disney investiert 1 Milliarde US-Dollar in OpenAI, um „neue Erlebnisse“ für Abonnenten zu schaffen, einschließlich KI-generierter Inhalte, die sie selbst erstellen können. Stellen Sie sich vor, Sie würden eine Szene anfordern, in der Elsa und Aschenputtel gegen Maleficent kämpfen – ein Clip, der in Sekundenschnelle geliefert werden könnte.

Von Sekunden zum Streaming: Die Entwicklung von KI-Videos

Der Fortschritt von den ruckelnden, einsekündigen KI-Videos des Jahres 2016 hin zum Potenzial für abendfüllende Filme ist bemerkenswert. Das frühe Kino wurde einst als „närrische Kuriosität“ abgetan, so wie manche heute KI-Videos als verschwenderisch verspotten. Dennoch herrschte die gleiche Skepsis gegenüber frühen Filmen, bevor „Der große Zugraub“ (1903) und „Vom Winde verweht“ ihr Durchhaltevermögen unter Beweis stellten.

Die Herausforderung liegt in der technischen Komplexität der Videogenerierung. Aktuelle KI-Systeme basieren auf Diffusion und verfeinern „Rauschen“ durch wiederholte Verarbeitung in kohärente Bilder. Jede Verfeinerung erhöht den Rechenaufwand, insbesondere bei Videos: Millionen von Pixeln müssen sich nahtlos über Frames hinweg ändern, um Störungen wie verschwindende Kaffeetassen oder sich verändernde Gesichtszüge zu vermeiden. OpenAI geht dieses Problem an, indem es Videos in vereinfachte Frames komprimiert und diese Frames dann in Würfel unterteilt, um die Ausgabe des Modells zu koordinieren – ähnlich wie ChatGPT Wörter in einer Antwort verbindet.

Der Weg zu skalierbarem KI-Video

Längere Videos zu erstellen ist exponentiell schwieriger. Mit jedem hinzugefügten Frame häufen sich Inkonsistenzen. Echtes „On-Demand“-KI-TV würde effiziente Schnitte zwischen den Szenen erfordern, was derzeit in großem Maßstab unerschwinglich ist.

Forscher finden jedoch Möglichkeiten, die Kosten zu senken. Ein Ansatz ist die Frame-für-Frame-Generierung, die den Rechenaufwand für jeden Schritt begrenzt. Tianwei Yin von Reve glaubt, dass fünfminütige KI-Videos bis zum nächsten Jahr machbar sein werden, einstündige Clips folgen bald darauf. Sundar Pichai, CEO von Google, geht sogar davon aus, dass Oberstufenschüler in den kommenden Jahren abendfüllende KI-Filme produzieren werden. Cristóbal Valenzuela, CEO von Runway, stimmt dem zu und erklärt, dass 60–90-minütige konsistente KI-Videos „bald“ möglich seien.

Die Ökonomie der KI-Videoproduktion

Die finanzielle Belastung ist erheblich, nimmt jedoch ab. So wie die Bandbreitenkosten von 1.200 US-Dollar pro Mbit/s im Jahr 1998 auf 0,05 US-Dollar pro Mbit/s im Jahr 2025 sanken und Streaming-Dienste wie Disney+ ermöglichten, werden die Kosten für KI-Technologien wahrscheinlich mit zunehmender Produktion und Schulung sinken. Millionen von Menschen sind bereits an der Entwicklung von KI-Modellen beteiligt, und Effizienzsteigerungen sind unvermeidlich.

Dieser Wandel erfordert die Bewältigung ethischer und finanzieller Auswirkungen, einschließlich der Vergütung der Kreativen, deren Arbeit diese Modelle trainiert. Die Richtung ist jedoch klar: KI-generierte Videos sind nicht länger eine Frage des Ob, sondern des Wann. Die Zukunft der Unterhaltung könnte bald von Algorithmen geprägt sein, die dem Publikum eine beispiellose Kontrolle über sein Seherlebnis bieten.

Попередня статтяEssential Education Conferences for 2026
Наступна статтяKolibri-Turniere: Evolutionäre Kriegsführung im Regenwald