Runway Research
Runway Research: Multimodal AI and Video Generation
Phenaki ist ein fortschrittliches KI-Modell, das aus wechselnden Textaufforderungen realistische Langformatvideos generiert. Erstellen Sie dynamische visuelle Geschichten, Animationen und Szenen aus einfachen Beschreibungen.
Phenaki ist ein hochmodernes Modell zur Videogenerierung, das Sequenzen von Textansagen in Langformatvideos umwandelt. Im Gegensatz zu herkömmlichen Videosynthese-Tools, die Bild für Bild arbeiten oder statische Eingaben verwenden, ist Phenaki auf die Verarbeitung sich entwickelnder Erzählungen ausgelegt. Es kann hochwertige, zusammenhängende Videos über mehrere Minuten generieren — mit nahtlosem Übergang zwischen Szenen und Kontexten, je nach Änderung der Ansage.
Phenaki uses a novel video representation system based on discrete tokens and causal temporal attention. This approach allows it to work with videos of variable length while preserving both spatial and temporal coherence. It is one of the first models capable of creating continuous videos based on a dynamic series of text inputs, making it ideal for storytelling and animated content creation.
The process begins with a text prompt or a sequence of prompts over time. These are converted into text tokens, which condition a masked transformer model. The transformer outputs compressed video tokens that are then decoded into a full-resolution video.
Phenaki zeichnet sich durch die Unterstützung von Prompt-Sequenzen aus, die sich im Laufe der Zeit entwickeln. Dies ermöglicht die Erstellung von Geschichten oder Szenenübergängen ohne manuelle Videobearbeitung. Beispielsweise könnte ein Video mit «einem schwimmenden Teddybären» beginnen, dann zu «dem Bären, der am Strand spazieren geht» wechseln und mit «dem Bären am Lagerfeuer» enden — alles innerhalb desselben Clips.
A specialized video encoder compresses each scene into tokens using causal attention over time. This compression method significantly reduces computational load while preserving video quality, enabling longer and more detailed generations.
Phenaki is ideal for artists, writers, and animators looking to bring stories to life. The ability to craft complex sequences from evolving text makes it suitable for concept videos, experimental films, and narrative art pieces.
Educators can describe learning scenarios—like scientific simulations, historical reenactments, or animated demonstrations—and instantly generate relevant videos that enhance student engagement.
Filmstudios und Content-Ersteller können mit Phenaki schnell Storyboard-Prototypen und visuelle Sequenzen erstellen. Anstatt stundenlang an Skizzen oder Modellen zu arbeiten, können die Entwickler ihre Konzepte direkt aus dem Drehbuch visualisieren.
Phenaki can generate multi-minute stories: From a futuristic city traffic jam → to an alien spaceship arrival → to an astronaut in a blue room → and ending with a lion in a suit in a high-rise office
Phenaki ermöglicht außerdem die Generierung aus einem statischen Bild und einer Textaufforderung, wodurch eine konsistente Vorwärtsbewegung aus dem gegebenen Frame erzeugt wird.
The model compresses video data into discrete tokens using a temporal-aware encoder. This enables the processing of longer clips while reducing hardware requirements.
Phenaki was trained using both image-text and video-text pairs. This hybrid dataset design improves generalization and makes the model capable of generating content across a broad range of scenarios, even with limited video data.
Phenaki achieves better temporal and spatial quality than existing models. Its transformer-based architecture and efficient tokenizer design help reduce artifacts while improving coherence across frames.
Obwohl Phenaki derzeit als Forschungsvorschau präsentiert wird, demonstriert es die Zukunft der Open-Domain-Videogenerierung. Zukünftige Versionen könnten öffentlichen Zugriff oder Entwicklertools zur Integration der Funktionen in kreative Workflows ermöglichen.
Besuchen Sie phenaki.video, um generierte Videos zu erkunden und das vollständige Forschungspapier zu lesen.