Runway Research
Runway Research: Multimodal AI and Video Generation
Phenaki, değişen metin istemlerinden gerçekçi, uzun biçimli videolar üreten gelişmiş bir AI modelidir. Düz açıklamalardan dinamik görsel hikayeler, animasyonlar ve sahneler oluşturun.
Phenaki, metin istemleri dizilerini uzun biçimli videolara dönüştüren son teknoloji bir video oluşturma modelidir. Kare kare çalışan veya statik girdi kullanan geleneksel video sentezleme araçlarının aksine, Phenaki gelişen anlatıları ele almak üzere tasarlanmıştır. Birkaç dakika süren yüksek kaliteli, tutarlı videolar üretebilir; istem değiştikçe sahneler ve bağlamlar arasında sorunsuz bir şekilde geçiş yapabilir.
Phenaki uses a novel video representation system based on discrete tokens and causal temporal attention. This approach allows it to work with videos of variable length while preserving both spatial and temporal coherence. It is one of the first models capable of creating continuous videos based on a dynamic series of text inputs, making it ideal for storytelling and animated content creation.
The process begins with a text prompt or a sequence of prompts over time. These are converted into text tokens, which condition a masked transformer model. The transformer outputs compressed video tokens that are then decoded into a full-resolution video.
Phenaki, zaman içinde gelişen istemli sekansları destekleyerek öne çıkıyor. Bu, manuel video düzenlemesine ihtiyaç duymadan hikayelerin veya sahne geçişlerinin oluşturulmasını sağlıyor. Örneğin, bir video «yüzen bir oyuncak ayı» ile başlayabilir, sonra «ayı sahilde yürüyor"a geçebilir ve «kamp ateşinin yanındaki ayı» ile bitebilir; hepsi aynı klip içinde.
A specialized video encoder compresses each scene into tokens using causal attention over time. This compression method significantly reduces computational load while preserving video quality, enabling longer and more detailed generations.
Phenaki is ideal for artists, writers, and animators looking to bring stories to life. The ability to craft complex sequences from evolving text makes it suitable for concept videos, experimental films, and narrative art pieces.
Educators can describe learning scenarios—like scientific simulations, historical reenactments, or animated demonstrations—and instantly generate relevant videos that enhance student engagement.
Film stüdyoları ve içerik yaratıcıları Phenaki'yi kullanarak senaryo panolarını ve görsel sekansları hızlı bir şekilde prototipleyebilir. Eskizler veya maketler üzerinde saatler harcamak yerine, yaratıcılar konseptlerini doğrudan senaryodan görselleştirebilirler.
Phenaki can generate multi-minute stories: From a futuristic city traffic jam → to an alien spaceship arrival → to an astronaut in a blue room → and ending with a lion in a suit in a high-rise office
Phenaki ayrıca statik bir görüntüden ve bir metin isteminden üretim yapılmasına olanak vererek verilen kareden tutarlı bir ileri hareket üretilmesini sağlar.
The model compresses video data into discrete tokens using a temporal-aware encoder. This enables the processing of longer clips while reducing hardware requirements.
Phenaki was trained using both image-text and video-text pairs. This hybrid dataset design improves generalization and makes the model capable of generating content across a broad range of scenarios, even with limited video data.
Phenaki achieves better temporal and spatial quality than existing models. Its transformer-based architecture and efficient tokenizer design help reduce artifacts while improving coherence across frames.
Şu anda bir araştırma önizlemesi olarak sunulmasına rağmen, Phenaki açık alan video üretiminin geleceğini göstermektedir. Gelecekteki sürümler, yeteneklerini yaratıcı iş akışlarına entegre etmek için genel erişime veya geliştirici araçlarına izin verebilir.
Oluşturulan videoları incelemek ve araştırma makalesinin tamamını okumak için phenaki.video adresini ziyaret edin.