今天小編分享的科學經驗:從20億數據中學習物理世界,基于Transformer的通用世界模型成功挑戰視頻生成,歡迎閱讀。
建立會做視頻的世界模型,也能通過 Transformer 來實現了!
來自清華和極佳科技的研究人員聯手,推出了全新的視頻生成通用世界模型—— WorldDreamer。
它可以完成自然場景和自動駕駛場景多種視頻生成任務,例如文生視頻、圖生視頻、視頻編輯、動作序列生視頻等。
據團隊介紹,通過預測 Token 的方式來建立通用場景世界模型,WorldDreamer 是業界首個。
它把視頻生成轉換為一個序列預測任務,可以對物理世界的變化和運動規律進行充分地學習。
可視化實驗已經證明,WorldDreamer 已經深刻理解了通用世界的動态變化規律。
那麼,它都能完成哪些視頻任務,效果如何呢?
支持多種視頻任務影像生成視頻(Image to Video)
WorldDreamer 可以基于單一影像預測未來的幀。
只需首張影像輸入,WorldDreamer 将剩餘的視頻幀視為被掩碼的視覺 Token,并對這部分 Token 進行預測。
如下圖所示,WorldDreamer 具有生成高質量電影級别視頻的能力。
其生成的視頻呈現出無縫的逐幀運動,類似于真實電影中流暢的攝影機運動。
而且,這些視頻嚴格遵循原始影像的約束,确保幀構圖的顯著一致性。
文本生成視頻(Text to Video)
WorldDreamer 還可以基于文本進行視頻生成。
僅僅給定語言文本輸入,此時 WorldDreamer 認為所有的視頻幀都是被掩碼的視覺 Token,并對這部分 Token 進行預測。
下圖展示了 WorldDreamer 在各種風格範式下從文本生成視頻的能力。
生成的視頻與輸入語言無縫契合,其中用戶輸入的語言可以塑造視頻内容、風格和相機運動。
視頻修改(Video Inpainting)
WorldDreamer 進一步可以實現視頻的 inpainting 任務。
具體來說,給定一段視頻,用戶可以指定 mask 區網域,然後根據語言的輸入可以更改被 mask 區網域的視頻内容。
如下圖所示,WorldDreamer 可以将水母更換為熊,也可以将蜥蜴更換為猴子,且更換後的視頻高度符合用戶的語言描述。
視頻風格化(Video Stylization)
除此以外,WorldDreamer 可以實現視頻的風格化。
如下圖所示,輸入一個視頻段,其中某些像素被随機掩碼,WorldDreamer 可以改變視頻的風格,例如根據輸入語言創建秋季主題效果。
基于動作合成視頻(Action to Video)
WorldDreamer 也可以實現在自動駕駛場景下的駕駛動作到視頻的生成。
如下圖所示,給定相同的初始幀以及不同的駕駛策略(如左轉、右轉),WorldDreamer 可以生成高度符合首幀約束以及駕駛策略的視頻。
那麼,WorldDreamer 又是怎樣實現這些功能的呢?
用 Transformer 構建世界模型
研究人員認為,目前最先進的視頻生成方法主要分為兩類——基于 Transformer 的方法和基于擴散模型的方法。
利用 Transformer 進行 Token 預測可以高效學習到視頻信号的動态信息,并可以復用大語言模型社區的經驗,因此,基于 Transformer 的方案是學習通用世界模型的一種有效途徑。
而基于擴散模型的方法難以在單一模型内整合多種模态,且難以拓展到更大參數,因此很難學習到通用世界的變化和運動規律。
而當前的世界模型研究主要集中在遊戲、機器人和自動駕駛領網域,缺乏全面捕捉通用世界變化和運動規律的能力。
所以,研究團隊提出了 WorldDreamer 來加強對通用世界的變化和運動規律的學習理解,從而顯著增強視頻生成的能力。
借鑑大型語言模型的成功經驗,WorldDreamer 采用 Transformer 架構,将世界模型建模框架轉換為一個無監督的視覺 Token 預測問題。
具體的模型結構如下圖所示:
WorldDreamer 首先使用視覺 Tokenizer 将視覺信号(影像和視頻)編碼為離散的 Token。
這些 Token 在經過掩蔽處理後,輸入給研究團隊提出的 Sptial Temporal Patchwuse Transformer(STPT)模塊。
同時,文本和動作信号被分别編碼為對應的特征向量,以作為多模态特征一并輸入給 STPT。
STPT 在内部對視覺、語言、動作等特征進行充分的互動學習,并可以預測被掩碼部分的視覺 Token。
最終,這些預測出的視覺 Token 可以用來完成各種各樣的視頻生成和視頻編輯任務。
值得注意的是,在訓練 WorldDreamer 時,研究團隊還構建了 Visual-Text-Action(視覺 - 文本 - 動作)數據的三元組,訓練時的損失函數僅涉及預測被掩蔽的視覺 Token,沒有額外的監督信号。
而在團隊提出的這個數據三元組中,只有視覺信息是必須的,也就是說,即使在沒有文本或動作數據的情況下,依然可以進行 WorldDreamer 的訓練。
這種模式不僅降低了數據收集的難度,還使得 WorldDreamer 可以支持在沒有已知或只有單一條件的情況下完成視頻生成任務。
研究團隊使用大量數據對 WorldDreamer 進行訓練,其中包括 20 億經過清洗的影像數據、1000 萬段通用場景的視頻、50 萬段高質量語言标注的視頻、以及近千段自動駕駛場景視頻。
團隊對 10 億級别的可學習參數進行了百萬次迭代訓練,收斂後的 WorldDreamer 逐漸理解了物理世界的變化和運動規律,并擁有了各種的視頻生成和視頻編輯能力。
論文地址:
https://arxiv.org/abs/2401.09985
項目主頁:
https://world-dreamer.github.io/
— 完 —
點這裡關注我,記得标星哦~
一鍵三連「分享」、「點贊」和「在看」
科技前沿進展日日相見 ~
>