IT之家 10 月 2 日消息,Meta 公司近日發布了一個人工智能系統,可以根據文字提示生成短視頻。
IT之家了解到,這個系統名為 Make-A-Video,允許用戶輸入一連串的詞語,比如“一隻穿着超級英雄服裝、披着紅色斗篷在天空中飛翔的狗”,然後生成一個五秒鐘的短視頻。
雖然效果相當粗糙,但這個系統顯然要比文字轉圖片 AI 系統更高級。
上個月,人工智能實驗室 OpenAI 向所有人提供了其最新的文本轉圖像人工智能系統 DALL-E,而人工智能初創公司 Stability.AI 則推出了 Stable Diffusion,這是一個開源的文本轉圖像系統。
但文本轉視頻 AI 系統伴隨着一些更大的挑戰。首先,這些模型需要大量的計算能力。它們比大型文本到圖像的人工智能模型的計算量還要大,後者使用數百萬張圖像進行訓練,因為僅僅拼湊一個短視頻就需要數百張圖像。這意味着在可預見的未來,只有大型科技公司才有能力建立這些系統。它們的訓練也比較棘手,因為沒有大規模的高質量視頻與文本配對的數據集。
為了解決這個問題,Meta 結合了三個開源圖像和視頻數據集的數據來訓練其模型。標準的文本轉圖像數據集的標記靜態圖像幫助人工智能學習物體的名稱和它們的樣子。一個視頻數據庫幫助它學習這些物體應該如何在世界中移動。這兩種方法的結合幫助 Make-A-Video 能夠從文本中大規模地生成視頻。
Meta 公司稱,該技術可以“為創作者和藝術家帶來新的機會”。但是,隨着技術的發展,人們擔心它可能被用作創造和傳播錯誤信息和深度偽造的有力工具,它可能會使人們更難區分網上的真實和虛假內容。
打造 Make-A-Video 的研究人員過濾掉了攻擊性的圖片和文字,但對於由數百萬和數以百萬計的文字和圖片組成的數據集,幾乎不可能完全刪除有偏見和有害的內容。
Meta 公司的一位發言人說,目前還沒有向公眾提供這個模型,“作為這項研究的一部分,我們將繼續探索進一步完善和減少潛在風險的方法”。