OpenAI深夜發(fā)布首個(gè)文生視頻模型Sora,現(xiàn)實(shí)將被徹底顛覆

程璐2024-02-18 07:56

2月16日凌晨,OpenAI再次扔出一枚深水炸彈,發(fā)布了首個(gè)文生視頻模型Sora。據(jù)介紹,Sora可以直接輸出長達(dá)60秒的視頻,并且包含高度細(xì)致的背景、復(fù)雜的多角度鏡頭,以及富有情感的多個(gè)角色。

目前官網(wǎng)上已經(jīng)更新了48個(gè)視頻demo,在這些demo中,Sora不僅能準(zhǔn)確呈現(xiàn)細(xì)節(jié),還能理解物體在物理世界中的存在,并生成具有豐富情感的角色。該模型還可以根據(jù)提示、靜止圖像甚至填補(bǔ)現(xiàn)有視頻中的缺失幀來生成視頻。

例如一個(gè)Prompt(大語言模型中的提示詞)的描述是:在東京街頭,一位時(shí)髦的女士穿梭在充滿溫暖霓虹燈光和動感城市標(biāo)志的街道上。

在Sora生成的視頻里,女士身著黑色皮衣、紅色裙子在霓虹街頭行走,不僅主體連貫穩(wěn)定,還有多鏡頭,包括從大街景慢慢切入到對女士的臉部表情的特寫,以及潮濕的街道地面反射霓虹燈的光影效果。

另一個(gè)Prompt則是,一只貓?jiān)噲D叫醒熟睡的主人,要求吃早餐,主人試圖忽略這只貓,但貓嘗試了新招,最終主人從枕頭下拿出藏起來的零食,讓貓自己再多待一會兒。在這個(gè)AI生成視頻里,貓甚至都學(xué)會了踩奶,對主人鼻頭的觸碰甚至都是輕輕的,接近物理世界里貓的真實(shí)反應(yīng)。

Sora生成的視頻截圖,圖片來源:OpenAI官網(wǎng)

OpenAI表示,他們正在教AI理解和模擬運(yùn)動中的物理世界,目標(biāo)是訓(xùn)練模型來幫助人們解決需要現(xiàn)實(shí)世界交互的問題。

隨后OpenAI解釋了Sora的工作原理,Sora是一個(gè)擴(kuò)散模型,它從類似于靜態(tài)噪聲的視頻開始,通過多個(gè)步驟逐漸去除噪聲,視頻也從最初的隨機(jī)像素轉(zhuǎn)化為清晰的圖像場景。Sora使用了Transformer架構(gòu),有極強(qiáng)的擴(kuò)展性。

視頻和圖像是被稱為“補(bǔ)丁”的較小數(shù)據(jù)單位集合,每個(gè)“補(bǔ)丁”都類似于GPT中的一個(gè)標(biāo)記(Token),通過統(tǒng)一的數(shù)據(jù)表達(dá)方式,可以在更廣泛的視覺數(shù)據(jù)上訓(xùn)練和擴(kuò)散變化,包括不同的時(shí)間、分辨率和縱橫比。

Sora是基于過去對DALL·E和GPT的研究基礎(chǔ)構(gòu)建,利用DALL·E 3的重述提示詞技術(shù),為視覺模型訓(xùn)練數(shù)據(jù)生成高描述性的標(biāo)注,因此模型能更好的遵循文本指令。

一位YouTube博主Paddy Galloway發(fā)表了對Sora的感想,他表示內(nèi)容創(chuàng)作行業(yè)已經(jīng)永遠(yuǎn)的改變了,并且毫不夸張。“我進(jìn)入YouTube世界已經(jīng)15年時(shí)間,但OpenAI剛剛的展示讓我無言…動畫師/3D藝術(shù)家們有麻煩了,素材網(wǎng)站將變得無關(guān)緊要,任何人都可以無壁壘獲得難以置信的產(chǎn)品,內(nèi)容背后的‘想法’和故事將變得更加重要?!?/p>

但Sora模型當(dāng)前也存在弱點(diǎn)。OpenAI稱它可能難以準(zhǔn)確模擬復(fù)雜場景的物理原理,并且可能無法理解因果關(guān)系。例如,一個(gè)人可能咬了一口餅干后,餅干會沒有咬痕,玻璃破碎的物理過程可能也無法被準(zhǔn)確呈現(xiàn)。

來源:界面新聞 記者:程璐

版權(quán)與免責(zé):以上作品(包括文、圖、音視頻)版權(quán)歸發(fā)布者【程璐】所有。本App為發(fā)布者提供信息發(fā)布平臺服務(wù),不代表經(jīng)觀的觀點(diǎn)和構(gòu)成投資等建議

熱新聞