周鴻祎談Sora視頻模型:中美的AI差距還在加大
- 來源:快科技
- 作者:若風(fēng)
- 編輯:liyunfei
OpenAI近日發(fā)布首款文生視頻模型——Sora模型,完美繼承DALL·E 3的畫質(zhì)和遵循指令能力其支持用戶輸入文本描述,生成一段長達(dá)1分鐘的高清流暢視頻。
360董事長周鴻祎日前在微博發(fā)文,談到OpenAI的文字轉(zhuǎn)視頻模型Sora,他認(rèn)為Sora模型意味著AGI實(shí)現(xiàn)將從10年縮短到1年。周鴻祎稱,AI不一定那么快顛覆所有行業(yè),但它能激發(fā)更多人的創(chuàng)作力。
一個(gè)視頻或者電影是由無數(shù)個(gè)60秒組成的,今天Sora可能給廣告業(yè)、電影預(yù)告片、短視頻行業(yè)帶來巨大的顛覆,但它不一定那么快擊敗TikTok,更可能成為TikTok的創(chuàng)作工具。
周鴻祎還指出,國內(nèi)大模型發(fā)展水平表面看已經(jīng)接近GPT-3.5了,但實(shí)際,上跟4.0比還有一年半的差距。
OpenAl手里應(yīng)該還藏著一些秘密武器,無論是GPT-5,還是機(jī)器自我學(xué)習(xí)自動(dòng)產(chǎn)生內(nèi)容,包括AIGC。
奧特曼是個(gè)營銷大師,知道怎樣掌握節(jié)奏,他們手里的武器并沒有全拿出來,這樣看來中國跟美國的Al差距可能還在加大。
此外,Open AI訓(xùn)練這個(gè)模型應(yīng)該會(huì)閱讀大量視頻,大模型加上Diffusion技術(shù)需要對這個(gè)世界進(jìn)行進(jìn)一步了解,學(xué)習(xí)樣本就會(huì)以視頻和攝像頭捕捉到的畫面為主。
一旦人工 智能接上攝像頭,把所有的電影都看一遍,把YouTube,上和TikTok 的視頻都看一遍,對世界的理解將遠(yuǎn)遠(yuǎn)超過文字學(xué)習(xí)。
一幅圖勝過千言萬語,而視頻傳遞的信息量又遠(yuǎn)遠(yuǎn)超過一幅圖,這就離AGI真的就不遠(yuǎn)了,不是10年20年的問題,可能一兩年很快就可以實(shí)現(xiàn)。
玩家點(diǎn)評 (0人參與,0條評論)
熱門評論
全部評論