周鴻祎:中美AI的差距主要在于“確定技術(shù)方向”
- 來源:環(huán)球時(shí)報(bào)
- 作者:環(huán)球時(shí)報(bào)
- 編輯:豆角
360創(chuàng)始人周鴻祎23日在接受《環(huán)球時(shí)報(bào)》記者采訪時(shí)表示,中美在AI上的差距主要在于“確定技術(shù)方向”上,一旦方向確定,中國的優(yōu)勢是學(xué)習(xí)能力很快,中美在AI上的差距應(yīng)該能在一兩年內(nèi)追上。周鴻祎同時(shí)表示,2024年或?qū)⒊蔀橹袊贏I領(lǐng)域的“應(yīng)用之年”,相信今年大模型將在許多企業(yè)的垂直領(lǐng)域大有可為,“中國現(xiàn)在要做出一個(gè)超過GPT4的通用大模型可能比較難,但在一些垂直領(lǐng)域超過GPT4,是完全有可能的。”
2月15日,人工智能ChatGPT母公司OpenAI公布了一種新的人工智能系統(tǒng)Sora,該系統(tǒng)可以根據(jù)用戶的文本提示創(chuàng)建逼真的視頻,引發(fā)全球關(guān)注與討論。360創(chuàng)始人周鴻祎16日發(fā)文說,OpenAI手里應(yīng)該還藏著一些“秘密武器”,這樣看來中國跟美國的AI還存在一些差距。他同時(shí)表示,科技競爭最終比拼的是人才密度和行業(yè)積累。AI不一定那么快顛覆所有行業(yè),但它能激發(fā)更多人的創(chuàng)作力。
“我一直堅(jiān)持這么說,看到差距才知道怎么迎頭趕上。承認(rèn)差距不是壞事,認(rèn)為我們所有都遙遙領(lǐng)先了,那就(不行了)。周鴻祎23日在對《環(huán)球時(shí)報(bào)》進(jìn)一步闡述稱,自己認(rèn)為中國和美國在人工智能上的差距主要在“確定技術(shù)方向”上。
“誰選擇到了正確的方向,正確的架構(gòu),全世界都會(huì)跟著這個(gè)架構(gòu)?!彼忉尫Q,“比如,日本人當(dāng)時(shí)做電動(dòng)車,選的是氫架構(gòu),豐田走的是混動(dòng)架構(gòu),而特斯拉走的是純電池架構(gòu)。我們實(shí)際上是堅(jiān)定追隨特斯拉的架構(gòu),比亞迪率先學(xué)習(xí),再通過不斷發(fā)展,現(xiàn)在比亞迪在銷量上是有機(jī)會(huì)超越特斯拉的?!?
“通過這些例子,我是想說明,一旦技術(shù)方向確定了,中國公司的學(xué)習(xí)能力都很快。尤其當(dāng)同行發(fā)布開源的東西、公開的論文后,中國團(tuán)隊(duì)去跟進(jìn),不是一個(gè)很難的問題?!彼硎?。
周鴻祎對《環(huán)球時(shí)報(bào)》記者表示,他對目前中美在AI上的差距并不悲觀,畢竟Transformer模型、Sora等本質(zhì)上都是軟件,這種差距是可以在一到兩年左右追上的。此外,也不需要非得等到全面趕上GPT4或Sora才能發(fā)展應(yīng)用。
在談及Sora對世界的影響和應(yīng)用前景時(shí),周鴻祎表示,Sora最讓他感到震撼的一點(diǎn)是,產(chǎn)生視頻只是它的一個(gè)“副產(chǎn)品”——在產(chǎn)生視頻的過程中,Sora需要學(xué)習(xí)很多視頻材料,它學(xué)到的不僅是如何繪出圖案,更重要的是,它必須了解到現(xiàn)實(shí)世界很多元素間的互動(dòng)關(guān)系。
“有人跟我爭論,畫圖軟件也能畫出一只狗在雪地上,但問題是,畫出靜止的狗和雪不需要掌握常識(shí),只要照著圖像畫就可以。但要想呈現(xiàn)出狗在雪地上撒歡,雪還在掉落,是松軟的性質(zhì),沒有對現(xiàn)實(shí)世界常識(shí)的學(xué)習(xí)和積累是做不到的?!彼忉尩馈?
“這意味著Sora讓人離AGI(通用人工智能)又近了一步?!敝茗櫟t對《環(huán)球時(shí)報(bào)》表示,“GPT實(shí)際上解決了機(jī)器和人之間相互理解和交互的問題,這是攻克了第一個(gè)難關(guān),但它對這個(gè)世界的很多規(guī)律并不知道:比如我們要讓一個(gè)機(jī)器人去冰箱里拿西紅柿再炒雞蛋,訓(xùn)練起來會(huì)很難,因?yàn)樗枰牢骷t柿是摔不破的,而雞蛋一摔就破,它還要知道要怎么磕雞蛋,它必須像人類一樣見過,才能知道。我認(rèn)為這可能是OpenAI在研發(fā)Sora時(shí)無意中做到的。它實(shí)際上通過這種訓(xùn)練方法,讓機(jī)器能夠和世界互動(dòng)?!?
他認(rèn)為,這意味著Sora未來可能應(yīng)用于機(jī)器人和無人駕駛領(lǐng)域,因?yàn)樗鼘φ鎸?shí)世界的交互有了感知的能力。
在談及中國AI在2024年的發(fā)展前景時(shí),周鴻祎對《環(huán)球時(shí)報(bào)》表示,2024年應(yīng)該是中國AI的“應(yīng)用之年”,相信今年在許多企業(yè)的垂直領(lǐng)域,大模型將大有可為?!按竽P臀磥響?yīng)該要產(chǎn)生一場工業(yè)革命,大模型必須跟隨企業(yè)進(jìn)入百行千業(yè),和很多企業(yè)的業(yè)務(wù)流程和產(chǎn)品功能相結(jié)合。”
“比如,我們現(xiàn)在要做一個(gè)能超過GPT4的通用的大模型可能比較難,但GPT4是‘啥都懂,但不?!?。如果我們能在某一個(gè)業(yè)務(wù)領(lǐng)域,有獨(dú)特的業(yè)務(wù)數(shù)據(jù),在一個(gè)垂直領(lǐng)域把大模型訓(xùn)練得很好,而且把大模型和企業(yè)很多業(yè)務(wù)工具結(jié)合在一起,這樣的大模型就不僅有腦子,還有獨(dú)特的知識(shí),甚至手和腳了?!彼硎?,中國在一些垂直領(lǐng)域的大模型超過GPT4,是完全有可能的。
有觀點(diǎn)認(rèn)為,中國大模型的開發(fā)需要對內(nèi)容安全和監(jiān)管投入巨大精力,這是目前中國AI發(fā)展的一大挑戰(zhàn)。對此,周鴻祎認(rèn)為,全世界的大模型都面臨安全挑戰(zhàn),尤其是如何保證大模型可信、可控、可靠的問題。
“大模型可以成為好人的幫手,也可以成為壞人的幫手。比如過去你得懂編程才能做網(wǎng)絡(luò)攻擊,現(xiàn)在你可以和大模型對話,給它‘小費(fèi)’,它能幫你很勤奮地干活,甚至同流合污。”他舉例稱,再比如Sora可以產(chǎn)生任何視頻,這些視頻大到可以用來干預(yù)美國大選、成為影響國家安全的武器,小到可以用來詐騙,其蘊(yùn)含的危險(xiǎn)性其實(shí)很大。當(dāng)人工智能技術(shù)的發(fā)展已經(jīng)走在法律前面的時(shí)候,全世界都在考慮如何對人工智能進(jìn)行有效監(jiān)管,如何防止它作惡或被利用,這目前也是全世界的難題。
“我不認(rèn)為監(jiān)管對人工智能的進(jìn)步帶來妨礙。相反,如果沒有任何監(jiān)管,對各大互聯(lián)網(wǎng)做出的各種人工智能工具,最后好人不一定能很及時(shí)地用上,緬北的詐騙分子可能倒先用上了,據(jù)說他們對新技術(shù)的渴望和熱愛不亞于我們的高科技公司?!彼麑Α董h(huán)球時(shí)報(bào)》記者開玩笑地說道。他表示,合理的監(jiān)管應(yīng)當(dāng)能夠?qū)θ斯ぶ悄艿陌l(fā)展帶來正向推動(dòng)作用,而不能一概認(rèn)為是束縛。

玩家點(diǎn)評 (0人參與,0條評論)
熱門評論
全部評論