騰訊重點開發(fā)游戲AI 未來和你打LOL的可能是AI
- 來源:36Kr
- 作者:skylark
- 編輯:豆角
未來和你LOL電競的可能是騰訊的AI。
這個聽起來有點腦洞大開的想法,并非遙不可及。騰訊的AI Lab就正在這么做。
AI正成為大公司的必爭領域。相比于Google、微軟、IBM、百度、阿里等公司,騰訊在AI方面的宣傳并不多。事實上,2016年騰訊組建了30多人的AI Lab, 并在AI技術及應用方面進行研究。
相比于技術的研發(fā),我們更關心騰訊AI應用方面的規(guī)劃。在今天騰訊研究院的年會上,騰訊集團副總裁、騰訊人工智能實驗室負責人姚星就詳細闡述了這一問題。
技術方面,騰訊AI主要是基于四個垂直領域,分別會在CV(計算機視覺)、ASR、語音識別、NLP(自然語言處理)。在計算機視覺領域,除了傳統(tǒng)的圖像處理,還會引入AR、空間定位等技術。在語音識別方向,除了傳統(tǒng)的語音識別、語音合成,還引入了自動翻譯。在自然語言處理方面,除了傳統(tǒng)的自然語言處理,還會引入監(jiān)督類的機器學、無監(jiān)督類的增強學習。
在應用層面,則主要會結合騰訊的業(yè)務,主要分為內容AI、社交AI、游戲AI。 內容AI方面,主要是個性化的推薦。社交和游戲是騰訊最強的兩個業(yè)務,也是騰訊AI最重要的兩個結合點。在社交AI方向,會面向于社交的能力去提供AI能力,未來有可能會推出聊天機器人、智能助手等。
與很多大公司不同,騰訊的AI將游戲作為了一個重要的方向。姚星設想,未來有一天,有一個AI可能會參加LOL這樣的競賽,跟人對打;而將AI應用在《王者榮耀》這樣的爆款游戲中,可玩性、樂趣性都有可能增加。
為了方便大家更多的了解騰訊AI Lab的一些信息,我們也對姚星的演講進行了整理。
以下為姚星演講的整理
姚星:
各位朋友大家下午好。今天我演講的題目是AI真實的希望和隱憂。
什么叫希望,希望就說明大家期待,隱憂說明大家期望過大。
第一我首先要澄清一個事情,剛剛主持人馬斯特是不是騰訊做的,我要澄清,馬斯特不是騰訊。
我們回顧一下互聯(lián)網發(fā)展的二十年,實際上過去的二十年是信息高速發(fā)展的二十年,它經過了幾個發(fā)展階段。從我們發(fā)展的方向上面來講,應該是在九十年代初期,中國應該第一次連上互聯(lián)網,在上個世紀九十年代我們進入到互聯(lián)網大家庭當中了,但是由于當時網絡數據連接的問題,大部分在互聯(lián)網上的應用還是只限于溝通,溝通解決了很多問題,人不再需要面對面,或者通過傳統(tǒng)的書信的方式進行溝通,人可以通過互聯(lián)網,不論在天涯海角,只要能連上互聯(lián)網,總是可以觸達到一些消息。隨著整個設備傳輸的發(fā)展,網吧的興起,大家連接網絡的速度提升,你會發(fā)現(xiàn)我們的網絡帶寬提升速度越來越大,這時候人們對互聯(lián)網的訴求不再僅僅是通過消息的傳遞溝通,更多的是分享。MSN也好,包括FaceBook,包括QQ空間,都是基于分享,人人為我,我為人人,那時候有很多東西都是通過互聯(lián)網來分享喜悅和苦惱。
隨著后面移動時代的發(fā)展,特別是智能手機的發(fā)展,智能終端的發(fā)展你會發(fā)現(xiàn),最后在最近這五年以來,我們的移動互聯(lián)網高速發(fā)展,人們不再是在指定的地點和指定的地方進行互聯(lián)網連接,以前傳統(tǒng)大家都是在網吧或者工作的地方,現(xiàn)在大家通過手機無時無刻連到互聯(lián)網,所以整個過往的二十年是隨著設備的發(fā)展,產業(yè)的發(fā)展,隨著信息產業(yè)的發(fā)展而演進。伴隨著過往二十年發(fā)展,騰訊二十年我們做了什么呢?實際上我們在每一個時代都有騰訊一款重量級的產品。在最早的溝通時代,在上世紀九十年代的時候,我們有QQ,QQ目前是世界上在線最大的容量,已經達到同時兩億人在線,在2000年初的時候,我們有了我們的QQ空間,QQ空間目前的日上傳的照片數是超過五億張,這個規(guī)模如果我們跟世界上最大的網站FaceBook去比,是差不多同一個量級。2013年FaceBook日上傳照片數大概在2.5億左右,目前QQ空間日上傳照片數也好,總照片數也好跟FaceBook是同一個量級。
然后在移動互聯(lián)網時代,毫無疑問騰訊,大家現(xiàn)在都知道的一個產品就是微信,這款產品不光是簡單的,還是玩超級的人,它不僅是解決了溝通問題,還解決了社交、分享的問題,還是一款包括我們去線下支付,線下的打車,甚至醫(yī)院掛號看病,交水電費等等一系列使用都在那一個軟件上面,實際上這三款騰訊產品在世界上來講都是領先的。整個發(fā)展史我們也看出過往的發(fā)展史是從信息時代,我們說從窄帶到寬帶,到移動互聯(lián)網時代,它猶如生物進化一樣,從早期的單細胞到多細胞到最后的智能。今年來講實際上這個智能會更加的廣義了,不僅僅是智能終端,大家更多的討論的,今天的智能是AI。
去年2016年又是整個AI真正發(fā)展六十周年,所以在去年AI在世界上也爆發(fā)起來。包括我剛剛在小房間跟很多嘉賓在聊的時候,說騰訊是一個很低調的,的確很低調,很多人問我騰訊有沒有做AI?怎么從來沒有向外宣傳呢?實際上騰訊有自己的AI相關的部門,從2016年4月份開始,騰訊成立了自己的部門,目前我們的情況就是,基本上有30多個科學家,90%以上的人都是博士學歷以上,絕大多數人都是海外回來,然后從他們院校來講,都是從世界最頂級的學府引進的人才,包括哈佛,康奈爾,麻省理工等等,哥倫比亞大學等等這些學校。
所以目前在騰訊里面,我們已經組織了一個AI團隊,但是這個規(guī)模還在擴張。騰訊的AI可能不像其它公司的AI讓人那么了解,比如說像谷歌的AI,大家很多了解在做圍棋,包括他們出來很多的產品,包括他們的語音等等的很多東西,包括像百度,他們有無人車,有度蜜等等的一些產品,包括FaceBook等等,所以它做了很多圖像上面的東西,等等等等,但騰訊的AI一直沒有對外宣傳,今天我也跟大家分享一下,騰訊在AI上面的考慮。實際上騰訊的AI我們主要是基于四個垂直領域,分別會在CV(計算機視覺),還會在ASR,語音識別,就是語音識別上面,我們還會有一個專屬的垂直領域,另外在LP,自然語言處理上面也會有,每一個領域里面也會拓展到更多深層次的研究。比如我們在計算機視覺領域,我們可能除了傳統(tǒng)的圖像處理,還會引入AR的東西,增強現(xiàn)實的東西在里面,也會引入空間定位的技術在里面。語音識別我們除了傳統(tǒng)的語音識別,語音合成,還會引入更多的這種,跟語音相關的,就是我們的自動翻譯方面的一些,放在里面,另外除了傳統(tǒng)的自然語言處理的這種人的認知行為的一些研究,我們還會做,比如說對話的聊天機器人這類的一些研究放在這里面,在新領域,就是我們監(jiān)督類的機器學習,到增強學習,我們都會在四個領域。所以這四個領域基本上涵蓋了當今整個AI基礎研究領域的方方面面,這是四個基礎的研究領域。
然后我們另外提出了四個專屬的這種產品研究方向,這是結合了我們整個騰訊公司來進行的,我們提出了有內容的AI,我們把搜索引擎基于個性化的推薦,基于內容類的東西和搜索類的。另外我們還有我們的社交,騰訊是一個傳統(tǒng),就是一個非常,在社交平臺上面非常厲害的公司,包括我們剛剛說的QQ空間,它都是一個社交平臺,所以在社交AI上面我們會面向于社交的能力去提供AI能力,就是剛剛我說的對話,包括聊天機器人,包括我們智能助手,都會在這個方向上去研究。
另外一個方向,我覺得是跟全世界其他所有的公司不太一樣的一個AI方向,大家可能會問我,也有做圍棋的AI,但是它只是一個簡單的圍棋,它不會有太多的游戲,但對于騰訊來講,在整個騰訊集團里面有個很大的產業(yè)是游戲,我們會在游戲里面引入更多AI能力,實際上想像空間是非常大的,大家試想一下,LOL是不是可以有一天,會有個AI可以參加這種世界競賽,跟人對打,大家也知道今天騰訊有一款很受歡迎的手游叫做王者榮耀,如果把這里面的能力提升,是不是可玩性,樂趣性就會更多,對于騰訊來說這一塊也是很關注的。除此之外我們還會提供我們很多工具類的AI,這里面就會提供我們這種能力把它開放出來,包括基于圖像上人臉識別的能力,包括語音識別的能力,包括在自然語言處理的能力等等等等,包括我們在學習平臺的能力。所以說整個騰訊從目前來講,我們的研究AI基礎領域是四個,然后我們的方向也是四個。
剛剛講了很多前面的篇章,是講騰訊,包括新產業(yè)發(fā)展二十年,騰訊在過往的產業(yè)當中二十年的情況,以及我們在AI上面的布局和考慮?,F(xiàn)在我來講一下整個AI,剛才講更多的是AI的希望,現(xiàn)在我來講一下AI方面的隱憂是什么。AI不是一個新的概念,發(fā)展了六十年,六十年AI一直都是有很多的起起落落,在去年突然一下大爆發(fā)了,一直延續(xù)到現(xiàn)在。像從五六年的會議開始,AI就開始有一個名詞,中間它經過了很多起起落落,比較有名的,我相信大家知道,九十年代的IBM打敗了卡斯帕羅夫。IDM也有一款基于知識圖譜的知識問答類的,在危險邊緣的挑戰(zhàn)賽里面取得了冠軍。大家可能記得最清楚的一件事情,可能還是去年AlphaGo打敗了世界冠軍,韓國的李世石,因為大家都認為圍棋是在一個最古老的游戲里面,最復雜的游戲里面,在智能上面超過了人。當然整個發(fā)展史里面也有很多技術方面的演進,比較有代表性的就是2006年,在學習上面真實的突破,他帶來了整個AR在發(fā)展方面極速的提升。
為什么這一次AI會讓大家這么大的這種期待,或者有這么大的關注呢?我覺得這是AI發(fā)展上面最主要的原因是這一次AI底層算法在深度學習上面進行了有效突破,就是剛剛我說的,所以使得這次AI的發(fā)展在2012年開始,整個學習的方法,不像傳統(tǒng)的方法,讓人類去模仿,就跟早期的人類想學飛翔,原來的方法是粘上羽毛,像鳥一樣,真正的飛翔最后的原理是要通過空氣動力學去解決飛鳥的原理,這就是深度學習的一個思想。之所以現(xiàn)在能在很多的這種工業(yè)上面,在很多應用上面進行突破,實際上本身是掌握了它的內在的這種方法,而不是表面的方法,所以在這個上面,方法的研究方面我覺得是重要的。
第二個是模型上的提升,剛才我說了,AI的發(fā)展有六十年,機器學習在八九十年代也非常火,當時有一個叫SBM,它已經是非常厲害的一種機器學習的算法。當它達到幾億幾十億規(guī)模的時候,實際上它的計算能力就會急劇下降,做一個非常復雜的復合函數去描述這種方式,它通過DP多層連接,它達到一個指數層倍的關系,描述十億可能我們只需要三層一千個節(jié)點的連接,就能構建十億個特征出來。所以從本身來講,模型上的提升這也是深度學習的突破。
另外一個東西在數學上面,就是EP上面問題的解決,反向傳播的問題。首先在數學理論上進行,反向傳播是一個非常復雜的問題,在神經網絡里面當一個東西在傳遞很多層網絡的時候,我們知道當它往回我們要反向收斂的時候,我們都要去逼近最優(yōu)質,但是當往往層數太多的時候,會發(fā)生一個梯度消失或者梯度膨脹的問題,通過一些方法的解決,數學理論上面的解決,很好解決了這種問題,所以在數學理論上面,建立了一個比較好的基礎。
正因為這三方面的優(yōu)勢,所以使得在AI的浪潮里面,機器學習才會如此火。而且我堅信這次浪潮會持續(xù)很遠。右邊這幅圖就代表了在整個機器學習的一些圖文,在1933年到2000年左右,整個傳統(tǒng)的淺層機器學習的學習方法,它有一個比較好的下降過程,但是2000-2010年這十年,它進展非???,它在方法上面,在模型上面可能都沒有進行,突然在2012年左右,微軟研究院他們最開始在工業(yè)界把機器學習用到語音識別里面去,取得了極大性的突破,急劇又進行收斂,所以整個過程機器學習的能力的確是在過往的五年當中,發(fā)展非常非常快的。
講了很多機器學習的這種,剛剛說的發(fā)展,快速的發(fā)展,它的方法也很好,模型也很好,數學算法也在突破,但是現(xiàn)狀是什么呢?就剛剛我說的,今天我談的話題是AI期待很大,期待太大了,為什么會這么講?作為一個從業(yè)者,我對AI上面還是有很多很多的東西,可能是需要提出來,就是這里面還是有很多的局限性。第一個就是本身深入學習的能力,就是我們說的AI跟人去相比,它有多大的差距。實際上我們發(fā)現(xiàn)所有現(xiàn)在的機器學習的方法,我們都發(fā)現(xiàn)不管這個方法有多么的新提出來,它的學習過程都是要從頭開始學,都要把數據重新進行一次訓練的過程。但這跟人的學習能力相比確實有很大的差距,人有很多的智能是與生俱來的,就像小孩剛出生,不需要多長時間就知道這個世界是三維的,當你把一個東西放在一個,把一個瓶子放在電視機的后面,他是知道的,在電視機后面有一個東西的,這是一些特征是與生俱來的,這個是跟生物的進化是相關的。所以人的這種,我們叫靈長類的動物跟單細胞動物相比,肯定是有與生俱來的能力。但是目前深度學習方法很遺憾,我們不管提出了多么優(yōu)秀的模型,可能我們都要重新開始學,這是第一個跟人的學習能力相比,這是一個非常大的缺陷。第二個就是我們不管有多么好的學習的,剛才說有很多的模型,特別這幾年有非常多的出來,不管有多么好的這種神經網絡模型,它本質上的問題還是通過算力,計算能力去解決大數據,更多的大數據,更大的計算能力去做更好的融合的過程。過往是整個硬件發(fā)展,是順從了摩爾定律發(fā)展,發(fā)展非常之快,但是在未來的更多的參數下面,我們還有沒有這種能力,達到計算的效果,這要打上很大的問號。
比如說我們的網絡模型,2006年提出來的,到后面劍橋大學出來的,再到后面谷歌提出來的,再到2015年神經網絡,每一次新的模型提出都是把模型的層數加入更多,神經單元更復雜,訓練結果更長,得出來的結果也最優(yōu),但是本身這種方法是不是還能像原來的方法一樣可持續(xù),這要打一個很大的問號。另外一個剛才解決的是圖像方面的問題,下面我們解決感知的問題,如果我們要解決認知的問題,那差距就更大了。人的語言是一個序列問題,這個語言序列問題如果要計算的話,這個算力是無論如何解決不了的。人可以很容易在對話當中,回溯到一個很長時間語句的某個片段的關鍵詞里面,但是在機器里面它卻不一定做到這個,雖然我們也在最早的模型形成到現(xiàn)在長短記憶單元的模型,到后面的我們現(xiàn)在騰訊的,帶有注意力的模型,但是總之來講,這種模型的演進都還跟人相比是非常復雜的,是遠不如人的。比如說那天我看到一個對話,是三個人在對話,兩個人在聊,中間有大段聊去哪兒吃飯,突然有人問太陽呢?人知道這是描述太陽隊的,因為前面很早之前有人在聊,湖人跟快船的話題,突然來個太陽大家就知道,但是機器基本上是沒辦法識別的。夏天能穿多少穿多少,冬天能穿多少穿多少,兩句基本上一樣,但是前面去描述,把少給突出來了,后面把冬天多顯出來。
第二個例子我講的是語音識別,我看了一個笑話,語音識別很難搞,您好,方便面試嗎?我在重復這句話的時候,我都不知道自己在講方便面是嗎,還是方便面是嗎,的確這是一個非常難的問題,但是人的理念很多東西,是由于進行反問的時候,再慢慢把這個東西帶出來。所以說目前的AI情況,在圖像里面,包括說人臉做的多么多么厲害,99%,但實際上它在很多的約束條件下,它正臉,它不能側臉去做,就是完全側臉是完全不可能的,或者說它戴帽子可能也比較難,所以它是在很多約束條件下面,達到了人臉識別,達到了9%,包括剛剛語音識別說的,語音識別也是在很干凈的情況下,比如我們的噪音比較小,我們沒有風噪,沒有車噪的問題,可能機器在聽語音識別的時候會識別出來一個比較好的效果,一旦距離遠。但跟人相比,這完全不是問題,包括多人的問題,語音跟蹤的問題,所以在我剛剛說的感知的能力,它跟人基本的能力相比還差距很大,更別說它在認知方面,在LP這種語意方面。
所以在整個AI上面,隱憂我覺得是我們期待太好了,我們要回歸現(xiàn)實,AI現(xiàn)在這個能力剛剛起來,但是這個趨勢很好。未來AI發(fā)展方向是什么呢?我覺得AI跟人,包括機器學習跟人的能力上面有些差距,怎么去補齊差距呢?第一個我覺得跟人相比要創(chuàng)造,我們現(xiàn)在所有都是基于大數據,這些數據從何而來,這是非常重要的。這個數據現(xiàn)在是傳統(tǒng)的獲得而來,但更多的數據是本身能創(chuàng)造出來,當然這條方法通過剛剛主持人介紹的,包括AlphaGo已經在驗證這樣的問題,通過增強學習去產生人類從未下過的棋,這是一種創(chuàng)造數據的能力,通過創(chuàng)造數據的能力產生更多的數據,不一定是人創(chuàng)造了這些,去把這些東西更多的窮盡出來,這是一種我覺得在未來,如果在這方面發(fā)展的話,可能我們在增強學習方面,我們要進行更多的發(fā)展和突破。第二個就是舉一反三,什么叫舉一反三,AlphaGo下圍棋能下倒世界冠軍,但是他的下棋方法到現(xiàn)在已經不行了。因為他的方法并不是為下棋而創(chuàng)造的,他不會進行推導。當我們驗證大數據和一個非常好的效果的時候,我們數據量很小的時候,怎么把原來的模型遷移過來,這是非常重要的研究方向。
第三個方向和人相比就是歸納總結。人是非常能進行一些總結的,包括像牛頓的第一定律,包括牛頓的萬有引力,都是人總結出來的,包括我們很多公理,但是目前機器學習是沒辦法進行歸納總結的,我們之所以結果好,它并沒有提煉出公理和定律的關系。所以這方面未來我們要在歸納總結,特別是無間度學習上面,分類問題是有目標去學習的,但聚類問題沒有目標的時候,我們怎么把它聚好。所以在這三個能力上面,我相信這是我們未來在AI上面要進行提升的。第二個就是在整個的發(fā)展方向上面,剛剛講了很多說機器學習通過數據方法,它從傳統(tǒng)的淺層學習里面,我們所有的,通過統(tǒng)計學的概率論,完備的統(tǒng)計學概率論理論來支撐它,我們說到求這種函數極限的問題,我們有很多完備的數學公式去證明,我們一定能解決它的問題,但是恰恰在我們機器學習上面,雖然前面我們用了隨機去找局部最優(yōu),但是它本身數學領域,它只是一個框架,我們在很多上面,還是一個啟發(fā)式的約束,包括我們的初始化參數多少,包括我們學習率是多少,這都是有啟發(fā)性的。在未來如果機器學習要繼續(xù)往下走的話,我們在數學理論上面一定要有強大的支撐,特別傳統(tǒng)的機器學習,數學完備型,要遷移到我們機器學習上來。
大家知道神經網絡的提出,很多來自于原來的腦神經學科和生物系統(tǒng),在本身這個上面,我相信未來AI的發(fā)展要引入更多,不光是我們數學學科,計算機學科,還要引入腦學科神經去引,因為腦的神經結構就是,剛剛我提到了蟬紗神經網,已經連接腦神經的概念了,進行跨層連接,達到一個非常好的效果。當然更多的東西我希望就是未來,可能在交叉學科上面,包括剛剛說的生物,腦神經,包括哲學都要去引進來,這樣的話整個AI可能才有更多完備型的發(fā)展。另外一個地方就是,在當今世界里面,AI我覺得是對所有公司來講,對所有人來講都應該是平等的,所以我們一定要開放,比較好的是當今世界所有的,在AI領域里面的大公司都在做,包括騰訊也會,我們看到很多包括谷歌的Open,包括FaceBook它也Open了非常多的網絡模型,包括我們了解現(xiàn)在很火的OpenAI等等這些大的這種機器學習,AI的這種先行者,騰訊在未來也會去進行很多Open,把我們部分行為的數據,就是這種環(huán)境,應該是環(huán)境,讓更多的人來參與進來,進行測試。所以整個過程就在未來AI的發(fā)展,我相信第一方面就是在能力上面,要跟人去匹敵的話,要進行提升,第二個在整個學習的完備型,數學完備,學科完備上要進行豐富,第三個就是所有的這種大的公司,AI的參與者,我們以更加開放的心態(tài)去面對AI,這才是未來AI,AI的未來。
說到這里我又要再次強調一下AI對騰訊來講非常重要,對中國整個互聯(lián)網都很重要。在當今世界里面,曾經我們可能在整個最開始的互聯(lián)網時代,我們跟美國去比,可能還會,美國最強的公司去比,可能還會有一些差距,包括我們原來的工業(yè)時代,跟西方最強的發(fā)達領域,整個AI的時代我堅信我們整個互聯(lián)網公司,包括騰訊上面,是跟世界一流的公司是有匹敵之處的,為什么?第一我們數據足夠多,中國的互聯(lián)網人數是其它國家可能互聯(lián)網人數的總和,中國的互聯(lián)網是世界上最大的互聯(lián)網總數的人數,所以我們每天產生的數據足夠多,在騰訊里面,包括微信,包括QQ,產生了無數的數據,我相信在中國其它的互聯(lián)網公司,包括我們的店商,包括我們的搜索也會產生很多的數據,這對中國公司來講,這是非常好的一個優(yōu)勢。
第二是應用場景,作為騰訊來講,我們有很多的這種把AI這種遙不可及的技術跟落地的機會,我們可以在微信里面,在我們的游戲里面,在我們的新聞里面QQ里面去落地AI場景,哪怕小到一點語音識別,或者圖像,或者是說聊天機器人等等,這都是我們可以去落地的地方。
第三個地方就是人才,人才是有數據統(tǒng)計,目前的機器學習相當一大部分人,雖然我們國內人在機器學習上的專業(yè)還比較少,這個學科也比較少,但是在整個世界上來看,這個領域的華人是非常多的,我參加過2016年的ICML,有三千人,我敢說大概3-40%人都是華人,那里面40%的文章都是華人寫出來的。所以在這個上面,人才結構上面我覺得中國是有非常好的這種人才的基礎,說正是基于我們數據的優(yōu)勢,我們場景落地的優(yōu)勢,我們人才結構的優(yōu)勢,我覺得在騰訊也好,中國其它互聯(lián)網對AI的未來大有可為。最后講一下騰訊的AI使命。我們的AI使命,讓AI無所不在,謝謝大家。

玩家點評 (0人參與,0條評論)
熱門評論
全部評論