您的位置: 首頁 > 新聞 > 時(shí)事焦點(diǎn) > 新聞詳情

史蒂芬霍金建議:組建“世界政府”來防御AI崛起

時(shí)間:2017-03-15 09:41:31
  • 來源:互聯(lián)網(wǎng)
  • 作者:Sophie周
  • 編輯:Sophie

著名理論物理學(xué)家史蒂芬·霍金(Stephen Hawking)無疑是當(dāng)代社會(huì)最偉大的人物之一,所以當(dāng)他分享他對(duì)世界的一些想法時(shí),很多人都會(huì)認(rèn)真傾聽。最近,他一直在談?wù)撘粋€(gè)主題:人類的未來。

最近,霍金對(duì)從地外生命到人工智能(AI)等一些熱門話題表達(dá)了自己的觀點(diǎn)。對(duì)于后者,他表示出非常擔(dān)憂。他并不反對(duì)開發(fā)人工智能技術(shù),事實(shí)上,他曾經(jīng)說過人工智能可能是我們文明歷史上最重大的事件。但是像今天世界上其他許多科學(xué)家和思想家一樣,霍金擔(dān)心人工智能的崛起可能帶來各種負(fù)面的副作用。他已就人工智能對(duì)中產(chǎn)階級(jí)工作崗位的影響向我們發(fā)出警告,并與特斯拉CEO埃隆·馬斯克(Elon Musk)一起,呼吁禁止開發(fā)用于軍事用途的人工智能機(jī)器人。他也擔(dān)心人工智能可能會(huì)接管世界,或者更糟糕的是,它會(huì)終止這個(gè)世界?,F(xiàn)在,他在接受英國《泰晤士報(bào)》采訪時(shí)表示,防御人工智能崛起的最好方式,是組建可以控制這種技術(shù)的“某種形式的世界政府”。

霍金接著解釋了他建立這樣一家國際管理機(jī)構(gòu)的理由:

自人類文明開始以來,人類的積極進(jìn)取是有益的,因?yàn)樗哂忻鞔_的生存優(yōu)勢。它是在達(dá)爾文進(jìn)化過程中滲透到我們?nèi)祟惢虻?。然而,現(xiàn)在技術(shù)的發(fā)展速度,使這種積極進(jìn)取可能以核戰(zhàn)爭或生物戰(zhàn)爭的方式摧毀我們?nèi)祟悺N覀冃枰眠壿嫼屠硇詠砜刂七@種繼承下來的本能。為了跟上人工智能的發(fā)展,我們必須學(xué)會(huì)適應(yīng)?;艚鹪?014年年底表示:“人工智能的發(fā)展可能會(huì)導(dǎo)致人類的終結(jié)。它將自己發(fā)展自己,并以不斷增長的速度重新設(shè)計(jì)自己。人類則受到緩慢的生物進(jìn)化限制,將無法與它競爭,并最終將被它取代。”

他認(rèn)為這些人工智能機(jī)器人拋棄我們,不會(huì)是出于任何情感的原因:“人工智能的真正風(fēng)險(xiǎn)不是它有惡意,而是它的能力。一個(gè)有超常智慧的人工智能能將非常善于實(shí)現(xiàn)目標(biāo),如果那些目標(biāo)與我們的目標(biāo)不一致,那我們就麻煩了。”因此,根據(jù)霍金的看法,某種形式的管理機(jī)構(gòu)和快速適應(yīng)的能力——這是即將到來的人工智能或超級(jí)智能時(shí)代我們生存的法寶。

幸運(yùn)的是,這樣的機(jī)構(gòu)已經(jīng)出現(xiàn)。這些機(jī)構(gòu),例如“人工智能伙伴關(guān)系”(Partnership on AI)和人工智能倫理與治理基金(Ethics and Governance of Artificial Intelligence Fund),已經(jīng)開始制定有關(guān)指導(dǎo)方針或框架,以讓人們更負(fù)責(zé)任地開發(fā)人工智能技術(shù)。國際電子電氣工程協(xié)會(huì)(IEEE)還發(fā)布了世界首個(gè)有關(guān)人工智能道德準(zhǔn)則的“指南”。盡管未來的一切難以預(yù)料,霍金對(duì)未來仍然感到樂觀:“這一切聽起來有點(diǎn)像厄運(yùn)來臨,但我仍是一個(gè)樂觀主義者。我認(rèn)為人類會(huì)奮起迎接這些挑戰(zhàn)。”

0

玩家點(diǎn)評(píng) 0人參與,0條評(píng)論)

收藏
違法和不良信息舉報(bào)
分享:

熱門評(píng)論

全部評(píng)論

他們都在說 再看看
3DM自運(yùn)營游戲推薦 更多+