史蒂芬霍金建議:組建“世界政府”來防御AI崛起
時間:2017-03-15 09:41:31
來源:互聯(lián)網(wǎng)
作者:Sophie周
編輯:Sophie
著名理論物理學家史蒂芬·霍金(Stephen Hawking)無疑是當代社會最偉大的人物之一,所以當他分享他對世界的一些想法時,很多人都會認真傾聽。最近,他一直在談?wù)撘粋€主題:人類的未來。
最近,霍金對從地外生命到人工智能(AI)等一些熱門話題表達了自己的觀點。對于后者,他表示出非常擔憂。他并不反對開發(fā)人工智能技術(shù),事實上,他曾經(jīng)說過人工智能可能是我們文明歷史上最重大的事件。但是像今天世界上其他許多科學家和思想家一樣,霍金擔心人工智能的崛起可能帶來各種負面的副作用。他已就人工智能對中產(chǎn)階級工作崗位的影響向我們發(fā)出警告,并與特斯拉CEO埃隆·馬斯克(Elon Musk)一起,呼吁禁止開發(fā)用于軍事用途的人工智能機器人。他也擔心人工智能可能會接管世界,或者更糟糕的是,它會終止這個世界。現(xiàn)在,他在接受英國《泰晤士報》采訪時表示,防御人工智能崛起的最好方式,是組建可以控制這種技術(shù)的“某種形式的世界政府”。
霍金接著解釋了他建立這樣一家國際管理機構(gòu)的理由:
自人類文明開始以來,人類的積極進取是有益的,因為它具有明確的生存優(yōu)勢。它是在達爾文進化過程中滲透到我們?nèi)祟惢虻?。然而,現(xiàn)在技術(shù)的發(fā)展速度,使這種積極進取可能以核戰(zhàn)爭或生物戰(zhàn)爭的方式摧毀我們?nèi)祟?。我們需要利用邏輯和理性來控制這種繼承下來的本能。為了跟上人工智能的發(fā)展,我們必須學會適應(yīng)。霍金在2014年年底表示:“人工智能的發(fā)展可能會導致人類的終結(jié)。它將自己發(fā)展自己,并以不斷增長的速度重新設(shè)計自己。人類則受到緩慢的生物進化限制,將無法與它競爭,并最終將被它取代。”
他認為這些人工智能機器人拋棄我們,不會是出于任何情感的原因:“人工智能的真正風險不是它有惡意,而是它的能力。一個有超常智慧的人工智能能將非常善于實現(xiàn)目標,如果那些目標與我們的目標不一致,那我們就麻煩了。”因此,根據(jù)霍金的看法,某種形式的管理機構(gòu)和快速適應(yīng)的能力——這是即將到來的人工智能或超級智能時代我們生存的法寶。
幸運的是,這樣的機構(gòu)已經(jīng)出現(xiàn)。這些機構(gòu),例如“人工智能伙伴關(guān)系”(Partnership on AI)和人工智能倫理與治理基金(Ethics and Governance of Artificial Intelligence Fund),已經(jīng)開始制定有關(guān)指導方針或框架,以讓人們更負責任地開發(fā)人工智能技術(shù)。國際電子電氣工程協(xié)會(IEEE)還發(fā)布了世界首個有關(guān)人工智能道德準則的“指南”。盡管未來的一切難以預料,霍金對未來仍然感到樂觀:“這一切聽起來有點像厄運來臨,但我仍是一個樂觀主義者。我認為人類會奮起迎接這些挑戰(zhàn)。”
0
玩家點評 (0人參與,0條評論)
熱門評論
全部評論