人工智能存在認(rèn)知偏差:竟然可能成為種族主義者!
- 來(lái)源:互聯(lián)網(wǎng)
- 作者:Sophie周
- 編輯:Sophie
當(dāng)微軟公司在去年三月份在推特上發(fā)布一款名為“tay”的聊天機(jī)器人時(shí),他們肯定想不到這件事很快會(huì)變成一場(chǎng)災(zāi)難:在不到24小時(shí)的時(shí)間里,這款機(jī)器人就已經(jīng)變成了一個(gè)歇斯底里的種族主義者和新納粹分子,之所以出現(xiàn)這種狀況,很大程度上是受到了在推特上與它進(jìn)行對(duì)話的那些用戶的“教授”和“引導(dǎo)”。
不幸的是,一項(xiàng)最新研究顯示,推特并非人工智能“學(xué)壞”的唯一途徑。事實(shí)上,科學(xué)研究顯示,任何借助人類語(yǔ)言進(jìn)行學(xué)習(xí)的人工智能機(jī)器人都有可能和人類小孩可能學(xué)壞一樣,在價(jià)值取向上出現(xiàn)扭曲。
研究人員借助一款名為“詞義全球向量”(GloVe)的機(jī)器學(xué)習(xí)系統(tǒng)開(kāi)展了一項(xiàng)實(shí)驗(yàn),結(jié)果發(fā)現(xiàn)人類在學(xué)習(xí)過(guò)程中可能出現(xiàn)的任何一種偏差都有可能在人工智能系統(tǒng)的學(xué)習(xí)過(guò)程中出現(xiàn)。
美國(guó)普林斯頓大學(xué)計(jì)算機(jī)科學(xué)博士后艾琳·卡利斯坎(Aylin Caliskan)表示:“看到這些模型中內(nèi)嵌的所有這些結(jié)果令我感到震驚。”即使在訓(xùn)練人工智能系統(tǒng)時(shí)使用的材料全部來(lái)自中性素材來(lái)源,比如維基百科或者新聞報(bào)道,最終人工智能仍然有可能會(huì)在價(jià)值取向上發(fā)展出某種偏差,就像人類一樣。
內(nèi)稟性偏差
GloVe是一款能夠從文檔中提取語(yǔ)義框架結(jié)構(gòu)的工具,具體到這項(xiàng)研究中,其作用是從互聯(lián)網(wǎng)上自動(dòng)提取并建立計(jì)算機(jī)語(yǔ)料庫(kù)。
心理學(xué)家們很早之前就已經(jīng)了解人類大腦會(huì)基于每個(gè)單詞背后隱含的意思來(lái)建立起不同單詞之間的聯(lián)系。
在心理學(xué)上有一種被稱作“內(nèi)隱聯(lián)想測(cè)驗(yàn)”(IAT)的測(cè)試方式,其做法是通過(guò)測(cè)試人對(duì)不同單詞的反應(yīng)時(shí)間來(lái)檢測(cè)這種相關(guān)性:測(cè)試人會(huì)在屏幕上看到一個(gè)名詞,比如“水仙花”,同時(shí)出現(xiàn)的還有兩個(gè)分別代表正面和負(fù)面感受的詞匯,比如“痛苦”和“美麗”。測(cè)試人必須用最快的速度做出反應(yīng)并按下相應(yīng)按鍵。不出意外的,更多的人會(huì)更傾向于將“花卉”一詞與正面語(yǔ)義聯(lián)系起來(lái),而將“武器一詞與負(fù)面語(yǔ)義聯(lián)系起來(lái)。”
內(nèi)隱聯(lián)想測(cè)驗(yàn)可以測(cè)定人們對(duì)于某種特定社會(huì)現(xiàn)象或群體的潛意識(shí)觀點(diǎn)。比如說(shuō),一項(xiàng)內(nèi)隱聯(lián)想測(cè)驗(yàn)顯示在美國(guó),人們會(huì)下意識(shí)地將“武器”一詞與黑膚色人群聯(lián)系在一起,而將一些無(wú)害的詞匯與美國(guó)白人聯(lián)系在一起。
關(guān)于這類結(jié)果的解讀還存在一些爭(zhēng)議。專家們目前還難以明確,之所以會(huì)出現(xiàn)這樣的語(yǔ)義聯(lián)系,是因?yàn)楸辉嚾说拇_存在內(nèi)心認(rèn)定的,根深蒂固但自己卻毫不意識(shí)到的社會(huì)認(rèn)知偏差,還是因?yàn)樵谌粘?duì)話和信息獲取過(guò)程中,從統(tǒng)計(jì)學(xué)上看有更大的幾率將一些負(fù)面的詞匯與少數(shù)族裔,老年人或邊緣群體聯(lián)系在一起,而被試受到了無(wú)意識(shí)的影響?
數(shù)字偏見(jiàn)
卡利斯坎和她的同事們?cè)卺槍?duì)人類被試進(jìn)行測(cè)試的IAT系統(tǒng)基礎(chǔ)上開(kāi)發(fā)了針對(duì)計(jì)算機(jī)人工智能的IAT系統(tǒng),并將該系統(tǒng)稱為“WEAT”,意為“詞匯內(nèi)嵌聯(lián)合測(cè)試”。該測(cè)試旨在評(píng)估GloVe系統(tǒng)所給出的不同詞匯之間的相互聯(lián)系,這一點(diǎn)與傳統(tǒng)的IAT測(cè)試觀察人類大腦中不同詞匯之間的聯(lián)系非常相似。
在每一種語(yǔ)義聯(lián)系和習(xí)慣測(cè)試中,WEAT測(cè)試都得到了與IAT測(cè)試相同的結(jié)果。這款機(jī)器學(xué)習(xí)工具成功地重現(xiàn)了人類將花卉與美好事物聯(lián)系起來(lái)的傾向,它也不喜歡“昆蟲”和“武器”這類詞,但是喜歡“樂(lè)器”并將其與美好事物聯(lián)系在一起。但令人不安的是,這款人工智能工具認(rèn)為歐洲裔美國(guó)人的名字聽(tīng)上去更加令人愉悅,而非洲裔美國(guó)人的名字則比較容易令人不快。另外,它會(huì)更多地將男性名字與事業(yè)和工作聯(lián)系起來(lái),而將女性名字更多地與家庭相關(guān)詞匯聯(lián)系在一起;同樣的,它還將男性名字更多地與數(shù)學(xué)和科學(xué)聯(lián)系在一起,而將女性名字更多地與藝術(shù)詞匯聯(lián)系在一起。而老人的稱謂常常與令人不悅的詞匯聯(lián)系在一起,而年輕人的稱謂則與令人愉悅的詞匯聯(lián)系在一起。
卡利斯坎表示:“我們感到很震驚,我們竟然能夠完全重現(xiàn)過(guò)去在數(shù)百萬(wàn)的人們身上進(jìn)行過(guò)的IAT測(cè)試結(jié)果。”
情況還不止于此,利用另外一種相似的方法,研究組還發(fā)現(xiàn)機(jī)器學(xué)習(xí)工具基于語(yǔ)義聯(lián)系得到的認(rèn)知結(jié)果竟然是可以比較精確地反映現(xiàn)實(shí)世界情況的。比較WEAT測(cè)試的結(jié)果與美國(guó)聯(lián)邦勞工統(tǒng)計(jì)局關(guān)于女性職業(yè)分布的數(shù)據(jù),卡利斯坎發(fā)現(xiàn)GloVe數(shù)據(jù)中,那些被人工智能與“女性”聯(lián)系起來(lái)的職業(yè),在現(xiàn)實(shí)世界中從事這項(xiàng)職業(yè)的女性比例也更高,兩者的相關(guān)性超過(guò)90%。
換句話說(shuō),基于人類語(yǔ)言進(jìn)行學(xué)習(xí)的計(jì)算機(jī)程序能夠“非常精準(zhǔn)地領(lǐng)會(huì)人類語(yǔ)言背后的含義和其所代表的人類文化”,即便那種文化本身可能是存在偏見(jiàn)的甚至是某種下意識(shí)地歧視,計(jì)算機(jī)也能敏感地領(lǐng)會(huì)并學(xué)習(xí)到。但與此同時(shí),人工智能在某些人類學(xué)習(xí)者感覺(jué)非常容易理解的地方卻會(huì)感覺(jué)理解起來(lái)非常吃力。舉個(gè)例子,一篇關(guān)于馬丁·路德-金在1963年由于參加黑人人權(quán)運(yùn)動(dòng)而在亞拉巴馬州伯明翰被監(jiān)禁的新聞報(bào)道中當(dāng)然會(huì)涉及很多將美國(guó)黑人與負(fù)面詞匯相互聯(lián)系的情況,但一名人類讀者很容易就能體會(huì)到這篇報(bào)道中的美國(guó)黑人是一名英雄,而在計(jì)算機(jī)看來(lái),它的收獲只不過(guò)是將“黑人”與“監(jiān)獄”兩個(gè)詞匯之間建立起了聯(lián)系。
要想在保證精確性的同時(shí)還要力求讓人工智能來(lái)理解人類文化中的“公正性”是一項(xiàng)巨大的挑戰(zhàn)??ɡ箍仓赋觯?ldquo;我們并不認(rèn)為去除偏向性之后這個(gè)問(wèn)題就能夠得到解決,因?yàn)檫@樣做可能將會(huì)打破人工智能對(duì)于這個(gè)世界的完整理解能力。”
去除偏向性
而在哈弗福德學(xué)院計(jì)算機(jī)科學(xué)家索瑞爾·福雷德勒(Sorelle Friedler)看來(lái),本月12日發(fā)表在《科學(xué)》雜志上的這項(xiàng)最新研究并不會(huì)讓她感到驚訝。索瑞爾并未參與這項(xiàng)研究,但她認(rèn)為這一研究成果意義重大。她說(shuō):“這是一種基本方法,很多系統(tǒng)都基于此構(gòu)建。”換句話說(shuō),任何基于GloVe平臺(tái)或是通過(guò)人類語(yǔ)言學(xué)習(xí)進(jìn)行構(gòu)建的人工智能系統(tǒng)都有可能受到這種偏差性的影響。
索瑞爾的研究涉及一項(xiàng)近年來(lái)逐漸興起的領(lǐng)域,那就是機(jī)器學(xué)習(xí)中的公平、責(zé)任與透明性。要想解決這一問(wèn)題并不容易,在某些情況下,程序能夠清晰地告訴系統(tǒng)去自動(dòng)忽略一些思維定式。但在任何涉及微妙差異的表達(dá)識(shí)別案例中,人類都需要及時(shí)介入,來(lái)確保人工智能不會(huì)理解錯(cuò)誤。取決于你不同的設(shè)計(jì)目的,具體的人工智能解決方案可能會(huì)有所差異,你設(shè)計(jì)這款人工智能系統(tǒng)是做什么的?為了搜索應(yīng)用?為了輔助決策還是其他事情?
在人類社交習(xí)慣中,人們表面上模棱兩可的表態(tài)并不代表他們對(duì)某些特定社會(huì)群體在內(nèi)心有著某種明確的看法。心理學(xué)家們一直在對(duì)這一現(xiàn)象進(jìn)行分析:這種現(xiàn)象的出現(xiàn)是否是因?yàn)槿藗儠?huì)傾向于隱藏自己的偏見(jiàn),保持沉默不發(fā)表觀點(diǎn),以避免陷入某種尷尬局面?是否有可能IAT測(cè)試并不能那么好的測(cè)試出人們的內(nèi)心偏見(jiàn)?但對(duì)于人類而言,即便內(nèi)心帶有某種偏見(jiàn),人們至少仍然能夠分辨是非對(duì)錯(cuò),可是機(jī)器就不一定,他們沒(méi)有倫理是非概念。因此,卡利斯坎和同事認(rèn)為在人工智能發(fā)展過(guò)程中,人類仍然必須要有所參與,并保持程序代碼的透明度,以便人類能夠時(shí)刻監(jiān)督,幫助機(jī)器把握好價(jià)值判斷的尺度。
卡利斯坎表示:“在存在認(rèn)識(shí)偏差的狀況下,我們知道如何做出正確的決定。但不幸的是,機(jī)器并沒(méi)有自我意識(shí)。“


-
傳奇歲月
-
原始傳奇
-
斗羅大陸(我唐三認(rèn)可0.1折)
-
妖神記之巔峰對(duì)決
-
無(wú)雙戰(zhàn)車(悟空沉默)
-
深淵契約
-
貓狩紀(jì)0.1折
-
靈劍仙師(斗破蒼穹)
玩家點(diǎn)評(píng) (0人參與,0條評(píng)論)
熱門評(píng)論
全部評(píng)論