人工智能可以用來鑒別性取向:引發(fā)巨大爭議爭論
- 來源:互聯(lián)網(wǎng)
- 作者:Sophie周
- 編輯:Sophie
根據(jù)國外一項最新研究,人工智能可以被用來測試某人的性取向,因而備受爭議。
研究表明“深度神經(jīng)網(wǎng)絡(luò)能夠比人類更精確地從面部表情中檢測出性取向”,他們利用深度神經(jīng)網(wǎng)絡(luò)對公開約會網(wǎng)站上3.5萬張照片進(jìn)行了檢測。這項初步研究被發(fā)表在《個性與社會心理學(xué)雜志》上,作者是斯坦福大學(xué)商學(xué)院教授Michal Kosinski,他同時也是心理計算學(xué)家和大數(shù)據(jù)科學(xué)家。
如果沒有人工智能的幫助,單憑人類準(zhǔn)確判斷男性是彎還是直的概率為61%,女性是54%。人工智能的準(zhǔn)確率為81%和71%。人工智能程序不僅會研究固定的面部特征,比如一個人鼻子的形狀,還會觀察瞬態(tài)的特征,例如儀容儀表。
值得指出的是,研究人員使用的圖像樣本有一定的局限性。首先他們使用的都是約會網(wǎng)站上的圖片,并不一定是每個人的真實照片,同時這項研究只收集了年齡在18-40歲之間白人的照片。
反同志歧視聯(lián)盟(GLAAD)的首席數(shù)字官Jim Halloran表示:“人工智能能夠檢測性取向是帶有嚴(yán)重缺陷的。他們對約會網(wǎng)站上標(biāo)準(zhǔn)的描述,忽略了LGBTQ的巨大群體,其中包括有色人種、跨性別者、老年人和其他不想在約會網(wǎng)站上發(fā)布照片的人。”
同時GLAAD和HRC(人權(quán)委員會)也進(jìn)一步指出,這項研究并沒有核實人們的信息,只假定了兩種性取向,沒有包括雙性戀個人的數(shù)據(jù),也沒有經(jīng)過同行評議。更令人沮喪的是,這些組織表示,這種“垃圾科學(xué)”甚至可能成為錯誤的威脅手段。
性取向是個人的選擇。如果人工智能能夠準(zhǔn)確的檢測我們的性取向,這可能會讓我們感覺赤裸地暴露在別人的視野中。監(jiān)獄社交媒體網(wǎng)站和政府?dāng)?shù)據(jù)庫中存儲有數(shù)十億張的人類面部照片,研究人員認(rèn)為,公共數(shù)據(jù)可能會不經(jīng)個人同意而直接被用于檢測人們的性取向。
當(dāng)婚姻中的一方懷疑自己被騙婚,可能會使用這項技術(shù)檢測對方的性取向。但隨著深層神經(jīng)網(wǎng)絡(luò)不斷推進(jìn),也可能導(dǎo)致濫用,堅持檢舉LGBT人群的政府可以對目標(biāo)人口使用這項技術(shù)。并以此起訴那些同性戀者或非異性戀者(某些國家將同性戀視為應(yīng)受懲罰的犯罪行為)。目前至少有10個國家對同性戀判處死刑,在74個國家同性戀是非法的。
無論如何,頭條媒體上的爭議可能已經(jīng)損害了該研究的出版前景?!秱€性與社會心理學(xué)雜志》的編輯透露,該研究論文正在接受倫理審查,這意味著我們在了解這項研究的現(xiàn)狀之前,可能還要好幾周的時間。

玩家點評 (0人參與,0條評論)
熱門評論
全部評論