您的位置: 首頁 > 新聞 > 時(shí)事焦點(diǎn) > 新聞詳情

“五毛黨”要失業(yè) 人工智能水軍已經(jīng)能以假亂真

時(shí)間:2017-09-04 20:46:17
  • 來源:網(wǎng)絡(luò)
  • 作者:Deego
  • 編輯:Deego

很多人在購物時(shí)會(huì)參考其他人的評論,因?yàn)橥瑢傧M(fèi)者立場,對商品、服務(wù)的判斷會(huì)相對可靠。一些商家為了提高自己的銷量,會(huì)雇水軍來刷假評論。人工水軍也被稱為「五毛黨」,雇傭這種水軍有一定的成本,不過所寫評論相對「真實(shí)」,容易騙過其他人。還有一種假評論由機(jī)器批量生成,這種水軍以量取勝,成本低廉但很容易被分辨出是機(jī)器。

點(diǎn)評網(wǎng)站對于假評論都有一定的審核機(jī)制,水軍評論被局限在一個(gè)可控的范圍內(nèi),不過這種情況很可能要被改變了。

以假亂真的「AI 水軍」

芝加哥大學(xué)研究人員利用神經(jīng)網(wǎng)絡(luò)訓(xùn)練出一種 AI 水軍,可以在亞馬遜、Yelp 等網(wǎng)站下自動(dòng)生成假評論,不但可以繞過機(jī)器檢測,而且跟普通人的真實(shí)評論很像,幾乎能以假亂真。

研究人員用網(wǎng)上已有的大量真實(shí)評論為素材,使用循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)進(jìn)行訓(xùn)練,用語言模型來預(yù)測下一個(gè)單詞的概率,從而生成新的文本。這種技術(shù)生成的評論不是簡單從已有素材中進(jìn)行復(fù)制,所以不會(huì)被機(jī)器檢測到。

下面是這些就是由 AI 生成的評論。

我已經(jīng)來過這兒好幾年了,每次的體驗(yàn)都很好。服務(wù)很棒!這兒的人都挺友善。我一定會(huì)再來的!

這個(gè)地方很不錯(cuò)!調(diào)酒師十分厲害。意大利面很好,我喜歡他們的甜點(diǎn),很贊。我也喜歡這里的早餐,工作人員很友好,價(jià)格也合理。沒有遇到什么不好的體驗(yàn)。一定會(huì)再來!

我喜歡這個(gè)地方。和我哥一起去的,我們點(diǎn)了素食意大利面,很好吃。啤酒也很棒,服務(wù)不錯(cuò)。我一定會(huì)推薦這個(gè)地方給其他人,很適合那些想找個(gè)地方吃早餐的人。

這些假評論不但繞過了系統(tǒng)的檢測,甚至還被很多用戶點(diǎn)了「有用」。研究人員將 AI 生成的評論與真實(shí)評論進(jìn)行對比,讓不同的人對其實(shí)用性進(jìn)行評估。評分為 1-5(最沒用-最有用),最終真實(shí)評論得分為 3.28,AI 生成的評論為 3.15。這表示 AI 水軍生成的假評論已經(jīng)和那些真實(shí)評論接近,可以影響用戶的消費(fèi)行為。

“五毛黨”要失業(yè) 人工智能水軍已經(jīng)能以假亂真

人工水軍的存在已經(jīng)極大地影響了網(wǎng)絡(luò)信息的真實(shí)性,而 AI 水軍會(huì)將這種情況無限放大。

AI 對文字評論的模仿相對容易實(shí)現(xiàn)。因?yàn)槊織l評論內(nèi)容都很短,主題統(tǒng)一而簡單,對表達(dá)方式也沒那么嚴(yán)格。最重要的是,這些假評論隱藏在眾多真實(shí)評論中,人們不會(huì)抱著質(zhì)疑的態(tài)度去看。對于數(shù)量繁多的信息大多數(shù)人會(huì)一掃而過,而這些假的評論被重復(fù)無數(shù)次之后,就會(huì)對人產(chǎn)生潛移默化的影響。

「謠言重復(fù)多次就會(huì)成真」,這就是假信息帶來的誤導(dǎo)。

假信息可以防御

真實(shí)和虛假的界限正變得模糊,不過目前生成的假評論并沒有那么完美。研究人員提到,他們能夠開發(fā)可以刪除 AI 假評論的技術(shù)。因?yàn)榧僭u論和真實(shí)評論使用字詞的頻率是不同的,AI 要盡可能保持邏輯通順、流暢,所以對于字詞的選擇會(huì)更保守,這些細(xì)微的變化一般人無法發(fā)現(xiàn),但通過技術(shù)還是有方法可以識(shí)別。

從技術(shù)上說未來的神經(jīng)網(wǎng)絡(luò)只會(huì)越來越復(fù)雜,AI 生成的假評論也將更加多樣化,不過如果這種技術(shù)成本高到一定程度,「批量」生成假評論這件事也就沒了意義。

水軍評論只是 AI 技術(shù)在文本生成上的應(yīng)用,從內(nèi)容形式上看,AI 能模仿的不僅是文字。

圖像:Prisma 可以讓普通照片變成藝術(shù)畫作。

聲音:Adobe 展示過 Project VoCo 軟件,可以在一段聲音里直接插入和改動(dòng)某幾個(gè)單詞,將聲音進(jìn)行重構(gòu)和創(chuàng)造。

視頻:華盛頓大學(xué)最新研究,將人說話的聲音轉(zhuǎn)化為對應(yīng)嘴型,然后將其移植到一個(gè)現(xiàn)有的視頻素材中,生成一段全新的視頻。

這些技術(shù)有的已經(jīng)實(shí)現(xiàn),有的還在研究階段,未來在網(wǎng)上分辨真假信息會(huì)變得越來越難。不過,這些模仿都只是停留在內(nèi)容形式上,人類的復(fù)雜行為又豈是那么容易模仿的?對假信息的分辨,總會(huì)有方法。

社交平臺(tái)上的機(jī)器人賬號是導(dǎo)致虛假信息泛濫的一個(gè)重要原因,打擊虛假信息也是每個(gè)社交平臺(tái)都在做的事情。美國印第安納大學(xué)和東北大學(xué)研究人員前段時(shí)間推出了 Botometer 系統(tǒng),可以區(qū)分 Twitter 機(jī)器人和真實(shí)人類。

Botometer 系統(tǒng)用超過 1000 項(xiàng)指標(biāo)來監(jiān)測用戶行為,從推文發(fā)布的設(shè)備、時(shí)間、地點(diǎn),到內(nèi)容的原創(chuàng)比例,還有粉絲的構(gòu)成等,這些數(shù)據(jù)最終會(huì)計(jì)算出一個(gè)分?jǐn)?shù),根據(jù)用戶行為可判斷賬號有多大概率是機(jī)器人。

“五毛黨”要失業(yè) 人工智能水軍已經(jīng)能以假亂真

AI 能做的事越來越多,這些技術(shù)對社會(huì)產(chǎn)生什么影響取決于人如何使用。

很多人認(rèn)為 AI 最大的危險(xiǎn)是毀滅人類,但那些科幻電影中的情節(jié)離現(xiàn)在還太遠(yuǎn),很多真正的威脅往往來自身邊,來自一些平常注意不到的地方。芝加哥大學(xué)的研究人員認(rèn)為:「AI 技術(shù)進(jìn)步的速度很快,如果現(xiàn)在還不開始考慮主動(dòng)防御,未來可能會(huì)陷入無法控制的局面?!?/p>

0

玩家點(diǎn)評 0人參與,0條評論)

收藏
違法和不良信息舉報(bào)
分享:

熱門評論

全部評論

他們都在說 再看看
3DM自運(yùn)營游戲推薦 更多+