當(dāng)前,人工智能技術(shù)已經(jīng)被應(yīng)用于監(jiān)控?cái)z像頭中,出現(xiàn)在交通、安防、零售、社區(qū)等多個(gè)場(chǎng)景。而對(duì)抗性樣本有可能欺騙神經(jīng)網(wǎng)絡(luò),導(dǎo)致其產(chǎn)生錯(cuò)誤的輸出。
近日,來(lái)自比利時(shí)魯汶大學(xué)的研究人員,在預(yù)印本平臺(tái)(arXiv.org)上分享的一篇論文中,研究人員展示了簡(jiǎn)單的印刷圖案如何能夠欺騙一個(gè)用來(lái)識(shí)別圖像中人物的人工智能系統(tǒng)。
研究人員打印出特別設(shè)計(jì)的彩色圖片并掛在脖子上,從人工智能的角度來(lái)看,這可能相當(dāng)于“隱形斗篷”,也就是說(shuō),人工智能檢測(cè)不出右邊的人。
正如研究人員寫(xiě)道:“我們相信,如果我們將這項(xiàng)技術(shù)與復(fù)雜的服裝模擬技術(shù)相結(jié)合,就可以設(shè)計(jì)出一種T恤印花,它可以讓一個(gè)人在自動(dòng)監(jiān)控?cái)z像頭下幾乎隱形?!?/p>
這可能看起來(lái)很奇怪,但實(shí)際上是人工智能世界中一個(gè)眾所周知的現(xiàn)象。這些類(lèi)型的模式被稱(chēng)為對(duì)抗性樣本,它們利用計(jì)算機(jī)視覺(jué)系統(tǒng)的缺陷來(lái)誘騙它們看到不存在的東西。
在過(guò)去,對(duì)抗性樣本被用來(lái)欺騙面部識(shí)別系統(tǒng)。許多研究人員警告說(shuō),對(duì)抗性的例子具有潛在的危險(xiǎn)性。例如,它們可以用來(lái)欺騙自動(dòng)駕駛汽車(chē),將停車(chē)標(biāo)志當(dāng)成路燈柱,或者它們可以欺騙旨在識(shí)別疾病的醫(yī)學(xué)人工智能視覺(jué)系統(tǒng),這可能是為了醫(yī)療欺詐,甚至是故意造成傷害。
如何對(duì)對(duì)抗性樣本進(jìn)行有效的防御是很多學(xué)者的重要研究課題。不過(guò),到目前為止,研究人員尚未找到針對(duì)對(duì)抗樣本的最佳防御策略,希望在不久之后,該研究領(lǐng)域會(huì)出現(xiàn)突破性的進(jìn)展。
-
人工智能
+關(guān)注
關(guān)注
1796文章
47818瀏覽量
240605
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論