欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在NLP領(lǐng)域?qū)嵤?duì)抗攻擊

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:深度學(xué)習(xí)自然語(yǔ)言 ? 2021-03-05 16:01 ? 次閱讀

如果是咱家公眾號(hào)的忠實(shí)粉絲就一定還記得之前咱家一篇關(guān)于NLP Privacy的文章,不出意外的話,你們是不是現(xiàn)在依然還擔(dān)心自己的隱私被輸入法竊取而瑟瑟發(fā)抖。所以,我們又來(lái)了!今天給大家討論的是NLP Privacy中一個(gè)非常核心的話題——文本對(duì)抗攻擊。

相信大家已經(jīng)非常熟悉對(duì)抗攻擊了,此類攻擊是攻擊者針對(duì)機(jī)器學(xué)習(xí)模型的輸入即數(shù)值型向量(Numeric Vectors)設(shè)計(jì)的一種可以讓模型做出誤判的攻擊。簡(jiǎn)言之,對(duì)抗攻擊就是生成對(duì)抗樣本的過(guò)程。對(duì)抗樣本的概念最初是在2014年提出的,指的是一類人為構(gòu)造的樣本,通過(guò)對(duì)原始的樣本數(shù)據(jù)添加針對(duì)性的微小擾動(dòng)所得到(該微擾不會(huì)影響人類的感知),但會(huì)使機(jī)器學(xué)習(xí)模型產(chǎn)生錯(cuò)誤的輸出[1]。因此,從上述定義可知,對(duì)抗攻擊以及對(duì)抗樣本的生成研究最開(kāi)始被用于計(jì)算機(jī)視覺(jué)領(lǐng)域。在當(dāng)時(shí),那家伙,文章多的你看都看不完…當(dāng)然在這里我也拋出當(dāng)時(shí)寫(xiě)的比較好的一篇綜述:“Threat of Adversarial Attacks on Deep Learning in Computer Vision: A Survey”[2]。大家可以溫故而知新啦。

當(dāng)視覺(jué)領(lǐng)域中的對(duì)抗攻擊研究很難再有重大突破的時(shí)候(坑已滿,請(qǐng)換坑),研究人員便把目光轉(zhuǎn)移到了NLP領(lǐng)域。其實(shí)就NLP領(lǐng)域而言,垃圾郵件檢測(cè)、有害文本檢測(cè)、惡意軟件查殺等實(shí)用系統(tǒng)已經(jīng)大規(guī)模部署了深度學(xué)習(xí)模型,安全性對(duì)于這些系統(tǒng)尤為重要。但相比于圖像領(lǐng)域,NLP領(lǐng)域?qū)构舻难芯窟€遠(yuǎn)遠(yuǎn)不夠,特別是文本具有離散和前后輸入具有邏輯的特點(diǎn)使得對(duì)抗樣本的生成更具挑戰(zhàn)性,也有更多的研究空間。我們欣喜地看到,目前有越來(lái)越多的 NLP 研究者開(kāi)始探索文本對(duì)抗攻擊這一方向,以 2020 年 ACL 為例,粗略統(tǒng)計(jì)有超過(guò) 10 篇相關(guān)論文,其中最佳論文Beyond Accuracy: Behavioral Testing of NLP Models with CheckList[3]中大部分測(cè)試方法其實(shí)和文本對(duì)抗攻擊有異曲同工之妙。故在本次推文中,我們一起來(lái)探究和領(lǐng)略一下如何在NLP領(lǐng)域?qū)嵤?duì)抗攻擊,并提供一些在該領(lǐng)域繼續(xù)深入挖掘的工具和方向。

對(duì)抗攻擊的分類

對(duì)抗攻擊按攻擊者所掌握的知識(shí)來(lái)分的話,可分為以下兩類:

白盒攻擊:稱為white-box attack,也稱為open-box attack,即攻擊者對(duì)模型(包括參數(shù)、梯度等信息)和訓(xùn)練集完全了解,這種情況比較攻擊成功,但是在實(shí)際情況中很難進(jìn)行操作和實(shí)現(xiàn)。

黑盒攻擊:稱為black-box attack,即攻擊者對(duì)模型不了解,對(duì)訓(xùn)練集不了解或了解很少。這種情況攻擊很難成功但是與實(shí)際情況比較符合,因此也是主要的研究方向。

如果按攻擊者的攻擊目標(biāo)來(lái)分的話,可以分為以下兩類:

定向攻擊:稱為targeted attack,即對(duì)于一個(gè)多分類網(wǎng)絡(luò),把輸入分類誤判到一個(gè)指定的類上

非定向攻擊:稱為non-target attack,即只需要生成對(duì)抗樣本來(lái)欺騙神經(jīng)網(wǎng)絡(luò),可以看作是上面的一種特例。

發(fā)展歷史與方法分類

我們先談?wù)劙缀泄簦驗(yàn)榘缀泄粢子趯?shí)現(xiàn),因此早在2014年關(guān)于對(duì)抗樣本的開(kāi)山之作“Intriguing Properties of Neural Networks”中設(shè)計(jì)了一種基于梯度的白盒攻擊方法。具體來(lái)說(shuō),作者通過(guò)尋找最小的損失函數(shù)添加項(xiàng),使得神經(jīng)網(wǎng)絡(luò)做出誤分類,將問(wèn)題轉(zhuǎn)化成了凸優(yōu)化。問(wèn)題的數(shù)學(xué)表述如下:

表示習(xí)得的分類映射函數(shù),表示改變的步長(zhǎng),公式表達(dá)了尋找使得映射到指定的類上的最小的。在此之后,許多研究人員在上述方法的基礎(chǔ)上提出了許多改進(jìn)的基于梯度的方法,具體可見(jiàn)[4-6]。

后來(lái),研究人員逐漸從白盒攻擊的研究轉(zhuǎn)向研究黑盒攻擊,Transfer-based方法就是過(guò)渡時(shí)期的產(chǎn)物。Nicolas Papernot等人在2017年的時(shí)候利用訓(xùn)練數(shù)據(jù)可以訓(xùn)練出從中生成對(duì)抗性擾動(dòng)的完全可觀察的替代模型[7]。因此,基于Transfer的攻擊不依賴模型信息,但需要有關(guān)訓(xùn)練數(shù)據(jù)的信息。此外,[8]文獻(xiàn)證明了如果在一組替代模型上生成對(duì)抗性樣本,則在某些情況下,模型被攻擊的成功率可以達(dá)到100%(好家伙,100%真厲害)。近幾年,不同類型的攻擊方法越來(lái)越多,但總體來(lái)說(shuō)歸為以下三類:Score-based方法、Decision-based方法、Attack on Attention方法[9](這個(gè)方法非常新,有坑可跳),前兩大類方法的相關(guān)研究和參考文獻(xiàn)可閱讀原文一探究竟,在這里不再贅述。

文本對(duì)抗攻擊

基本概念

下圖展示了文本領(lǐng)域內(nèi)實(shí)現(xiàn)對(duì)抗攻擊的一個(gè)例子。語(yǔ)句(1)為原始樣本,語(yǔ)句(2)為經(jīng)過(guò)幾個(gè)字符變換后得到的對(duì)抗樣本。深度學(xué)習(xí)模型能正確地將原始樣本判為正面評(píng)論,而將對(duì)抗樣本誤判為負(fù)面評(píng)論。而顯然,這種微小擾動(dòng)并不會(huì)影響人類的判斷。

算法的分類

首先,根據(jù)上述對(duì)抗攻擊的分類。同樣地,文本中的對(duì)抗攻擊也可以分為黑盒攻擊和白盒攻擊。除此之外,由于文本涉及到字符、詞匯、句子。因此我們可以根據(jù)添加擾動(dòng)時(shí)所操作的文本粒度可以分為字符級(jí)、單詞級(jí)和語(yǔ)句級(jí)攻擊。具體來(lái)說(shuō),字符級(jí)攻擊是通過(guò)插入、刪除或替換字符,以及交換字符順序?qū)崿F(xiàn);單詞級(jí)攻擊主要通過(guò)替換單詞實(shí)現(xiàn),基于近義詞、形近詞、錯(cuò)誤拼寫(xiě)等建立候選詞庫(kù);語(yǔ)句級(jí)攻擊主要通過(guò)文本復(fù)述或插入句子實(shí)現(xiàn)。具體分類詳見(jiàn)下圖.

9af4079c-7c22-11eb-8b86-12bb97331649.png

攻擊方式的發(fā)展和分類

根據(jù)攻擊策略和攻擊方式我們可以分為Image-to-Text(借鑒圖像領(lǐng)域的經(jīng)典算法)、基于優(yōu)化的攻擊、基于重要性的攻擊以及基于神經(jīng)網(wǎng)絡(luò)的攻擊。Image-to-Text攻擊方式的思想是將文本數(shù)據(jù)映射到連續(xù)空間,然后借鑒圖像領(lǐng)域的一些經(jīng)典算法如FGSM、JSMA等,生成對(duì)抗樣本;基于優(yōu)化的攻擊則是將對(duì)抗攻擊表述為帶約束的優(yōu)化問(wèn)題,利用現(xiàn)有的優(yōu)化技術(shù)求解,如梯度優(yōu)化、遺傳算法優(yōu)化;基于重要性的攻擊通常首先利用梯度或文本特性設(shè)計(jì)評(píng)分函數(shù)鎖定關(guān)鍵詞,然后通過(guò)文本編輯添加擾動(dòng);基于神經(jīng)網(wǎng)絡(luò)的攻擊訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型自動(dòng)學(xué)習(xí)對(duì)抗樣本的特征,從而實(shí)現(xiàn)對(duì)抗樣本的自動(dòng)化生成。具體的算法細(xì)節(jié)大家可移步一篇寫(xiě)的非常全面的綜述“Adversarial Attacks on Deep Learning Models in Natural Language Processing: A Survey“。

文本對(duì)抗攻擊相關(guān)資源

文獻(xiàn)總結(jié)

如下圖所示,清華大學(xué)自然語(yǔ)言處理與社會(huì)人文計(jì)算實(shí)驗(yàn)室(THUNLP)總結(jié)了各類文本對(duì)抗領(lǐng)域的相關(guān)文獻(xiàn),其中包含但不限于工具包、綜述、文本對(duì)抗攻擊、文本對(duì)抗防御、模型魯棒性驗(yàn)證、基準(zhǔn)和評(píng)估等內(nèi)容。針對(duì)本文涉及的文本對(duì)抗攻擊領(lǐng)域,該列表收錄了句級(jí)、詞級(jí)、字級(jí)、混合四個(gè)子部分,并且還為每篇論文打上了受害模型可見(jiàn)性的標(biāo)簽
gradient/score/decision/blind
除了提供論文 pdf 鏈接之外,如果某篇論文有公開(kāi)代碼或數(shù)據(jù),也會(huì)附上相應(yīng)的鏈接[19]。

其中必須的綜述論文如下:

-- Analysis Methods in Neural Language Processing: A Survey. Yonatan Belinkov, James Glass. TACL 2019.
-- Towards a Robust Deep Neural Network in Text Domain A Survey. Wenqi Wang, Lina Wang, Benxiao Tang, Run Wang, Aoshuang Ye. 2019.
-- Adversarial Attacks on Deep Learning Models in Natural Language Processing: A Survey. Wei Emma Zhang, Quan Z. Sheng, Ahoud Alhazmi, Chenliang Li. 2019.

文本對(duì)抗攻擊工具包

目前文本攻擊工具包為該領(lǐng)域的研究人員提供了非常好的開(kāi)發(fā)和研究基礎(chǔ)。這里介紹兩個(gè)比較常用的:

清華大學(xué)自然語(yǔ)言處理與社會(huì)人文計(jì)算實(shí)驗(yàn)室開(kāi)源的OpenAttack[20]

弗吉尼亞大學(xué)祁妍軍教授領(lǐng)導(dǎo)的 Qdata 實(shí)驗(yàn)室開(kāi)發(fā)的TextAttack[21]

至于如何使用上述兩種工具包,請(qǐng)大家火速前往項(xiàng)目主頁(yè)一探究竟,并不要忘了給一個(gè)Star哦?。?!

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 文本
    +關(guān)注

    關(guān)注

    0

    文章

    118

    瀏覽量

    17143
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5518

    瀏覽量

    121608
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    489

    瀏覽量

    22117

原文標(biāo)題:文本對(duì)抗攻擊入坑寶典

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    鑒源實(shí)驗(yàn)室·如何通過(guò)雷達(dá)攻擊自動(dòng)駕駛汽車-針對(duì)點(diǎn)云識(shí)別模型的對(duì)抗攻擊的科普

    非常精確,它們也面臨一種新興的威脅——對(duì)抗攻擊對(duì)抗攻擊是一種通過(guò)微小但精心設(shè)計(jì)的擾動(dòng),旨在欺騙機(jī)器學(xué)習(xí)模型的攻擊方式。對(duì)于自動(dòng)駕駛系
    的頭像 發(fā)表于 11-05 15:44 ?376次閱讀
    鑒源實(shí)驗(yàn)室·如何通過(guò)雷達(dá)<b class='flag-5'>攻擊</b>自動(dòng)駕駛汽車-針對(duì)點(diǎn)云識(shí)別模型的<b class='flag-5'>對(duì)抗</b>性<b class='flag-5'>攻擊</b>的科普

    nlp邏輯層次模型的特點(diǎn)

    NLP(自然語(yǔ)言處理)邏輯層次模型是一種用于理解和生成自然語(yǔ)言文本的計(jì)算模型。它將自然語(yǔ)言文本分解為不同的層次,以便于計(jì)算機(jī)更好地處理和理解。以下是對(duì)NLP邏輯層次模型特點(diǎn)的分析: 詞匯層次 詞匯
    的頭像 發(fā)表于 07-09 10:39 ?471次閱讀

    nlp神經(jīng)語(yǔ)言和NLP自然語(yǔ)言的區(qū)別和聯(lián)系

    神經(jīng)語(yǔ)言(Neuro-Linguistic Programming,NLP) 神經(jīng)語(yǔ)言是一種心理學(xué)方法,它研究人類思維、語(yǔ)言和行為之間的關(guān)系。NLP的核心理念是,我們可以通過(guò)改變我們的思維方式和語(yǔ)言
    的頭像 發(fā)表于 07-09 10:35 ?866次閱讀

    nlp自然語(yǔ)言處理基本概念及關(guān)鍵技術(shù)

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。NLP技術(shù)在機(jī)器翻譯、情感分析、語(yǔ)音識(shí)別
    的頭像 發(fā)表于 07-09 10:32 ?790次閱讀

    nlp自然語(yǔ)言處理框架有哪些

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是計(jì)算機(jī)科學(xué)和人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解和處理人類語(yǔ)言。隨著技術(shù)的發(fā)展,NLP領(lǐng)域
    的頭像 發(fā)表于 07-09 10:28 ?630次閱讀

    nlp自然語(yǔ)言處理的主要任務(wù)及技術(shù)方法

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能和語(yǔ)言學(xué)領(lǐng)域的一個(gè)分支,它研究如何讓計(jì)算機(jī)能夠理解、生成和處理人類語(yǔ)言。NLP技術(shù)在許多領(lǐng)域
    的頭像 發(fā)表于 07-09 10:26 ?1318次閱讀

    nlp自然語(yǔ)言處理模型怎么做

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它涉及到計(jì)算機(jī)對(duì)人類語(yǔ)言的理解和生成。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,NLP領(lǐng)域
    的頭像 發(fā)表于 07-05 09:59 ?728次閱讀

    nlp自然語(yǔ)言處理模型有哪些

    自然語(yǔ)言處理(Natural Language Processing,NLP)是計(jì)算機(jī)科學(xué)和人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。以下是對(duì)NLP領(lǐng)域一些
    的頭像 發(fā)表于 07-05 09:57 ?892次閱讀

    nlp自然語(yǔ)言處理的應(yīng)用有哪些

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能領(lǐng)域的一個(gè)分支,它致力于使計(jì)算機(jī)能夠理解和生成自然語(yǔ)言。隨著技術(shù)的發(fā)展,NLP已經(jīng)在許多領(lǐng)域
    的頭像 發(fā)表于 07-05 09:55 ?2843次閱讀

    NLP技術(shù)在機(jī)器人中的應(yīng)用

    在人工智能的廣闊領(lǐng)域中,自然語(yǔ)言處理(NLP)技術(shù)作為連接人類語(yǔ)言與機(jī)器智能的橋梁,正逐漸滲透到我們?nèi)粘I畹姆椒矫婷?,其中機(jī)器人技術(shù)便是一個(gè)尤為突出的應(yīng)用領(lǐng)域NLP技術(shù)不僅賦予了機(jī)
    的頭像 發(fā)表于 07-04 16:04 ?590次閱讀

    NLP技術(shù)在人工智能領(lǐng)域的重要性

    智能的橋梁,其重要性日益凸顯。本文將從NLP的定義、發(fā)展歷程、核心技術(shù)、應(yīng)用領(lǐng)域以及對(duì)人工智能領(lǐng)域的深遠(yuǎn)影響等多個(gè)維度,深入探討NLP技術(shù)在人工智能
    的頭像 發(fā)表于 07-04 16:03 ?703次閱讀

    NLP模型中RNN與CNN的選擇

    在自然語(yǔ)言處理(NLP領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)與卷積神經(jīng)網(wǎng)絡(luò)(CNN)是兩種極為重要且廣泛應(yīng)用的網(wǎng)絡(luò)結(jié)構(gòu)。它們各自具有獨(dú)特的優(yōu)勢(shì),適用于處理不同類型的NLP任務(wù)。本文旨在深入探討RNN與CNN
    的頭像 發(fā)表于 07-03 15:59 ?657次閱讀

    什么是自然語(yǔ)言處理 (NLP)

    自然語(yǔ)言處理(Natural Language Processing, NLP)是人工智能領(lǐng)域中的一個(gè)重要分支,它專注于構(gòu)建能夠理解和生成人類語(yǔ)言的計(jì)算機(jī)系統(tǒng)。NLP的目標(biāo)是使計(jì)算機(jī)能夠像人類一樣
    的頭像 發(fā)表于 07-02 18:16 ?1355次閱讀

    在機(jī)遇與挑戰(zhàn)并存的AI時(shí)代,三星如何在DRAM領(lǐng)域開(kāi)拓創(chuàng)新?

    在機(jī)遇與挑戰(zhàn)并存的AI時(shí)代,三星如何在DRAM領(lǐng)域開(kāi)拓創(chuàng)新?
    發(fā)表于 05-09 18:46 ?539次閱讀
    在機(jī)遇與挑戰(zhàn)并存的AI時(shí)代,三星如<b class='flag-5'>何在</b>DRAM<b class='flag-5'>領(lǐng)域</b>開(kāi)拓創(chuàng)新?

    隨機(jī)通信下多智能體系統(tǒng)的干擾攻擊影響研究

    網(wǎng)絡(luò)控制系統(tǒng)可能會(huì)受到不同類型的網(wǎng)絡(luò)攻擊威脅[10-12],主要包括拒絕服務(wù)(denial of service, DoS)攻擊[7]、欺騙攻擊[8]、干擾攻擊[9]等。文獻(xiàn)[10]研
    發(fā)表于 03-01 11:00 ?676次閱讀
    隨機(jī)通信下多智能體系統(tǒng)的干擾<b class='flag-5'>攻擊</b>影響研究