• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于BERT模型的文本對(duì)抗樣本生成方法

    2023-10-21 07:11:50李宇航楊玉麗馬垚于丹陳永樂
    計(jì)算機(jī)應(yīng)用 2023年10期
    關(guān)鍵詞:集上擾動(dòng)關(guān)鍵

    李宇航,楊玉麗,馬垚,于丹,陳永樂

    基于BERT模型的文本對(duì)抗樣本生成方法

    李宇航,楊玉麗,馬垚,于丹,陳永樂*

    (太原理工大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院(大數(shù)據(jù)學(xué)院),太原 030600)( ? 通信作者電子郵箱chenyongle@tyut.edu.cn)

    針對(duì)現(xiàn)有對(duì)抗樣本生成方法需要大量訪問目標(biāo)模型,導(dǎo)致攻擊效果較差的問題,提出了基于BERT (Bidirectional Encoder Representations from Transformers)模型的文本對(duì)抗樣本生成方法(TAEGM)。首先采用注意力機(jī)制,在不訪問目標(biāo)模型的情況下,定位顯著影響分類結(jié)果的關(guān)鍵單詞;其次通過BERT模型對(duì)關(guān)鍵單詞進(jìn)行單詞級(jí)擾動(dòng),從而生成候選樣本;最后對(duì)候選樣本進(jìn)行聚類,并從對(duì)分類結(jié)果影響更大的簇中選擇對(duì)抗樣本。在Yelp Reviews、AG News和IMDB Review數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,相較于攻擊成功率(SR)次優(yōu)的對(duì)抗樣本生成方法CLARE(ContextuaLized AdversaRial Example generation model),TAEGM在保證對(duì)抗攻擊SR的前提下,對(duì)目標(biāo)模型的訪問次數(shù)(QC)平均減少了62.3%,時(shí)間平均減少了68.6%。在此基礎(chǔ)之上,進(jìn)一步的實(shí)驗(yàn)結(jié)果驗(yàn)證了TAEGM生成的對(duì)抗樣本不僅具有很好的遷移性,還可以通過對(duì)抗訓(xùn)練提升模型的魯棒性。

    對(duì)抗樣本;注意力機(jī)制;BERT;對(duì)抗攻擊;聚類算法

    0 引言

    針對(duì)機(jī)器學(xué)習(xí)模型容易受到對(duì)抗樣本威脅的問題[1],國內(nèi)外學(xué)者開展了關(guān)于對(duì)抗樣本生成技術(shù)的深入研究,并取得一系列的研究成果。目前的研究主要集中在圖像領(lǐng)域[2],涉及文本領(lǐng)域的研究較少[3-4]。原因主要為以下兩方面:1)文本領(lǐng)域中單詞的離散屬性。與具備連續(xù)性的圖像空間不同,句子中的單詞是離散的,在圖像領(lǐng)域,像素級(jí)別的改變并不會(huì)影響圖片表達(dá)的意思;而在文本領(lǐng)域,任意單詞的替換卻會(huì)改變語句整體的含義。2)語法要求。單詞的改變可能會(huì)使修改后的語句出現(xiàn)語法錯(cuò)誤,使對(duì)抗樣本很容易被發(fā)現(xiàn)[5-6]。

    目前,在文本領(lǐng)域中,典型的對(duì)抗技術(shù)為基于同義詞替換的單詞級(jí)對(duì)抗樣本生成技術(shù)。該技術(shù)是基于本地的打分函數(shù),挑選出句子中對(duì)分類結(jié)果影響最大的關(guān)鍵單詞,通過處理這些關(guān)鍵單詞,產(chǎn)生單詞級(jí)別的擾動(dòng)生成對(duì)抗樣本。但是這種技術(shù)依然存在以下問題:1)在打分函數(shù)的處理過程中,需要將相關(guān)單詞替換為無意義的占位符標(biāo)簽,導(dǎo)致輸入文本的語義被改變,在此情況下,打分函數(shù)的輸出無法代表相關(guān)單詞的重要性[7]。2)打分函數(shù)的處理過程需要大量訪問目標(biāo)模型,但實(shí)際應(yīng)用中的模型,對(duì)訪問次數(shù)(Query Counts, QC)都有一定的限制,在此情況下,采用傳統(tǒng)方法攻擊這些模型會(huì)受到很大的限制,生成對(duì)抗樣本的效率會(huì)大幅降低。因此在保證攻擊成功率(Success Rate, SR)的前提下,減少對(duì)目標(biāo)模型的訪問次數(shù)是亟須解決的問題。

    針對(duì)上述問題,本文提出一種基于BERT(Bidirectional Encoder Representations from Transformers)模型[8]的對(duì)抗樣本生成方法(Text Adversarial Examples Generation Method based on BERT model, TAEGM)。TAEGM采用了基于注意力機(jī)制的關(guān)鍵單詞定位技術(shù),基于BERT模型的單詞級(jí)擾動(dòng)生成技術(shù)和基于聚類算法的候選樣本篩選技術(shù),在保證對(duì)抗攻擊成功率的前提下,可以有效地減少對(duì)目標(biāo)模型的訪問次數(shù)。

    1 相關(guān)工作

    Kuleshov等[9]和Alzantot等[10]分別提出了基于貪婪搜索的同義詞替換攻擊算法,這種算法通過盡可能多地替換句子中單詞為它的同義詞,以生成對(duì)抗樣本;但是通過這種方法生成的對(duì)抗樣本的語義會(huì)發(fā)生較大的改變,也會(huì)產(chǎn)生語法錯(cuò)誤。在此基礎(chǔ)上,Ren等[11]提出了一種新型算法PWWS(Probability Weighted Word Saliency),該算法在選擇關(guān)鍵單詞時(shí)采用的打分函數(shù)[12]不僅考慮了單詞在句子中的重要程度,還考慮了原始輸入和對(duì)抗樣本對(duì)模型分類結(jié)果的影響,但算法生成的對(duì)抗樣本進(jìn)行攻擊的成功率較低。仝鑫等[13]提出了一種詞級(jí)黑盒對(duì)抗樣本生成方法CWordAttacker,該方法采用定向詞刪除評(píng)分機(jī)制,可完成定向和非定向兩種攻擊模式。Maheshwary等[14]提出了一種基于決策的攻擊策略,引入基于種群的優(yōu)化算法,進(jìn)一步提高了對(duì)抗樣本的質(zhì)量。雖然上述方法較好地提升生成效果,但在面對(duì)基于BERT的模型時(shí)依然存在有很大的改進(jìn)空間。因此,Li等[15]將BERT引入了基于同義詞替換的對(duì)抗樣本生成算法中,該算法在尋找單詞的同義詞時(shí),通過BERT模型根據(jù)關(guān)鍵單詞的上下文生成最符合語法和語義的替代詞。然而上述方法都沒有很好地協(xié)調(diào)訪問模型次數(shù)和攻擊成功率之間的關(guān)系。

    2 對(duì)抗樣本生成方法

    2.1 TAEGM的框架

    本文提出一種基于BERT模型的對(duì)抗樣本生成方法TAEGM,在保證攻擊成功率的前提下,顯著減少針對(duì)目標(biāo)模型的訪問次數(shù)。如圖1所示,TAEGM框架主要分為3部分:

    1)關(guān)鍵單詞定位。使用BERT自帶的注意力矩陣,采用基于注意力機(jī)制的關(guān)鍵單詞定位技術(shù),定位輸入文本中對(duì)分類影響最大的關(guān)鍵單詞。

    2)生成單詞級(jí)擾動(dòng)。使用BERT模型生成上下文相關(guān)的單詞級(jí)擾動(dòng),產(chǎn)生候選的對(duì)抗樣本。

    3)對(duì)抗樣本生成。通過基于聚類算法的候選樣本篩選技術(shù),縮小候選樣本的范圍,選擇對(duì)分類影響最大的簇,在該簇中挑選最終的對(duì)抗樣本。

    圖1 對(duì)抗樣本生成示意圖

    2.2 TAEGM具體流程

    2.2.1關(guān)鍵單詞定位

    為了得到高質(zhì)量的對(duì)抗樣本,必須對(duì)語句中的關(guān)鍵單詞或關(guān)鍵詞組擾動(dòng)。因此,本節(jié)聚焦于在不訪問目標(biāo)模型的情況下,通過注意力機(jī)制定位語句中的關(guān)鍵單詞。

    最后,在得到文本中所有單詞的重要性分?jǐn)?shù)后,將分?jǐn)?shù)最大的前個(gè)單詞選為關(guān)鍵單詞。特別地,不是每次單獨(dú)給一個(gè)單詞打分,而是在一次遍歷中給所有的單詞打分。這樣就實(shí)現(xiàn)了在不需要訪問目標(biāo)模型的情況下,準(zhǔn)確定位關(guān)鍵單詞的位置,從而顯著減少對(duì)目標(biāo)模型的訪問。

    另一方面,隨著的增大,對(duì)抗攻擊的成功率、對(duì)目標(biāo)模型的訪問次數(shù)也隨之增加,對(duì)抗樣本的語義相似度會(huì)下降,句子中改變的單詞數(shù)也會(huì)增加,這就導(dǎo)致攻擊效率下降和生成的對(duì)抗樣本質(zhì)量變差,所以的選擇需要在對(duì)抗攻擊的成功率與對(duì)抗樣本的質(zhì)量之間權(quán)衡。

    2.2.2生成單詞級(jí)擾動(dòng)

    因?yàn)殛P(guān)鍵單詞對(duì)模型分類的貢獻(xiàn)大于其他單詞,所以本文通過對(duì)它們進(jìn)一步處理,即對(duì)原始文本添加擾動(dòng)從而欺騙目標(biāo)模型。同時(shí),為了生成高質(zhì)量的對(duì)抗樣本,保證對(duì)抗樣本在語義和視覺效果上和原始文本相似,本文采用單詞級(jí)的擾動(dòng)。單詞級(jí)的擾動(dòng)是指在不改變文本語義的情況下,將單詞替換為它在嵌入空間中距離最近的單詞,并且這種操作可以使得模型產(chǎn)生錯(cuò)誤的輸出。

    在生成候選樣本后,使用語義過濾機(jī)制過濾與原始文本語義差異過大的候選樣本,減小候選樣本的范圍,如式(5)所示:

    2.2.3對(duì)抗樣本生成

    使用BERT對(duì)定位的關(guān)鍵單詞完成單詞級(jí)擾動(dòng)之后,會(huì)生成大量的候選樣本。檢驗(yàn)所有的候選樣本需要大量地訪問目標(biāo)模型,因此本節(jié)通過有效縮小候選樣本的范圍,進(jìn)一步提高算法的性能。

    因?yàn)閷儆谕活惖木渥釉诟呔S的編碼空間中的距離很近,使得它們對(duì)模型分類結(jié)果造成的影響也很相似,所以可以使用聚類算法分類,將針對(duì)所有候選樣本的操作轉(zhuǎn)換為針對(duì)一個(gè)子集合的操作,從而顯著減少候選樣本的數(shù)量,減少針對(duì)目標(biāo)模型的訪問次數(shù)。

    此外,每次需要處理的候選樣本數(shù)量只有幾千個(gè),屬于樣本數(shù)較少的情況,傳統(tǒng)的-means++算法收斂快、可解釋性強(qiáng),聚類效果較好,所以本文采用該算法聚類。

    聚類候選樣本后,如果在每個(gè)簇中選擇具有代表性的樣本,需要處理不同簇中的所有候選樣本,這種方法雖然可以縮小候選樣本的范圍,但需要大量訪問目標(biāo)模型,導(dǎo)致算法性能下降。考慮到簇中所有樣本都可以對(duì)模型造成相似的影響,可以隨機(jī)選擇簇中的一個(gè)樣本代表整個(gè)簇,再通過打分函數(shù)選擇最優(yōu)的簇作為候選樣本集,該方法只需要很少地訪問目標(biāo)模型,就可以有效縮小候選樣本的范圍。通過實(shí)驗(yàn)可以發(fā)現(xiàn),前一種方法所需要的訪問次數(shù)遠(yuǎn)多于后一種,并且兩種方法得到的候選樣本集合在實(shí)驗(yàn)中的效果很相似,因此本文選擇后一種方法。

    最后,進(jìn)一步處理候選樣本,如果其中的樣本可以改變模型的輸出,則將它選為對(duì)抗樣本;如果不能改變,則重復(fù)上述步驟。通過上述步驟生成的對(duì)抗樣本可以大幅減少訪問模型的次數(shù),并且每個(gè)關(guān)鍵單詞也只會(huì)進(jìn)行一種單詞級(jí)的擾動(dòng),且不影響其他位置的操作。

    與傳統(tǒng)的算法相比,TAEGM的優(yōu)勢主要體現(xiàn)在以下3方面:1)采用注意力機(jī)制,可以在不訪問目標(biāo)模型的情況下,準(zhǔn)確定位關(guān)鍵單詞的位置;2)通過BERT模型,在只改變關(guān)鍵單詞的情況下生成候選樣本;3)在處理候選樣本時(shí),采用聚類技術(shù)聚類候選樣本,將針對(duì)所有候選樣本的操作轉(zhuǎn)換為針對(duì)一個(gè)樣本子集合的操作,再從中選擇最合適的樣本進(jìn)行后續(xù)的操作,顯著減少候選樣本的數(shù)量,從而減少了對(duì)目標(biāo)模型的訪問次數(shù)。TAEGM的具體實(shí)現(xiàn)過程如算法1所示。

    算法1 TAEGM。

    4) end for

    11) end if

    12) end for

    18) end if

    3 實(shí)驗(yàn)與結(jié)果分析

    3.1 實(shí)驗(yàn)設(shè)置

    3.1.1實(shí)驗(yàn)平臺(tái)及測試數(shù)據(jù)集

    實(shí)驗(yàn)框架中采用的BERT版本是RoBERTa-distill[16],RoBERTa-distill是RoBERTa[17]的蒸餾版本;語義過濾機(jī)制采用USE(Universal Sentence Encoder)[18]。

    本文實(shí)驗(yàn)的服務(wù)器配置為內(nèi)存64 GB,機(jī)械硬盤1 TB,1塊32 GB顯存的HPE NVIDIA Tesla V100PCIe GPU和4塊Intel Xeon Gold 6226R CPU。

    實(shí)驗(yàn)采用以下3個(gè)數(shù)據(jù)集,數(shù)據(jù)集的詳細(xì)信息如表1所示。

    1)Yelp Reviews[19]。該數(shù)據(jù)集是一個(gè)二元情感分類的數(shù)據(jù)集,包含了正面和負(fù)面兩個(gè)標(biāo)簽。

    2)AG News。該數(shù)據(jù)集包括超過2 000篇新聞源的新聞文章,數(shù)據(jù)集僅僅援用了標(biāo)題和描述字段。

    3)IMDB Review[20]。該數(shù)據(jù)集包括50 000條情感二元分布的評(píng)論。

    表1 三個(gè)數(shù)據(jù)集的詳細(xì)信息

    3.1.2對(duì)比方法

    本文的對(duì)比方法如下:

    1)Textfooler[21]。該方法的評(píng)分函數(shù)會(huì)處理原始文本,通過刪掉單詞前后得到的分?jǐn)?shù)置信度的變化程度計(jì)算該單詞的重要程度,找出關(guān)鍵單詞,再將該關(guān)鍵詞替換為同義詞生成對(duì)抗樣本。

    2)TextHoaxer[22]。在生成對(duì)抗樣本的過程中使用擾動(dòng)矩陣優(yōu)化框架,提高了生成對(duì)抗樣本的效率。

    3)CLARE(ContextuaLized AdversaRial Example generation model)[23]。對(duì)文本中的單詞采用BERT模型生成擾動(dòng),再通過訪問目標(biāo)模型確定對(duì)抗樣本是否合格。

    3.1.3評(píng)價(jià)指標(biāo)

    1)攻擊成功率(SR)。對(duì)抗樣本可以成功攻擊目標(biāo)模型的概率,如式(7)所示:

    2)目標(biāo)模型的訪問次數(shù)(QC):

    5)生成1 000個(gè)對(duì)抗樣本消耗的時(shí)間。

    6)精確率(ACCuraacy, ACC):預(yù)測正確的樣本數(shù)占總樣本數(shù)的比例。計(jì)算公式如下:

    以上各指標(biāo)中,SR、Sim、SCR和ACC的值越大性能越好;QC和時(shí)間越小,性能越好。

    3.2 對(duì)比實(shí)驗(yàn)分析

    實(shí)驗(yàn)采用將本文方法和3種對(duì)比方法,在Yelp Reviews、AG News和IMDB Review數(shù)據(jù)集上生成1 000個(gè)對(duì)抗樣本,攻擊BERT base-uncased的分類器,實(shí)驗(yàn)結(jié)果如表2所示。

    從表2中可以看出,相較于其他對(duì)比方法,TAEGM具有最好的綜合性能。在Yelp Reviews數(shù)據(jù)集上,使用TAEGM進(jìn)行攻擊的SR達(dá)到了89.9%,相較于Textfooler、TextHoaxer和CLARE分別提高了15.6%、15.3%和14.2%;同時(shí)TAEGM的Sim和SCR也是所有算法中最優(yōu)的;而在QC和時(shí)間這兩項(xiàng)指標(biāo)上,TAEGM僅次于Textfooler??梢钥闯?,TAEGM可以通過注意力機(jī)制,能夠準(zhǔn)確定位語句中的關(guān)鍵單詞并進(jìn)行處理,使得生成的對(duì)抗樣本具有很高的質(zhì)量。在AG New數(shù)據(jù)集上,TAEGM的SR、SCR和Sim全都優(yōu)于其他對(duì)比算法,并且QC和時(shí)間也是所有算法中的次優(yōu)結(jié)果。在IMDB Review數(shù)據(jù)集上,相較于CLARE,TAEGM的SR降低了1.0%,但是QC和時(shí)間降低了55.6%和62.9%,并且Sim和SCR達(dá)到了最優(yōu)結(jié)果。由此可以看出TAEGM通過聚類算法,可以在只使用較少Q(mào)C和時(shí)間的情況下高效地確定候選樣本,從而提高生成對(duì)抗樣本的效率。

    從表2中還可以看出,在3個(gè)數(shù)據(jù)集上,Textfooler的QC和時(shí)間都少于TAEGM,這是因?yàn)門extfooler相當(dāng)于只使用了本文的BERT_Replace擾動(dòng),最后得到候選樣本數(shù)較少,質(zhì)量較差,因此所需要的QC和Time也較少;但相應(yīng)地,Textfooler的攻擊效果弱于TAEGM。

    表2 四種方法在3個(gè)數(shù)據(jù)集上進(jìn)行對(duì)抗攻擊的性能比較

    注:加粗?jǐn)?shù)據(jù)為最優(yōu)值,下劃線數(shù)據(jù)為次優(yōu)值。

    綜上所述,TAEGM具有所有算法中最好的綜合性能,相較于SR次優(yōu)的CLARE,TAEGM的QC平均減少了62.3%,時(shí)間平均減少了68.6%。

    3.3 對(duì)抗樣本示例

    表3展示了在Yelp Reviews數(shù)據(jù)集上TAEGM生成的對(duì)抗樣本。所有的原始文本都只需要非常小的擾動(dòng)就可以生成對(duì)抗樣本,從而誤導(dǎo)目標(biāo)模型BERT,使它輸出錯(cuò)誤的分類結(jié)果,并且對(duì)抗樣本和原始文本的語義非常相似。

    表3 在BERT上利用TAEGM生成的對(duì)抗樣本展示

    注:斜體表示TAEGM生成的3種擾動(dòng);“()”內(nèi)是原始文本;“【】”內(nèi)則標(biāo)注了進(jìn)行的擾動(dòng)。

    4 綜合性能分析

    4.1 超參數(shù)k對(duì)攻擊結(jié)果的影響

    關(guān)鍵單詞范圍是算法中的主要參數(shù),的選取對(duì)攻擊的結(jié)果具有很大的影響,因此,在3個(gè)數(shù)據(jù)集上分別生成150個(gè)對(duì)抗樣本進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖2所示。

    圖2 關(guān)鍵單詞的范圍k對(duì)不同指標(biāo)的影響

    由圖2(a)可知,SR先隨著的增大而迅速增大,當(dāng)>20后,SR的增長變慢,表明關(guān)鍵單詞的主要分布范圍為≤20。通常認(rèn)為隨著的增大,對(duì)抗樣本中發(fā)生改變的單詞數(shù)會(huì)增加,而文本的Sim也會(huì)大幅下降,但如圖2(b)~(c)所示,當(dāng)>20后,這兩個(gè)指標(biāo)都只發(fā)生了很小的改變。在Yelp Reviews數(shù)據(jù)集上,Sim保持在[0.781,0.787],SCR也保持在[9.3,9.9],說明此時(shí)選擇的關(guān)鍵單詞都很合理,所以Sim和SCR呈現(xiàn)趨于平緩的趨勢。從圖2(d)可知,QC與的取值正相關(guān)。綜上,通過圖2可知,當(dāng)=20時(shí),在保證攻擊效率和對(duì)抗樣本質(zhì)量的情況下,TAEGM可以達(dá)到較高的攻擊成功率。

    4.2 對(duì)抗樣本遷移性

    本節(jié)采用了3個(gè)在Yelp Reviews數(shù)據(jù)集上訓(xùn)練的自然語言處理模型:TEXTCNN1、TEXTCNN2和BERT。其中:TEXTCNN1含有1個(gè)輸入層/3個(gè)并行的卷積層(卷積核大小分別為3、4、5)、3個(gè)并行的最大池化層和1個(gè)全連接層;TEXTCNN2相較于TEXTCNN1增加了1個(gè)全連接層。為了驗(yàn)證TAEGM生成的對(duì)抗樣本的遷移性,在Yelp Reviews數(shù)據(jù)集上,使用TAEGM和上述模型生成對(duì)抗樣本,再使用這些對(duì)抗樣本分別攻擊這3個(gè)模型,結(jié)果見表4。

    從表4可以看出,由TEXTCNN1生成的對(duì)抗樣本,在攻擊TEXTCNN2和BERT模型的SR仍達(dá)到了68.7%和65.3%。而由BERT模型生成的對(duì)抗樣本,攻擊TEXTCNN1和TEXTCNN2模型時(shí)的SR仍然達(dá)到了74.6%和72.9%。這表明由TAEGM生成的對(duì)抗樣本可以在多個(gè)模型之間進(jìn)行遷移攻擊,具有一定的遷移性。

    表4 在Yelp Reviews數(shù)據(jù)集上的遷移攻擊成功率 單位:%

    4.3 對(duì)抗訓(xùn)練

    為了驗(yàn)證本文方法是否可以通過對(duì)抗訓(xùn)練提升模型的魯棒性。在3個(gè)數(shù)據(jù)集上通過將生成的對(duì)抗樣本加入訓(xùn)練集中,訓(xùn)練得到新的基于BERT base-uncased的分類器,其中由于Yelp Reviews數(shù)據(jù)集和AG News數(shù)據(jù)集較大,本文只選擇了其中一部分?jǐn)?shù)據(jù)進(jìn)行實(shí)驗(yàn),表5為實(shí)驗(yàn)結(jié)果。

    表5 TAEGM在3個(gè)數(shù)據(jù)集上對(duì)抗訓(xùn)練的結(jié)果

    如表5所示,在Yelp Reviews數(shù)據(jù)集上訓(xùn)練模型時(shí),在原始大小為124 000的訓(xùn)練集中加入2 500個(gè)對(duì)抗樣本,經(jīng)過對(duì)抗訓(xùn)練后得到模型的ACC為98.0%;接著使用TAEGM攻擊該模型,只實(shí)現(xiàn)53.7%的SR,遠(yuǎn)低于表2中的數(shù)據(jù)。而在AG News數(shù)據(jù)集和IMDB Review數(shù)據(jù)集上進(jìn)行對(duì)抗訓(xùn)練時(shí),SR只有51.0%和52.5%??梢钥闯瞿P褪褂肨AEGM生成的對(duì)抗樣本進(jìn)行對(duì)抗訓(xùn)練后,與表2相比可以有效降低攻擊的SR,這表明了對(duì)抗訓(xùn)練可以提高模型防御對(duì)抗樣本的能力,即有效提升了模型的魯棒性。

    5 結(jié)語

    本文提出了一種基于BERT模型的對(duì)抗樣本生成方法TAEGM。該方法首先通過注意力機(jī)制定位句子中的關(guān)鍵單詞,通過BERT在這些關(guān)鍵單詞的位置生成單詞級(jí)的擾動(dòng),生成候選樣本;其次,通過聚類選擇對(duì)分類結(jié)果影響大的候選樣本,得到高質(zhì)量的對(duì)抗樣本。通過大量的實(shí)驗(yàn)結(jié)果表明了本文方法可以將降低訪問目標(biāo)模型的次數(shù),同時(shí)具有較高的攻擊效率和攻擊成功率。此外,還驗(yàn)證了生成的對(duì)抗樣本不但具有很好的遷移性,還可以通過對(duì)抗訓(xùn)練的方式提升模型的魯棒性。在未來的工作中,需要進(jìn)一步改進(jìn)算法,使得針對(duì)目標(biāo)模型的訪問次數(shù)進(jìn)一步下降,同時(shí)可以對(duì)文本分類模型進(jìn)行定向攻擊,進(jìn)一步提升算法的性能和靈活性。

    [1] PAPERNOT N, McDANIEL P, SWAMI A, et al. Crafting adversarial input sequences for recurrent neural networks[C]// Proceedings of the 2016 IEEE Military Communications Conference. Piscataway: IEEE, 2016: 49-54.

    [2] SAMANGOUEI P, KABKAB M, CHELLAPPA R, et al. Defense-GAN: protecting classifiers against adversarial attacks using generative models[EB/OL]. (2018-05-18) [2022-07-13].https://arxiv.org/pdf/1805.06605.pdf.

    [3] 潘文雯,王新宇,宋明黎,等. 對(duì)抗樣本生成技術(shù)綜述[J]. 軟件學(xué)報(bào), 2020, 31(1):67-81.(PAN W W, WANG X Y, SONG M L, et al. Survey on generating adversarial examples[J]. Journal of Software, 2020, 31(1): 67-81.)

    [4] 王文琦,汪潤,王麗娜,等. 面向中文文本傾向性分類的對(duì)抗樣本生成方法[J]. 軟件學(xué)報(bào), 2019, 30(8):2415-2427.(WANG W Q, WANG R, WANG L N, et al. Adversarial examples generation approach for tendency classification on Chinese texts[J]. Journal of Software, 2019, 30(8): 2415-2427.)

    [5] LI J, JI S, DU T, et al. TextBugger: generating adversarial text against real-world applications[C]// Proceedings of the 26th Annual Network and Distributed System Security Symposium. Reston, VA: Internet Society, 2019: No.23138.

    [6] SONG L, YU X, PENG H T, et al. Universal adversarial attacks with natural triggers for text classification[C]// Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg, PA: ACL, 2021: 3724-3733.

    [7] MAHESHWARY R, MAHESHWARY S, PUDI V. A strong baseline for query efficient attacks in a black box setting[C]// Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2021: 8396-8409.

    [8] DEVLIN J, CHANG M W, LEE K, et al. BERT: pre-training of deep bidirectional Transformers for language understanding[C]// Proceedings of the2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers). Stroudsburg, PA: ACL, 2019: 4171-4186.

    [9] KULESHOV V, THAKOOR S, LAU T, et al. Adversarial examples for natural language classification problems[EB/OL]. [2022-07-13].https://openreview.net/pdf?id=r1QZ3zbAZ.

    [10] ALZANTOT M, SHARMA Y, ELGOHARY A, et al. Generating natural language adversarial examples[C]// Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2018: 2890-2896.

    [11] REN S, DENG Y, HE K, et al. Generating natural language adversarial examples through probability weighted word saliency[C]// Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2019: 1085-1097.

    [12] GARG S, RAMAKRISHNAN G. BAE: BERT-based adversarial examples for text classification[C]// Proceedings of the 2020 Conference on Empirical Methods in Natural. Stroudsburg, PA: ACL, 2020: 6174-6181.

    [13] 仝鑫,王羅娜,王潤正,等. 面向中文文本分類的詞級(jí)對(duì)抗樣本生成方法[J]. 信息網(wǎng)絡(luò)安全, 2020, 20(9):12-16.(TONG X, WANG L N, WANG R Z, et al. A generation method of word-level adversarial samples for Chinese text classification[J]. Netinfo Security, 2020, 20(9):12-16.)

    [14] MAHESHWARY R, MAHESHWARY S, PUDI V. Generating natural language attacks in a hard label black box setting[C]// Proceedings of the 35th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2021: 13525-13533.

    [15] LI L, MA R, GUO Q, et al. BERT-ATTACK: adversarial attack against BERT using BERT[C]// Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2020: 6193-6202.

    [16] MA X, ZHOU C, LI X, et al. FlowSeq: non-autoregressive conditional sequence generation with generative flow[C]// Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing. Stroudsburg, PA: ACL, 2019: 4282-4292.

    [17] LIU Y, OTT M, GOYAL N, et al. RoBERTa: a robustly optimized BERT pretraining approach[EB/OL]. (2019-07-26) [2022-07-13].https://arxiv.org/pdf/1907.11692.pdf.

    [18] CER D, YANG Y, KONG S Y, et al. Universal sentence encoder for English[C]// Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations. Stroudsburg, PA: ACL, 2018: 169-174.

    [19] ZHANG X, ZHAO J, LeCUN Y. Character-level convolutional networks for text classification[C]// Proceedings of the 28th International Conference on Neural Information Processing Systems — Volume 1. Cambridge: MIT Press, 2015:649-657.

    [20] MAAS A L, DALY R E, PHAM P T, et al. Learning word vectors for sentiment analysis[C]// Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg, PA: ACL, 2011:142-150.

    [21] JIN D, JIN Z, ZHOU J T, et al. Is BERT really robust? natural language attack on text classification and entailment[C]// Proceedings of the 34th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2020: 8018-8025.

    [22] YE M, MIAO C, WANG T, et al. TextHoaxer: budgeted hard-label adversarial attacks on text[C]// Proceedings of the 36th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2022: 3877-3884.

    [23] LI D, ZHANG Y, PENG H, et al. Contextualized perturbation for textual adversarial attack[C]// Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg, PA: ACL, 2020: 5053-5069.

    Text adversarial example generation method based on BERT model

    LI Yuhang, YANG Yuli, MA Yao, YU Dan, CHEN Yongle*

    ((),,030600,)

    Aiming at the problem that the existing adversarial example generation methods require a lot of queries to the target model, which leads to poor attack effects, a Text Adversarial Examples Generation Method based on BERT (Bidirectional Encoder Representations from Transformers) model (TAEGM) was proposed. Firstly, the attention mechanism was adopted to locate the keywords that significantly influence the classification results without query of the target model. Secondly, word-level perturbation of keywords was performed by BERT model to generate candidate adversarial examples. Finally, the candidate examples were clustered, and the adversarial examples were selected from the clusters that have more influence on the classification results. Experimental results on Yelp Reviews, AG News, and IMDB Review datasets show that compared to the suboptimal adversarial example generation method CLARE (ContextuaLized AdversaRial Example generation model) on Success Rate (SR), TAEGM can reduce the Query Counts (QC) to the target model by 62.3% and time consumption by 68.6% averagely while ensuring the SR of adversarial attacks. Based on the above, further experimental results verify that the adversarial examples generated by TAEGM not only have good transferability, but also improve the robustness of the model through adversarial training.

    adversarial example; attention mechanism; BERT (Bidirectional Encoder Representations from Transformers); adversarial attack; clustering algorithm

    This work is partially supported by Basic Research Program of Shanxi Province (20210302123131, 20210302124395).

    LI Yuhang, born in 1998, M. S. candidate. His research interests include artificial intelligence.

    YANG Yuli, born in 1979, Ph. D., lecturer. Her research interests include trusted cloud service computing, blockchain.

    MA Yao, born in 1982, Ph. D., lecturer. His research interests include Web security.

    YU Dan, born in 1988, Ph. D. Her research interests include wireless sensor network, internet of things.

    CHEN Yongle, born in 1983, Ph. D., professor. His research interests include internet of things security.

    1001-9081(2023)10-3093-06

    10.11772/j.issn.1001-9081.2022091468

    2022?10?08;

    2023?02?19;

    山西省基礎(chǔ)研究計(jì)劃項(xiàng)目(20210302123131,20210302124395)。

    李宇航(1998—),男,山西臨汾人,碩士研究生,CCF會(huì)員,主要研究方向:人工智能; 楊玉麗(1979—),女,山西臨汾人,講師,博士,CCF會(huì)員,主要研究方向:可信云服務(wù)計(jì)算、區(qū)塊鏈; 馬垚(1982—),男,山西太原人,講師,博士,CCF會(huì)員,主要研究方向:Web安全; 于丹(1988—),女,北京人,博士,CCF會(huì)員,主要研究方向:無線傳感網(wǎng)絡(luò)、物聯(lián)網(wǎng); 陳永樂(1983—),男,山西太原人,教授,博士,CCF會(huì)員,主要研究方向:物聯(lián)網(wǎng)安全。

    TP309

    A

    2023?02?23。

    猜你喜歡
    集上擾動(dòng)關(guān)鍵
    Bernoulli泛函上典則酉對(duì)合的擾動(dòng)
    高考考好是關(guān)鍵
    Cookie-Cutter集上的Gibbs測度
    鏈完備偏序集上廣義向量均衡問題解映射的保序性
    (h)性質(zhì)及其擾動(dòng)
    復(fù)扇形指標(biāo)集上的分布混沌
    小噪聲擾動(dòng)的二維擴(kuò)散的極大似然估計(jì)
    用于光伏MPPT中的模糊控制占空比擾動(dòng)法
    獲勝關(guān)鍵
    NBA特刊(2014年7期)2014-04-29 00:44:03
    生意無大小,關(guān)鍵是怎么做?
    中國商人(2013年1期)2013-12-04 08:52:52
    欧美人与善性xxx| 岛国在线免费视频观看| 亚洲av中文av极速乱| 亚洲成av人片在线播放无| 免费看日本二区| 久久久久免费精品人妻一区二区| 久99久视频精品免费| 综合色av麻豆| 精品人妻视频免费看| 一级黄色大片毛片| 国产综合懂色| 欧美色视频一区免费| 少妇的逼好多水| 3wmmmm亚洲av在线观看| 亚洲最大成人中文| 高清在线视频一区二区三区 | 精品一区二区三区视频在线| 亚洲熟妇中文字幕五十中出| 永久免费av网站大全| 日韩成人伦理影院| 精品99又大又爽又粗少妇毛片| 国语对白做爰xxxⅹ性视频网站| 黑人高潮一二区| 神马国产精品三级电影在线观看| 欧美人与善性xxx| av在线老鸭窝| 简卡轻食公司| 国产黄片视频在线免费观看| av又黄又爽大尺度在线免费看 | 99热全是精品| 九色成人免费人妻av| 久久久成人免费电影| 在线天堂最新版资源| 午夜视频国产福利| 一卡2卡三卡四卡精品乱码亚洲| 国产中年淑女户外野战色| 99热全是精品| 欧美成人一区二区免费高清观看| 精品午夜福利在线看| 成人三级黄色视频| 小说图片视频综合网站| 亚洲av中文字字幕乱码综合| 青春草国产在线视频| 欧美zozozo另类| 国产精品人妻久久久影院| 日本色播在线视频| 中文亚洲av片在线观看爽| 国产精品人妻久久久久久| 日本三级黄在线观看| 免费黄色在线免费观看| 99久久无色码亚洲精品果冻| 国产亚洲91精品色在线| 免费观看a级毛片全部| 欧美日韩一区二区视频在线观看视频在线 | 精品国产三级普通话版| 91午夜精品亚洲一区二区三区| 日韩人妻高清精品专区| 网址你懂的国产日韩在线| 99久久精品一区二区三区| 国产日韩欧美在线精品| 欧美成人午夜免费资源| 能在线免费观看的黄片| 在线观看美女被高潮喷水网站| 亚洲综合色惰| 中文欧美无线码| 麻豆久久精品国产亚洲av| 天天一区二区日本电影三级| 国产一区有黄有色的免费视频 | 久久久精品94久久精品| 日本色播在线视频| 久久精品91蜜桃| 国产免费男女视频| 国产色婷婷99| 久久久精品大字幕| 欧美极品一区二区三区四区| 国产v大片淫在线免费观看| 久久精品国产亚洲网站| 国产老妇伦熟女老妇高清| 久久韩国三级中文字幕| 狂野欧美激情性xxxx在线观看| 美女国产视频在线观看| 日韩欧美精品v在线| 日韩,欧美,国产一区二区三区 | 夜夜爽夜夜爽视频| 国产黄片视频在线免费观看| 久久精品91蜜桃| 直男gayav资源| 中文字幕熟女人妻在线| 国产熟女欧美一区二区| 啦啦啦啦在线视频资源| 国产精品日韩av在线免费观看| 国产精品一区二区三区四区免费观看| 精品人妻熟女av久视频| 色噜噜av男人的天堂激情| 国产亚洲精品av在线| 国产片特级美女逼逼视频| 精品国产三级普通话版| 中文字幕av在线有码专区| 亚洲图色成人| 日本三级黄在线观看| 久久99热6这里只有精品| 午夜激情欧美在线| 久久国内精品自在自线图片| 亚洲av熟女| 一区二区三区四区激情视频| 国产视频首页在线观看| 国产成人精品婷婷| 亚洲怡红院男人天堂| 黄片wwwwww| 91aial.com中文字幕在线观看| 日本免费一区二区三区高清不卡| 国产老妇女一区| 国产白丝娇喘喷水9色精品| 亚洲国产精品成人久久小说| 免费大片18禁| 亚洲av.av天堂| 日韩制服骚丝袜av| 精品一区二区免费观看| 精品久久久久久久久亚洲| 免费电影在线观看免费观看| 狂野欧美激情性xxxx在线观看| 日本猛色少妇xxxxx猛交久久| www.色视频.com| 亚洲欧洲国产日韩| 精品人妻视频免费看| 国产极品天堂在线| 大话2 男鬼变身卡| 亚洲成人av在线免费| 高清午夜精品一区二区三区| 日韩国内少妇激情av| 久久精品国产亚洲av涩爱| 国产在线男女| 久久精品熟女亚洲av麻豆精品 | 少妇裸体淫交视频免费看高清| 噜噜噜噜噜久久久久久91| 成人特级av手机在线观看| 国产成人福利小说| 亚洲欧美精品自产自拍| 九草在线视频观看| 国产探花极品一区二区| 久热久热在线精品观看| 麻豆成人午夜福利视频| 久久久久久久久久黄片| 亚洲av成人精品一二三区| 欧美日韩精品成人综合77777| 97人妻精品一区二区三区麻豆| 男的添女的下面高潮视频| 中文天堂在线官网| 国产精品一区二区性色av| 精品熟女少妇av免费看| 免费av不卡在线播放| 国产精品99久久久久久久久| 搞女人的毛片| 尾随美女入室| 亚洲,欧美,日韩| 欧美日韩国产亚洲二区| 久久久欧美国产精品| 欧美潮喷喷水| 国产精品不卡视频一区二区| 看黄色毛片网站| 一级毛片aaaaaa免费看小| 久久人妻av系列| 国产色婷婷99| 精品久久久久久久人妻蜜臀av| 国产伦精品一区二区三区四那| 少妇的逼水好多| 国产精品不卡视频一区二区| 伦精品一区二区三区| 熟妇人妻久久中文字幕3abv| 国产成人freesex在线| 伊人久久精品亚洲午夜| 人妻制服诱惑在线中文字幕| 伦精品一区二区三区| 搞女人的毛片| 黄色一级大片看看| 国产免费男女视频| 日韩,欧美,国产一区二区三区 | 丰满乱子伦码专区| 日本猛色少妇xxxxx猛交久久| 久久精品综合一区二区三区| 日本av手机在线免费观看| 搡老妇女老女人老熟妇| 91在线精品国自产拍蜜月| 91精品伊人久久大香线蕉| 国产在视频线精品| 乱系列少妇在线播放| 免费看日本二区| 国产在线一区二区三区精 | 99久久九九国产精品国产免费| 小说图片视频综合网站| 亚洲欧美精品自产自拍| 欧美又色又爽又黄视频| 中文欧美无线码| 久久精品夜夜夜夜夜久久蜜豆| 日日摸夜夜添夜夜添av毛片| 免费观看性生交大片5| 岛国在线免费视频观看| 一边摸一边抽搐一进一小说| 国语对白做爰xxxⅹ性视频网站| 韩国高清视频一区二区三区| 久久精品久久久久久久性| 国产久久久一区二区三区| 国产色爽女视频免费观看| 看片在线看免费视频| 国产午夜精品一二区理论片| 久久久久免费精品人妻一区二区| 欧美+日韩+精品| 九草在线视频观看| 在线a可以看的网站| 国产精品久久久久久久电影| 午夜福利网站1000一区二区三区| 纵有疾风起免费观看全集完整版 | 中文字幕精品亚洲无线码一区| 99热6这里只有精品| 欧美成人精品欧美一级黄| 九九爱精品视频在线观看| 亚洲国产精品国产精品| 中文在线观看免费www的网站| 国产成人a区在线观看| 日韩一区二区视频免费看| 久久久久久久久中文| 国产伦一二天堂av在线观看| 99久久九九国产精品国产免费| 精品国产一区二区三区久久久樱花 | 听说在线观看完整版免费高清| 国产黄色小视频在线观看| 春色校园在线视频观看| 熟女人妻精品中文字幕| 韩国高清视频一区二区三区| 午夜精品国产一区二区电影 | 天天一区二区日本电影三级| 国产午夜福利久久久久久| 日本免费一区二区三区高清不卡| 亚洲精品日韩av片在线观看| 国产精品,欧美在线| 亚洲av男天堂| 国产成人福利小说| 狠狠狠狠99中文字幕| 日本一二三区视频观看| 美女高潮的动态| 亚洲在线观看片| 国产精品一区二区在线观看99 | 国产在视频线在精品| 免费一级毛片在线播放高清视频| 成人午夜精彩视频在线观看| 网址你懂的国产日韩在线| 日韩欧美在线乱码| 久久久a久久爽久久v久久| 女人被狂操c到高潮| 99久久精品国产国产毛片| 成人漫画全彩无遮挡| 国产高清视频在线观看网站| 亚洲成人精品中文字幕电影| 亚洲第一区二区三区不卡| 熟妇人妻久久中文字幕3abv| 十八禁国产超污无遮挡网站| 国产精品国产三级国产专区5o | 亚洲av不卡在线观看| 国产淫片久久久久久久久| 亚洲五月天丁香| 中国国产av一级| 中文精品一卡2卡3卡4更新| 日韩制服骚丝袜av| 久久久精品94久久精品| 亚洲五月天丁香| 热99re8久久精品国产| 女人被狂操c到高潮| 国产又黄又爽又无遮挡在线| 欧美人与善性xxx| 天天躁夜夜躁狠狠久久av| 国产私拍福利视频在线观看| 嫩草影院新地址| 日韩亚洲欧美综合| 丝袜喷水一区| 人妻制服诱惑在线中文字幕| 人人妻人人澡欧美一区二区| 乱人视频在线观看| 最近的中文字幕免费完整| 成人综合一区亚洲| 夫妻性生交免费视频一级片| 亚洲精品日韩在线中文字幕| 99热网站在线观看| 国产黄片视频在线免费观看| 99热这里只有是精品在线观看| 免费人成在线观看视频色| 在线免费观看不下载黄p国产| 成人美女网站在线观看视频| 久久精品国产亚洲av涩爱| 午夜福利在线观看免费完整高清在| 日本五十路高清| 精品午夜福利在线看| 91在线精品国自产拍蜜月| 亚洲不卡免费看| 国内精品一区二区在线观看| 久久久午夜欧美精品| 九九久久精品国产亚洲av麻豆| 免费观看人在逋| 国产黄色视频一区二区在线观看 | www.色视频.com| 欧美性感艳星| 亚洲欧美日韩高清专用| 亚洲精品乱码久久久v下载方式| 18+在线观看网站| .国产精品久久| 亚洲成人精品中文字幕电影| 日韩欧美精品v在线| 久久99精品国语久久久| 又粗又硬又长又爽又黄的视频| 亚洲欧洲国产日韩| 久久99热这里只有精品18| 日本免费一区二区三区高清不卡| 久久国产乱子免费精品| 长腿黑丝高跟| 一级毛片久久久久久久久女| 在现免费观看毛片| 精品人妻一区二区三区麻豆| a级一级毛片免费在线观看| 国产精品.久久久| 免费看a级黄色片| 丰满人妻一区二区三区视频av| 亚洲av成人av| 中国国产av一级| 午夜福利在线观看吧| 亚洲国产最新在线播放| 老司机影院成人| 蜜桃久久精品国产亚洲av| 在线播放国产精品三级| 非洲黑人性xxxx精品又粗又长| 国产精品熟女久久久久浪| 嫩草影院入口| 欧美成人a在线观看| 91久久精品国产一区二区成人| av视频在线观看入口| 麻豆精品久久久久久蜜桃| 天堂av国产一区二区熟女人妻| av.在线天堂| 国产一区亚洲一区在线观看| 日韩成人av中文字幕在线观看| 成人性生交大片免费视频hd| 日本一本二区三区精品| h日本视频在线播放| 精华霜和精华液先用哪个| av国产久精品久网站免费入址| 国产日韩欧美在线精品| 久久精品人妻少妇| 在线观看美女被高潮喷水网站| 乱系列少妇在线播放| 在线播放无遮挡| 国产高潮美女av| 97在线视频观看| 能在线免费观看的黄片| 欧美日本视频| 免费播放大片免费观看视频在线观看 | 免费不卡的大黄色大毛片视频在线观看 | 国产成年人精品一区二区| 亚洲精品国产av成人精品| 黄色欧美视频在线观看| 日韩人妻高清精品专区| 天堂√8在线中文| 狂野欧美白嫩少妇大欣赏| 国产成人午夜福利电影在线观看| 久久99精品国语久久久| 69av精品久久久久久| 色尼玛亚洲综合影院| 色网站视频免费| 99热网站在线观看| 美女cb高潮喷水在线观看| 黄色欧美视频在线观看| 日韩av在线免费看完整版不卡| 亚洲av熟女| 国产亚洲av片在线观看秒播厂 | 亚洲美女搞黄在线观看| 国产精品1区2区在线观看.| 我的女老师完整版在线观看| 97热精品久久久久久| 中文在线观看免费www的网站| 欧美三级亚洲精品| 亚洲国产欧美人成| 午夜福利成人在线免费观看| 久久久精品大字幕| 神马国产精品三级电影在线观看| av免费在线看不卡| 91精品伊人久久大香线蕉| 久久久久久久国产电影| 中国美白少妇内射xxxbb| 哪个播放器可以免费观看大片| 国产精品,欧美在线| 亚洲欧美一区二区三区国产| 国产乱人偷精品视频| 夜夜看夜夜爽夜夜摸| 一边亲一边摸免费视频| 午夜免费激情av| 精品久久久久久久人妻蜜臀av| 91aial.com中文字幕在线观看| 一区二区三区四区激情视频| 国产亚洲av片在线观看秒播厂 | 欧美一级a爱片免费观看看| 汤姆久久久久久久影院中文字幕 | av免费观看日本| 97热精品久久久久久| 99热精品在线国产| 成人国产麻豆网| 亚洲av电影在线观看一区二区三区 | eeuss影院久久| 亚洲av一区综合| 狂野欧美白嫩少妇大欣赏| 少妇的逼水好多| 日韩精品青青久久久久久| 国产国拍精品亚洲av在线观看| 日日摸夜夜添夜夜爱| 中文字幕精品亚洲无线码一区| 亚洲欧美精品综合久久99| 尾随美女入室| 久久热精品热| 亚洲内射少妇av| 男女视频在线观看网站免费| 日韩 亚洲 欧美在线| 亚洲av电影不卡..在线观看| 一个人看视频在线观看www免费| 搡女人真爽免费视频火全软件| 国产精品嫩草影院av在线观看| 国产成人午夜福利电影在线观看| 亚洲成人中文字幕在线播放| 亚洲婷婷狠狠爱综合网| 免费人成在线观看视频色| 亚洲乱码一区二区免费版| 午夜老司机福利剧场| 麻豆一二三区av精品| 在线观看一区二区三区| av国产久精品久网站免费入址| 亚洲人成网站在线观看播放| 日韩中字成人| 精品一区二区三区视频在线| 99热精品在线国产| 人人妻人人澡欧美一区二区| av卡一久久| 看片在线看免费视频| av免费观看日本| 最近手机中文字幕大全| 国产淫语在线视频| 91av网一区二区| av国产久精品久网站免费入址| 亚洲丝袜综合中文字幕| 97人妻精品一区二区三区麻豆| 能在线免费看毛片的网站| 99久久精品一区二区三区| 欧美日本亚洲视频在线播放| 女人十人毛片免费观看3o分钟| 又爽又黄无遮挡网站| 国产女主播在线喷水免费视频网站 | 久久精品国产亚洲av涩爱| 亚洲av福利一区| 欧美xxxx性猛交bbbb| 免费观看在线日韩| 久久韩国三级中文字幕| 国产精品乱码一区二三区的特点| 天堂√8在线中文| 国产精品伦人一区二区| 亚洲色图av天堂| 成人漫画全彩无遮挡| 久久久久久久亚洲中文字幕| 久久99蜜桃精品久久| 日韩高清综合在线| 日日摸夜夜添夜夜添av毛片| 日韩三级伦理在线观看| 中文字幕制服av| 国产精品一区二区性色av| 一级二级三级毛片免费看| 中文在线观看免费www的网站| 免费看a级黄色片| 大香蕉97超碰在线| 中文资源天堂在线| av又黄又爽大尺度在线免费看 | 国产成人精品一,二区| 婷婷色综合大香蕉| 三级毛片av免费| 日本黄色视频三级网站网址| 女人十人毛片免费观看3o分钟| a级一级毛片免费在线观看| 国产精品av视频在线免费观看| 久久精品夜色国产| 成人亚洲欧美一区二区av| 亚洲av一区综合| 麻豆一二三区av精品| 国产高清视频在线观看网站| 免费黄色在线免费观看| 日韩,欧美,国产一区二区三区 | 免费看av在线观看网站| av福利片在线观看| 国产av不卡久久| 人妻系列 视频| 男的添女的下面高潮视频| 午夜亚洲福利在线播放| 尤物成人国产欧美一区二区三区| 亚洲精品自拍成人| 亚洲四区av| 人人妻人人澡人人爽人人夜夜 | 天天躁夜夜躁狠狠久久av| 毛片女人毛片| 99久久九九国产精品国产免费| 日韩强制内射视频| 午夜精品一区二区三区免费看| 少妇被粗大猛烈的视频| 三级国产精品片| 三级国产精品欧美在线观看| 一边摸一边抽搐一进一小说| www.av在线官网国产| 欧美性感艳星| av专区在线播放| 亚州av有码| 又黄又爽又刺激的免费视频.| 精品国产三级普通话版| 国产中年淑女户外野战色| 22中文网久久字幕| 亚洲欧美日韩高清专用| 日本-黄色视频高清免费观看| 91精品伊人久久大香线蕉| 亚洲精华国产精华液的使用体验| 变态另类丝袜制服| 国产色爽女视频免费观看| 男人舔女人下体高潮全视频| 麻豆精品久久久久久蜜桃| 日本黄色视频三级网站网址| 丝袜美腿在线中文| 91精品一卡2卡3卡4卡| 国产国拍精品亚洲av在线观看| 尤物成人国产欧美一区二区三区| 中文欧美无线码| 免费黄色在线免费观看| 人妻夜夜爽99麻豆av| 免费搜索国产男女视频| 久久久久免费精品人妻一区二区| 国产黄a三级三级三级人| 91aial.com中文字幕在线观看| 成人av在线播放网站| 精品国产一区二区三区久久久樱花 | 午夜免费男女啪啪视频观看| 日韩三级伦理在线观看| 亚洲国产成人一精品久久久| 日本色播在线视频| 久热久热在线精品观看| 3wmmmm亚洲av在线观看| 久久精品久久久久久久性| 国内少妇人妻偷人精品xxx网站| 国产老妇伦熟女老妇高清| 你懂的网址亚洲精品在线观看 | 亚洲av中文字字幕乱码综合| 国产成人福利小说| 国产淫语在线视频| 国产av不卡久久| 免费人成在线观看视频色| 亚洲av免费在线观看| 久久久久久久国产电影| 日韩欧美精品v在线| 国产乱来视频区| 91午夜精品亚洲一区二区三区| 亚洲欧美日韩高清专用| 你懂的网址亚洲精品在线观看 | 亚洲在久久综合| 天美传媒精品一区二区| 熟妇人妻久久中文字幕3abv| 激情 狠狠 欧美| 国产激情偷乱视频一区二区| 亚洲国产欧美在线一区| 国产高清三级在线| 美女国产视频在线观看| 午夜福利成人在线免费观看| www日本黄色视频网| 特大巨黑吊av在线直播| eeuss影院久久| 嘟嘟电影网在线观看| 亚洲精品日韩av片在线观看| 建设人人有责人人尽责人人享有的 | 18禁在线无遮挡免费观看视频| 九草在线视频观看| 亚洲五月天丁香| 一个人看的www免费观看视频| 一夜夜www| 免费看光身美女| 嫩草影院新地址| 少妇熟女aⅴ在线视频| 69人妻影院| 国产午夜精品论理片| 国产亚洲最大av| 欧美变态另类bdsm刘玥| 一级毛片电影观看 | 国产一级毛片七仙女欲春2| 最后的刺客免费高清国语| 欧美区成人在线视频| 午夜福利在线观看吧| 大香蕉久久网| 我要搜黄色片| av专区在线播放| 久久久久久久午夜电影| 国产午夜精品一二区理论片| 91久久精品国产一区二区三区| 少妇的逼水好多| 嫩草影院精品99| 91狼人影院| 搡老妇女老女人老熟妇| 成人高潮视频无遮挡免费网站| 91在线精品国自产拍蜜月| 亚洲国产精品合色在线| 免费观看性生交大片5| www.av在线官网国产| 一区二区三区免费毛片| 三级男女做爰猛烈吃奶摸视频| 日韩欧美精品免费久久| 亚洲中文字幕一区二区三区有码在线看| 国产精品熟女久久久久浪| 欧美精品一区二区大全| 精品无人区乱码1区二区| 欧美日本亚洲视频在线播放| 婷婷色av中文字幕| 久久精品夜夜夜夜夜久久蜜豆|