• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    無監(jiān)督的句法可控復(fù)述模型用于對(duì)抗樣本生成

    2021-02-02 02:51:00楊二光劉明童張玉潔孟遙胡長(zhǎng)建徐金安陳鈺楓
    關(guān)鍵詞:句法語(yǔ)料重構(gòu)

    楊二光劉明童張玉潔,? 孟遙 胡長(zhǎng)建 徐金安陳鈺楓

    無監(jiān)督的句法可控復(fù)述模型用于對(duì)抗樣本生成

    楊二光1劉明童1張玉潔1,?孟遙2胡長(zhǎng)建2徐金安1陳鈺楓1

    1.北京交通大學(xué)計(jì)算機(jī)與信息技術(shù)學(xué)院, 北京 100044; 2.聯(lián)想研究院人工智能實(shí)驗(yàn)室, 北京 100085; ?通信作者, E-mail: yjzhang@bjtu.edu.cn

    針對(duì)使用句法可控的復(fù)述生成模型生成對(duì)抗樣本時(shí)模型性能受限于復(fù)述平行語(yǔ)料的領(lǐng)域和規(guī)模的問題, 提出僅需要單語(yǔ)語(yǔ)料訓(xùn)練的無監(jiān)督的句法可控復(fù)述生成模型, 用以生成對(duì)抗樣本。采用變分自編碼方式學(xué)習(xí)模型, 首先將句子和句法樹分別映射為語(yǔ)義變量和句法變量, 然后基于語(yǔ)義變量和句法變量重構(gòu)原始句子。在重構(gòu)過程中, 模型可以在不使用任何平行語(yǔ)料的情況下學(xué)習(xí)生成句法變化的復(fù)述。在無監(jiān)督復(fù)述生成和對(duì)抗樣本生成任務(wù)中的實(shí)驗(yàn)結(jié)果表明, 所提方法在無監(jiān)督復(fù)述生成任務(wù)中取得最佳性能, 在對(duì)抗樣本生成任務(wù)中可以生成有效的對(duì)抗樣本, 用以改進(jìn)神經(jīng)自然語(yǔ)言處理(NLP)模型的魯棒性和泛化能力。

    無監(jiān)督學(xué)習(xí); 句法可控復(fù)述生成模型; 對(duì)抗樣本

    對(duì)抗樣本指添加細(xì)微干擾的實(shí)例, 廣泛用來測(cè)試模型對(duì)細(xì)微變化樣本的處理能力和改進(jìn)模型性能[1]。通常, 圖像數(shù)據(jù)中的小擾動(dòng)不易被人類察覺。由于文本的離散性質(zhì), 文本中的變化(如字符或單詞的改變)很容易被人類識(shí)別。Ettinger 等[2]發(fā)現(xiàn), 基于深度神經(jīng)網(wǎng)絡(luò)模型的分類器容易受到對(duì)抗性樣本的攻擊, 這些對(duì)抗樣本通過引入訓(xùn)練集中沒有出現(xiàn)的詞匯和句法變化而產(chǎn)生。將這樣的對(duì)抗樣本擴(kuò)充到訓(xùn)練數(shù)據(jù)中, 可以有效地提高神經(jīng)自然語(yǔ)言處理(natural language processing, NLP)模型的魯棒性[3?4]。

    目前, 對(duì)抗攻擊 NLP 模型的研究集中在字符和詞級(jí)別, 如在字符層面注入噪聲[5?6], 或在單詞層面添加和刪除單詞[7?8]來生成對(duì)抗樣本。不同于前人的工作, 本文主要關(guān)注生成句法層面的對(duì)抗樣本, 即語(yǔ)義一致但句法形式多樣的樣本。這類樣本反映語(yǔ)言表達(dá)形式的多樣性, 廣泛存在于自然語(yǔ)言中。為了獲取這樣的對(duì)抗樣本, Iyyer 等[4]使用句法可控的復(fù)述生成模型來生成句法層面的復(fù)述句, 發(fā)現(xiàn)這些句法多樣的復(fù)述句可以欺騙一個(gè)精度較高的分類模型, 但需要大規(guī)模復(fù)述平行語(yǔ)料訓(xùn)練。對(duì)很多語(yǔ)言和領(lǐng)域來說, 復(fù)述平行語(yǔ)料庫(kù)往往很少, 而構(gòu)建大規(guī)模的復(fù)述語(yǔ)料成本很高。相反地, 單語(yǔ)語(yǔ)料在不同語(yǔ)言和領(lǐng)域中很容易獲得。

    為了擺脫模型對(duì)復(fù)述平行語(yǔ)料的依賴, 本文提出無監(jiān)督的句法可控復(fù)述生成模型, 僅使用單語(yǔ)語(yǔ)料訓(xùn)練就可以生成句法變化的復(fù)述, 其核心思想是學(xué)習(xí)句子語(yǔ)義與句法之間的對(duì)應(yīng)關(guān)系。在模型中, 我們利用完全句法樹或模板作為句法信息。完全句法樹(完全樹)指不帶葉子節(jié)點(diǎn)的成分句法樹的序列化表示, 模板通過抽取成分句法樹的前兩層結(jié)構(gòu)得到, 例如, 句子“That’s baseball.”的完全句法樹和模板分別是“(S(NP (DT))(VP(VBZ)(NP(NN)))(.))”和“(S (NP)(VP)(.))”。在訓(xùn)練階段, 我們使用單語(yǔ)語(yǔ)料學(xué)習(xí)模型。在測(cè)試階段, 模型可以根據(jù)給定的不同句法信息來生成句法變化的復(fù)述。我們采用變分自編碼的方式學(xué)習(xí)模型, 設(shè)計(jì)兩個(gè)隱變量來分別捕捉句子的語(yǔ)義和句法信息, 然后聯(lián)合語(yǔ)義和句法隱變量來重構(gòu)原始句子, 從而學(xué)習(xí)句子語(yǔ)義與句法之間的對(duì)應(yīng)關(guān)系。進(jìn)一步地, 為了提高句法的可控性, 我們?cè)O(shè)計(jì)基于生成對(duì)抗網(wǎng)絡(luò)的方法來分離這兩個(gè)變量, 并就語(yǔ)義對(duì)句法的重構(gòu)依賴進(jìn)行建模。此外, 我們引入多任務(wù)學(xué)習(xí)目標(biāo), 確保這兩個(gè)變量可以更好地編碼語(yǔ)義和句法信息。

    1 相關(guān)工作

    近來, 復(fù)述生成任務(wù)受到越來越多的關(guān)注[9?10]。與現(xiàn)有的復(fù)述生成方法相比, 本文工作聚焦于句法控制的復(fù)述生成, 即根據(jù)給定的目標(biāo)句法來生成句法變化的復(fù)述句。

    近來興起的受控生成研究旨在控制生成句的情感[11?12]或政治傾向[13]等屬性。此外, 有一些研究試圖控制生成句的結(jié)構(gòu)[4,14](如給定的句法)。其中, Iyyer 等[4]采用句法樹信息, Chen 等[14]采用句法范例來控制復(fù)述生成。本文工作與 Iyyer 等[4]的工作關(guān)系最密切, 不同之處在于, 我們的模型是基于無監(jiān)督的復(fù)述, 在沒有任何復(fù)述平行語(yǔ)料的情況下學(xué)習(xí)句法控制的復(fù)述生成。

    Kingma 等[15]提出用于圖像生成的 VAE 方法, Bowman 等[16]成功地將 VAE 應(yīng)用于 NLP 領(lǐng)域, 表明 VAE 能夠從隱空間生成更流利的句子。近年來, VAE 廣泛用于各種自然語(yǔ)言生成任務(wù)中[12?14,17?18]。我們的目標(biāo)是使用句法樹來控制生成句的句法結(jié)構(gòu), 受引入句法的變分自編碼方法[18]啟發(fā), 本文使用兩個(gè)變分自編碼器, 引入兩個(gè)隱變量來分別捕獲語(yǔ)義和句法信息, 同時(shí)借鑒隱空間分離的方法[17], 采用對(duì)抗網(wǎng)絡(luò)分離句法和語(yǔ)義變量, 提高句法的控制能力。

    2 無監(jiān)督的句法可控復(fù)述生成模型

    2.1 模型整體框架

    本文提出的無監(jiān)督的句法可控復(fù)述生成模型整體框架如圖 1 所示。模型以變分自編碼模型(varia-tional auto-encoder, VAE)[9,15]為基礎(chǔ)。給定一個(gè)句子=[1,…,|x|]及與它對(duì)應(yīng)的句法樹=[1,…,||], 將和分別編碼為隱變量zz, 然后聯(lián)合兩個(gè)隱變量, 重構(gòu)出句子, 隱變量zz分別捕獲語(yǔ)義信息和句法信息。句子出現(xiàn)的概率可以通過下式計(jì)算:

    本文定義自編碼的損失(包括重構(gòu)損失和 Kullback-leibier (KL)散度損失)計(jì)算公式如下:

    其中,(z)和(z)表示先驗(yàn)分布, 兩者相互獨(dú)立且服從標(biāo)準(zhǔn)正態(tài)分布(0,1);(z|)和(z|)分別表示上述兩個(gè)隱變量的后驗(yàn)分布, 設(shè)置兩者相互獨(dú)立, 且分別服從正態(tài)分布(μ,σ2), (μ,σ2), 其中,σ,μσ通過神經(jīng)網(wǎng)絡(luò)計(jì)算。

    圖1 模型整體框架

    在訓(xùn)練階段, 我們采用重參數(shù)技巧, 從上述兩個(gè)后驗(yàn)分布中采樣, 得到語(yǔ)義變量z和句法變量z。解碼過程如圖 1 右側(cè)虛線框所示, 對(duì)時(shí)間步, 將句法變量z與前一時(shí)間步預(yù)測(cè)的詞嵌入e–1拼接, 作為解碼器的輸入; 將解碼器輸出的隱藏狀態(tài)h–1與語(yǔ)義變量z拼接, 用來預(yù)測(cè)當(dāng)前時(shí)間步的詞x。

    在生成階段, 當(dāng)給出相同的句子和不同的句法結(jié)構(gòu)時(shí), 本文模型可以生成句法可控的復(fù)述。我們通過最大后驗(yàn)概率(maximum a posteriori, MAP)推理得到語(yǔ)義和句法變量zz, 這樣可以盡可能地保留語(yǔ)義和句法信息。之后, 解碼過程與訓(xùn)練階段保持一致。

    2.2 分離句法和語(yǔ)義

    Vinyals 等[19]提出一種基于 seq2seq 的成分句法分析方法, 其中包括一個(gè)編碼器和解碼器, 將一個(gè)句子輸入到編碼器, 通過解碼器解碼得到該句的成分句法樹。受此啟發(fā), 我們認(rèn)為句子編碼器得到的向量表示z可能同時(shí)包含語(yǔ)義信息和句法信息。為了提高句法的可控性, 我們希望每個(gè)隱變量(zz)只捕獲各自的信息。為了實(shí)現(xiàn)這一目標(biāo), 我們采用多任務(wù)學(xué)習(xí)目標(biāo)和對(duì)抗損失的方法[17],對(duì)這兩個(gè)隱變量進(jìn)行約束。

    本文引入多任務(wù)學(xué)習(xí)目標(biāo), 用于確保這兩個(gè)變量可以更好地編碼語(yǔ)義和句法信息。對(duì)于語(yǔ)義變量, 使用 Softmax 分類器預(yù)測(cè)z中句子的詞袋分布(bag-of-word), 訓(xùn)練目標(biāo)是相對(duì)于真實(shí)分布的交叉熵?fù)p失。計(jì)算公式如下:

    其中,(|z)表示預(yù)測(cè)的詞概率分布,表示使用的詞典。

    對(duì)于句法變量, 多任務(wù)損失訓(xùn)練模型根據(jù) z能夠預(yù)測(cè)出序列化的句法樹, 損失計(jì)算公式如下:

    其中,y表示句法樹中的標(biāo)簽詞。

    上述多任務(wù)學(xué)習(xí)目標(biāo)鼓勵(lì)語(yǔ)義變量和句法變量包含對(duì)應(yīng)的語(yǔ)義和句法信息。但是, 它們也可能包含另一方的信息, 如語(yǔ)義變量可能包含句法信息, 導(dǎo)致句法可控性能差。對(duì)此, 我們進(jìn)一步引入對(duì)抗損失來阻止語(yǔ)義變量包含句法信息。具體地, 引入判別器, 根據(jù)z預(yù)測(cè)句法樹序列, 然后訓(xùn)練 VAE學(xué)習(xí)語(yǔ)義變量, 使判別器不能根據(jù)該語(yǔ)義變量預(yù)測(cè)句法樹。判別器的訓(xùn)練方法類似式(6), 但梯度反向傳播, 不會(huì)傳給 VAE。可以將 VAE 視為一個(gè)生成器, 被訓(xùn)練來欺騙判別器, 使其通過最大化來對(duì)抗損失, 即最小化下式:

    在這一階段, 判別器的參數(shù)不會(huì)被更新。

    2.3 對(duì)句法和語(yǔ)義變量的重構(gòu)依賴性建模

    我們還就語(yǔ)義對(duì)句法的重構(gòu)依賴建模, 用于提高句法的可控性。我們希望解碼器在語(yǔ)義和句法變量同時(shí)存在的情況下才能重構(gòu)原句, 而解碼器無法僅根據(jù)語(yǔ)義變量重構(gòu)原句。為了實(shí)現(xiàn)這一目標(biāo), 采用對(duì)抗重構(gòu)損失[17]來阻止句子被單個(gè)語(yǔ)義變量z預(yù)測(cè)。我們引入另外的判別器, 訓(xùn)練其根據(jù)z來預(yù)測(cè)句子, 通過最大化對(duì)抗重構(gòu)損失, 訓(xùn)練 VAE 去欺騙判別器, 即最小化下式:

    其中,x表示句子中的一個(gè)詞。

    2.4 模型訓(xùn)練

    訓(xùn)練損失包括自編碼損失、語(yǔ)義和句法的多任務(wù)損失、對(duì)抗損失和對(duì)抗重構(gòu)損失:

    3 評(píng)測(cè)實(shí)驗(yàn)與結(jié)果分析

    本研究的目標(biāo)是通過句法可控的復(fù)述生成模型來生成對(duì)抗樣本, 首先在無監(jiān)督的復(fù)述生成任務(wù)中進(jìn)行實(shí)驗(yàn), 考察本文模型是否能夠生成句法變化的復(fù)述; 然后驗(yàn)證模型是否能夠?yàn)榍楦蟹治鋈蝿?wù)生成句法變化的對(duì)抗樣本。

    3.1 無監(jiān)督復(fù)述生成

    在給定一個(gè)輸入句子的情況下, 復(fù)述生成的目的是生成一個(gè)表達(dá)形式與輸入句不同, 但傳達(dá)相同含義的句子。對(duì)于特定輸入句子x和目標(biāo)句法樹*,(z|*)和(z|*)分別表示句法變量和語(yǔ)義變量的后驗(yàn)分布。在生成階段, 通過 MAP 推理得到句法和語(yǔ)義變量:

    表1 在Quaro, One-billion-word和SST數(shù)據(jù)集上使用的超參數(shù)

    3.1.1 數(shù)據(jù)集

    與 Bao 等[17]的方法相同, 本文使用 Quaro 數(shù)據(jù)集評(píng)測(cè)復(fù)述生成的質(zhì)量。該數(shù)據(jù)集包括 140 K 對(duì)復(fù)述句, 260K 對(duì)非復(fù)述句, 按照標(biāo)準(zhǔn)數(shù)據(jù)集劃分, 驗(yàn)證集和測(cè)試集分別包含 3 K 對(duì)和 30 K 對(duì)復(fù)述句。我們以未出現(xiàn)在驗(yàn)證和測(cè)試集中的非復(fù)述句對(duì)作為訓(xùn)練集, 使用斯坦福句法分析工具[20], 對(duì)訓(xùn)練集中所有句子以及驗(yàn)證集和測(cè)試集中的參考句進(jìn)行句法分析, 得到句法樹。

    3.1.2評(píng)測(cè)指標(biāo)

    本文考慮兩類自動(dòng)評(píng)測(cè)指標(biāo), 旨在捕獲模型不同方面的性能。對(duì)于語(yǔ)義指標(biāo), 分別計(jì)算生成句與參考句、原句的 BLEU 值, 分別表示為 BLEU-ref和 BLEU-ori。在理想情況下, BLEU-ref 值較高, BLEU-ori 值較低。對(duì)于句法指標(biāo), 分別計(jì)算生成句與參考句、原句的樹編輯距離(TED), 分別表示為TED-ref 和 TED-ori。在理想情況下, TED-ref 值較低, TED-ori 值較高。我們還使用精確模板匹配(Match Accuary)來評(píng)測(cè)生成句符合目標(biāo)句法模板的頻率, 當(dāng)生成句的模板(句法樹的前兩層)與參考句的模板一致時(shí), 則認(rèn)為匹配。根據(jù)開發(fā)集上的BLEU-ref值調(diào)整超參數(shù)。

    3.1.3實(shí)驗(yàn)結(jié)果

    對(duì)于語(yǔ)義指標(biāo), 本文方法在兩種設(shè)置(使用完全樹或模板)下的 BLEU-ref 值均優(yōu)于現(xiàn)有無監(jiān)督復(fù)述方法(表 2)。從 BLEU-ori 與 BLEU-ref 關(guān)系的散點(diǎn)圖(圖 2)看出, 本文方法的數(shù)據(jù)點(diǎn)位于其他方法的左上方。這些結(jié)果表明, 本文模型在無監(jiān)督復(fù)述生成任務(wù)中的性能超過現(xiàn)有方法。在句法測(cè)評(píng)指標(biāo)方面, 使用完全樹或模板的 TED-ref 值分別為 3.47和 11.1, Match Accuracy 的精度分別為 88.72%和73.69%, 表明本文模型可以根據(jù)給定的句法結(jié)構(gòu)生成復(fù)述(與表 2 中第 1 行相比)。同時(shí), TED-ori 值分別為 11.5 和 7.33, 說明生成句與原句在句法結(jié)構(gòu)上有一定程度的差異。

    表2 與已有無監(jiān)督復(fù)述方法的性能比較結(jié)果

    說明: ↑表示值越大越好, ↓表示值越小越好; 粗體數(shù)字表示性能最佳, 下同。

    圖2 BLEU-ori與BLEU-ref的關(guān)系

    由于完全句法樹包含更細(xì)粒度的句法信息, 能夠指導(dǎo)模型正確地進(jìn)行語(yǔ)義等價(jià)的詞替換, 因此使用完全句法樹可以產(chǎn)生非常高的語(yǔ)義和句法指標(biāo)。然而, 當(dāng)只使用句法模板(即句法樹的前兩層)時(shí), 本文方法在 BLEU-ori 和 Match Accuracy 上都獲得較高的精度, 表明生成的復(fù)述句在句法結(jié)構(gòu)上變化較大, 符合給定的目標(biāo)句法結(jié)構(gòu), 同時(shí)能夠有效地保留原句的語(yǔ)義信息。

    3.2 對(duì)抗樣本生成

    下面探究本文模型是否可以生成句法變化的對(duì)抗樣本以及生成的對(duì)抗樣本是否可以提高目標(biāo)模型的魯棒性。

    3.2.1實(shí)驗(yàn)設(shè)置

    與 Iyyer 等[4]的方法相同, 在來自電影評(píng)論語(yǔ)料庫(kù)的數(shù)據(jù)集 Stanford Sentiment Treebank (SST-2)[21]上評(píng)估句法變化的對(duì)抗樣本。SST-2 包含句法變化程度較高的復(fù)雜句子, 但數(shù)據(jù)集的規(guī)模相對(duì)較小。我們采用“預(yù)訓(xùn)練和微調(diào)”的方式來訓(xùn)練本文句法控制的復(fù)述模型, 首先使用來自 One-Billion-Word 語(yǔ)料[22]預(yù)處理的 210 萬個(gè)句子預(yù)訓(xùn)練本文模型, 然后在 SST-2 數(shù)據(jù)集上對(duì)模型進(jìn)行微調(diào)。情感分類模型使用Bi-LSTM[23]。

    表3 消融分析結(jié)果

    對(duì)于 SST-2 訓(xùn)練集和開發(fā)集中的樣本, 用 One-Billion-Word 和 SST-2 數(shù)據(jù)集中最頻繁的 15 個(gè)句法模板生成 15 個(gè)復(fù)述, 在后處理步驟中刪除與原句語(yǔ)義差別較大的復(fù)述, 即使用閾值(BLEU, 1-3-gram)對(duì)生成的復(fù)述進(jìn)行過濾。隨后, 用在訓(xùn)練集上生成的復(fù)述擴(kuò)充訓(xùn)練數(shù)據(jù)。對(duì)抗訓(xùn)練過程如圖 3 所示, 虛線箭頭表示直接用 SST-2 訓(xùn)練集來訓(xùn)練情感分類模型, 實(shí)線箭頭表示使用本文模型為 SST-2 訓(xùn)練集樣本生成句法變化的復(fù)述, 并用這些復(fù)述擴(kuò)充訓(xùn)練集, 重新訓(xùn)練情感分類模型。通過這種方式, 我們獲得兩個(gè)訓(xùn)練好的情感分類模型。

    在對(duì)抗樣本生成實(shí)驗(yàn)中使用的 15 個(gè)句法模板如下: (S(NP)(VP)); (S(PP)(,)(NP)(VP)); (S(S)(,)(NP)(VP)); (S(NP)(ADVP)(VP)); (S(S)(,)(CC)(S)); (S(“) (S)(,)(”)(NP)(VP)); (S(CC)(NP)(VP)); (S(S)(CC)(S)); (S(SBAR)(,)(NP)(VP)); (S(ADVP)(,)(NP)(VP)); (S(VP));(S(S)(:)(S)); (S(ADVP)(NP)(VP)); (NP(NP)(PP)); (FRAG(ADJP))。

    3.2.2評(píng)價(jià)指標(biāo)

    我們使用以下指標(biāo)來評(píng)估模型性能。

    1)Dev Broken[4]。得開發(fā)集樣本生成的句法變化的復(fù)述過濾處理后, 輸入預(yù)訓(xùn)練情感分類模型。如果原句預(yù)測(cè)是正確的, 但至少有一個(gè)復(fù)述的預(yù)測(cè)不正確, 則認(rèn)為被“Broken”。Dev Broken 指開發(fā)集樣本通過復(fù)述被“Broken”的占比。在該實(shí)驗(yàn)中, 以 Dev Broken 作為主要評(píng)測(cè)指標(biāo), 用于衡量不同方法的文本攻擊效果。

    圖3 對(duì)抗訓(xùn)練過程

    2)Validity[4]。由于生成的句法變化的復(fù)述可能丟失情感詞, 為了衡量生成的對(duì)抗樣本的有效性, 隨機(jī)選取 100 個(gè)對(duì)抗樣本進(jìn)行人工評(píng)測(cè)。要求眾包員工為給定的對(duì)抗樣本選擇合適的標(biāo)簽(如積極或消極), 然后將員工的判斷與原始的開發(fā)集樣本標(biāo)簽進(jìn)行比較。

    3)Test Accuracy: 衡量分類模型在測(cè)試集上的準(zhǔn)確率。

    3.2.3實(shí)驗(yàn)結(jié)果

    將本文生成對(duì)抗樣本的方法與前人的兩種方法(NMT-BT 和 SCPN)進(jìn)行比較, 實(shí)驗(yàn)結(jié)果如表 4 所示。其中, NMT-BT[4]是神經(jīng)機(jī)器翻譯回譯方法; SCPN 是 Iyyer 等[4]提出的句法控制的復(fù)述生成模型, 該模型需要大規(guī)模復(fù)述平行語(yǔ)料訓(xùn)練。

    從表 4 可以看出, 本文方法獲得 63.0 的 Validity得分和 18.92 的 Dev Broken, 性能與 NMT-BT 非常接近, 表明本文模型可以生成合法的對(duì)抗樣本。用本文無監(jiān)督復(fù)述方法生成的句法變化的復(fù)述擴(kuò)充訓(xùn)練數(shù)據(jù), Dev Broken 值從 18.92 降至 17.76, 表明在這些句法變化的復(fù)述上訓(xùn)練可以提高情感分類模型對(duì)句法變化的魯棒性, 同時(shí)不影響分類模型在原始測(cè)試集上的準(zhǔn)確率。

    SCPN 和 NMT-BT 也獲得很高的性能, 這歸功于平行語(yǔ)料庫(kù)的使用。這兩個(gè)模型都使用大規(guī)模的平行語(yǔ)料庫(kù)進(jìn)行訓(xùn)練, 生成的復(fù)述句包括詞匯和句法變化。對(duì)于沒有平行語(yǔ)料可用的低資源語(yǔ)言, 本文無監(jiān)督的方法將非常有效。

    3.2.4 不同閾值對(duì)目標(biāo)模型性能的影響

    為了更好地分析句法變化的復(fù)述對(duì)分類模型性能的影響, 我們使用不同的閾值過濾復(fù)述句, 用來擴(kuò)充訓(xùn)練集, 重新訓(xùn)練分類模型, 并記錄模型在測(cè)試集上的準(zhǔn)確率, 結(jié)果見表 5。當(dāng)閾值設(shè)置為最小值 0.4 時(shí), 沒有降低模型的性能, 表明本文模型具有良好的生成質(zhì)量。隨著閾值增大, 模型的性能提高, 閾值為 0.85 時(shí)達(dá)到最好的性能, 這是在復(fù)述質(zhì)量與多樣性之間權(quán)衡的結(jié)果。閾值越大, 過濾后的復(fù)述質(zhì)量越好, 但多樣性越差, 因此當(dāng)閾值為 0.9時(shí)并沒有達(dá)到最佳性能。這些結(jié)果也顯示, 本文方法具有成為一種數(shù)據(jù)增強(qiáng)技術(shù)的潛力。

    表4 生成對(duì)抗樣本方法的性能比較結(jié)果

    表5 不同閾值對(duì)目標(biāo)模型性能的影響

    說明: 因?yàn)槟P蛥?shù)的隨機(jī)初始化, 所以記錄3次運(yùn)行結(jié)果的平均值。

    表6 生成的復(fù)述示例

    表 6 展示兩組由本文方法生成的復(fù)述句, 其中復(fù)述句 3 和 4 為生成的對(duì)抗樣本, 與原句語(yǔ)義一致, 結(jié)構(gòu)不同, 情感分類模型不能正確地預(yù)測(cè)其標(biāo)簽, 證明本文模型可以為情感分類模型生成句法變化的對(duì)抗樣本。

    3.2.5生成實(shí)例分析

    4 結(jié)語(yǔ)

    本文提出一種無監(jiān)督句法可控復(fù)述生成模型, 無需復(fù)述對(duì)齊語(yǔ)料訓(xùn)練。采用變分自編碼學(xué)習(xí)方式, 使用兩個(gè)隱變量分別捕獲句子的語(yǔ)義和句法信息。通過聯(lián)合這兩個(gè)隱變量來重構(gòu)原始句子, 從而學(xué)習(xí)句子語(yǔ)義和句法之間的對(duì)應(yīng)關(guān)系。為了提高句法的可控性, 設(shè)計(jì)基于生成對(duì)抗網(wǎng)絡(luò)的方法來分離這兩個(gè)變量, 并就句法和語(yǔ)義變量的重構(gòu)依賴性進(jìn)行建模。

    實(shí)驗(yàn)結(jié)果表明, 本文方法在無監(jiān)督復(fù)述生成任務(wù)中取得最好的結(jié)果, 可以生成符合目標(biāo)句法結(jié)構(gòu)的復(fù)述句。生成對(duì)抗樣本的實(shí)驗(yàn)結(jié)果進(jìn)一步證明本文模型能夠生成高質(zhì)量的對(duì)抗樣本, 當(dāng)使用生成的樣本擴(kuò)充訓(xùn)練數(shù)據(jù)時(shí), 在不損害原始測(cè)試集性能的情況下, 可以有效地提高模型的魯棒性。

    在后續(xù)工作中, 我們將探索將詞或短語(yǔ)級(jí)別的變化與本文模型相結(jié)合的方法, 以期生成更加多樣化的對(duì)抗樣本。

    [1] Zhang W E, Sheng Q Z, Alhazmi A, et al. Adversarial attacks on deep learning models in natural language processing: a survey. ACM Transactions on Intelligent Systems and Technology, 2019, 11(3): 24

    [2] Ettinger A, Rao S, Daumé III H, et al. Towards lin-guistically generalizable NLP systems: a workshop and shared task // First Workshop on Building Lin-guistically Generalizable NLP Systems. Copenhagen, 2017: 1?10

    [3] Jia R, Liang P. Adversarial examples for evaluating reading comprehension systems // Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Copenhagen, 2017: 2021–2031

    [4] Iyyer M, Wieting J, Gimpel K, et al. Adversarial example generation with syntactically controlled pa-raphrase networks // North American chapter of the Association for Computational Linguistics. New Or-leans, 2018: 1875?1885

    [5] Ebrahimi J, Rao A, Lowd D, et al. HotFlip: white-box adversarial examples for text classification // Procee-dings of the 56th Annual Meeting of the Association for Computational Linguistics. Melbourne, 2018: 31? 36

    [6] Gao J, Lanchantin J, Soffa M L, et al. Black-box generation of adversarial text sequences to evade deep learning classifiers // 2018 IEEE Security and Privacy Workshops (SPW) . Los Alamitos, 2018: 50?56

    [7] Liang Bin, Li Hongcheng, Su Miaoqiang, et al. Deep text classification can be fooled // IJCAI-18. Stock-holm, 2018: 4208–4215

    [8] Feng S, Wallace E, Iyyer M, et al. Right answer for the wrong reason: Discovery and mitigation // Pro-ceedings of the 2018 Conference on Empirical Me-thods in Natural Language Processing. Brussels, 2018: 3719?3728

    [9] Gupta A, Agarwal A, Singh P, et al. A deep generative framework for paraphrase generation // AAAI. New Orleans, 2018: 5149?5156

    [10] Miao Ning, Zhou Hao, Mou Lili, et al. CGMH: con-strained sentence generation by metropolis-hastings sampling // AAAI. Honolulu, 2019: 6834?6842

    [11] Hu Zhiting, Yang Zichao, Liang Xiaodan, et al. To-ward controlled generation of text // Proceedings of the 34th International Conference on Machine Lear-ning. Sydney, 2017: 1587?1596

    [12] John V, Mou Lili, Bahuleyan H, et al. Disentangled representation learning for non-parallel text style transfer // Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Flo-rence, 2019: 424?434

    [13] Prabhumoye S, Tsvetkov Y, Salakhutdinov R, et al. Style transfer through back-translation // Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics. Melbourne, 2018: 866? 876

    [14] Chen M D, Tang Q M, Wiseman S, et al. Controllable paraphrase generation with a syntactic exemplar // Proceedings of the 57th Annual Meeting of the As-sociation for Computational Linguistics. Florence, 2019: 5972–5984

    [15] Kingma D P, Welling M. Auto-encoding variational bayes // ICLR. Banff, 2014: No. 6

    [16] Bowman S R, Vilnis L, Vinyals O, et al. Generating sentences from a continuous space // Proceedings of The 20th SIGNLL Conference on Computational Na-tural Language Learning. Berlin, 2016: 10?21

    [17] Bao Yu, Zhou Hao, Huang Shujian, et al. Generating sentences from disentangled syntactic and semantic spaces // Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Flo-rence, 2019: 6008–6019

    [18] Zhang X Y, Yang Y, Yuan S Y, et al. Syntax-infused variational autoencoder for text generation // Procee-dings of the 57th Annual Meeting of the Association for Computational Linguistics. Florence, 2019: 2069? 2078

    [19] Vinyals O, Kaiser L, Koo T, et al. Grammar as a foreign language // Proceedings of the 28th Interna-tional Conference on Neural Information Processing Systems. Cambridge, 2014: 2773?2781

    [20] Manning C D, Surdeanu M, Bauer J, et al. The Stan-ford CoreNLP natural language processing toolkit // Proceedings of 52nd Annual Meeting of the Associa-tion for Computational Linguistics: System Demons-trations. Baltimore, 2014: 55?60

    [21] Socher R, Perelygin A, Wu J, et al. Recursive deep models for semantic compositionality over a senti-ment treebank // Proceedings of the 2013 Conference on Empirical Methods in Natural Language Proces-sing. Seattle, 2013: 1631?1642

    [22] Chelba C, Mikolov T, Schuster M, et al. One billion word benchmark for measuring progress in statistical language modeling // Conference of the International Speech Communication Association. Lyon, 2013: 2635?2639

    [23] Tai K S, Socher R, Manning C D. Improved semantic representations from tree-structured long short-term memory networks // Proceedings of the 53rd Annual Meeting of the Association for Computational Lin-guistics and the 7th International Joint Conference on Natural Language Processing. Beijing, 2015: 1556? 1566

    Unsupervised Syntactically Controllable Paraphrase Network for Adversarial Example Generation

    YANG Erguang1, LIU Mingtong1, ZHANG Yujie1,?, MENG Yao2, HU Changjian2, XU Jin’an1, CHEN Yufeng1

    1. School of Computer and Information Technology, Beijing Jiaotong University, Beijing 100044; 2. Lenovo Research, AI Laboratory, Beijing 100085; ? Corresponding author, E-mail: yjzhang@bjtu.edu.cn

    Prior work on adversarial example generation with syntactically controlled paraphrase networks requires large-scale paraphrase parallel corpora to train models. The performance of the model is seriously limited by the domain and scale of paraphrase parallel corpus. To solve this problem, this paper proposes an unsuprervised syntactically controlled paraphrase model to generate adversarial examples which only needs monolingual data. Specifically, variational autoencoder is used to learn model, which maps a sentence and a syntactic parse tree into semantic and syntactic variables, respectively. By learning to reconstruct the input sentence from syntactic and semantic variables, the model effectively learns to generate syntactic paraphrases without using any parallel data. Experiment results on unsupervised sentence paraphrasing and adversarial example generation demonstrate that the proposed model achieves new state-of-the-art results on unsupervised paraphrase generation and generate effective adversarial examples. These examples can be used to improve the robustness and generalization of NLP (natural language processing) model.

    unsupervised learning; syntactically controllable paraphrase network; adversarial example

    10.13209/j.0479-8023.2020.079

    2020?06?09;

    2020?08?15

    國(guó)家自然科學(xué)基金(61876198, 61976015, 61976016)資助

    猜你喜歡
    句法語(yǔ)料重構(gòu)
    長(zhǎng)城敘事的重構(gòu)
    攝影世界(2022年1期)2022-01-21 10:50:14
    句法與句意(外一篇)
    述謂結(jié)構(gòu)與英語(yǔ)句法配置
    北方大陸 重構(gòu)未來
    句法二題
    詩(shī)詞聯(lián)句句法梳理
    北京的重構(gòu)與再造
    商周刊(2017年6期)2017-08-22 03:42:36
    基于語(yǔ)料調(diào)查的“連……都(也)……”出現(xiàn)的語(yǔ)義背景分析
    論中止行為及其對(duì)中止犯的重構(gòu)
    華語(yǔ)電影作為真實(shí)語(yǔ)料在翻譯教學(xué)中的應(yīng)用
    一进一出好大好爽视频| 亚洲欧美日韩无卡精品| 日日夜夜操网爽| 精品久久久久久久末码| 亚洲性夜色夜夜综合| 久久精品影院6| АⅤ资源中文在线天堂| 琪琪午夜伦伦电影理论片6080| 国产精品爽爽va在线观看网站| 99在线人妻在线中文字幕| 中文字幕熟女人妻在线| 99国产综合亚洲精品| 性插视频无遮挡在线免费观看| 午夜福利视频1000在线观看| 一进一出抽搐动态| 久久草成人影院| 久久国产精品人妻蜜桃| 国产精品野战在线观看| 身体一侧抽搐| 国产一区二区亚洲精品在线观看| 精品欧美国产一区二区三| 级片在线观看| 在线天堂最新版资源| 国产主播在线观看一区二区| 99国产精品一区二区蜜桃av| 欧美成人免费av一区二区三区| 久久久久免费精品人妻一区二区| 国产av在哪里看| 久久久久久国产a免费观看| 男人和女人高潮做爰伦理| 色尼玛亚洲综合影院| 黄色一级大片看看| 精品国产三级普通话版| 一边摸一边抽搐一进一小说| 淫妇啪啪啪对白视频| 中文亚洲av片在线观看爽| 国产真实伦视频高清在线观看 | 日本熟妇午夜| 国产黄片美女视频| 不卡一级毛片| 午夜福利在线在线| 成人三级黄色视频| 久久精品国产清高在天天线| 久久久久久国产a免费观看| 成人午夜高清在线视频| 成年人黄色毛片网站| 中文字幕精品亚洲无线码一区| 久久精品国产99精品国产亚洲性色| 国产精品永久免费网站| 99热精品在线国产| 欧洲精品卡2卡3卡4卡5卡区| 一级av片app| 老司机午夜十八禁免费视频| 老司机午夜十八禁免费视频| 黄片小视频在线播放| 在线观看免费视频日本深夜| 欧美一级a爱片免费观看看| 成人一区二区视频在线观看| 国产aⅴ精品一区二区三区波| 97超级碰碰碰精品色视频在线观看| 老司机午夜十八禁免费视频| 亚洲不卡免费看| 国产精品电影一区二区三区| 天天一区二区日本电影三级| 永久网站在线| 婷婷色综合大香蕉| 国产av不卡久久| 69av精品久久久久久| 国产真实乱freesex| 欧美极品一区二区三区四区| 欧美潮喷喷水| 成人高潮视频无遮挡免费网站| 亚洲国产高清在线一区二区三| 国产男靠女视频免费网站| 久久99热这里只有精品18| 亚洲精品粉嫩美女一区| 午夜激情欧美在线| 天天一区二区日本电影三级| 一区福利在线观看| 日韩亚洲欧美综合| 中文字幕av在线有码专区| 两个人的视频大全免费| 色哟哟·www| 美女 人体艺术 gogo| 久久久久久久久中文| 日本五十路高清| 99国产综合亚洲精品| 一级av片app| 婷婷亚洲欧美| 波多野结衣高清作品| 99在线视频只有这里精品首页| 啦啦啦韩国在线观看视频| 国内少妇人妻偷人精品xxx网站| 欧美一区二区国产精品久久精品| 精品日产1卡2卡| 18+在线观看网站| 午夜免费成人在线视频| 男女视频在线观看网站免费| 直男gayav资源| 国产亚洲精品久久久久久毛片| 美女大奶头视频| 欧美成人性av电影在线观看| 日本在线视频免费播放| 国产视频一区二区在线看| 88av欧美| 18禁黄网站禁片午夜丰满| 日日夜夜操网爽| 欧美日韩综合久久久久久 | 亚洲久久久久久中文字幕| 久久午夜亚洲精品久久| 亚洲国产色片| 亚洲久久久久久中文字幕| 男女那种视频在线观看| 国产av麻豆久久久久久久| 国语自产精品视频在线第100页| 97碰自拍视频| 亚洲自偷自拍三级| 欧美在线一区亚洲| 亚洲成人久久爱视频| 在线播放国产精品三级| netflix在线观看网站| 在线观看66精品国产| 国产三级在线视频| 国产欧美日韩精品亚洲av| 免费搜索国产男女视频| 国产日本99.免费观看| 男女那种视频在线观看| 国产视频一区二区在线看| 亚洲一区二区三区色噜噜| 亚洲专区中文字幕在线| 国产真实伦视频高清在线观看 | 国产精品三级大全| 欧美日韩中文字幕国产精品一区二区三区| 国产精品精品国产色婷婷| 亚洲av一区综合| 99在线视频只有这里精品首页| 日本三级黄在线观看| 韩国av一区二区三区四区| 日韩免费av在线播放| 国产av在哪里看| 超碰av人人做人人爽久久| 国产v大片淫在线免费观看| 在线观看66精品国产| 亚洲熟妇中文字幕五十中出| 99热这里只有是精品在线观看 | 欧美黑人巨大hd| 国产大屁股一区二区在线视频| 亚洲成人免费电影在线观看| 一二三四社区在线视频社区8| 99久久精品国产亚洲精品| 欧美绝顶高潮抽搐喷水| 亚洲片人在线观看| 日韩高清综合在线| 日日摸夜夜添夜夜添av毛片 | 亚洲无线在线观看| 日本撒尿小便嘘嘘汇集6| 在线十欧美十亚洲十日本专区| 精品国产三级普通话版| 久9热在线精品视频| 国产午夜精品论理片| 国产野战对白在线观看| 美女黄网站色视频| 性欧美人与动物交配| 国产探花在线观看一区二区| 成人国产一区最新在线观看| 欧美zozozo另类| 精品久久久久久久久久免费视频| 久久人人精品亚洲av| 久久久久久久精品吃奶| 淫妇啪啪啪对白视频| av天堂在线播放| 男女视频在线观看网站免费| 波多野结衣巨乳人妻| 欧美在线黄色| 精品一区二区三区视频在线| 国产毛片a区久久久久| 天堂动漫精品| 久久精品国产99精品国产亚洲性色| 中文字幕熟女人妻在线| 天堂√8在线中文| 久久性视频一级片| 老鸭窝网址在线观看| 免费观看人在逋| 国产一区二区三区在线臀色熟女| 男女下面进入的视频免费午夜| 欧美最新免费一区二区三区 | 精品人妻视频免费看| 亚洲va日本ⅴa欧美va伊人久久| 免费在线观看日本一区| 亚洲美女搞黄在线观看 | 久久久久久久午夜电影| 18禁黄网站禁片免费观看直播| 欧美在线黄色| 久久精品国产清高在天天线| 亚洲精品亚洲一区二区| 2021天堂中文幕一二区在线观| 国产主播在线观看一区二区| 国产精品日韩av在线免费观看| 美女xxoo啪啪120秒动态图 | 丁香六月欧美| 国产精品国产高清国产av| 午夜两性在线视频| 99久久久亚洲精品蜜臀av| 日韩欧美精品v在线| 深夜a级毛片| 香蕉av资源在线| 琪琪午夜伦伦电影理论片6080| 亚洲av熟女| 一本一本综合久久| 97超级碰碰碰精品色视频在线观看| 夜夜夜夜夜久久久久| 内地一区二区视频在线| 久久亚洲精品不卡| 亚洲欧美日韩卡通动漫| 免费黄网站久久成人精品 | 97人妻精品一区二区三区麻豆| 日韩有码中文字幕| 久久久国产成人精品二区| 亚洲久久久久久中文字幕| 午夜久久久久精精品| 18+在线观看网站| 757午夜福利合集在线观看| 日韩中文字幕欧美一区二区| av中文乱码字幕在线| 色吧在线观看| 黄色视频,在线免费观看| 亚洲黑人精品在线| 最后的刺客免费高清国语| 亚洲欧美激情综合另类| 国产aⅴ精品一区二区三区波| 美女被艹到高潮喷水动态| 亚洲,欧美,日韩| 日本黄色视频三级网站网址| 亚洲自拍偷在线| 88av欧美| 亚洲aⅴ乱码一区二区在线播放| 好男人在线观看高清免费视频| 久久99热6这里只有精品| 又爽又黄a免费视频| 亚洲成av人片在线播放无| 少妇高潮的动态图| 日本免费一区二区三区高清不卡| av国产免费在线观看| 丰满人妻一区二区三区视频av| 一级毛片久久久久久久久女| 一本久久中文字幕| 成年女人毛片免费观看观看9| 亚洲在线自拍视频| 精品不卡国产一区二区三区| 午夜福利18| 日本精品一区二区三区蜜桃| 男女之事视频高清在线观看| 国产精品嫩草影院av在线观看 | 一二三四社区在线视频社区8| 噜噜噜噜噜久久久久久91| 国模一区二区三区四区视频| 久久久国产成人精品二区| 天堂av国产一区二区熟女人妻| 成人特级黄色片久久久久久久| 国产真实伦视频高清在线观看 | 丰满的人妻完整版| 亚洲av一区综合| 国产美女午夜福利| 国产精品一区二区免费欧美| 亚洲,欧美,日韩| 亚洲精品在线观看二区| 天堂动漫精品| 老鸭窝网址在线观看| 日本黄色片子视频| 国产av麻豆久久久久久久| 九九在线视频观看精品| 亚洲人成网站在线播放欧美日韩| 久久亚洲精品不卡| 亚洲av第一区精品v没综合| 亚洲人成电影免费在线| 最新在线观看一区二区三区| 国产精品野战在线观看| 永久网站在线| 男女做爰动态图高潮gif福利片| av视频在线观看入口| 国内精品久久久久久久电影| 99久久精品一区二区三区| 永久网站在线| 色综合亚洲欧美另类图片| 日韩av在线大香蕉| 国产v大片淫在线免费观看| 国产伦一二天堂av在线观看| 久久久久亚洲av毛片大全| 男女床上黄色一级片免费看| 国产成人影院久久av| 一卡2卡三卡四卡精品乱码亚洲| 日韩欧美在线乱码| 两个人的视频大全免费| 免费高清视频大片| 嫩草影院入口| 成熟少妇高潮喷水视频| 亚洲成av人片在线播放无| 永久网站在线| 99久久精品热视频| 一区二区三区免费毛片| 午夜福利成人在线免费观看| 两性午夜刺激爽爽歪歪视频在线观看| 亚洲成人精品中文字幕电影| 欧美性猛交╳xxx乱大交人| 欧美3d第一页| 午夜日韩欧美国产| 日韩精品青青久久久久久| 久久久久久大精品| 最好的美女福利视频网| 精品久久久久久久久av| 一本一本综合久久| 高潮久久久久久久久久久不卡| 不卡一级毛片| 久久久久久久久大av| 午夜福利在线观看吧| 精品久久久久久久久久久久久| 国产极品精品免费视频能看的| 亚洲精品粉嫩美女一区| 午夜精品久久久久久毛片777| 看片在线看免费视频| 精品久久久久久,| 一个人免费在线观看的高清视频| 国产中年淑女户外野战色| 亚洲va日本ⅴa欧美va伊人久久| 热99在线观看视频| 欧美xxxx黑人xx丫x性爽| 又黄又爽又刺激的免费视频.| 国内少妇人妻偷人精品xxx网站| av在线天堂中文字幕| 免费在线观看亚洲国产| 国产精品人妻久久久久久| 午夜福利18| 啪啪无遮挡十八禁网站| 欧美高清性xxxxhd video| 夜夜看夜夜爽夜夜摸| 天堂动漫精品| 免费在线观看成人毛片| 搡老熟女国产l中国老女人| 3wmmmm亚洲av在线观看| 亚洲五月天丁香| av黄色大香蕉| 国产精品一区二区性色av| 久久久久久久午夜电影| 国产69精品久久久久777片| 欧美乱色亚洲激情| 男人舔女人下体高潮全视频| 亚洲五月婷婷丁香| 亚洲av成人精品一区久久| 91久久精品电影网| 天美传媒精品一区二区| 亚洲第一电影网av| 国产精品一区二区性色av| 国产精品精品国产色婷婷| 亚洲男人的天堂狠狠| 在线观看66精品国产| www.999成人在线观看| 在线免费观看不下载黄p国产 | 99久久精品一区二区三区| 波多野结衣高清无吗| 听说在线观看完整版免费高清| 成年免费大片在线观看| 熟妇人妻久久中文字幕3abv| 色噜噜av男人的天堂激情| 性色avwww在线观看| 啦啦啦韩国在线观看视频| 亚洲国产精品999在线| 国产精品久久久久久人妻精品电影| 亚洲欧美激情综合另类| 激情在线观看视频在线高清| 日本精品一区二区三区蜜桃| 亚洲欧美激情综合另类| 人妻制服诱惑在线中文字幕| 亚洲美女视频黄频| 国模一区二区三区四区视频| 男女床上黄色一级片免费看| 麻豆国产av国片精品| 91九色精品人成在线观看| 日本与韩国留学比较| 性插视频无遮挡在线免费观看| 国产高清三级在线| 国产精品久久久久久久电影| 成年女人永久免费观看视频| 女人被狂操c到高潮| 亚洲专区国产一区二区| a级毛片免费高清观看在线播放| 97热精品久久久久久| 麻豆一二三区av精品| 丁香欧美五月| 老鸭窝网址在线观看| 国产色爽女视频免费观看| 免费看a级黄色片| 亚洲黑人精品在线| 99精品在免费线老司机午夜| 久久久久亚洲av毛片大全| 99久久无色码亚洲精品果冻| 久久久久久久亚洲中文字幕 | 最近最新免费中文字幕在线| 午夜精品一区二区三区免费看| 亚洲国产精品sss在线观看| 国产成人影院久久av| 真人做人爱边吃奶动态| eeuss影院久久| 亚洲av免费高清在线观看| 亚洲午夜理论影院| 一区福利在线观看| 简卡轻食公司| 99国产精品一区二区三区| 高清日韩中文字幕在线| 欧美xxxx性猛交bbbb| 一个人看视频在线观看www免费| 国产精品一区二区三区四区久久| 国内精品久久久久久久电影| 少妇高潮的动态图| 亚洲熟妇熟女久久| 欧美黄色淫秽网站| 亚洲中文字幕日韩| 床上黄色一级片| 99久国产av精品| 1000部很黄的大片| 免费观看人在逋| 老师上课跳d突然被开到最大视频 久久午夜综合久久蜜桃 | 3wmmmm亚洲av在线观看| 一级作爱视频免费观看| 国产乱人伦免费视频| 午夜福利成人在线免费观看| 亚洲色图av天堂| 精品久久久久久久久av| 国产av一区在线观看免费| 日韩精品青青久久久久久| 毛片女人毛片| 天天一区二区日本电影三级| 国产高清视频在线观看网站| 人妻久久中文字幕网| ponron亚洲| 欧美黑人巨大hd| 欧美高清成人免费视频www| 日韩欧美一区二区三区在线观看| 久久99热6这里只有精品| 麻豆久久精品国产亚洲av| 亚洲欧美日韩高清专用| 亚洲欧美激情综合另类| 精品不卡国产一区二区三区| 亚州av有码| 国产精品亚洲av一区麻豆| 亚洲精品在线美女| 久久亚洲真实| 久久久精品大字幕| 国产主播在线观看一区二区| 熟女人妻精品中文字幕| 熟妇人妻久久中文字幕3abv| 麻豆国产97在线/欧美| 丰满人妻熟妇乱又伦精品不卡| 男人舔奶头视频| 久久亚洲真实| 91狼人影院| 黄片小视频在线播放| 一级黄片播放器| 久久香蕉精品热| 欧美一区二区亚洲| 国产又黄又爽又无遮挡在线| 午夜影院日韩av| 真人一进一出gif抽搐免费| 亚洲一区二区三区不卡视频| 国产免费av片在线观看野外av| 夜夜夜夜夜久久久久| 国产高潮美女av| 91久久精品国产一区二区成人| 在线播放无遮挡| 精品一区二区免费观看| 国产成人aa在线观看| 国产精品1区2区在线观看.| 噜噜噜噜噜久久久久久91| 丰满人妻熟妇乱又伦精品不卡| 婷婷色综合大香蕉| 一级黄片播放器| 老熟妇仑乱视频hdxx| 日韩av在线大香蕉| 伊人久久精品亚洲午夜| 亚洲av成人av| 亚洲av成人精品一区久久| 国产欧美日韩一区二区三| 色综合欧美亚洲国产小说| 亚洲国产精品999在线| 一级黄片播放器| 一进一出抽搐gif免费好疼| 亚洲欧美清纯卡通| 国产精品国产高清国产av| 制服丝袜大香蕉在线| 久久久久久久久中文| 久久久久久久久大av| 校园春色视频在线观看| 亚洲欧美日韩无卡精品| 国产精品嫩草影院av在线观看 | 午夜亚洲福利在线播放| 丁香六月欧美| 丰满人妻一区二区三区视频av| 国产成人欧美在线观看| 不卡一级毛片| 欧美成人一区二区免费高清观看| 91九色精品人成在线观看| 亚洲熟妇熟女久久| 真实男女啪啪啪动态图| www日本黄色视频网| 亚洲欧美激情综合另类| 国产爱豆传媒在线观看| 国产精品嫩草影院av在线观看 | 精品久久久久久久人妻蜜臀av| 波多野结衣高清作品| 免费黄网站久久成人精品 | 99riav亚洲国产免费| 激情在线观看视频在线高清| 我要搜黄色片| 一本综合久久免费| 欧美性猛交黑人性爽| 国产精品电影一区二区三区| 国产精品一区二区三区四区久久| 一本精品99久久精品77| 国产免费av片在线观看野外av| 直男gayav资源| 热99在线观看视频| 欧美另类亚洲清纯唯美| 亚洲欧美日韩无卡精品| 99久久精品国产亚洲精品| 又粗又爽又猛毛片免费看| 成年人黄色毛片网站| 麻豆成人av在线观看| 亚洲黑人精品在线| 伦理电影大哥的女人| 亚洲av熟女| 男女那种视频在线观看| 丰满人妻一区二区三区视频av| 亚洲天堂国产精品一区在线| 亚洲精品日韩av片在线观看| 男人狂女人下面高潮的视频| 亚洲国产精品sss在线观看| 一级av片app| 日韩精品青青久久久久久| 久久九九热精品免费| 国产极品精品免费视频能看的| 免费观看的影片在线观看| 国产老妇女一区| 国模一区二区三区四区视频| 久久久久久久久久成人| 噜噜噜噜噜久久久久久91| 国产欧美日韩精品一区二区| 亚洲av日韩精品久久久久久密| 免费人成在线观看视频色| 波多野结衣高清作品| 啦啦啦韩国在线观看视频| 成年女人永久免费观看视频| 免费av观看视频| 午夜福利免费观看在线| 亚洲午夜理论影院| 日韩欧美免费精品| 内射极品少妇av片p| 亚洲七黄色美女视频| 欧美激情久久久久久爽电影| 夜夜爽天天搞| 国产视频一区二区在线看| 老鸭窝网址在线观看| 9191精品国产免费久久| a级毛片免费高清观看在线播放| 国产精品电影一区二区三区| 露出奶头的视频| 欧美日韩国产亚洲二区| 超碰av人人做人人爽久久| 国产精品乱码一区二三区的特点| 亚洲av一区综合| 国产精品亚洲美女久久久| 欧美一区二区亚洲| 伊人久久精品亚洲午夜| 亚洲av熟女| 变态另类成人亚洲欧美熟女| 亚洲精华国产精华精| 欧美区成人在线视频| 给我免费播放毛片高清在线观看| 精品一区二区三区人妻视频| 国产淫片久久久久久久久 | 麻豆国产97在线/欧美| 欧美高清成人免费视频www| 一级毛片久久久久久久久女| 人妻制服诱惑在线中文字幕| 国内毛片毛片毛片毛片毛片| 婷婷亚洲欧美| 亚洲国产精品成人综合色| 久久国产精品影院| 久久午夜亚洲精品久久| 国产精品久久久久久久电影| 99在线视频只有这里精品首页| 久久热精品热| 亚洲欧美激情综合另类| 精华霜和精华液先用哪个| 久久精品国产亚洲av天美| 久久婷婷人人爽人人干人人爱| 内射极品少妇av片p| 欧美一区二区国产精品久久精品| 亚洲av中文字字幕乱码综合| 99国产综合亚洲精品| 国产精品一区二区三区四区免费观看 | 亚洲美女视频黄频| 最近最新中文字幕大全电影3| 国产私拍福利视频在线观看| 乱码一卡2卡4卡精品| 亚洲av成人av| 欧美高清成人免费视频www| 在线观看美女被高潮喷水网站 | eeuss影院久久| 亚洲avbb在线观看| www.色视频.com| 怎么达到女性高潮| 国产精品自产拍在线观看55亚洲| 成人永久免费在线观看视频| 亚洲七黄色美女视频| 夜夜躁狠狠躁天天躁| 在线播放无遮挡|