• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于跨語種預(yù)訓(xùn)練語言模型XLM-R的神經(jīng)機(jī)器翻譯方法

    2022-02-21 05:14:34王倩李茂西吳水秀王明文
    關(guān)鍵詞:源語言目標(biāo)語言解碼器

    王倩 李茂西 吳水秀 王明文

    基于跨語種預(yù)訓(xùn)練語言模型XLM-R的神經(jīng)機(jī)器翻譯方法

    王倩 李茂西?吳水秀 王明文

    江西師范大學(xué)計(jì)算機(jī)信息工程學(xué)院, 南昌 330022; ?通信作者, E-mail: mosesli@jxnu.edu.cn

    探索將 XLM-R 跨語種預(yù)訓(xùn)練語言模型應(yīng)用在神經(jīng)機(jī)器翻譯的源語言端、目標(biāo)語言端和兩端, 提高機(jī)器翻譯的質(zhì)量。提出 3 種網(wǎng)絡(luò)模型, 分別在 Transformer 神經(jīng)網(wǎng)絡(luò)模型的編碼器、解碼器以及兩端同時(shí)引入預(yù)訓(xùn)練的 XLM-R 多語種詞語表示。在 WMT 英語?德語、IWSLT 英語?葡萄牙語以及英語?越南語等翻譯中的實(shí)驗(yàn)結(jié)果表明, 對雙語平行語料資源豐富的翻譯任務(wù), 引入 XLM-R 可以很好地對源語言句子進(jìn)行編碼, 從而提高翻譯質(zhì)量; 對雙語平行語料資源匱乏的翻譯任務(wù), 引入 XLM-R 不僅可以很好地對源語言句子進(jìn)行編碼, 還可以對源語言端和目標(biāo)語言端的知識同時(shí)進(jìn)行補(bǔ)充, 提高翻譯質(zhì)量。

    跨語種預(yù)訓(xùn)練語言模型; 神經(jīng)機(jī)器翻譯; Transformer網(wǎng)絡(luò)模型; XLM-R模型; 微調(diào)

    近年來, 預(yù)訓(xùn)練上下文語言模型(如 ELMo[1]、BERT[2]和 GPT[3?4]等)在自然語言處理領(lǐng)域引起越來越多的關(guān)注。它們在大量未標(biāo)注的語料上進(jìn)行預(yù)訓(xùn)練, 獲得通用的語言表示, 然后應(yīng)用到下游任務(wù)中, 并根據(jù)任務(wù)的特點(diǎn)進(jìn)行微調(diào)[5]。這種預(yù)訓(xùn)練加微調(diào)的方式不僅極大地提升下游任務(wù)的性能, 而且大幅度地降低下游任務(wù)所需標(biāo)注語料的規(guī)模[6]。

    通常, 有監(jiān)督的機(jī)器翻譯僅利用雙語平行語料進(jìn)行訓(xùn)練, 會(huì)導(dǎo)致大規(guī)模的單語語料不能被充分利用。為了將在大規(guī)模單語語料上訓(xùn)練獲取的通用語言知識應(yīng)用于機(jī)器翻譯中, 一些學(xué)者提出利用微調(diào)或知識蒸餾等方法, 將 BERT 預(yù)訓(xùn)練上下文語言模型應(yīng)用于神經(jīng)機(jī)器翻譯源語言端輔助源語言句子編碼, 或應(yīng)用于目標(biāo)語言端指導(dǎo)譯文生成[7?14]。但是, 這些方法僅在神經(jīng)機(jī)器翻譯模型的一端(源語言端或目標(biāo)語言端)使用 BERT (或mBERT[15])預(yù)訓(xùn)練上下文語言模型, 而未在兩端同時(shí)使用。近年, 跨語種預(yù)訓(xùn)練語言模型 XLM[16]和 XLM-R[17]蓬勃發(fā)展。與 BERT (mBERT)相比, XLM 和 XLM-R 模型在多種語言間共享詞表, 在同一嵌入空間對多種語言的詞語進(jìn)行編碼, 并針對多語言環(huán)境進(jìn)行優(yōu)化, 在多項(xiàng)多語言理解任務(wù)中的應(yīng)用刷新了相應(yīng)任務(wù)的最好性能記錄。

    受上述工作啟發(fā), 本文嘗試將 XLM-R 跨語種預(yù)訓(xùn)練語言模型引入機(jī)器翻譯模型中, 進(jìn)一步提高翻譯的質(zhì)量。本文提出 3 種網(wǎng)絡(luò)模型, 將 XLM-R 模型應(yīng)用在當(dāng)前主流的神經(jīng)機(jī)器翻譯框架 Transfor-mer[18]中。這 3 種網(wǎng)絡(luò)模型如下: 1)在源語言端引入 XLM-R 模型, 對待翻譯的句子進(jìn)行編碼, 替代Transformer 編碼器; 2)在目標(biāo)語言端引入 XLM-R模型, 通過額外的解碼器模塊(包括注意力機(jī)制和前饋神經(jīng)網(wǎng)絡(luò)), 與源語言端信息進(jìn)行關(guān)聯(lián); 3)在源語言端和目標(biāo)語言端同步引入 XLM-R 模型。本文還對比 3 種模型優(yōu)化策略對系統(tǒng)性能的影響, 包括凍結(jié) XLM-R 模型參數(shù)的訓(xùn)練方法、在凍結(jié) XLM-R 模型參數(shù)訓(xùn)練的基礎(chǔ)上再進(jìn)行微調(diào)的方法以及直接優(yōu)化整個(gè)模型參數(shù)的方法。

    1 相關(guān)工作

    如何將預(yù)訓(xùn)練模型整合到機(jī)器翻譯中, 前人的工作主要分為兩類。

    一類是探索如何充分利用 BERT 預(yù)訓(xùn)練上下文語言模型, 輔助機(jī)器翻譯。Imamura 等[7]直接使用BERT 模型作為神經(jīng)機(jī)器翻譯的編碼器, 并提出兩階段訓(xùn)練策略來減輕預(yù)訓(xùn)練模型的災(zāi)難性遺忘問題。Weng 等[10]、Yang 等[11]和 Chen 等[12]提出使用知識蒸餾技術(shù), 將 BERT 模型預(yù)訓(xùn)練知識遷移到神經(jīng)機(jī)器翻譯的編碼器或者解碼器中。Zhu 等[13]提出BERT 融合模型, 先使用 BERT 模型提取輸入句子的表示, 然后通過額外的注意力模塊, 將 BERT 模型表示與機(jī)器翻譯系統(tǒng)中編碼器和解碼器的每一層融合。Guo 等[14]提出并設(shè)計(jì)不同的輕量級神經(jīng)網(wǎng)絡(luò)組件, 插入 BERT 模型的每一層(如前饋神經(jīng)網(wǎng)絡(luò)模塊和注意力模塊等), 將預(yù)訓(xùn)練參數(shù)和特定任務(wù)的參數(shù)解耦, 從而繞過災(zāi)難性遺忘問題, 同時(shí)引入并行序列解碼算法 Mask-Predict, 以便充分利用 BERT模型, 保持訓(xùn)練和解碼過程的一致性。

    由于預(yù)訓(xùn)練上下文語言模型通常針對語言理解任務(wù)而設(shè)計(jì)——使用遮擋語言模型進(jìn)行建模, 與機(jī)器翻譯自回歸方式(從一端逐步生成目標(biāo)語言詞語的下一詞)預(yù)測任務(wù)存在差異, 因此第二種方法旨在設(shè)計(jì)適用于機(jī)器翻譯的自回歸式預(yù)訓(xùn)練模型。Song 等[19]提出 MASS 預(yù)訓(xùn)練模型, 它是一個(gè)基于Transformer 的序列到序列單語預(yù)訓(xùn)練框架, 其中編碼器將帶有隨機(jī)遮擋單詞(幾個(gè)連續(xù)標(biāo)記)的句子作為輸入, 解碼器則根據(jù)編碼器的表示來預(yù)測這些被遮擋單詞, 其輸入是編碼器中被遮擋的單詞, 該模型顯著地提升了無監(jiān)督機(jī)器翻譯的性能。Lewis 等[20]提出 BART 預(yù)訓(xùn)練模型, 其架構(gòu)與 MASS 相同, 但訓(xùn)練方式有所不同, 編碼器輸入被破壞的文本(使用 5 種噪聲函數(shù)對文本進(jìn)行破壞), 解碼器根據(jù)編碼器的表示來恢復(fù)原始文本, 該模型在語言理解和文本生成任務(wù)中都取得較好的結(jié)果。Liu 等[21]提出mBART 多語言預(yù)訓(xùn)練模型, 旨在將 BART 應(yīng)用于多種語言的大規(guī)模單語語料庫, 其模型架構(gòu)和預(yù)訓(xùn)練方式與 BART 相同, 該模型能夠在句子級和文檔級別上顯著地改善有監(jiān)督和無監(jiān)督的機(jī)器翻譯。

    本文與上述工作不同, 我們分別在 Transformer的編碼器、解碼器以及兩端同時(shí)引入最新的 XLM-R 跨語種預(yù)訓(xùn)練上下文語言模型, 通過 XLM-R 語言模型初始化表示源語言句子或目標(biāo)語言句子中的詞語, 使用適用的網(wǎng)絡(luò)結(jié)構(gòu)提高機(jī)器翻譯的質(zhì)量。

    2 背景知識

    2.1 Transformer 網(wǎng)絡(luò)模型

    Transformer 模型采用編碼器?解碼器架構(gòu)(Encoder-Decoder), 其中編碼器和解碼器均由 6 個(gè)堆疊的編碼器層和解碼器層組成。編碼器將輸入序列=(1,2, …,)抽象成源語言句子的中間表示張量=(1,2, …,), 解碼器根據(jù), 以自回歸的方式從左向右逐步生成目標(biāo)語言句子=(1,2, …,), 計(jì)算公式如下:

    其中,為模型的未知參數(shù), 在雙語平行語料上訓(xùn)練獲取。

    2.2 XLM-R 跨語種預(yù)訓(xùn)練語言模型

    XLM-R 跨語種預(yù)訓(xùn)練語言模型是在 Common Crawl 大型語料上過濾的 2.5TB 文本數(shù)據(jù)上訓(xùn)練形成, 支持 100 種語言。其網(wǎng)絡(luò)上層采用 Transformer編碼器架構(gòu)(層數(shù)為 12 或 24), 因此它與 Transfor-mer 模型具有天然的兼容性, 可以方便地引入神經(jīng)機(jī)器翻譯中。

    XLM-R 模型的架構(gòu)如圖 1 所示, 與一般預(yù)訓(xùn)練上下文語言模型的差異表現(xiàn)在以下 3 個(gè)方面。1)它的輸入是任意數(shù)量的句子組成的文本流(同種語言), 而不是兩個(gè)句子組成的文本對(如 BERT 模型); 2)訓(xùn)練時(shí), 每一步涵蓋所有語言, 每種語言為一個(gè)批次; 3)它的訓(xùn)練目標(biāo)是多語種遮擋語言模型, 根據(jù)當(dāng)前詞的上下文預(yù)測當(dāng)前詞, 類似完型填空任務(wù), 與機(jī)器翻譯任務(wù)中目標(biāo)語言句子詞語的從左向右自回歸生成方式不同。

    3 引入 XLM-R 知識的 Transformer 網(wǎng)絡(luò)模型

    為了引入 XLM-R 模型在多種語言文本的大規(guī)模語料上訓(xùn)練獲取的單語知識, 本文提出 3 種方式改進(jìn)傳統(tǒng)的 Transformer 模型, 在編碼端、解碼端以及兩端逐步引入源語言句子的 XLM-R 模型和目標(biāo)語言句子的 XLM-R 模型, 并引入源語言句子和目標(biāo)語言句子的 XLM-R 模型, 分別簡稱為 XLM-R_ ENC 模型、XLM-R_DEC 模型和 XLM-R_ENC& DEC 模型。

    3.1 XLM-R_ENC 模型

    XLM-R 模型采用 Transformer 編碼器的結(jié)構(gòu)對文本進(jìn)行抽象表示, 其輸入文本和輸出張量格式與Transformer 編碼器相同。為了將源語言端預(yù)訓(xùn)練的 XLM-R 模型引入 Transformer 編碼器, 我們嘗試過兩種方式: 1)將 XLM-R 模型作為特征提取器放在 Transformer 編碼器的底部, 用來初始化表示源語言句子中的詞語; 2)用 XLM-R 模型替代 Transfomer編碼器。第一種方式不僅擴(kuò)大了模型的規(guī)模, 增加訓(xùn)練成本, 且容易造成預(yù)訓(xùn)練知識的災(zāi)難性遺忘。因此, 本文采用第二種方式, 改進(jìn)的編碼器結(jié)構(gòu)如圖 2 左側(cè)所示, 解碼器采用原始的 Transformer 解碼器結(jié)構(gòu), 改進(jìn)的編碼器形式化表示如下:

    , (3)

    XLM-R_ENC 模型的編碼器與原始 Transformer編碼器的主要區(qū)別在于, XLM-R_ENC 模型使用預(yù)先訓(xùn)練好的 XLM-R 模型作為編碼器, 可提供額外的通用知識, 并且所有語言統(tǒng)一采用基于一元文法語言模型的子詞切分方法[22]對多語種文本進(jìn)行切分, 以便在多語種文本間共享詞表。因此, 在將XLM-R 模型應(yīng)用于編碼端時(shí), 使用相同的子詞切分方法對源語言句子進(jìn)行子詞切分。

    3.2 XLM-R_DEC模型

    為了將目標(biāo)語言端的預(yù)訓(xùn)練知識引入神經(jīng)機(jī)器翻譯, 本文探索將目標(biāo)語言 XLM-R 模型引入Transformer 解碼端。XLM-R 模型使用多語種遮擋語言模型進(jìn)行訓(xùn)練, 其多頭注意力中的詞語遮擋矩陣如圖 3(a)所示。我們用數(shù)字 1 表示信息可見,0表示信息不可見。在神經(jīng)機(jī)器翻譯中, 翻譯當(dāng)前詞時(shí)只能看到前面已經(jīng)翻譯的詞語, 不能看到未翻譯的詞語, 因此對 XLM-R 模型中的遮擋矩陣進(jìn)行修改(圖 3(b)), 以便模擬翻譯時(shí)從左向右自回歸的生成譯文中詞語。

    圖1 XLM-R模型架構(gòu)

    圖2 XLM-R_ENC&DEC模型架構(gòu)

    圖3 兩種不同的遮擋方式

    在模型架構(gòu)方面, 我們嘗試直接使用改進(jìn)遮擋方式的 XLM-R 模型作為解碼器; 或者在其基礎(chǔ)上引入源語言信息的 XLM-R 模型作為解碼器, 如圖 2右側(cè)所示, 在 XLM-R 模型頂部構(gòu)建額外的 6 層解碼器子網(wǎng)絡(luò) Add_Dec, 包括編碼器-解碼器融合層和前饋神經(jīng)網(wǎng)絡(luò)層, 以便將目標(biāo)語言句子知識與源語言句子知識關(guān)聯(lián)。初步實(shí)驗(yàn)結(jié)果表明, 在解碼時(shí)關(guān)聯(lián)源語言信息可以更好地生成譯文, 故采用第二種方式改進(jìn)解碼器結(jié)構(gòu), 編碼器則采用原始的 Trans-former 編碼器結(jié)構(gòu)。改進(jìn)的解碼器形式化表示如下:

    3.3 XLM-R_ENC&DEC 模型

    為了在源語言端和目標(biāo)語言端同步引入 XLM-R 模型, 我們聯(lián)合 XLM-R_ENC 模型以及 XLM-R_ DEC 模型, 同時(shí)改進(jìn) Transformer 編碼器和解碼器, 模型的整體結(jié)構(gòu)如圖 2 所示。Add_Dec 子網(wǎng)絡(luò)第一個(gè)子層編碼器?解碼器融合層會(huì)將經(jīng)過 XLM-R 模型編碼過的源語言句子與經(jīng)過 XLM-R 模型編碼過的目標(biāo)語言句子相互關(guān)聯(lián), 以便更好地軟對齊源語言句子中詞語與目標(biāo)語言句子中詞語, 最終生成機(jī)器譯文。

    3.4 模型訓(xùn)練

    3 個(gè)模型均采用多分類交叉熵?fù)p失函數(shù)作為優(yōu)化目標(biāo), 在雙語平行語料上進(jìn)行訓(xùn)練。由于網(wǎng)絡(luò)部分子結(jié)構(gòu)的參數(shù)權(quán)值已將 XLM-R 模型作為初始值。在進(jìn)行模型整體參數(shù)訓(xùn)練時(shí), 我們探索 3 種網(wǎng)絡(luò)參數(shù)訓(xùn)練策略: 1)直接微調(diào)(DirectFine-tuning), 即所有的模型參數(shù)一起更新, 反向傳播, 應(yīng)用于所有層; 2)固定 XLM-R 模型參數(shù)(Freeze), 將 XLM-R模型視為特征提取器, 不參與翻譯任務(wù)的訓(xùn)練; 3)先固定, 再微調(diào)(+Fine-tuning), 即先固定 XLM-R模型參數(shù), 使用雙語平行語料訓(xùn)練剩余的未知參數(shù), 直到模型在驗(yàn)證集上損失最小, 再聯(lián)合微調(diào)所有模型, 即同時(shí)更新模型中的所有參數(shù)。

    除非特殊說明, 本文實(shí)驗(yàn)中均采用直接微調(diào)的方法優(yōu)化網(wǎng)絡(luò)整體參數(shù)。后續(xù)的消融實(shí)驗(yàn)中將對 3種參數(shù)調(diào)整策略進(jìn)行對比, 用于驗(yàn)證直接微調(diào)參數(shù)優(yōu)化策略對系統(tǒng)性能的提升幅度最大。

    4 實(shí)驗(yàn)

    4.1 實(shí)驗(yàn)設(shè)置

    我們分別在雙語平行語料資源豐富和資源匱乏的翻譯任務(wù)中評價(jià)本文模型。在資源豐富的任務(wù)中采用 WMT2014 英語?德語語料(WMT14 En-De), 使用 newstest2013 作為驗(yàn)證集, newstest2014 作為測試集。在資源匱乏的任務(wù)中采用 IWSLT2017 英語?葡萄牙語(IWSLT17 En-Pt)和 IWSLT2015 英語?越南語語料(IWSLT15 En-Vi), 分別使用 tst2016 和 tst2012作為驗(yàn)證集, tst2017 和 tst2013 作為測試集。各任務(wù)中訓(xùn)練集、驗(yàn)證集和測試集的語料規(guī)模見表 1。對于 WMT14 En-De 和 IWSLT15 En-Vi 翻譯任務(wù), 使用來自斯坦福大學(xué)的自然語言處理小組(The Stanford NLP Group)預(yù)處理后的語料; 對于 IWSLT17 En-Pt翻譯任務(wù), 使用開源工具包 mosesdecoder (https:// github.com/moses-smt/mosesdecoder)中的預(yù)處理工具, 對句子使用標(biāo)點(diǎn)符號規(guī)范化、移除非打印字符和標(biāo)記化等預(yù)處理, 所有語料均使用基于一元文法語言模型子詞切分方法進(jìn)行子詞切分。

    表1 實(shí)驗(yàn)語料規(guī)模統(tǒng)計(jì)

    利用開源工具包 fairseq[23]實(shí)現(xiàn) 3 種基于 XLM-R 模型的 Transformer 網(wǎng)絡(luò)結(jié)構(gòu)。XLM-R 模型使用XLM-Roberta-Base 預(yù)訓(xùn)練模型, 層數(shù)為 12, 注意力頭數(shù)為 12, 隱藏層大小為 768, 前饋神經(jīng)網(wǎng)絡(luò)內(nèi)置隱藏層大小為 3072; Transformer 模型和 Add_Dec 子網(wǎng)絡(luò)均只使用 6 層, 隱藏層大小、注意力頭數(shù)和前饋神經(jīng)網(wǎng)絡(luò)內(nèi)置隱藏層的參數(shù)設(shè)置與 XLM-R 模型相同。

    對比的基線模型包括 Transformer base 模型、Transformer big 模型[18]和 NMT with BERT 模型[7]。其中, Transformer base 模型的層數(shù)為 6, 注意力頭數(shù)為 8, 隱藏層大小為 512, 前饋神經(jīng)網(wǎng)絡(luò)內(nèi)置隱藏層大小為 2048; Transformer big 模型層數(shù)為 6, 注意力頭數(shù)為 16, 隱藏層大小為 1024, 前饋神經(jīng)網(wǎng)絡(luò)內(nèi)置隱藏層大小為 4096; NMT with BERT 模型通過直接用 BERT 替換 Transformer 的編碼端來引入預(yù)訓(xùn)練知識。

    用 BLEU[24]作為譯文評價(jià)指標(biāo), 利用開源工具mosesdecoder 中的腳本 multi-bleu.perl 進(jìn)行打分。打分時(shí), 機(jī)器譯文均進(jìn)行符號化(tokenize)處理, 并區(qū)分大小寫。

    4.2 實(shí)驗(yàn)結(jié)果

    4.2.1 3個(gè)模型性能對比的實(shí)驗(yàn)結(jié)果

    表 2 給出本文提出的 3 個(gè)模型和對比的基線系統(tǒng)在 WMT 英語?德語和 IWSLT 英語?葡萄牙語、英語?越南語等翻譯方向上的實(shí)驗(yàn)結(jié)果。在所有翻譯方向上, XLM-R_ENC 模型都優(yōu)于基線模型, 特別是在資源匱乏的翻譯任務(wù)中, 引入預(yù)訓(xùn)練知識能夠大幅度提升模型的翻譯性能。再對比 Transformer base 與 Transformer big 模型可以看出, 當(dāng)模型的參數(shù)量增大時(shí), 其翻譯性能并不一定會(huì)提升, 進(jìn)一步說明是預(yù)訓(xùn)練知識提升了翻譯的性能。對比 NMT with BERT 模型, 使用在多種大規(guī)模單語語料上預(yù)訓(xùn)練獲取的通用語言知識, 翻譯性能優(yōu)于使用僅在單語語料上預(yù)訓(xùn)練獲取的通用語言知識。最后, 我們嘗試對 XLM-R_ENC 模型進(jìn)行集成, 在開發(fā)集上取翻譯性能最優(yōu)的 5 組模型的參數(shù)進(jìn)行平均, 以期進(jìn)一步提高模型的翻譯性能, 集成的結(jié)果見表 2 中XLM-R_ENCensemble一行。

    表2 不同模型的翻譯性能對比

    說明: 粗體數(shù)字表示在該翻譯方向上翻譯性能最佳, 下同。

    對于僅在解碼端引入 XLM-R 模型的翻譯方法XLM-R_DEC, 在所有翻譯方向上的性能大幅度劣于基線模型, 可能是 XLM-R 模型的多語種遮擋語言模型的訓(xùn)練目標(biāo)與 Transformer 的自回歸訓(xùn)練目標(biāo)不同所致。Lample 等[16]在解碼端的有效嘗試, 并未修改解碼端的模型架構(gòu), 只是用 XLM 模型預(yù)訓(xùn)練好的模型參數(shù)去初始化 Transformer 解碼端相應(yīng)的模型參數(shù)。

    對于在編碼端和解碼端同步引入 XLM-R 模型的 XLM-R_ENC&DEC 方法, 在資源豐富的 WMT英語?德語翻譯任務(wù)中, 其性能并沒有得到提升, 而在資源匱乏的 IWSLT 英語?葡萄牙語和英語?越南語翻譯任務(wù)中, 不論是單系統(tǒng)還是集成系統(tǒng), 其性能均超過基線模型。這表明對于資源匱乏的翻譯任務(wù), 在源語言端和目標(biāo)語言端同步引入 XLM-R 模型也可以提高翻譯質(zhì)量。我們猜測, 在資源匱乏的翻譯任務(wù)中, 目標(biāo)語言端引入的額外通用語言知識可以克服 XLM-R 模型與 Transformer 模型訓(xùn)練目標(biāo)不一致的弊端, 后續(xù)的實(shí)驗(yàn)分析中將進(jìn)一步挖掘這種情況產(chǎn)生的原因。

    4.2.2 不同訓(xùn)練方式的實(shí)驗(yàn)結(jié)果

    我們在 WMT 英語?德語以及 IWSLT 英語?葡萄牙語和英語?越南語翻譯任務(wù)中對比不同參數(shù)調(diào)整策略下的系統(tǒng)性能, 結(jié)果如表 3 所示。在 XLM-R_ ENC 和 XLM-R_ENC&DEC 方法中, 對于資源豐富的翻譯任務(wù), 直接微調(diào)的方法(DirectFine-tuning)與先固定再微調(diào)的方法(+ Fine-tuning)性能相當(dāng); 對于資源匱乏的翻譯任務(wù), 直接微調(diào)的方法遠(yuǎn)遠(yuǎn)優(yōu)于先固定再微調(diào)的方法。在 XLM-R_DEC 方法中, 先固定再微調(diào)的方法優(yōu)于直接微調(diào)的方法, 但是兩種訓(xùn)練方式都未能提高翻譯性能。因此, 本文實(shí)驗(yàn)中均采用直接微調(diào)的方法優(yōu)化網(wǎng)絡(luò)整體參數(shù)。

    表3 不同訓(xùn)練方式對翻譯性能的影響

    Table 3 Impact of different training methods on translation performance

    4.2.3 不同層數(shù)預(yù)訓(xùn)練模型的實(shí)驗(yàn)結(jié)果

    為了比較使用不同層預(yù)訓(xùn)練模型對翻譯性能的影響, 我們對比兩種 XLM-R 模型層數(shù)使用策略: 1)在 3 個(gè)模型中使用預(yù)訓(xùn)練模型 XLM-R 的全部層(12層)表示張量; 2)僅使用其底部 6 層表示張量。在WMT 英語?德語以及 IWSLT 英語?葡萄牙語和英語?越南語翻譯任務(wù)中的實(shí)驗(yàn)結(jié)果如表 4 所示。在源語言端使用 XLM-R 模型全部層的表示或在源語言端和目標(biāo)語言端同時(shí)使用 XLM-R 模型全部層的表示優(yōu)于使用底部 6 層的表示, 僅在目標(biāo)語言端使用XLM-R 模型底部 6 層的表示優(yōu)于使用全部層的表示, 但仍未提高翻譯質(zhì)量。因此, 本文的默認(rèn)模型設(shè)置為使用 XLM-R 模型全部層的表示。

    表4 不同層數(shù)預(yù)訓(xùn)練模型對翻譯性能的影響

    Table 4 Impact of different layers of pre-training models on translation performance

    4.2.4 Add_Dec 子網(wǎng)絡(luò)不同層數(shù)的實(shí)驗(yàn)結(jié)果

    表 2 列出的實(shí)驗(yàn)結(jié)果表明, 對于雙語平行語料資源匱乏的翻譯任務(wù), 引入 XLM-R 可以很好地對源語言端和目標(biāo)語言端知識同時(shí)進(jìn)行補(bǔ)充, 提高翻譯質(zhì)量。因此, 我們在 IWSLT 英語?葡萄牙語和英語?越南語翻譯方向上探索不同 Add_Dec 子網(wǎng)絡(luò)的層數(shù)對 XLM-R_ENC&DEC 模型的影響, 實(shí)驗(yàn)結(jié)果如表 5 所示, 使用 3 層或 6 層 Add_Dec 子網(wǎng)絡(luò)的翻譯性能最佳??紤]到在性能相差不大的情況下, 3 層的模型參數(shù)量會(huì)更小, 訓(xùn)練速度更快, 因此建議在XLM-R_ENC&DEC 模型解碼端僅使用 3 層 Add_Dec子網(wǎng)絡(luò)。

    4.2.5 實(shí)驗(yàn)分析

    為了證明在資源匱乏的翻譯任務(wù)中, 源語言端和目標(biāo)語言端同步引入 XLM-R 模型也能提高翻譯質(zhì)量, 我們對 3 個(gè)模型在 IWSLT 英語?越南語的翻譯任務(wù)中生成的譯文示例進(jìn)行分析。表 6 給出一個(gè)英語源語言句子及其越南語人工參考譯文, 以及 3個(gè)模型的翻譯結(jié)果。通過在雙語語料上查找, 我們發(fā)現(xiàn)源語言句子中 rehabilitates 一詞在雙語平行語料的英語端沒有出現(xiàn)過, 但是 XLM-R_ENC&DEC模型能將其正確地翻譯成越南語中的詞語 ph?c h?i, 說明這個(gè)翻譯知識是由 XLM-R 模型引入的。在更多的翻譯示例中還發(fā)現(xiàn), 盡管某個(gè)越南語的詞語在雙語平行語料的目標(biāo)端沒有出現(xiàn), 但在機(jī)器譯文中有時(shí)也能正確地翻譯該詞語(示例略), 同樣說明這個(gè)知識是由 XLM-R 模型引入的。上述分析均說明, 在資源匱乏的環(huán)境下, 在源語言端和目標(biāo)語言端同時(shí)引入 XLM-R 模型, 可以將雙語語料中沒有出現(xiàn)的詞語正確地翻譯成目標(biāo)語言中詞語, 提高了翻譯質(zhì)量。

    表5 Add_Dec 子網(wǎng)絡(luò)層數(shù)對 XLM-R_ENC&DEC 模型性能的影響

    5 結(jié)論

    本文探索跨語種預(yù)訓(xùn)練語言模型 XLM-R 在神經(jīng)機(jī)器翻譯系統(tǒng) Transformer 中的應(yīng)用, 提出并對比3 種模型來實(shí)現(xiàn)在源語言或目標(biāo)語言中, 利用在多種大規(guī)模單語語料上預(yù)訓(xùn)練獲取的通用語言知識。在多個(gè)翻譯任務(wù)中的實(shí)驗(yàn)結(jié)果表明, 對于資源豐富的翻譯任務(wù), XLM-R 模型可以更好地對源語言句子進(jìn)行編碼表示, 從而提高翻譯質(zhì)量, 但由于 XLM-R模型的多語種遮擋語言模型的訓(xùn)練目標(biāo)與 Transfor-mer 模型的自回歸訓(xùn)練目標(biāo)不一致, 導(dǎo)致其應(yīng)用在解碼端時(shí)不能提高翻譯質(zhì)量; 對于資源匱乏的翻譯任務(wù), 目標(biāo)端引入額外的通用語言知識可以克服兩個(gè)模型訓(xùn)練不一致的弊端, 促使在源語言端和目標(biāo)語言端同步引入 XLM-R 模型, 也能提高翻譯質(zhì)量。

    表6 不同模型的譯文示例對比

    說明: 粗體字示意 XLM-R_ENC&DEC 模型可以將雙語語料中沒有出現(xiàn)的詞語正確地翻譯成目標(biāo)語言中詞語。

    [1]Peters M, Neumann M, Iyyer M, et al.Deep contex-tualized word representations // Proceedings of the NAACL-HLT.New Orleans, 2018: 2227?2237

    [2]Devlin J, Chang M W, Lee K, et al.BERT: pre-training of deep bidirectional transformers for lang-uage understanding // Proceedings of the NAACL-HLT.Minneapolis, 2019: 4171?4186

    [3]Radford A, Narasimhan K, Salimans T, et al.Improv-ing language understanding by generative pre-training [R/OL].(2018) [2020?11?05].https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/langua ge-unsupervised/language_understanding_paper.pdf

    [4]Brown T B, Mann B, Ryder N, et al.Language models are few-shot learners // Proceedings of the NeurIPS.Vancouver, 2020: 1877?1901

    [5]翟煜錦, 李培蕓, 項(xiàng)青宇, 等.基于 QE 的機(jī)器翻譯重排序方法研究.江西師范大學(xué)學(xué)報(bào)(自然科學(xué)版), 2020, 44(1): 46?50

    [6]黃民烈, 唐杰, 文繼榮.超大規(guī)模預(yù)訓(xùn)練模型的優(yōu)勢、局限與未來趨勢.中國計(jì)算機(jī)學(xué)會(huì)通訊, 2021, 17(2): 88?89

    [7]Imamura K, Sumita E.Recycling a pre-trained BERT encoder for neural machine translation // Proceedings of the EMNLP & NGT.Hong Kong, 2019: 23?31

    [8]Kim Y, Rush A M.Sequence-level knowledge distilla-tion // Proceedings of the EMNLP.Austin, 2016: 1317?1327

    [9]Hinton G, Vinyals O, Dean J.Distilling the know-ledge in a neural network [EB/OL].(2015?03?09) [2020?11?05].https://arxiv.org/abs/1503.02531

    [10]Weng R, Yu H, Huang S, et al.Acquiring knowledge from pre-trained model to neural machine translation // Proceedings of the AAAI.New York, 2020: 9266? 9273

    [11]Yang J, Wang M, Zhou H, et al.Towards making the most of bert in neural machine translation // Procee-dings of the AAAI.New York, 2020: 9378?9385

    [12]Chen Y C, Gan Z, Cheng Y, et al.Distilling know-ledge learned in BERT for text generation // Procee-dings of the ACL.Washington, 2020: 7893?7905

    [13]Zhu J, Xia Y, Wu L, et al.Incorporating BERT into neural machine translation [C/OL] // Proceedings of the ICLR.(2020?03?11) [2020?10?20].https://openre view.net/forum?id=Hyl7ygStwB

    [14]Guo J, Zhang Z, Xu L, et al.Incorporating BERT into parallel sequence decoding with adapters [EB/OL].(2020?08?13) [2020?10?20].https://arxiv.org/abs/2010.06138

    [15]Karthikeyan K, Wang Z, Mayhew S, et al.Cross-lingual ability of multilingual BERT: an empirical stu-dy [C/OL] // Proceedings of the ICLR.(2020?03?11) [2020?10?20].https://openreview.net/forum?id=HJeT 3yrtDr

    [16]Lample G, Conneau A.Cross-lingual language model pretraining // Proceedings of the NeurIPS.Vancouver, 2019: 7059?7069

    [17]Conneau A, Khandelwal K, Goyal N, et al.Unsu-pervised cross-lingual representation learning at scale // Proceedings of the ACL.Washington, 2020: 8440? 8451

    [18]Vaswani A, Shazeer N, Parmar N, et al.Attention is all you need // Proceedings of the NeurIPS.Long Beach, CA, 2017: 6000?6010

    [19]Song K, Tan X, Qin T, et al.MASS: masked sequence to sequence pre-training for language generation // Proceedings of the ICML.Long Beach, CA, 2019: 5926?5936

    [20]Lewis M, Liu Y, Goyal N, et al.BART: denoising sequence-to-sequence pre-training for natural langu-age generation, translation, and comprehension // Pro-ceedings of the ACL.Washington, 2020: 7871?7880

    [21]Liu Y, Gu J, Goyal N, et al.Multilingual denoising pre-training for neural machine translation.Transac-tions of the Association for Computational Lingui-stics, 2020, 8: 726?742

    [22]Kudo T.Subword regularization: improving neural network translation models with multiple subword candidates // Proceedings of the ACL.Melbourne, 2018: 66?75

    [23]Ott M, Edunov S, Baevski A, et al.Fairseq: a fast, extensible toolkit for sequence modeling // Procee-dings of the NAACL.Minneapolis, 2019: 48?53

    [24]Papineni K, Roukos S, Ward T, et al.BLEU: a method for automatic evaluation of machine translation // Proceedings of the ACL.Philadelphia, 2002: 311?318

    Neural Machine Translation Based on XLM-R Cross-lingual Pre-training Language Model

    WANG Qian, LI Maoxi?, WU Shuixiu, WANG Mingwen

    School of Computer and Information Engineering, Jiangxi Normal University, Nanchang 330022; ? Corresponding author, E-mail: mosesli@jxnu.edu.cn

    The authors explore the application of XLM-R cross-lingual pre-training language model into the source language, into the target language and into both of them to improve the quality of machine translation, and propose three neural network models, which integrate pre-trained XLM-R multilingual word representation into the Transformer encoder, into the Transformer decoder and into both of them respectively.The experimental results on WMT English-German, IWSLT English-Portuguese and English-Vietnamese machine translation benchmarks show that integrating XLM-R model into Transformer encoder can effectively encode the source sentences and improve the system performance for resource-rich translation task.For resource-poor translation task, integrating XLM-R model can not only encode the source sentences well, but also supplement the source language knowledge and target language knowledge at the same time, thus improve the translation quality.

    cross-lingual pre-training language model; neural machine translation; Transformer neural network; XLM-R model; fine-tuning

    10.13209/j.0479-8023.2021.109

    2021-06-12;

    2021-08-09

    國家自然科學(xué)基金(61662031)資助

    猜你喜歡
    源語言目標(biāo)語言解碼器
    科學(xué)解碼器(一)
    科學(xué)解碼器(二)
    科學(xué)解碼器(三)
    線圣AudioQuest 發(fā)布第三代Dragonfly Cobalt藍(lán)蜻蜓解碼器
    林巍《知識與智慧》英譯分析
    淺析日語口譯譯員素質(zhì)
    教材插圖在英語課堂閱讀教學(xué)中的運(yùn)用及實(shí)例探討
    跨文化視角下對具有修辭手法諺語英譯漢的研究
    速讀·下旬(2016年7期)2016-07-20 08:50:28
    以口譯實(shí)例談雙語知識的必要性
    考試周刊(2015年36期)2015-09-10 15:03:38
    二語習(xí)得過程中的石化現(xiàn)象分析
    国产私拍福利视频在线观看| 午夜福利免费观看在线| 中文资源天堂在线| x7x7x7水蜜桃| 欧美性猛交黑人性爽| 精品人妻1区二区| 亚洲一区二区三区不卡视频| 97超级碰碰碰精品色视频在线观看| 18禁国产床啪视频网站| 午夜两性在线视频| 一卡2卡三卡四卡精品乱码亚洲| 叶爱在线成人免费视频播放| 夜夜看夜夜爽夜夜摸| 欧美久久黑人一区二区| 高清毛片免费观看视频网站| 国产成年人精品一区二区| 女同久久另类99精品国产91| 精品第一国产精品| 亚洲一卡2卡3卡4卡5卡精品中文| 色综合站精品国产| 婷婷丁香在线五月| 亚洲成a人片在线一区二区| 午夜亚洲福利在线播放| avwww免费| 久久香蕉精品热| 成人18禁高潮啪啪吃奶动态图| 免费搜索国产男女视频| 91麻豆精品激情在线观看国产| 亚洲国产高清在线一区二区三| 精品一区二区三区av网在线观看| 久久香蕉激情| 听说在线观看完整版免费高清| 久久精品人妻少妇| 国产精品av视频在线免费观看| 成人国语在线视频| 国产亚洲精品久久久久5区| 国产不卡一卡二| 熟女电影av网| 99精品在免费线老司机午夜| 美女 人体艺术 gogo| 叶爱在线成人免费视频播放| 国产高清激情床上av| 亚洲精品在线美女| 中文字幕av在线有码专区| av福利片在线| 性色av乱码一区二区三区2| 日韩欧美一区二区三区在线观看| 日韩中文字幕欧美一区二区| 国产精品电影一区二区三区| 国产69精品久久久久777片 | 久久国产精品影院| 人妻丰满熟妇av一区二区三区| 国产成人一区二区三区免费视频网站| 一夜夜www| 国产精品免费一区二区三区在线| 国内少妇人妻偷人精品xxx网站 | 午夜精品一区二区三区免费看| 免费在线观看成人毛片| 母亲3免费完整高清在线观看| 波多野结衣高清作品| 最好的美女福利视频网| 国产精品98久久久久久宅男小说| 91老司机精品| 两人在一起打扑克的视频| 国产精品 国内视频| 亚洲av美国av| 亚洲精品一区av在线观看| 亚洲精品一卡2卡三卡4卡5卡| 一区二区三区国产精品乱码| 成年版毛片免费区| 一级毛片高清免费大全| 色综合欧美亚洲国产小说| 日本一二三区视频观看| a级毛片a级免费在线| 久久亚洲精品不卡| 欧美一区二区精品小视频在线| 老司机深夜福利视频在线观看| 伦理电影免费视频| 99久久国产精品久久久| 国产精品久久久久久人妻精品电影| 88av欧美| 色在线成人网| 国产99白浆流出| 亚洲专区字幕在线| 91大片在线观看| 最新在线观看一区二区三区| 18禁裸乳无遮挡免费网站照片| 视频区欧美日本亚洲| 久久这里只有精品中国| 999久久久国产精品视频| 亚洲va日本ⅴa欧美va伊人久久| 久久热在线av| 欧美中文日本在线观看视频| 国产欧美日韩一区二区精品| av超薄肉色丝袜交足视频| videosex国产| 欧美黑人欧美精品刺激| 在线观看一区二区三区| www.自偷自拍.com| 成人特级黄色片久久久久久久| 我要搜黄色片| 亚洲国产欧洲综合997久久,| avwww免费| 男女午夜视频在线观看| 99久久久亚洲精品蜜臀av| 三级男女做爰猛烈吃奶摸视频| 亚洲专区字幕在线| 亚洲av中文字字幕乱码综合| 中文在线观看免费www的网站 | 99久久久亚洲精品蜜臀av| 亚洲专区国产一区二区| 一本大道久久a久久精品| 国产激情欧美一区二区| 91大片在线观看| www.精华液| 桃色一区二区三区在线观看| 日韩有码中文字幕| 久久九九热精品免费| 国产黄色小视频在线观看| 露出奶头的视频| 久久精品影院6| 黄片小视频在线播放| 国产一区二区在线观看日韩 | 中文字幕人妻丝袜一区二区| 草草在线视频免费看| 成人特级黄色片久久久久久久| 手机成人av网站| 不卡av一区二区三区| 日韩欧美在线乱码| 日日摸夜夜添夜夜添小说| 国产精品一区二区免费欧美| 首页视频小说图片口味搜索| 亚洲欧美激情综合另类| 99精品久久久久人妻精品| 国产精华一区二区三区| 1024视频免费在线观看| 久久亚洲真实| 亚洲av熟女| 亚洲欧美一区二区三区黑人| 最近视频中文字幕2019在线8| 亚洲精品美女久久av网站| 久久久久久久久久黄片| 久久亚洲精品不卡| 午夜福利欧美成人| 日韩欧美精品v在线| 国产野战对白在线观看| 久久欧美精品欧美久久欧美| 一区二区三区高清视频在线| 亚洲国产高清在线一区二区三| 一二三四在线观看免费中文在| 亚洲国产精品合色在线| 久久精品亚洲精品国产色婷小说| 91在线观看av| netflix在线观看网站| 精品高清国产在线一区| 黄色毛片三级朝国网站| 日日爽夜夜爽网站| 国产精品电影一区二区三区| 精品国内亚洲2022精品成人| 精品国内亚洲2022精品成人| 亚洲欧美日韩高清在线视频| 黑人巨大精品欧美一区二区mp4| 在线观看免费视频日本深夜| 中文字幕人成人乱码亚洲影| 国产aⅴ精品一区二区三区波| 级片在线观看| 国产人伦9x9x在线观看| 丰满人妻熟妇乱又伦精品不卡| svipshipincom国产片| 欧洲精品卡2卡3卡4卡5卡区| 日韩欧美在线二视频| 欧美国产日韩亚洲一区| 日本三级黄在线观看| 国产久久久一区二区三区| 欧洲精品卡2卡3卡4卡5卡区| 日本在线视频免费播放| 在线播放国产精品三级| 日本在线视频免费播放| 国产片内射在线| 最新美女视频免费是黄的| 欧美久久黑人一区二区| 午夜精品一区二区三区免费看| 夜夜躁狠狠躁天天躁| 中文字幕久久专区| 麻豆一二三区av精品| 中文字幕高清在线视频| 亚洲av成人一区二区三| 国产亚洲精品一区二区www| 欧美乱码精品一区二区三区| 欧美乱色亚洲激情| 又黄又爽又免费观看的视频| 国产精品98久久久久久宅男小说| 国产精品98久久久久久宅男小说| 三级男女做爰猛烈吃奶摸视频| 精品不卡国产一区二区三区| 亚洲电影在线观看av| 亚洲最大成人中文| 一本综合久久免费| 亚洲国产精品合色在线| 欧美精品亚洲一区二区| 亚洲熟女毛片儿| 不卡一级毛片| 亚洲av成人不卡在线观看播放网| av中文乱码字幕在线| 亚洲欧美日韩无卡精品| 久久精品夜夜夜夜夜久久蜜豆 | 国产精品精品国产色婷婷| 91av网站免费观看| 久久久久久久精品吃奶| 麻豆av在线久日| 精品欧美国产一区二区三| 一进一出抽搐动态| 国产视频内射| 亚洲avbb在线观看| 最近最新中文字幕大全电影3| 亚洲欧洲精品一区二区精品久久久| 国产在线精品亚洲第一网站| 国产成人啪精品午夜网站| 精品久久久久久久久久久久久| 观看免费一级毛片| 看片在线看免费视频| 亚洲一区二区三区不卡视频| 亚洲午夜精品一区,二区,三区| 小说图片视频综合网站| 每晚都被弄得嗷嗷叫到高潮| 精品人妻1区二区| 日韩精品免费视频一区二区三区| 国产精品久久久久久精品电影| 一二三四社区在线视频社区8| a级毛片a级免费在线| 日日干狠狠操夜夜爽| 十八禁人妻一区二区| 麻豆成人午夜福利视频| 亚洲免费av在线视频| 国产成人啪精品午夜网站| 99热这里只有是精品50| 波多野结衣巨乳人妻| 日韩国内少妇激情av| 又紧又爽又黄一区二区| 国产爱豆传媒在线观看 | 国产真实乱freesex| www国产在线视频色| 一本精品99久久精品77| 波多野结衣巨乳人妻| 欧美激情久久久久久爽电影| 亚洲中文字幕日韩| 国产三级中文精品| 男人舔女人下体高潮全视频| 中文字幕人妻丝袜一区二区| 免费看美女性在线毛片视频| 夜夜爽天天搞| 可以在线观看的亚洲视频| 亚洲欧美精品综合久久99| 99热这里只有是精品50| 欧美日本视频| 变态另类成人亚洲欧美熟女| 亚洲专区中文字幕在线| 国产又色又爽无遮挡免费看| 亚洲男人天堂网一区| 久久中文字幕人妻熟女| 中亚洲国语对白在线视频| 亚洲人成电影免费在线| 免费看日本二区| 淫妇啪啪啪对白视频| 成人永久免费在线观看视频| 午夜两性在线视频| 一区福利在线观看| 亚洲精品久久国产高清桃花| 色av中文字幕| 夜夜躁狠狠躁天天躁| 超碰成人久久| 亚洲一区二区三区色噜噜| 97人妻精品一区二区三区麻豆| 男女床上黄色一级片免费看| 国内毛片毛片毛片毛片毛片| 桃红色精品国产亚洲av| 最新在线观看一区二区三区| 最新美女视频免费是黄的| 搡老熟女国产l中国老女人| 国产精品免费视频内射| 国产精品久久久久久亚洲av鲁大| 两个人免费观看高清视频| 久久精品综合一区二区三区| 老鸭窝网址在线观看| 99热6这里只有精品| 国产人伦9x9x在线观看| 国产熟女xx| 一区二区三区激情视频| 国产成人系列免费观看| 男女床上黄色一级片免费看| 日日干狠狠操夜夜爽| av福利片在线| 在线播放国产精品三级| 国产午夜精品论理片| 国产99白浆流出| 国产不卡一卡二| 九九热线精品视视频播放| 日韩高清综合在线| 首页视频小说图片口味搜索| 中文字幕久久专区| 国产乱人伦免费视频| 99国产极品粉嫩在线观看| 亚洲,欧美精品.| 大型av网站在线播放| 无人区码免费观看不卡| 亚洲欧洲精品一区二区精品久久久| 国产伦一二天堂av在线观看| 亚洲九九香蕉| 国产成人精品无人区| 免费在线观看黄色视频的| 特大巨黑吊av在线直播| 国产1区2区3区精品| 777久久人妻少妇嫩草av网站| 午夜免费成人在线视频| 99热只有精品国产| 日韩av在线大香蕉| 欧美色欧美亚洲另类二区| 夜夜躁狠狠躁天天躁| 国产精品99久久99久久久不卡| 2021天堂中文幕一二区在线观| 亚洲av成人av| av超薄肉色丝袜交足视频| 日本撒尿小便嘘嘘汇集6| 99热这里只有是精品50| 老司机在亚洲福利影院| 午夜福利18| 国产亚洲欧美在线一区二区| 99riav亚洲国产免费| 亚洲欧美精品综合久久99| 精品高清国产在线一区| 精品国产超薄肉色丝袜足j| av欧美777| 搡老妇女老女人老熟妇| 一进一出抽搐动态| 国产成人av激情在线播放| 国语自产精品视频在线第100页| 亚洲乱码一区二区免费版| 国产一区二区激情短视频| 在线观看免费日韩欧美大片| 亚洲精品国产一区二区精华液| 香蕉久久夜色| 此物有八面人人有两片| www.999成人在线观看| 日韩大码丰满熟妇| 亚洲国产中文字幕在线视频| 91九色精品人成在线观看| 久久久久久九九精品二区国产 | 少妇的丰满在线观看| 波多野结衣巨乳人妻| 老汉色∧v一级毛片| 国产精品免费一区二区三区在线| 久久久久久久精品吃奶| 最新在线观看一区二区三区| 波多野结衣巨乳人妻| 免费在线观看影片大全网站| 免费电影在线观看免费观看| 亚洲五月天丁香| 国产v大片淫在线免费观看| 欧美乱码精品一区二区三区| 亚洲全国av大片| 免费高清视频大片| 成人手机av| 99热这里只有是精品50| 午夜两性在线视频| 丰满的人妻完整版| 亚洲一码二码三码区别大吗| 亚洲成人久久爱视频| 日本撒尿小便嘘嘘汇集6| 欧美最黄视频在线播放免费| 中文字幕av在线有码专区| 我的老师免费观看完整版| 免费电影在线观看免费观看| 国产精品久久视频播放| 日韩欧美在线二视频| 精品福利观看| 国内揄拍国产精品人妻在线| 99国产精品一区二区蜜桃av| 欧美黄色淫秽网站| 一本综合久久免费| 亚洲美女黄片视频| 欧美日韩亚洲综合一区二区三区_| 午夜老司机福利片| 看黄色毛片网站| 亚洲av成人不卡在线观看播放网| 久久久久久久午夜电影| 亚洲人与动物交配视频| 免费一级毛片在线播放高清视频| 无遮挡黄片免费观看| 人成视频在线观看免费观看| 又爽又黄无遮挡网站| 免费在线观看视频国产中文字幕亚洲| 亚洲成人精品中文字幕电影| 国产亚洲精品久久久久5区| 性欧美人与动物交配| 一本大道久久a久久精品| 国产亚洲精品第一综合不卡| 欧美日韩亚洲综合一区二区三区_| 国产区一区二久久| 一本大道久久a久久精品| 少妇人妻一区二区三区视频| 51午夜福利影视在线观看| 精品午夜福利视频在线观看一区| 亚洲国产精品合色在线| 一区福利在线观看| 18美女黄网站色大片免费观看| 久久午夜综合久久蜜桃| 欧美日韩黄片免| 久久香蕉国产精品| 国产成人aa在线观看| 国产成人精品久久二区二区免费| 久久欧美精品欧美久久欧美| 久久中文字幕人妻熟女| 久久久久国产一级毛片高清牌| 国产精品一区二区三区四区免费观看 | 精品久久久久久久末码| 亚洲欧洲精品一区二区精品久久久| 国产亚洲av高清不卡| 中文字幕人妻丝袜一区二区| 在线观看日韩欧美| 亚洲成av人片在线播放无| 在线视频色国产色| 俄罗斯特黄特色一大片| 中出人妻视频一区二区| 国产精品1区2区在线观看.| 丰满人妻一区二区三区视频av | 国产亚洲欧美在线一区二区| 国产亚洲欧美在线一区二区| 欧美性猛交╳xxx乱大交人| 无人区码免费观看不卡| 91九色精品人成在线观看| 巨乳人妻的诱惑在线观看| 99久久无色码亚洲精品果冻| 亚洲欧洲精品一区二区精品久久久| 国产午夜福利久久久久久| 亚洲精品国产精品久久久不卡| 女警被强在线播放| 国产伦在线观看视频一区| 一a级毛片在线观看| 午夜免费激情av| 国产精品野战在线观看| 2021天堂中文幕一二区在线观| 两个人视频免费观看高清| 法律面前人人平等表现在哪些方面| 亚洲专区国产一区二区| 十八禁网站免费在线| 老司机午夜十八禁免费视频| 亚洲va日本ⅴa欧美va伊人久久| 国产精品av视频在线免费观看| 亚洲五月婷婷丁香| 一区二区三区国产精品乱码| 国产成人系列免费观看| 麻豆av在线久日| 成人欧美大片| 亚洲国产精品sss在线观看| 中国美女看黄片| 丁香六月欧美| 一级a爱片免费观看的视频| 一边摸一边抽搐一进一小说| 精品国内亚洲2022精品成人| 最好的美女福利视频网| 久久亚洲真实| 精品国内亚洲2022精品成人| 亚洲美女黄片视频| 免费看十八禁软件| 看片在线看免费视频| 欧美在线黄色| 青草久久国产| 搡老熟女国产l中国老女人| 久久精品aⅴ一区二区三区四区| tocl精华| 成人精品一区二区免费| 一区福利在线观看| 国产熟女午夜一区二区三区| 亚洲国产日韩欧美精品在线观看 | 亚洲人成伊人成综合网2020| 亚洲午夜精品一区,二区,三区| 五月玫瑰六月丁香| 欧美黄色淫秽网站| 一边摸一边做爽爽视频免费| 亚洲av日韩精品久久久久久密| 午夜福利成人在线免费观看| 色哟哟哟哟哟哟| 国产黄色小视频在线观看| 国产aⅴ精品一区二区三区波| 日韩欧美国产一区二区入口| 母亲3免费完整高清在线观看| 日日夜夜操网爽| 欧美在线黄色| 午夜精品久久久久久毛片777| 熟妇人妻久久中文字幕3abv| 国产私拍福利视频在线观看| 亚洲人成伊人成综合网2020| 一二三四在线观看免费中文在| av有码第一页| 欧美成人免费av一区二区三区| 999精品在线视频| 一夜夜www| 欧美乱色亚洲激情| 国产精品精品国产色婷婷| 亚洲国产欧美网| 国产精品一区二区三区四区久久| 成人国语在线视频| 亚洲精品在线美女| 51午夜福利影视在线观看| 亚洲在线自拍视频| 亚洲成人中文字幕在线播放| 1024手机看黄色片| 搞女人的毛片| 日韩三级视频一区二区三区| 人妻久久中文字幕网| 国产高清视频在线播放一区| 欧美在线一区亚洲| 麻豆一二三区av精品| 丰满的人妻完整版| 国产97色在线日韩免费| 亚洲国产高清在线一区二区三| 我要搜黄色片| 欧美最黄视频在线播放免费| 一区福利在线观看| 老司机午夜十八禁免费视频| 午夜两性在线视频| 51午夜福利影视在线观看| 精品国内亚洲2022精品成人| 欧美黑人精品巨大| av片东京热男人的天堂| 夜夜看夜夜爽夜夜摸| 制服丝袜大香蕉在线| 啦啦啦观看免费观看视频高清| 一a级毛片在线观看| 三级毛片av免费| 一区二区三区激情视频| 在线观看美女被高潮喷水网站 | 1024香蕉在线观看| 欧美黄色淫秽网站| 每晚都被弄得嗷嗷叫到高潮| 亚洲无线在线观看| 午夜老司机福利片| 欧美三级亚洲精品| 日本a在线网址| 色尼玛亚洲综合影院| 欧美av亚洲av综合av国产av| 精品欧美国产一区二区三| 国产精品98久久久久久宅男小说| 精品久久久久久久毛片微露脸| 99热这里只有是精品50| 久久国产乱子伦精品免费另类| 成人av在线播放网站| 小说图片视频综合网站| 岛国在线免费视频观看| 看黄色毛片网站| 国产欧美日韩一区二区三| e午夜精品久久久久久久| 免费在线观看影片大全网站| 午夜福利视频1000在线观看| 少妇粗大呻吟视频| 日本一区二区免费在线视频| 波多野结衣高清无吗| 久久这里只有精品19| 又粗又爽又猛毛片免费看| 精品一区二区三区四区五区乱码| 国产精品久久久久久亚洲av鲁大| 桃色一区二区三区在线观看| 97碰自拍视频| 中文字幕精品亚洲无线码一区| 国产精品影院久久| 久99久视频精品免费| 此物有八面人人有两片| 成年免费大片在线观看| 免费看a级黄色片| 欧美成人免费av一区二区三区| 色噜噜av男人的天堂激情| 欧美中文日本在线观看视频| 成人三级黄色视频| 99久久综合精品五月天人人| 啦啦啦免费观看视频1| 亚洲avbb在线观看| 国产91精品成人一区二区三区| 久久热在线av| 亚洲精品美女久久久久99蜜臀| 色综合婷婷激情| 一个人免费在线观看的高清视频| 国产午夜精品论理片| 天天添夜夜摸| 757午夜福利合集在线观看| 亚洲精品粉嫩美女一区| 亚洲中文日韩欧美视频| 一个人免费在线观看的高清视频| 又黄又粗又硬又大视频| 一夜夜www| 一本大道久久a久久精品| 亚洲av熟女| 精品少妇一区二区三区视频日本电影| www.www免费av| 女同久久另类99精品国产91| 丝袜人妻中文字幕| 小说图片视频综合网站| 欧美人与性动交α欧美精品济南到| or卡值多少钱| 日本一本二区三区精品| 国产精品九九99| 日本熟妇午夜| 一边摸一边抽搐一进一小说| 国产精品综合久久久久久久免费| bbb黄色大片| 亚洲成人精品中文字幕电影| 欧美3d第一页| 欧美黄色片欧美黄色片| 中文字幕av在线有码专区| 九九热线精品视视频播放| 亚洲va日本ⅴa欧美va伊人久久| 午夜福利视频1000在线观看| av中文乱码字幕在线| 亚洲av电影不卡..在线观看| 在线免费观看的www视频| 看黄色毛片网站|