• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于預(yù)訓(xùn)練的無(wú)監(jiān)督神經(jīng)機(jī)器翻譯模型研究*

    2022-04-21 04:43:18薛擎天李軍輝貢正仙徐東欽
    關(guān)鍵詞:語(yǔ)言實(shí)驗(yàn)方法

    薛擎天,李軍輝,貢正仙,徐東欽

    (蘇州大學(xué)自然語(yǔ)言處理實(shí)驗(yàn)室,江蘇 蘇州 215006)

    1 引言

    機(jī)器翻譯研究如何利用計(jì)算機(jī)將源語(yǔ)言所表達(dá)的語(yǔ)義信息轉(zhuǎn)換為目標(biāo)語(yǔ)言的相同語(yǔ)義信息,是人工智能和自然語(yǔ)言處理領(lǐng)域的重要研究?jī)?nèi)容[1]?;谛蛄械叫蛄蠸2S(Sequence-to-Sequence)模型的神經(jīng)機(jī)器翻譯NMT(Neural Machine Translation) 完全采用神經(jīng)網(wǎng)絡(luò)完成源語(yǔ)言到目標(biāo)語(yǔ)言的翻譯過(guò)程,在近幾年取得了極大的成功[2 - 4],成為了一種極具潛力的機(jī)器翻譯方法。2017年,Vaswani等[5]提出一種新的S2S模型結(jié)構(gòu)Transformer,它放棄了傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(Recurrent Neural Network)[6]和卷積神經(jīng)網(wǎng)絡(luò)CNN(Convolutional Neural Network)[7],而完全依賴于自注意力(Self-Attention)機(jī)制,將機(jī)器翻譯的性能推向了一個(gè)新的高峰。

    神經(jīng)機(jī)器翻譯在大規(guī)模平行語(yǔ)料條件下取得了顯著的效果,但在一些資源稀缺語(yǔ)言或領(lǐng)域限定的翻譯任務(wù)上,平行語(yǔ)料規(guī)模相對(duì)較小,翻譯效果會(huì)嚴(yán)重降低[8]。為了解決大規(guī)模高質(zhì)量的平行語(yǔ)料庫(kù)難以獲取的問(wèn)題,Artetxe等[9 - 11]分別使用無(wú)監(jiān)督的方法實(shí)現(xiàn)跨語(yǔ)言詞嵌入,并通過(guò)降噪自編碼器和反向翻譯[12]2種方法初步實(shí)現(xiàn)了無(wú)監(jiān)督神經(jīng)機(jī)器翻譯UNMT(Unsupervised Neural Machine Translation)[9,10]。

    隨后,Lample等[11]又結(jié)合之前的工作,概括了UNMT的3大步驟:(1)初始化一個(gè)良好的跨語(yǔ)言詞嵌入模型。(2)利用給定的單語(yǔ)語(yǔ)料,使用降噪自編碼器分別訓(xùn)練源語(yǔ)言和目標(biāo)語(yǔ)言的語(yǔ)言模型。(3)使用反向翻譯方法,將無(wú)監(jiān)督翻譯的問(wèn)題轉(zhuǎn)換為有監(jiān)督翻譯的問(wèn)題,并多次迭代步驟(2)和步驟(3)。其中,反向翻譯的過(guò)程首先是利用當(dāng)前的source→target翻譯模型將源語(yǔ)言句子x翻譯成目標(biāo)語(yǔ)言句子y;再利用target→source翻譯模型將目標(biāo)語(yǔ)言句子y翻譯成源語(yǔ)言句子x*;然后將(y,x)當(dāng)作平行句對(duì)訓(xùn)練,計(jì)算x和x*之間的損失,以此來(lái)優(yōu)化target→source翻譯模型,反之也可以用相同的方式來(lái)優(yōu)化source→target翻譯模型。同時(shí),Lample等將雙語(yǔ)句子混合訓(xùn)練,用一個(gè)生成對(duì)抗網(wǎng)絡(luò)[13,14]鑒別當(dāng)前編碼的語(yǔ)言,并將UNMT任務(wù)遷移到Transformer模型上,獲得了非常顯著的進(jìn)步。

    2018年,基于雙向Transformer架構(gòu)構(gòu)建的語(yǔ)言模型BERT(Bidirectional Encoder Representations from Transformers)[15]掀起了預(yù)訓(xùn)練研究的熱潮,在經(jīng)歷相應(yīng)微調(diào)后打破了眾多NLP(Natural Language Processing)任務(wù)的記錄。隨后,Lample等[16]在BERT的基礎(chǔ)上,提出并總結(jié)了因果語(yǔ)言模型CLM(Causal Language Model)、掩碼語(yǔ)言模型MLM(Masked Language Model)和翻譯語(yǔ)言模型TLM(Translation Language Model)3個(gè)預(yù)訓(xùn)練任務(wù),在自然語(yǔ)言推理NLI(Natural Language Inference)和UNMT任務(wù)上實(shí)現(xiàn)了跨語(yǔ)言模型的預(yù)訓(xùn)練,再一次顯著提高了UNMT的翻譯性能。

    受此啟發(fā),本文進(jìn)一步探究跨語(yǔ)言預(yù)訓(xùn)練在機(jī)器翻譯中的應(yīng)用及優(yōu)化。本文注意到在翻譯語(yǔ)言模型中,Lample等[16]的跨語(yǔ)言模型XLM(Cross-lingual Language Model)預(yù)訓(xùn)練實(shí)驗(yàn)過(guò)多地重視了編碼器和解碼器中的Self-Attention機(jī)制,而忽略了解碼器端的上下文注意力(Cross-Attention)機(jī)制對(duì)神經(jīng)機(jī)器翻譯的重要性,這導(dǎo)致在翻譯任務(wù)中模型的不同模塊之間參數(shù)優(yōu)劣性的不匹配,限制了模型的性能。本文在Lample等研究的基礎(chǔ)上使用了3種不同的方法訓(xùn)練UNMT模型,嘗試使用優(yōu)化解碼器中的Cross-Attention參數(shù)改進(jìn)模型的訓(xùn)練過(guò)程,旨在消除Lample等研究實(shí)驗(yàn)中存在的不同模塊間參數(shù)質(zhì)量失衡的問(wèn)題,并在英語(yǔ)-德語(yǔ)、英語(yǔ)-法語(yǔ)和英語(yǔ)-羅馬尼亞語(yǔ)這3個(gè)語(yǔ)言對(duì)上測(cè)試了實(shí)驗(yàn)效果。

    2 模型與架構(gòu)

    2.1 Transformer 架構(gòu)

    Transformer[5]的主要特點(diǎn)是它既不依賴于RNN也不依賴于CNN,而僅使用自注意力機(jī)制(Self-Attention)實(shí)現(xiàn)端到端的NMT。自注意力機(jī)制是對(duì)一句話中的每個(gè)詞和該句子中的所有詞進(jìn)行注意力計(jì)算,目的是為了學(xué)習(xí)句子內(nèi)部的依賴關(guān)系,捕獲句子的內(nèi)部結(jié)構(gòu)。

    Transformer的編碼器和解碼器的結(jié)構(gòu)都是多層網(wǎng)絡(luò)結(jié)構(gòu),如圖1b所示,其中編碼器由N個(gè)相同的層組成,每一層有2個(gè)子層,第1個(gè)子層是Self-Attention層,第2個(gè)子層是一個(gè)前饋神經(jīng)網(wǎng)絡(luò)FFN(Feed-Forward Network)。

    Figure 1 Transformer model structure and the initialization process of XLM

    解碼器同樣是由N個(gè)相同的層組成,每一層都有3個(gè)子層,第1個(gè)子層是掩碼多頭自注意力機(jī)制,第2個(gè)子層是一個(gè)對(duì)解碼器輸出的跨語(yǔ)言注意力(Cross-Attention)層,最后1個(gè)子層是一個(gè)前饋神經(jīng)網(wǎng)絡(luò)。編碼器和解碼器的子層之間均使用殘差連接[17],殘差連接的公式如式(1)所示:

    hl=hl-1+fsl(hl-1)

    (1)

    其中,hl表示第l個(gè)子層的輸出,fsl(·)表示該層的功能函數(shù)。

    Figure 2 Mask language model training of BERT

    2.2 BERT與XLM

    BERT是一種強(qiáng)大的自然語(yǔ)言處理、無(wú)監(jiān)督預(yù)訓(xùn)練方法,該方法在通過(guò)簡(jiǎn)單的微調(diào)后打破了眾多的自然語(yǔ)言處理NLP任務(wù)的記錄。BERT的核心思想是預(yù)先訓(xùn)練一個(gè)深度雙向Transformer編碼器,這意味著它在處理一個(gè)詞的時(shí)候,能考慮到它前面和后面單詞的信息,從而獲取上下文的語(yǔ)義。BERT的預(yù)訓(xùn)練有2項(xiàng)訓(xùn)練任務(wù):(1)掩碼語(yǔ)言模型MLM訓(xùn)練[18],它隨機(jī)掩藏掉一定比例的輸入句子token,并根據(jù)上下文來(lái)預(yù)測(cè)這些被掩藏掉的單詞。如圖2所示,其訓(xùn)練任務(wù)是預(yù)測(cè)這些隨機(jī)掩藏掉的詞語(yǔ),如“vine”“into”和“hearts”。(2)預(yù)測(cè)下文句子,這項(xiàng)任務(wù)是根據(jù)現(xiàn)有句子預(yù)測(cè)其后文內(nèi)容,例如NLP中的問(wèn)答QA(Question Answering)任務(wù)和自然語(yǔ)言推理NLI任務(wù)。

    Lample等[11]在BERT的基礎(chǔ)上提出了跨語(yǔ)言模型的預(yù)訓(xùn)練,在UNMT等跨語(yǔ)言任務(wù)上達(dá)到了當(dāng)時(shí)最高的性能。XLM的訓(xùn)練主要基于2點(diǎn):一是使用2門(mén)語(yǔ)言的字節(jié)對(duì)編碼BPE(Byte Pair Encoding)共享詞匯表[19],Lample等[11]曾采用同樣的方法獲取共享詞表,取得了很不錯(cuò)的實(shí)驗(yàn)結(jié)果。不同的是,在跨語(yǔ)言預(yù)訓(xùn)練實(shí)驗(yàn)中,不同語(yǔ)言句子的采樣概率{qi}i=1,…,M服從式(2)所示的多項(xiàng)式分布,然后再進(jìn)行BPE處理。這樣采樣的目的是對(duì)大語(yǔ)種語(yǔ)料和小語(yǔ)種語(yǔ)料進(jìn)行平滑處理,防止小語(yǔ)種語(yǔ)料的單詞在BPE處理時(shí)被從字符級(jí)別分割,以平衡共享詞表中不同語(yǔ)言的單詞數(shù)量。

    (2)

    其中,α取0.5,pi表示語(yǔ)料庫(kù)中第i門(mén)語(yǔ)言的句子數(shù)占全部句子數(shù)的比例,M表示語(yǔ)言的種類數(shù),ni表示第i門(mén)語(yǔ)言的句子數(shù)。

    二是提出了翻譯語(yǔ)言模型(TLM),其實(shí)質(zhì)是將MLM任務(wù)擴(kuò)展到雙語(yǔ)中,通過(guò)將2門(mén)語(yǔ)言的平行句對(duì)連接在一起,形成一個(gè)連續(xù)文本流,一同作為MLM的輸入。這樣模型就可以利用平行語(yǔ)句提供的跨語(yǔ)言信息來(lái)預(yù)測(cè)被掩藏掉的詞匯,同時(shí)鼓勵(lì)模型從雙語(yǔ)上下文中學(xué)習(xí)到對(duì)齊信息,以此預(yù)訓(xùn)練語(yǔ)言模型的詞向量和參數(shù)。

    對(duì)于UNMT任務(wù)而言,Lample等[16]使用預(yù)訓(xùn)練的MLM分別初始化Transfomer的編碼器與解碼器;再利用多門(mén)語(yǔ)言的單語(yǔ)語(yǔ)料作為預(yù)訓(xùn)練模型的訓(xùn)練語(yǔ)料,使用降噪自編碼器訓(xùn)練語(yǔ)言模型;再通過(guò)反向翻譯得到的偽平行語(yǔ)料訓(xùn)練翻譯模型;最后通過(guò)若干次地迭代降噪自編碼器訓(xùn)練語(yǔ)言模型和反向翻譯訓(xùn)練翻譯模型這2個(gè)步驟來(lái)訓(xùn)練UNMT系統(tǒng)。

    3 跨語(yǔ)言預(yù)訓(xùn)練在UNMT應(yīng)用中的改進(jìn)方法

    盡管Lample等[16]的XLM預(yù)訓(xùn)練實(shí)驗(yàn)取得了巨大的成功,但仍存在一些缺陷,例如在實(shí)驗(yàn)中過(guò)多地重視了編碼器和解碼器中的Self-Attention模塊和前饋神經(jīng)網(wǎng)絡(luò)模塊,而忽略了解碼器端的Cross-Attention模塊對(duì)神經(jīng)機(jī)器翻譯的重要性。本文認(rèn)為,在UNMT任務(wù)中,如果初始化的時(shí)候Cross-Attention能夠包含一定的目標(biāo)端語(yǔ)義信息,將能很好地改善實(shí)驗(yàn)性能。如圖1所示,在UNMT的預(yù)訓(xùn)練任務(wù)中,XLM僅使用一個(gè)Transformer模型的編碼器作為預(yù)訓(xùn)練模型,將2門(mén)語(yǔ)言的單語(yǔ)語(yǔ)料混合作為預(yù)訓(xùn)練模型的輸入,訓(xùn)練模型中的Self-Attention層、前饋神經(jīng)網(wǎng)絡(luò)層以及它們之后的殘差連接和Layer Normalization模塊。在隨后的翻譯任務(wù)中用它們初始化Transformer模型的編碼器和解碼器中的部分層。然而對(duì)于解碼器端的包含源端信息的Cross-Attention層卻選擇隨機(jī)初始化,這導(dǎo)致了在同一個(gè)Transformer模型中不同模塊間的參數(shù)質(zhì)量不匹配。

    本文認(rèn)為,在預(yù)訓(xùn)練模型時(shí)應(yīng)該包括Cross-Attention模塊,并根據(jù)情況優(yōu)化調(diào)整。本文嘗試了幾種方法訓(xùn)練或初始化Cross-Attention中的參數(shù),以優(yōu)化其參數(shù)質(zhì)量。另外,本文嘗試將Teacher-Student框架[20]融入到UNMT任務(wù)中指導(dǎo)其訓(xùn)練。

    3.1 二次預(yù)訓(xùn)練語(yǔ)言模型

    本文認(rèn)為,由于Lample等[16]的預(yù)訓(xùn)練模型無(wú)法訓(xùn)練到同時(shí)包含源端和目標(biāo)端信息的Cross- Attention模塊,在UNMT任務(wù)正式開(kāi)始時(shí),模型中的參數(shù)所包含的跨語(yǔ)言信息并不豐富,雖然隨后會(huì)在每2步反向翻譯之間插入語(yǔ)言模型的訓(xùn)練,但是由于開(kāi)始的時(shí)候并不具備一個(gè)良好的語(yǔ)言模型指導(dǎo),這可能導(dǎo)致其在反向翻譯時(shí),參數(shù)可能會(huì)向一個(gè)錯(cuò)誤的方向更新。所以,本文嘗試在UNMT任務(wù)之前預(yù)先訓(xùn)練語(yǔ)言模型,即在原有預(yù)訓(xùn)練模型的基礎(chǔ)上,再次預(yù)訓(xùn)練帶有編碼器-解碼器結(jié)構(gòu)的語(yǔ)言模型一定時(shí)長(zhǎng)之后,再進(jìn)行普通的無(wú)監(jiān)督訓(xùn)練。訓(xùn)練方法為固定編碼器和解碼器中的自注意力機(jī)制層和前饋神經(jīng)網(wǎng)絡(luò)層的參數(shù),經(jīng)過(guò)一定的訓(xùn)練時(shí)長(zhǎng)后,再同時(shí)訓(xùn)練整個(gè)模型。簡(jiǎn)單來(lái)說(shuō),就是將原本的預(yù)訓(xùn)練+UNMT的任務(wù)流程更改為預(yù)訓(xùn)練+二次訓(xùn)練語(yǔ)言模型+UNMT的任務(wù)流程。這樣做的用意是在反向翻譯之前對(duì)解碼器端的Cross- Attention模塊進(jìn)行一定程度的訓(xùn)練,使它能夠?qū)W習(xí)到一定的源端信息,以此緩解UNMT任務(wù)開(kāi)始時(shí)不同模塊參數(shù)質(zhì)量不匹配問(wèn)題,有助于矯正模型參數(shù)的更新迭代方向。

    3.2 初始化Cross-Attention層

    本文認(rèn)為,Lample等[16]的UNMT實(shí)驗(yàn)中存在2個(gè)缺點(diǎn),一是預(yù)訓(xùn)練模型中部分參數(shù)隨機(jī)初始化導(dǎo)致的不同模塊參數(shù)質(zhì)量失衡;二是由于缺乏平行句對(duì)導(dǎo)致沒(méi)有一個(gè)好的訓(xùn)練指導(dǎo)方向。

    針對(duì)Lample等[16]實(shí)驗(yàn)中存在的編碼器和解碼器參數(shù)質(zhì)量不匹配的問(wèn)題,本文嘗試的第2種方法是抽取預(yù)訓(xùn)練模型中的Self-Attention參數(shù)初始化解碼器中的Cross-Attention參數(shù),再通過(guò)訓(xùn)練語(yǔ)言模型和反向翻譯微調(diào)。盡管2個(gè)注意力機(jī)制的作用有所不同,但是本文認(rèn)為預(yù)訓(xùn)練模型中的Self-Attention參數(shù)是由雙語(yǔ)混合并長(zhǎng)時(shí)間通過(guò)MLM訓(xùn)練而得的,其參數(shù)中包含的跨語(yǔ)言信息依然遠(yuǎn)遠(yuǎn)優(yōu)于隨機(jī)初始化的參數(shù),加載預(yù)訓(xùn)練模型中的Self-Attention的參數(shù)并利用其中可能包含的跨語(yǔ)言信息是一種可行方案。

    為了提高模型參數(shù)的魯棒性,在使用無(wú)監(jiān)督預(yù)訓(xùn)練模型中的Self-Attention層初始化無(wú)監(jiān)督神經(jīng)機(jī)器翻譯模型中的Cross-Attention層參數(shù)方法的基礎(chǔ)上,本文又為Cross-Attention的參數(shù)添加高斯噪聲[21],即以帶有高斯噪聲的預(yù)訓(xùn)練模型Self-Attention參數(shù)初始化UNMT模型的Cross-Attention參數(shù)。

    3.3 融合Teacher-Student框架

    在預(yù)訓(xùn)練任務(wù)完成后,常規(guī)的UNMT任務(wù)需要分別通過(guò)降噪自編碼器和制造偽平行語(yǔ)料迭代語(yǔ)言模型訓(xùn)練和反向翻譯訓(xùn)練。受Teacher-Student框架[20]的啟發(fā),在訓(xùn)練任務(wù)中,如果作為Student的翻譯任務(wù)有一個(gè)好的Teacher任務(wù)指導(dǎo),對(duì)翻譯任務(wù)的參數(shù)學(xué)習(xí)有著很大的幫助。

    如圖3a所示,Chen等[20]的實(shí)驗(yàn)中X、Y和Z分別為源語(yǔ)言、目標(biāo)語(yǔ)言和軸語(yǔ)言的語(yǔ)料庫(kù),x,y和z分別表示源語(yǔ)言、目標(biāo)語(yǔ)言和軸語(yǔ)言的句子。虛線表示雙語(yǔ)之間有平行數(shù)據(jù)。在這樣的情況下對(duì)于X-Z語(yǔ)料庫(kù)中的一個(gè)平行句對(duì),概率分布P(y|x;θx→y)應(yīng)該與P(y|z;θz→y)相似,因此z→y翻譯模型作為T(mén)eacher可以指導(dǎo)作為Student的翻譯模型x→y。

    Figure 3 Teacher-Student translation method

    本文嘗試使用降噪自編碼器進(jìn)行指導(dǎo)。如圖3b所示,Z′表示添加了噪聲的目標(biāo)語(yǔ)言語(yǔ)料庫(kù),x是由y反向翻譯而來(lái)的句子,與y構(gòu)成偽平行句對(duì),z′是添加了噪聲的目標(biāo)語(yǔ)言句子y,即C(Y′)。虛線表示構(gòu)成的偽平行數(shù)據(jù)。該方法嘗試以z′→y為T(mén)eacher,x→y為Student,讓降噪自編碼器指導(dǎo)反向翻譯任務(wù),以它們的概率分布之間的KL散度作為損失。

    4 實(shí)驗(yàn)

    本文建立英語(yǔ)?德語(yǔ)(en?de)、英語(yǔ)?法語(yǔ)(en?fr)、英語(yǔ)?羅馬尼亞語(yǔ)(en?ro)的UNMT任務(wù)進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)的翻譯性能采用評(píng)測(cè)標(biāo)準(zhǔn)雙語(yǔ)互譯評(píng)估BLEU(BiLingual Evaluation Understudy)值[22]進(jìn)行評(píng)估。

    4.1 實(shí)驗(yàn)設(shè)置

    本文實(shí)驗(yàn)訓(xùn)練集的選擇與Lample等[16]的實(shí)驗(yàn)相同,抽取WMT2007~WMT2010中德語(yǔ)、英語(yǔ)和法語(yǔ)各500萬(wàn)行單語(yǔ)句子和WMT2015中230萬(wàn)行羅馬尼亞語(yǔ)句子作為訓(xùn)練集,開(kāi)發(fā)集選用數(shù)據(jù)集newstest2014en-de、newstest2014en-fr和newstest2016en-ro,測(cè)試集分別為newstest2016en- de、newstest2014en-fr和newstest2016en-ro。

    實(shí)驗(yàn)選用Adam[23]作為優(yōu)化器,GELU[24]為激活函數(shù)。失活率(dropout)設(shè)為0.1,詞嵌入的維度為1 024,最大句子長(zhǎng)度為100,超過(guò)100個(gè)單詞的句子會(huì)將超長(zhǎng)部分截去,每個(gè)batch以token為單位,總數(shù)不超過(guò)1 000,并設(shè)定20萬(wàn)個(gè)句子為一輪(epoch),共享2門(mén)語(yǔ)言的詞表并設(shè)置BPE操作數(shù)為60 000。其余超參數(shù)設(shè)置與Transformer模型的默認(rèn)超參數(shù)一致[4]。本文的幾組實(shí)驗(yàn)在2塊NVIDIA TITAN Xp GPU上訓(xùn)練10 epoch進(jìn)行比較。

    作為對(duì)比實(shí)驗(yàn),基準(zhǔn)系統(tǒng)的超參數(shù)設(shè)置與上述實(shí)驗(yàn)設(shè)置相同。而Lample等[16]的實(shí)驗(yàn)使用8塊GPU并行計(jì)算,每個(gè)batch的最大token數(shù)為2 000,其余實(shí)驗(yàn)設(shè)置與上述實(shí)驗(yàn)一致。

    4.2 實(shí)驗(yàn)結(jié)果

    表1展示了Lample等[16]的實(shí)驗(yàn)結(jié)果,并以本文復(fù)現(xiàn)其工作的實(shí)驗(yàn)結(jié)果為基準(zhǔn)系統(tǒng)(Baseline),同時(shí)統(tǒng)計(jì)了本文嘗試的3種方法的實(shí)驗(yàn)結(jié)果。

    Table 1 Comparison of BLEU of each method

    表1中,LM-pretrain表示3.1節(jié)中介紹的原有預(yù)訓(xùn)練基礎(chǔ)上二階段訓(xùn)練語(yǔ)言模型的方法;Cross-Attention表示3.2節(jié)中使用預(yù)訓(xùn)練模型中的Self-Attention模塊參數(shù)初始化翻譯模型的Cross-Attention模塊參數(shù)再微調(diào)的方法;Noise CA是3.2節(jié)中在Cross-Attention中添加高斯噪聲的方法;而TS frame指的是3.3節(jié)中以降噪自編碼器和反向翻譯模型建立的Teacher-Student框架指導(dǎo)UNMT訓(xùn)練的方法。

    從表1可以看出,相比于Baseline,LM- pretrain方法在en→fr、fr→en、de→en和en→de這4項(xiàng)翻譯任務(wù)上的BLEU有0.4 ~ 0.6個(gè)百分點(diǎn)的提升,而在en→ro和ro→en這2項(xiàng)翻譯任務(wù)上提升不明顯。用Self-Attention初始化Cross- Attention的方法效果最為明顯,最高在en→ro任務(wù)中BLEU值提高了2.08個(gè)百分點(diǎn),即使是對(duì)比Lample的實(shí)驗(yàn)結(jié)果,其BLEU值依然提高了1.52個(gè)百分點(diǎn)。該方法在其余5項(xiàng)翻譯任務(wù)上的BLEU值也分別取得了0.8~1.9個(gè)百分點(diǎn)的提升。而Noise CA的實(shí)驗(yàn)結(jié)果在此基礎(chǔ)上略有降低。TS frame方法則只在en→fr和fr→en翻譯任務(wù)上有0.5個(gè)百分點(diǎn)的BLEU值提升,在其余4項(xiàng)翻譯任務(wù)上效果都不太明顯。

    在顯著性測(cè)試(p=0.01)中,LM-pretrain方法在en→fr、fr→en、en→de和de→en 這4項(xiàng)翻譯任務(wù)上具有更好的性能,Cross-Attention方法和Noise CA方法則在6項(xiàng)翻譯任務(wù)上都具有更好的性能,TS frame方法則只在en→fr和fr→en 2項(xiàng)翻譯任務(wù)上效果比較顯著。

    4.3 實(shí)驗(yàn)結(jié)果分析

    實(shí)驗(yàn)表明,UNMT任務(wù)中Cross-Attention模塊的不同初始化方式對(duì)實(shí)驗(yàn)結(jié)果影響明顯,其中使用預(yù)訓(xùn)練模型中Self-Attention模塊初始化的方法效果最為顯著,且通過(guò)添加高斯噪聲的方法證明了其魯棒性較好。這說(shuō)明了預(yù)訓(xùn)練模型的Self-Attention模塊的參數(shù)包含了豐富的目標(biāo)端語(yǔ)義信息。本文分析,這些語(yǔ)義信息主要來(lái)自2個(gè)方面:(1)本文在預(yù)訓(xùn)練任務(wù)和UNMT任務(wù)中共享BPE詞表,使得詞義信息開(kāi)始融合,這得益于德語(yǔ)、英語(yǔ)和法語(yǔ)3門(mén)語(yǔ)言屬于同一語(yǔ)系。(2)在預(yù)訓(xùn)練任務(wù)中,混合打亂了雙語(yǔ)句子。使用同一個(gè)詞表初始化句子的詞向量。混合訓(xùn)練的同時(shí)使用語(yǔ)言ID和對(duì)抗網(wǎng)絡(luò)鑒別語(yǔ)種。

    根據(jù)以上實(shí)驗(yàn),本文嘗試回答以下2個(gè)問(wèn)題:(1)本文提出的幾種實(shí)驗(yàn)方法與基準(zhǔn)系統(tǒng)的收斂情況對(duì)比。(2)在有平行語(yǔ)料支撐的情況下,基于跨語(yǔ)言預(yù)訓(xùn)練模型的神經(jīng)機(jī)器翻譯中Cross- Attention層是否也存在如UNMT同樣的問(wèn)題。

    (1)幾種方法收斂情況對(duì)比。

    在神經(jīng)機(jī)器翻譯NMT中,要對(duì)訓(xùn)練語(yǔ)料整體訓(xùn)練多次,通常需要經(jīng)過(guò)多個(gè)epoch的訓(xùn)練才能獲得一個(gè)穩(wěn)定的模型。由于UNMT實(shí)驗(yàn)中僅具有大規(guī)模的單語(yǔ)數(shù)據(jù),使用全部訓(xùn)練集迭代訓(xùn)練多個(gè)epoch需要花費(fèi)的時(shí)間代價(jià)過(guò)于巨大,所以本文選擇從訓(xùn)練集中抽取20萬(wàn)個(gè)句子為1個(gè)epoch。因?yàn)槿狈ζ叫袛?shù)據(jù),常規(guī)的訓(xùn)練時(shí)長(zhǎng)可能并不能得到穩(wěn)定的結(jié)果,所以本文以de→en翻譯任務(wù)為例,探究訓(xùn)練的epoch數(shù)對(duì)翻譯結(jié)果的影響,結(jié)果如圖4所示。

    Figure 4 Relationship between epoch and BLEU

    可以看出,使用Self-Attention初始化Cross-Attention的方法迅速收斂到擬合狀態(tài)且性能明顯優(yōu)于基準(zhǔn)系統(tǒng)的,而在預(yù)訓(xùn)練基礎(chǔ)上二次訓(xùn)練語(yǔ)言模型的方法雖然開(kāi)始的時(shí)候性能優(yōu)于基準(zhǔn)系統(tǒng),但是隨著訓(xùn)練輪數(shù)的增加,翻譯性能的提升不再明顯。使用Teacher-Student框架指導(dǎo)UNMT模型訓(xùn)練的方法,性能也僅有微弱的提升。

    為防止模型過(guò)擬合,本文最終選擇訓(xùn)練了10個(gè)epoch的模型為比較模型。

    (2)初始化Cross-Attention層的方法應(yīng)用在NMT的情況分析。

    為了驗(yàn)證Cross-Attention參數(shù)質(zhì)量在跨語(yǔ)言預(yù)訓(xùn)練模型中的重要性,本文另外設(shè)計(jì)了一組對(duì)比實(shí)驗(yàn),對(duì)比在預(yù)訓(xùn)練的基礎(chǔ)上常規(guī)的有監(jiān)督NMT中隨機(jī)初始化Cross-Attention方法和本文3.1節(jié)中使用預(yù)訓(xùn)練模型中Self-Attention初始化Cross-Attention的方法。本實(shí)驗(yàn)使用WMT2014 de-en和WMT2016 en-ro訓(xùn)練集訓(xùn)練了一個(gè)粗糙的預(yù)訓(xùn)練模型,并從語(yǔ)料庫(kù)中抽取40萬(wàn)行的平行句對(duì)作為神經(jīng)機(jī)器翻譯任務(wù)的訓(xùn)練集,將對(duì)比實(shí)驗(yàn)應(yīng)用到了常規(guī)的監(jiān)督NMT任務(wù)中。實(shí)驗(yàn)結(jié)果如表2所示。

    由表2可以看出,在4項(xiàng)翻譯任務(wù)上,使用Self-Attention初始化Cross-Attention的訓(xùn)練方法的BLEU都獲得了提高,其中在en→ro和ro→en翻譯任務(wù)上提升較大,分別取得了2.24和1.58個(gè)百分點(diǎn)的BLEU值提升,而在de→en和en→de 2項(xiàng)翻譯任務(wù)上分別取得了0.61和0.78個(gè)百分點(diǎn)的提升。

    這表明本文發(fā)現(xiàn)的XLM跨語(yǔ)言預(yù)訓(xùn)練實(shí)驗(yàn)的缺陷是正確的且具有改進(jìn)空間。

    Table 2 Comparison of experimental results in NMT

    5 結(jié)束語(yǔ)

    本文分析了XLM實(shí)驗(yàn)在UNMT任務(wù)中跨語(yǔ)言預(yù)訓(xùn)練的一些不足,并嘗試使用3種方法改進(jìn)UNMT模型的訓(xùn)練。其中抽取預(yù)訓(xùn)練Self- Attention初始化Cross-Attention再微調(diào)的方法在一定程度上緩解了UNMT模型不同模塊參數(shù)質(zhì)量不匹配的問(wèn)題,模型收斂最快且在多個(gè)語(yǔ)言對(duì)上獲得了最顯著的效果。本文同樣在NMT任務(wù)中驗(yàn)證了該方法的有效性。而在預(yù)訓(xùn)練基礎(chǔ)上二階段訓(xùn)練語(yǔ)言模型的方法,雖然開(kāi)始時(shí)優(yōu)于原本的UNMT系統(tǒng),但是隨著訓(xùn)練時(shí)長(zhǎng)的增加,提升效果漸漸不明顯,僅在部分翻譯任務(wù)上有較為明顯的效果。本文同樣嘗試了將Teacher-Student框架融入到UNMT的任務(wù)中,但是隨著訓(xùn)練時(shí)長(zhǎng)的增加,提升效果也不明顯。

    接下來(lái)的工作將考慮直接修改預(yù)訓(xùn)練模型,提出一個(gè)更加有效的訓(xùn)練Cross-Attention層的方法,讓模型在預(yù)訓(xùn)練階段就可以直接考慮到翻譯模型全部模塊的參數(shù)訓(xùn)練,這樣更有利于Cross- Attention層學(xué)習(xí)到目標(biāo)端的語(yǔ)義信息。本文認(rèn)為,新的模型經(jīng)歷長(zhǎng)時(shí)間的訓(xùn)練,能夠更好地獲得跨語(yǔ)言信息,會(huì)取得一定效果。

    猜你喜歡
    語(yǔ)言實(shí)驗(yàn)方法
    記一次有趣的實(shí)驗(yàn)
    語(yǔ)言是刀
    文苑(2020年4期)2020-05-30 12:35:30
    做個(gè)怪怪長(zhǎng)實(shí)驗(yàn)
    讓語(yǔ)言描寫(xiě)搖曳多姿
    累積動(dòng)態(tài)分析下的同聲傳譯語(yǔ)言壓縮
    可能是方法不對(duì)
    NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
    實(shí)踐十號(hào)上的19項(xiàng)實(shí)驗(yàn)
    太空探索(2016年5期)2016-07-12 15:17:55
    用對(duì)方法才能瘦
    Coco薇(2016年2期)2016-03-22 02:42:52
    四大方法 教你不再“坐以待病”!
    Coco薇(2015年1期)2015-08-13 02:47:34
    一区二区三区精品91| 一级毛片久久久久久久久女| 亚洲精品aⅴ在线观看| 国产亚洲av片在线观看秒播厂| 亚洲av免费高清在线观看| 久久ye,这里只有精品| 少妇人妻久久综合中文| 伦理电影大哥的女人| tube8黄色片| 热re99久久精品国产66热6| 亚洲精品久久午夜乱码| 国产亚洲午夜精品一区二区久久| 观看av在线不卡| 在线精品无人区一区二区三| 国产精品一二三区在线看| 好男人视频免费观看在线| 男女国产视频网站| 成人国产av品久久久| 午夜免费男女啪啪视频观看| 国产精品伦人一区二区| 欧美日韩av久久| 日本av手机在线免费观看| 99久久中文字幕三级久久日本| 久久免费观看电影| 夫妻性生交免费视频一级片| 在线观看免费视频网站a站| 如何舔出高潮| 王馨瑶露胸无遮挡在线观看| av一本久久久久| 国产一区亚洲一区在线观看| 日韩伦理黄色片| 只有这里有精品99| 亚洲激情五月婷婷啪啪| 精品国产露脸久久av麻豆| 国产一区二区三区综合在线观看 | 欧美精品一区二区免费开放| 男人舔奶头视频| 欧美精品人与动牲交sv欧美| 99视频精品全部免费 在线| 久久人妻熟女aⅴ| 亚洲精华国产精华液的使用体验| 日日啪夜夜爽| 国产无遮挡羞羞视频在线观看| 一本大道久久a久久精品| 王馨瑶露胸无遮挡在线观看| 一级片'在线观看视频| 我的女老师完整版在线观看| 日产精品乱码卡一卡2卡三| 99视频精品全部免费 在线| 黄色配什么色好看| 久久久欧美国产精品| 亚洲av成人精品一区久久| 婷婷色av中文字幕| 国产中年淑女户外野战色| 久久午夜福利片| 天堂8中文在线网| 国产午夜精品久久久久久一区二区三区| 亚洲中文av在线| 内射极品少妇av片p| 午夜影院在线不卡| 日本黄色片子视频| 国产精品一区www在线观看| 国内精品宾馆在线| 久久6这里有精品| 啦啦啦视频在线资源免费观看| 人人澡人人妻人| 久久99热这里只频精品6学生| 国产综合精华液| 18禁裸乳无遮挡动漫免费视频| 少妇人妻一区二区三区视频| 夜夜看夜夜爽夜夜摸| 久久精品国产亚洲av涩爱| 久热这里只有精品99| 夜夜爽夜夜爽视频| 久久久久久久亚洲中文字幕| 中文字幕免费在线视频6| 狂野欧美激情性bbbbbb| 大香蕉97超碰在线| 热99国产精品久久久久久7| 亚洲高清免费不卡视频| 精品少妇内射三级| 黑人猛操日本美女一级片| 黑人高潮一二区| 各种免费的搞黄视频| 十分钟在线观看高清视频www | 国产成人91sexporn| 汤姆久久久久久久影院中文字幕| 国产永久视频网站| 国产成人精品久久久久久| www.av在线官网国产| 欧美+日韩+精品| 成年美女黄网站色视频大全免费 | 精品人妻一区二区三区麻豆| 秋霞在线观看毛片| 国语对白做爰xxxⅹ性视频网站| 观看美女的网站| 成人特级av手机在线观看| 一级片'在线观看视频| 国产黄色免费在线视频| 亚洲欧美一区二区三区黑人 | 国产精品不卡视频一区二区| 纯流量卡能插随身wifi吗| 亚洲精品国产av蜜桃| 欧美3d第一页| 婷婷色av中文字幕| 国产精品久久久久久精品电影小说| 熟妇人妻不卡中文字幕| 亚洲国产欧美日韩在线播放 | 亚洲电影在线观看av| 五月开心婷婷网| 不卡视频在线观看欧美| 久久久久久久久久成人| 久久久久久久久久成人| 亚洲,欧美,日韩| 麻豆成人av视频| 午夜福利,免费看| 国产精品99久久久久久久久| 久久av网站| 国产伦在线观看视频一区| 免费看光身美女| 国产伦理片在线播放av一区| 日日摸夜夜添夜夜添av毛片| 精品一区二区三卡| 在线观看免费视频网站a站| 久热这里只有精品99| 一级毛片aaaaaa免费看小| 国产毛片在线视频| 午夜福利在线观看免费完整高清在| 国产极品天堂在线| 777米奇影视久久| 亚洲欧美日韩卡通动漫| 性色av一级| 中文字幕免费在线视频6| 久久婷婷青草| 尾随美女入室| 国产亚洲av片在线观看秒播厂| 国产伦在线观看视频一区| 男女免费视频国产| 国产真实伦视频高清在线观看| 国产精品成人在线| 免费高清在线观看视频在线观看| 亚洲激情五月婷婷啪啪| 亚洲av中文av极速乱| 日韩av不卡免费在线播放| 男的添女的下面高潮视频| freevideosex欧美| 亚洲精品日韩在线中文字幕| 国产亚洲5aaaaa淫片| 黄片无遮挡物在线观看| 日本av免费视频播放| 美女主播在线视频| 少妇人妻 视频| 精品一区二区免费观看| 精品久久久久久电影网| 99久久精品热视频| 七月丁香在线播放| 十分钟在线观看高清视频www | 黑人猛操日本美女一级片| av一本久久久久| 在线观看国产h片| 久久ye,这里只有精品| 中国国产av一级| 一级毛片久久久久久久久女| 观看美女的网站| 啦啦啦视频在线资源免费观看| 男男h啪啪无遮挡| 国产免费视频播放在线视频| 成人无遮挡网站| 精品久久久精品久久久| 插阴视频在线观看视频| 亚洲精品国产av成人精品| av不卡在线播放| 五月天丁香电影| 水蜜桃什么品种好| 性色av一级| 欧美日韩亚洲高清精品| 99热这里只有精品一区| 欧美成人午夜免费资源| 免费黄网站久久成人精品| 亚洲第一av免费看| 成人综合一区亚洲| 欧美97在线视频| 欧美97在线视频| 久久国产精品男人的天堂亚洲 | 亚洲精品aⅴ在线观看| 男女啪啪激烈高潮av片| 男人舔奶头视频| 日韩人妻高清精品专区| 精品人妻偷拍中文字幕| 自拍偷自拍亚洲精品老妇| 婷婷色综合大香蕉| 成人黄色视频免费在线看| 亚洲怡红院男人天堂| 国产欧美另类精品又又久久亚洲欧美| 天美传媒精品一区二区| 国产视频首页在线观看| 久久综合国产亚洲精品| av在线播放精品| 18禁在线无遮挡免费观看视频| 最近手机中文字幕大全| 久久久久国产精品人妻一区二区| 亚洲精品第二区| 啦啦啦啦在线视频资源| 国产欧美日韩一区二区三区在线 | 秋霞在线观看毛片| 在线亚洲精品国产二区图片欧美 | 热re99久久精品国产66热6| 欧美 日韩 精品 国产| 国产爽快片一区二区三区| 男女无遮挡免费网站观看| 亚洲欧美成人精品一区二区| 国产黄片美女视频| 久久99一区二区三区| 亚洲av国产av综合av卡| 亚洲美女黄色视频免费看| 国产 一区精品| 亚洲av男天堂| 九色成人免费人妻av| 亚洲,一卡二卡三卡| 麻豆成人午夜福利视频| 免费看av在线观看网站| 国产乱人偷精品视频| 黄色欧美视频在线观看| 色5月婷婷丁香| 亚洲久久久国产精品| 国产有黄有色有爽视频| 一级,二级,三级黄色视频| 又大又黄又爽视频免费| 亚洲自偷自拍三级| 在线观看国产h片| 成人无遮挡网站| 亚洲欧美日韩另类电影网站| 久久久久久久国产电影| 一级爰片在线观看| 亚洲,欧美,日韩| 99精国产麻豆久久婷婷| av在线观看视频网站免费| 日本vs欧美在线观看视频 | 内地一区二区视频在线| 国产色婷婷99| 免费大片黄手机在线观看| 国产熟女欧美一区二区| av在线观看视频网站免费| 精品国产一区二区久久| 男女边吃奶边做爰视频| 少妇猛男粗大的猛烈进出视频| 中文乱码字字幕精品一区二区三区| 妹子高潮喷水视频| videos熟女内射| 色5月婷婷丁香| 插逼视频在线观看| 国产极品天堂在线| 少妇人妻久久综合中文| 国产精品三级大全| 中文字幕av电影在线播放| 男人爽女人下面视频在线观看| 亚洲精品中文字幕在线视频 | 大香蕉久久网| 永久免费av网站大全| 69精品国产乱码久久久| 大码成人一级视频| 91久久精品国产一区二区成人| 成年人午夜在线观看视频| 一级av片app| 日韩电影二区| 欧美日韩综合久久久久久| 国产极品天堂在线| 国产一区亚洲一区在线观看| 久久99热这里只频精品6学生| 国产精品嫩草影院av在线观看| 热re99久久精品国产66热6| 观看免费一级毛片| 一个人看视频在线观看www免费| 永久免费av网站大全| 看非洲黑人一级黄片| 午夜久久久在线观看| 亚洲va在线va天堂va国产| 国产一级毛片在线| 91精品一卡2卡3卡4卡| 在线看a的网站| 菩萨蛮人人尽说江南好唐韦庄| 国产精品女同一区二区软件| 国产 精品1| 国产色爽女视频免费观看| 黑丝袜美女国产一区| 各种免费的搞黄视频| 丝袜脚勾引网站| 久久久国产欧美日韩av| av天堂中文字幕网| 久久久久久久久大av| 国产在视频线精品| 日韩电影二区| av福利片在线观看| 国内揄拍国产精品人妻在线| 免费观看无遮挡的男女| 蜜桃久久精品国产亚洲av| 国产熟女欧美一区二区| 97超视频在线观看视频| 嫩草影院入口| 丝袜在线中文字幕| 欧美+日韩+精品| 亚洲精品日韩av片在线观看| 国产av国产精品国产| 人妻系列 视频| kizo精华| 最新的欧美精品一区二区| av天堂久久9| 最近2019中文字幕mv第一页| av专区在线播放| 日本黄大片高清| 久久久久视频综合| 六月丁香七月| 18禁动态无遮挡网站| 97超碰精品成人国产| 纵有疾风起免费观看全集完整版| 我的女老师完整版在线观看| 久久97久久精品| 久热久热在线精品观看| 人人妻人人看人人澡| 亚洲欧美精品自产自拍| 亚洲精品乱久久久久久| 国产免费一区二区三区四区乱码| av在线老鸭窝| 欧美三级亚洲精品| 一本色道久久久久久精品综合| 热re99久久国产66热| 亚洲不卡免费看| h日本视频在线播放| xxx大片免费视频| 亚洲精品日本国产第一区| 国产淫语在线视频| 中文天堂在线官网| 色哟哟·www| 精品人妻熟女av久视频| 欧美变态另类bdsm刘玥| 国产永久视频网站| 夫妻午夜视频| 国产精品国产三级国产专区5o| 在线观看免费视频网站a站| 大话2 男鬼变身卡| 国产精品人妻久久久影院| 中文字幕精品免费在线观看视频 | 天堂中文最新版在线下载| av免费在线看不卡| 精品卡一卡二卡四卡免费| 欧美3d第一页| 久久av网站| 国产 一区精品| 国精品久久久久久国模美| 特大巨黑吊av在线直播| 久久久久国产网址| 国产一区二区在线观看日韩| 六月丁香七月| 伊人久久国产一区二区| 精品国产一区二区三区久久久樱花| 少妇人妻久久综合中文| 一级毛片我不卡| 国产日韩欧美亚洲二区| 精品熟女少妇av免费看| 少妇人妻久久综合中文| 一区二区三区乱码不卡18| 精品一品国产午夜福利视频| 久久免费观看电影| 9色porny在线观看| 一级av片app| av福利片在线观看| 久久久久久伊人网av| 91精品伊人久久大香线蕉| 亚洲av在线观看美女高潮| av福利片在线观看| 99热网站在线观看| 国产精品嫩草影院av在线观看| 国产精品麻豆人妻色哟哟久久| 色网站视频免费| 成人国产av品久久久| 国产国拍精品亚洲av在线观看| 在线 av 中文字幕| a级一级毛片免费在线观看| a级毛片在线看网站| 夫妻午夜视频| 亚洲精品成人av观看孕妇| 97超碰精品成人国产| 日本与韩国留学比较| 亚洲色图综合在线观看| 中文字幕亚洲精品专区| av福利片在线观看| 日韩大片免费观看网站| 亚洲国产精品成人久久小说| 国产av一区二区精品久久| 欧美精品一区二区免费开放| 久久国产亚洲av麻豆专区| 九九爱精品视频在线观看| 精品国产露脸久久av麻豆| 亚洲av福利一区| 欧美xxxx性猛交bbbb| 久久久久久久久久成人| 久久精品国产自在天天线| 亚洲,一卡二卡三卡| 熟妇人妻不卡中文字幕| 99精国产麻豆久久婷婷| 国产亚洲91精品色在线| 2021少妇久久久久久久久久久| 大又大粗又爽又黄少妇毛片口| 国产永久视频网站| 美女xxoo啪啪120秒动态图| 特大巨黑吊av在线直播| 久久久久久久久久人人人人人人| 成人国产av品久久久| 精品一区在线观看国产| 三上悠亚av全集在线观看 | 亚洲精品国产成人久久av| 狂野欧美白嫩少妇大欣赏| 亚洲精品一二三| 亚洲熟女精品中文字幕| 精品卡一卡二卡四卡免费| 日韩视频在线欧美| 亚洲熟女精品中文字幕| 免费观看的影片在线观看| 国产一区有黄有色的免费视频| 国产免费福利视频在线观看| 2018国产大陆天天弄谢| 91精品国产九色| 全区人妻精品视频| 男女边吃奶边做爰视频| 国产精品蜜桃在线观看| 最近中文字幕2019免费版| 欧美另类一区| 亚洲美女黄色视频免费看| 人人妻人人添人人爽欧美一区卜| av黄色大香蕉| 一级,二级,三级黄色视频| 免费观看无遮挡的男女| 久久久久久久久久成人| 最近最新中文字幕免费大全7| 水蜜桃什么品种好| 日韩,欧美,国产一区二区三区| 日本vs欧美在线观看视频 | 欧美日本中文国产一区发布| 欧美日韩视频精品一区| 性色avwww在线观看| 人妻 亚洲 视频| 最新中文字幕久久久久| 亚洲国产色片| 日本黄色日本黄色录像| 精品午夜福利在线看| 热re99久久精品国产66热6| 夜夜看夜夜爽夜夜摸| 青春草亚洲视频在线观看| 亚洲精品一区蜜桃| 最黄视频免费看| 麻豆乱淫一区二区| 中文天堂在线官网| 欧美日韩av久久| 精品人妻偷拍中文字幕| 男人和女人高潮做爰伦理| 精品国产露脸久久av麻豆| 日日爽夜夜爽网站| 日韩一区二区视频免费看| 黑人高潮一二区| 久久久久久久久久久丰满| 欧美日韩视频精品一区| 久久精品国产亚洲网站| 22中文网久久字幕| 中文乱码字字幕精品一区二区三区| 在线观看美女被高潮喷水网站| 国产色婷婷99| 亚洲av.av天堂| 在线亚洲精品国产二区图片欧美 | 如日韩欧美国产精品一区二区三区 | 水蜜桃什么品种好| av又黄又爽大尺度在线免费看| 涩涩av久久男人的天堂| 一区在线观看完整版| a级毛色黄片| 亚洲精品久久久久久婷婷小说| 国产视频内射| 一区在线观看完整版| 亚洲国产色片| 22中文网久久字幕| 久久久久国产精品人妻一区二区| 亚洲欧美一区二区三区黑人 | 高清在线视频一区二区三区| 亚洲av成人精品一二三区| 99热这里只有精品一区| 99热国产这里只有精品6| 自线自在国产av| 中文欧美无线码| 嘟嘟电影网在线观看| 日本午夜av视频| 免费看av在线观看网站| 国产精品偷伦视频观看了| 韩国高清视频一区二区三区| 日日啪夜夜撸| 欧美日韩视频高清一区二区三区二| 亚洲精品第二区| 国产免费一级a男人的天堂| 2021少妇久久久久久久久久久| 黄色日韩在线| 亚洲精品久久午夜乱码| 亚洲丝袜综合中文字幕| 一级片'在线观看视频| h视频一区二区三区| 黑人高潮一二区| 久久久a久久爽久久v久久| 日韩不卡一区二区三区视频在线| 免费看av在线观看网站| 2022亚洲国产成人精品| 亚洲精品第二区| 我的老师免费观看完整版| 王馨瑶露胸无遮挡在线观看| 国产精品99久久久久久久久| 少妇的逼好多水| 十八禁高潮呻吟视频 | 日韩成人av中文字幕在线观看| 夜夜爽夜夜爽视频| 欧美bdsm另类| 亚洲欧美日韩另类电影网站| 全区人妻精品视频| 日日摸夜夜添夜夜爱| 日韩在线高清观看一区二区三区| 亚洲av男天堂| 18禁动态无遮挡网站| 2022亚洲国产成人精品| 国产老妇伦熟女老妇高清| 亚洲av二区三区四区| 久久综合国产亚洲精品| 国产精品不卡视频一区二区| 日韩强制内射视频| 午夜免费男女啪啪视频观看| 777米奇影视久久| 夜夜爽夜夜爽视频| 亚洲熟女精品中文字幕| 国产乱来视频区| 亚洲精品亚洲一区二区| 国产 精品1| 亚洲欧美精品自产自拍| 精品久久久精品久久久| 成人免费观看视频高清| 日本爱情动作片www.在线观看| 国产又色又爽无遮挡免| 97在线视频观看| 国产色婷婷99| 又粗又硬又长又爽又黄的视频| 国产高清三级在线| 最近最新中文字幕免费大全7| 亚洲国产精品国产精品| 久久精品国产自在天天线| 国产无遮挡羞羞视频在线观看| 在线观看av片永久免费下载| 欧美日韩av久久| 欧美精品人与动牲交sv欧美| 国产精品99久久99久久久不卡 | 美女cb高潮喷水在线观看| 国产探花极品一区二区| 少妇裸体淫交视频免费看高清| 久久亚洲国产成人精品v| 一级毛片电影观看| 国产色婷婷99| 桃花免费在线播放| 99热这里只有精品一区| 精品久久久久久久久亚洲| 国产精品一区www在线观看| 永久网站在线| 国产日韩欧美亚洲二区| 亚洲精品久久久久久婷婷小说| 精品一区二区三区视频在线| av.在线天堂| 日韩免费高清中文字幕av| 欧美日韩综合久久久久久| 夜夜骑夜夜射夜夜干| 国产精品一区二区在线观看99| av国产精品久久久久影院| 麻豆成人av视频| 偷拍熟女少妇极品色| 亚洲丝袜综合中文字幕| 日本猛色少妇xxxxx猛交久久| 一级毛片aaaaaa免费看小| 中文精品一卡2卡3卡4更新| 99热这里只有是精品50| 爱豆传媒免费全集在线观看| 中文字幕久久专区| 有码 亚洲区| 成年女人在线观看亚洲视频| 精品一区在线观看国产| videos熟女内射| 极品人妻少妇av视频| 亚洲精品一区蜜桃| 亚洲伊人久久精品综合| 亚洲av在线观看美女高潮| 国产一区二区在线观看av| 国产深夜福利视频在线观看| 又大又黄又爽视频免费| 精品99又大又爽又粗少妇毛片| 少妇人妻一区二区三区视频| 婷婷色av中文字幕| 国产一区二区三区av在线| 国产精品久久久久久精品古装| a级毛片在线看网站| 久久久久国产精品人妻一区二区| 久久久久久久久久久久大奶| 午夜激情福利司机影院| freevideosex欧美| 建设人人有责人人尽责人人享有的| 日日啪夜夜撸| 欧美丝袜亚洲另类| 亚洲熟女精品中文字幕| 香蕉精品网在线| 久久精品国产自在天天线| 国产欧美日韩一区二区三区在线 | 十八禁网站网址无遮挡 | 少妇的逼水好多| 婷婷色综合大香蕉| 亚洲国产精品国产精品| 久久亚洲国产成人精品v| 国产精品久久久久久久电影|