• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多策略強化學習的低資源跨語言摘要方法研究

    2024-02-29 04:39:12馮雄波黃于欣賴華高玉夢
    計算機工程 2024年2期
    關(guān)鍵詞:語言模型

    馮雄波,黃于欣,賴華,高玉夢

    (1.昆明理工大學信息工程與自動化學院,云南 昆明 650504;2.昆明理工大學云南省人工智能重點實驗室,云南 昆明 650504)

    0 引言

    數(shù)據(jù)是直接決定能否訓練出高性能神經(jīng)網(wǎng)絡(luò)模型的關(guān)鍵因素,使用大規(guī)模、高質(zhì)量的跨語言摘要數(shù)據(jù)訓練有利于模型生成更高質(zhì)量的摘要,但是在跨語言摘要中數(shù)據(jù)稀缺是1 個公認的問題[1]。目前在跨語言摘要生成研究工作中,大多使用單語翻譯構(gòu)造跨語言摘要數(shù)據(jù)。此類方法簡單便捷,但是在如越南語這種資源匱乏的語言上,機器翻譯的表現(xiàn)并不理想。因此,使用翻譯方法構(gòu)建漢越跨語言摘要數(shù)據(jù)會產(chǎn)生較大的噪聲。近年來的研究結(jié)果表明[2-3],相比傳統(tǒng)的統(tǒng)計模型,神經(jīng)網(wǎng)絡(luò)模型對噪聲數(shù)據(jù)十分敏感。ZHU 等[2]在漢英跨語言摘要上提出采用數(shù)據(jù)篩選的方法提升機器翻譯構(gòu)造跨語言摘要數(shù)據(jù)的質(zhì)量。相比漢英,基于機器翻譯構(gòu)造的漢越跨語言摘要數(shù)據(jù)噪聲更多,對數(shù)據(jù)過濾時既要保證數(shù)據(jù)的質(zhì)量又要保證數(shù)據(jù)的數(shù)量,即使過濾掉一部分錯誤嚴重的噪聲數(shù)據(jù)后,留下的數(shù)據(jù)集仍無法避免噪聲。

    本文針對漢語-越南語以及越南語-漢語跨語言摘要數(shù)據(jù),提出基于多策略強化學習的低資源跨語言摘要方法。使 用ROUGE[4]、BERTScore[5]與Mgfscore[6]對單語翻譯得到的偽漢語-越南語以及越南語-漢語跨語言摘要數(shù)據(jù)進行噪聲過濾,提高數(shù)據(jù)集質(zhì)量。通過對不同情況下的數(shù)據(jù)集進行噪聲分析,發(fā)現(xiàn)選詞不當和實詞缺失是常見的錯誤類型,分別占據(jù)最大的錯誤比例。針對選詞不當,本文在解碼器生成目標摘要詞語時,通過與源語言摘要詞相關(guān)性匹配設(shè)計強化學習獎勵,避免翻譯不準確的詞帶來噪聲產(chǎn)生影響。針對實詞缺失,本文在解碼器生成目標摘要詞語時,以源語言摘要中的詞語作為基準,根據(jù)缺失詞語的重要程度設(shè)計缺失懲罰。受文獻[7]的啟發(fā),本文基于強化學習思想,引入真實的源語言摘要來指導(dǎo)目標摘要的生成,采用不同策略從生成詞相關(guān)性與缺失度組合設(shè)計強化學習獎勵,同時,與傳統(tǒng)的交叉熵損失函數(shù)相結(jié)合,構(gòu)建目標函數(shù)來優(yōu)化模型。

    1 相關(guān)工作

    1.1 跨語言摘要

    跨語言摘要任務(wù)是輸入漢語(越南語)文檔自動生成越南語(漢語)簡短摘要的任務(wù)。傳統(tǒng)的跨語言摘要任務(wù)通常采用先翻譯再摘要[8]或者先摘要再翻譯[9-10]的技術(shù)框架,但通常會受翻譯模型和摘要模型錯誤傳遞的影響,在低資源語言上效果還不理想?;谏窠?jīng)網(wǎng)絡(luò)的跨語言摘要任務(wù)通常將其看作1 個類似機器翻譯任務(wù),不同之處在于機器翻譯輸入和輸出的信息量不變,而跨語言摘要需要對信息進行壓縮和翻譯。針對低資源跨語言摘要任務(wù)通常有2 類方法:1)基于零樣本學習的摘要方法,針對源語言文檔到目標語言摘要數(shù)據(jù)集缺乏問題,AYANA 等[11]提出使用預(yù)先訓練好的機器翻譯模型與標題生成模型作為教師網(wǎng)絡(luò)來指導(dǎo)跨語言標題生成模型,同時學習翻譯能力和摘要能力,實現(xiàn)零樣本條件下跨語言摘要的生成,DUAN 等[1]在沿用單語摘要模型作為教師網(wǎng)絡(luò)來指導(dǎo)跨語言摘要模型參數(shù)學習的基礎(chǔ)上,在學生網(wǎng)絡(luò)中增加對教師網(wǎng)絡(luò)注意力權(quán)重的學習;2)基于機器翻譯和摘要的多任務(wù)聯(lián)合學習方法,利用機器翻譯模型與單語摘要等模型聯(lián)合訓練來彌補訓練數(shù)據(jù)稀缺問題。ZHU 等[12]基于Transformer 文本生成框架,提出端到端跨語言摘要模型,跨語言摘要與單語摘要、跨語言摘要與機器翻譯任務(wù)進行聯(lián)合訓練,在編碼端進行參數(shù)共享,在訓練過程中2 個任務(wù)進行交替訓練學習跨語言摘要生成能力。此外,研究人員還引入RTT(Round-Trip Translation strategy)的方法,基于機器翻譯模型對單語數(shù)據(jù)集進行翻譯,并使用ROUGE 進行打分過濾低質(zhì)量翻譯數(shù)據(jù),構(gòu)造中英語言對上的跨語言摘要數(shù)據(jù)集。CAO 等[13]為實現(xiàn)更好的跨語言對齊,利用生成對抗網(wǎng)絡(luò)對齊源語言與目標語言2 個單語摘要模型中的上下文表征,在進行單語摘要訓練的同時達到雙語對齊的目的。BAI 等[14]認為跨語言摘要與機器翻譯聯(lián)合學習的方法雖然可以通過共享編碼器參數(shù)來增強跨語言摘要性能,但是2 個任務(wù)的解碼器相互獨立,無法很好地建立跨語言摘要與機器翻譯任務(wù)的對齊。因此,本文提出一種解碼器改進方法,同時解碼源語言和目標語言摘要,提升解碼器對2 種語言的解碼能力,相比聯(lián)合學習使用2 個獨立解碼器取得更好的結(jié)果。以上工作大多基于機器翻譯對單語數(shù)據(jù)集進行翻譯構(gòu)造偽平行的跨語言摘要數(shù)據(jù)集,但都是中、英等大語種,機器翻譯性能較好,翻譯錯誤較少,但是對于低資源翻譯效果有限的語言研究較少,對于機器翻譯可能帶來的噪聲問題缺乏有效的分析和處理手段。

    1.2 強化學習

    強化學習在機器翻譯、文本摘要等文本生成任務(wù)上的應(yīng)用較多,主要是通過全局解碼優(yōu)化來緩解曝光偏差問題[15-16]。在摘要 任務(wù)上,PAULUS 等[17]提出將真實摘要與生成摘要間的ROUGE 值作為強化學習獎勵對模型進行獎勵或懲罰,使用線性差值方式將該獎勵與交叉熵相結(jié)合作為訓練目標函數(shù),在一定程度上緩解曝光偏差問題。B?HM 等[18]認為ROUGE 在詞匯多樣性表述的摘要上與人工評價相關(guān)性較差,基于ROUGE 值作為強化學習獎勵的可靠性較低,因此提出采用源文本和生成摘要作為輸入,從人工評分的摘要中學習獎勵函數(shù),取得相比ROUGE 值作為獎勵更優(yōu)的結(jié)果。YOON 等[19]基于語言模型計算生成摘要與真實摘要間的語義相似度作為強化學習獎勵,改善了詞粒度匹配ROUGE 的獎勵獲取方式。針對跨語言摘要任務(wù),DOU 等[7]提出用源語言摘要和生成目標語言摘要間的相似度作為強化學習獎勵來約束模型,以生成更好的摘要。受該工作啟發(fā),本文認為通過更好地建模源語言摘要和生成摘要之間的相關(guān)性,能夠充分利用純凈沒有噪聲的源語言摘要來緩解翻譯帶來的噪聲問題。

    2 數(shù)據(jù)分析與研究

    2.1 數(shù)據(jù)集構(gòu)建

    本文分別構(gòu)建漢語-越南語跨語言摘要以及越南語-漢語跨語言摘要2 個數(shù)據(jù)集。在漢語-越南語跨語言摘要數(shù)據(jù)集中,采用LCSTS[20]前20 萬個數(shù)據(jù)進行回譯得到漢語-越南語跨語言摘要數(shù)據(jù)集(Zh-Visum)。越南語-漢語跨語言摘要數(shù)據(jù)集是通過從越南網(wǎng)(Vietnam+)、越南新聞社、越南快訊、越南通訊社等多個新聞網(wǎng)站收集越南語單語數(shù)據(jù)集,并進行清洗和翻譯得到,最終獲得約11.579 8 萬條越南語-漢語跨語言摘要數(shù)據(jù)集(Vi-Zhsum),其中,采用谷歌翻譯。

    盡管通過翻譯構(gòu)建跨語言摘要數(shù)據(jù)集是一種簡便快捷的方法,但是數(shù)據(jù)集的質(zhì)量極大程度受機器翻譯性能的約束。為此,基于回譯后的數(shù)據(jù),本文采用ROUGE[4]、BERTScore[5]與Mgfscore[6]對回譯數(shù)據(jù)進行數(shù)據(jù)過濾,在ROUGE 篩選中,計算ROUGE-1、ROUGE-2、ROUGE-L 的平均值作為最終得分,而在BERTScore 與Mgfscore 評估中則采用F1 值得分。以漢語-越南語跨語言摘要數(shù)據(jù)篩選為例,具體操作流程如圖1 所示。

    在Zh-Visum 數(shù)據(jù)集中,過濾掉得分最低50%的數(shù)據(jù),留下10 萬條漢語-越南語跨語言摘要數(shù)據(jù)。而Vi-Zhsum 的回譯質(zhì)量相對較高,過濾掉得分最低30%的數(shù)據(jù),剩下8.1 萬條越南語-漢語跨語言摘要數(shù)據(jù)。數(shù)據(jù)集過濾前后回譯得分詳細信息如表1 所示,RG 表示使用ROUGE 指標過濾的數(shù)據(jù)集。

    表1 各數(shù)據(jù)集回譯得分信息 Table 1 Information of back-translation score on each datasets

    2.2 數(shù)據(jù)分析

    從表1 可以看出,對回譯數(shù)據(jù)的過濾有效提升漢語-越南語以及越南語-漢語2 個跨語言摘要數(shù)據(jù)集的質(zhì)量,但是進一步對漢越跨語言摘要進行分析發(fā)現(xiàn),數(shù)據(jù)中完全正確的句子占比較小,而在訓練模型中需要高質(zhì)量、大規(guī)模的數(shù)據(jù)。因此,即使對數(shù)據(jù)進行過濾也只能去除那些低質(zhì)量數(shù)據(jù)(錯誤嚴重),無法避免數(shù)據(jù)集中的弱噪聲(錯誤不嚴重)。本文進一步對機器翻譯構(gòu)造的跨語言數(shù)據(jù)進行噪聲分析,根據(jù)文獻[21]中劃分的類型進行統(tǒng)計,具體噪聲類型如表2 所示。隨著機器翻譯系統(tǒng)性能的提升以及對本文噪聲數(shù)據(jù)類型的分析,發(fā)現(xiàn)譯文與原文意思相反與數(shù)量詞/時間詞問題錯誤占比很小。因此,在該數(shù)據(jù)的噪聲類型結(jié)果統(tǒng)計中剔除了譯文與原文意思相反和數(shù)量詞/時間詞問題錯誤噪聲。

    表2 CWMT2013 劃分常見類型錯誤 Table 2 Common type error of CWMT2013 division

    本文在漢語-越南語與越南語-漢語跨語言摘要數(shù)據(jù)集上各抽取100 句標準源語言摘要與目標語言摘要進行人工標記,對過濾前后的數(shù)據(jù)進行噪聲類型統(tǒng)計,得到的結(jié)果如表3 所示。其中,F(xiàn)ilter-No 表示未過濾,F(xiàn)ilter-RG、Filter-Bert 和Filter-Msf 分別代表使用ROUGE、BERTScore 和Mgfscore 進行數(shù) 據(jù)過濾。Zh-Visum 過濾50%數(shù)據(jù),Vi-Zhsum 過濾70%數(shù)據(jù)。

    表3 漢語-越南語跨語言摘要數(shù)據(jù)集噪聲類型占比 Table 3 The proportion of noise types in the Chinese-Vietnamese cross-lingual summarization datasets %

    從表3 可以看出:

    1)在構(gòu)造得到的跨語言摘要數(shù)據(jù)集中沒有錯誤的句子占比較小,雖然通過評價指標過濾數(shù)據(jù)能提高數(shù)據(jù)的正確率,但是無法避免噪聲數(shù)據(jù),這也是在提高數(shù)據(jù)集質(zhì)量后,仍須進一步進行噪聲下跨語言摘要生成方法研究的原因。

    2)針對未過濾時正確句子的占比,在Vi-Zhsum中明顯高于Zh-Visum,其原因為Vi-Zhsum 是基于越南語新聞網(wǎng)站爬取的單語數(shù)據(jù)翻譯得到的。雖然越南語新聞?wù)獢?shù)據(jù)長度大于LCSTS 摘要數(shù)據(jù),但是新聞數(shù)據(jù)大多表達句式規(guī)整且通俗易懂,機器翻譯在此類數(shù)據(jù)集上翻譯表現(xiàn)更好。

    3)Zh-Visum 數(shù)據(jù)集的噪聲類型占比最大的是選詞不當與實詞缺失。使用ROUGE 與BERTScore 數(shù)據(jù)篩選后,選詞不當?shù)恼急认陆递^為明顯。由此可見,在該數(shù)據(jù)集中部分屬于選詞不當類型的句子錯誤嚴重,這是因為LCSTS 是在新浪微博上獲取以標題作為摘要的短文本摘要數(shù)據(jù)集,此摘要中大多中文詞語表達短小精悍,而機器翻譯往往對此類文本理解容易出現(xiàn)偏差,翻譯時常忽略部分實詞,所以在Zh-Visum 中一半以上的噪聲均來自選詞不當與實詞缺失。相比Zh-Visum 數(shù)據(jù)集,在Vi-Zhsum 數(shù)據(jù)集中詞序不對的錯誤占比較高。Vi-Zhsum 是由較長的文本翻譯而來,而機器翻譯對于長文詞語間邏輯順序理解能力較弱,翻譯時容易出現(xiàn)語序錯誤。

    4)此外,使用評價指標篩選后命名實體識別錯誤類型占比增大。一方面,BERTScore 是一種基于子詞的評價方法,基于詞級的數(shù)據(jù)篩選方法對命名實體錯誤不敏感;另一方面,在漢語-越南語與越南語-漢語跨語言摘要數(shù)據(jù)集中,命名實體大部分為人名、地名,此類錯誤大部分按諧音翻譯出現(xiàn)偏差。相比其他噪聲類型,該類型給句子帶來的噪聲較弱。

    根據(jù)上述分析,在漢語-越南語短文本和越南語-漢語長文本的跨語言摘要數(shù)據(jù)集中,噪聲類型占比最大的都是選詞不當與實詞缺失。因此,對數(shù)據(jù)進行篩選以提高通過翻譯生成的偽數(shù)據(jù)質(zhì)量,并繼續(xù)弱化噪聲是非常必要的。

    3 多策略強化學習的漢越跨語言摘要方法

    多策略強化學習的漢語-越南語跨語言摘要模型結(jié)構(gòu)如圖2 所示。

    圖2 多策略強化學習的漢語-越南語跨語言摘要模型Fig.2 A cross-lingual summarization model for multi-strategy reinforcement learning of Chinese-Vietnamese

    針對漢語-越南語跨語言摘要中監(jiān)督信號的噪聲問題,本文提出一種多策略強化學習方法來改善漢語-越南語跨語言摘要的生成。在Transformer[22]模型的基礎(chǔ)上,該方法通過源語言摘要和目標語言生成摘要之間的詞相關(guān)性和詞缺失度設(shè)置獎勵來結(jié)合強化學習函數(shù)和最大似然估計函數(shù)作為訓練目標,以提高生成摘要的質(zhì)量并減少噪聲對偽目標語言摘要的影響。

    3.1 交叉熵損失

    在基于Transformer 架構(gòu)的傳統(tǒng)跨語言摘要模型中,給定訓練集,A代表源語言,B代表目標語言。對每個文檔XA進行高維向量映射得到輸入文檔序列XA={x1,x2,…,xN},并輸入編碼器進行編碼得到文檔序列的向量表征H={h1,h2,…,hN}。最后,解碼器依據(jù)給定的H進行解碼,解碼器依次生成摘要序列YB={y1,y2,…,yM}。在該過程中使用生成摘要YB與標準摘要間的最大似然估計作為優(yōu)化目標。交叉熵損失函數(shù)定義如下:

    其中:M為YB摘要的長度。

    3.2 強化學習策略

    在詞相關(guān)性方面,使用源語言摘要序列YA=直接評估目標語言生成摘要詞匯質(zhì)量預(yù)先使 用fast-align[23]工具對 漢語-越南語雙語平行語料對齊,得到每個源語言詞匯與目標語言詞匯間的相關(guān)度表示,記為。如式(2)所示,使用t時刻生成的目標語言摘要詞匯,與中的每個源語言摘要詞匯YA匹配,記為,即:YB與每 個源語言摘要詞匯的相關(guān)度值,具體操作如圖2 中間部分。

    其中:sim 為相關(guān)性計算,本文使用fast-align 工具對漢語-越南語進行雙語對齊,并計算2 種語言之間詞匯的相關(guān)性;sum 表示求和。

    在詞缺失度方面,計算源語言摘要YA=中每個詞匯重要程度,記為,也可使用該詞在上下文中的重要程度來匹配生成摘要詞匯的重要程度或詞缺失程度,如式(3)所示:其中:使用詞頻-逆文本頻率指數(shù)(TF-IDF)計算詞匯重要程度。在詞相關(guān)性中,如t時刻生成的目標語言摘要詞匯能匹配到對應(yīng)源語言摘要序列YA中的詞匯時,則將源語言摘要中所匹配到詞語的重要程度記為 生成摘要的的重要程度。當t時刻生成摘要匹配不到Y(jié)A中詞匯時,則認為生成摘要中該詞缺失,此時將YA中未匹配到詞的重要程度記為生成摘要中的詞缺失度,從而避 免偽目標語言 中重要詞缺失對模型學習造成的影響。

    在跨語言摘要模型中,將跨語言摘要模型看作1 個智能體(Agent),每個解碼t時刻得到的上下文表征向量以及前t-1 時刻生成的摘要可以看作智能體中環(huán)境(Environment),從候選詞表中選取哪個詞作為解碼t時刻生成的摘要詞,即為智能體的1 個動作(Action),而選擇哪個詞是依據(jù)策略(Policy)產(chǎn)生的,即概率分布函數(shù)。當智能體生成摘要時,模型就會得到1 個獎勵(Reward),記為R(YB,YA)。本文采用式(4)計算期望獎勵。其中,使用生成摘要中每個詞匯與目標語言中對應(yīng)詞匯的相關(guān)度和缺失度來評估當前生成摘要的質(zhì)量,從而避免偽目標語言摘要中噪聲產(chǎn)生的錯誤指導(dǎo)。

    在強化學習的訓練過程中,其目標是最大化期望獎勵,在強化學習損失中定義如下:

    其中:Y代表所有可能生成的候選摘要,這是1 個指數(shù)級別的搜索空間。在實際操作中,常從概率分布函數(shù)P(YB|XA,θ)中采樣1 個序列YS來優(yōu)化上述期望獎勵,但由此也帶來期望獎勵而存在較高的方差。此時,引入1 個基線獎勵來減小梯度方差,采取與文獻[24-25]相同的方法來解決該問題。在強化學習的目標訓練中,使用自我批判策略梯度訓練算法,在訓練時采用2 個策略生成摘要:依據(jù)條件概率函數(shù)P(YB|XA,θ)從中隨機采樣得到Y(jié)S;貪婪解碼得到Y(jié)G。由此,1 個摘要句的強化學習訓練目標定義如下:

    最后,本文采用線性插值的方式混合交叉熵損失函數(shù)和強化學習訓練目標函數(shù),得到跨語言摘要模型的混合訓練目標函數(shù),如式(7)所示:

    其中:γ表示交叉熵損失函數(shù)與強化學習訓練目標函數(shù)在混合目標函數(shù)中的比例因子。

    4 實驗與結(jié)果分析

    4.1 數(shù)據(jù)集

    為驗證該模型的有效性,本文采用第2.1 節(jié)方法構(gòu)造的20 萬個Zh-Visum 與11.579 8 萬個Vi-Zhsum數(shù)據(jù)集進行基礎(chǔ)實驗。在數(shù)據(jù)篩選后,得到1 個包括10 萬個樣本的漢語-越南語跨語言摘要數(shù)據(jù)集(Zh-Visum)和1 個8.1 萬個樣本的越南語-漢語跨語言摘要數(shù)據(jù)集?;诖耍ㄟ^對數(shù)據(jù)集進行劃分,詳細數(shù)據(jù)信息如表4 所示。采用不同的過濾方式對漢語-越南語和越南語-漢語跨語言摘要數(shù)據(jù)集進行處理,其中,Bert 表示使用BERTScore 過濾漢語-越南語跨語言摘要數(shù)據(jù)集,Mgf 表示使用Mgfscore 過濾越南語-漢語跨語言摘要數(shù)據(jù)集,RG 表示使用ROUGE指標過濾的數(shù)據(jù)集。在本文中,為了公平比較,同一語種下的測試集保持不變。

    表4 實驗數(shù)據(jù)詳細信息 Table 4 Details information of experimental datas

    其中,Zh-Visum(Filter)數(shù)據(jù)集為基于BERTScore指標過濾的數(shù)據(jù);Vi-Zhsum(Filter)數(shù)據(jù)集為使用基于Mgfscore 指標過濾的數(shù)據(jù)。

    4.2 評價標準

    本文采用2 個評價指標來測評跨語言摘要系統(tǒng)生成摘要的質(zhì)量。與大多數(shù)摘要工作相同,一種是基于統(tǒng)計方法ROUGE[4],計算標準摘要與生成摘要間的N-Gram 共現(xiàn)程度,計算式如式(8)所示:

    其中:G為生成摘要;Ref 為標準參考摘要;N-Gram為N元詞組;Countmatch(N-Gram)為生成摘要與標準摘要中的N元詞組重疊個數(shù);Count(N-Gram)為標準摘要中N元詞組個數(shù);N常設(shè)置為1,2,L(最長公共子序 列)。本文使 用ROUGE-1、ROUGE-2、ROUGE-L 評價生成摘要的質(zhì)量,分別簡寫為RG-1、RG-2、RG-L。

    文獻[5]提出基于深度語義匹配的評價方法BERTScore,使用預(yù)訓練語言模型計算生成句與參考句間的語義相似度。在中文中,預(yù)訓練模型使用“bert-base-chinese”計算得分;在越南語中,預(yù)訓練模型使用“bert-base-multilingual-cased”,使 用BERTScore 計算時,生成摘要中的“<unk>”替換為BERT 詞表中的“[UNK]”。

    4.3 實驗設(shè)置

    本文采用PyTorch 框架實現(xiàn)模型代碼。在模型結(jié)構(gòu)上,使用多層Transformer 編碼器和解碼器結(jié)構(gòu),每層都采用8 個多頭注意力機制,隱層向量維度設(shè)置為512,前饋神經(jīng)網(wǎng)絡(luò)設(shè)置為1 024。采用Adam 作為模型優(yōu)化器,參數(shù)β1=0.9,β2=0.98,∈=10-9。使用teach-forcing 策略,平滑因子 設(shè)置為0.1,Dropout 設(shè)置為0.1。當模型解碼時,采用束搜索策略(Beam search),beam size 設(shè)置為5。與文獻[26-27]方法相同,對于帶強化學習策略的模型,本文均使用未過濾的Zh-Visum 與Vi-Zhsum 數(shù)據(jù)進行參數(shù)初始化,然后使用過濾后的數(shù)據(jù)繼續(xù)訓練模型。

    4.4 基準模型

    為驗證多策略強化學習的漢語-越南語跨語言摘要方法的有效性,本文在Zh-Visum(Filter)與Vi-Zhsum(Filter)數(shù)據(jù)集上對以下基線模型訓練并進行比較。

    Sum-Tra 是一種傳統(tǒng)的跨語言摘要方法,對輸入的源語言文本進行自動摘要生成,對生成的摘要再進行翻譯得到目標語言摘要。

    Tra-Sum 與Sum-Tra 類似,是一種兩步式的跨語言摘要方法,首先進行源語言文檔到目標語言文檔的翻譯,在將目標語言文檔輸入到自動摘要模型,得到目標語言摘要。在Sum-Tra 與Tra-Sum 中,本文采用谷歌作為機器翻譯模型,摘要模型采用無監(jiān)督的抽取式方法LexRank。

    NCLS[2]是一種基于Transformer 框架的 端到端神經(jīng)網(wǎng)絡(luò)的跨語言摘要模型。

    LR-ROUGE 與本文提出的方法類似,但使用ROUGE-L 得分計算獎勵期望。

    LR-MC 是本文所提的跨語言摘要模型,將交叉熵與強化學習相結(jié)合作為優(yōu)化目標,其中,期望獎勵根據(jù)源語言摘要與生成目標語言摘要間的詞缺失度與詞相關(guān)性計算得到。

    4.5 結(jié)果分析

    本文從不同角度設(shè)計實驗,驗證漢語-越南語跨語言摘要基于多策略強化學習方法在噪聲數(shù)據(jù)下的有效性。首先,對比本文提出不同策略的強化學習方法與基線模型的效果;然后,探究基于強化學習設(shè)計的詞相關(guān)性獎勵與詞缺失度懲罰對噪聲下模型性能的提升效果,各部分對模型的影響;其次,研究交叉熵損失函數(shù)和強化學習訓練目標函數(shù)之間的比例因子對模型性能的影響,分別使用噪聲過濾前后的數(shù)據(jù)訓練模型,探究神經(jīng)網(wǎng)絡(luò)模型在不同數(shù)據(jù)下的表現(xiàn);最后,針對不同模型生成的摘要進行實例分析。

    4.5.1 與基線模型對比結(jié)果

    本節(jié)所提的模型與基線模型的對比結(jié)果如表5所示,加粗表示最優(yōu)數(shù)據(jù),其中,γ為交叉熵損失與獎勵期望間比例因子,當γ=1 時,即不加入強化學習獎勵。

    表5 不同模型的實驗結(jié)果對比 Table 5 Experimental results comparison among different models

    從表5 可以看出,本文提出的多策略強化學習跨語言摘要方法與基線模型相比在漢語-越南語和越南語-漢語跨語言摘要數(shù)據(jù)集上的性能均取得了提升,其中,與端到端的跨語言摘要模型NCLS 相比,LR-MC(γ=0.6)在Zh-Visum(Filter)跨語言摘要數(shù)據(jù)集上RG-1、RG-2、RG-L 分別提升0.71、0.67、0.64;在Vi-Zhsum(Filter)跨語言摘要數(shù)據(jù)集上RG-1、RG-2、RG-L 分別提升0.84、0.44、0.70,說明本文模型與傳統(tǒng)端到端模型相比能夠有效弱化漢語-越南語跨語言摘要數(shù)據(jù)集中噪聲的干擾,提升跨語言摘要模型性能。與利用ROUGE-L 作為強化獎勵的LRROUGE 方法相比,本文模型在RG-1、RG-2、RG-L 和BERTScore 上均取得了提升,說明利用源語言摘要與生成摘要的單詞相關(guān)性和單詞缺失度來設(shè)計強化學習獎勵能夠有效減弱漢語-越南語和越南語-漢語跨語言摘要數(shù)據(jù)中噪聲的干擾,從而提升跨語言摘要模型的性能。在真實的數(shù)據(jù)上對使用噪聲數(shù)據(jù)訓練后的模型進行繼續(xù)訓練,模型性能得到進一步提升,相較而言RG-2 的提升較大,這是由于真實數(shù)據(jù)中偽摘要文本質(zhì)量更高、句子連貫性更好,因此生成的摘要較之前得到了進一步提升。相比直接使用交叉熵損失函數(shù)優(yōu)化模型時,加入本文所提的多策略獎勵期望能有效弱化噪聲,其中,在Zh-Visum 數(shù)據(jù)集 下RG-1、RG-2、RG-L 和BERTScore 分別提 高0.59、0.44、0.73 和0.20;在Vi-Zhsum(Filter)數(shù)據(jù)集下RG-1、RG-2、RG-L 和BERTScore 分別提 高0.63、0.18、0.36 和0.21。使用真實的源語言摘要計算獎勵期望,相比與RG-L 計算獎勵期望與交叉熵損失函數(shù)混合來優(yōu)化模型性能夠得到進一步提升,說明本文提出的多策略強化學習方法無論是在漢語-越南語跨語言摘要數(shù)據(jù)集或是越南語-漢語跨語言摘要數(shù)據(jù)集下都有較好的表現(xiàn),同時在噪聲數(shù)據(jù)下的短文本和長文本摘要任務(wù)中也表現(xiàn)出較優(yōu)的性能,在一定程度上弱化偽目標語言摘要中噪聲帶來的影響。

    4.5.2 消融實驗

    為驗證本文提出的基于詞相關(guān)性與詞缺失度的強化學習獎勵對模型性能的影響,采用各單一模塊進行試驗,結(jié)果如表6 所示。其中,LRmis 為只計算生成摘要缺失度作為期望獎勵,LRcor 為只計算生成摘要相關(guān)性作為期望獎勵,γ均為0.6。

    表6 消融實驗結(jié)果 Table 6 Results of ablation experiments

    從表6 可以看出,只計算源語言真實與目標語言生成摘要間的缺失度計算獎勵期望時(LRmis),性能下降較為明顯。僅使用相關(guān)性計算獎勵時(LRcor),性能下降較小。本文認為這是由2 個方面原因造成的:1)只使用缺失度時,模型得到的信息較為單一;2)缺失度只針對實詞缺失這一噪聲類型設(shè)計的,從第2.2 節(jié)中噪聲數(shù)據(jù)的分析中可以得知,實詞缺失占比小于選詞不當。

    4.5.3γ參數(shù)實驗

    γ參數(shù)實驗結(jié)果如表7 所示。從表7 可以看出,當獎勵期望與交叉熵損失函數(shù)相結(jié)合的參數(shù)γ為0.6時,模型性能最好。當γ值較大(γ=1.0)時,即不加入強化學習獎勵時,模型在所有指標上的性能較低,表明強化學習獎勵對模型的性能有積極的影響。隨著γ值的減少,即獎勵期望的比例增加,模型性能并沒有發(fā)揮到最優(yōu)。結(jié)合實驗結(jié)果對解碼的測試集數(shù)據(jù)觀察,發(fā)現(xiàn)當獎勵期望的比例增加時,解碼得到的未登錄詞占比增大,這是造成生成摘要質(zhì)量下降的主要原因。本文認為使用強化學習獎勵作為優(yōu)化目標函數(shù),基于源語言的詞級獎勵中包含更多詞級信息,并不包含目標語言詞語間的邏輯關(guān)系與語序特征。相比與短文本漢語-越南語跨語言摘要在長文本越南語-漢語跨語言摘要中,長文中的詞序以及詞語間的邏輯屬性關(guān)系占比更大,這也是在越南語-漢語跨語言摘要中增加獎勵期望的比例時模型性能下降更多的原因。因此,即使本文設(shè)計的基于源語言詞級獎勵對噪聲有較優(yōu)的弱化作用,但不建議單獨使用該獎勵期望來訓練模型。將獎勵期望與交叉熵損失相結(jié)合,在弱化噪聲的同時也可以更好地學習到目標語言詞語間的語序信息,進一步提升漢語-越南語和越南語-漢語跨語言摘要模型性能。

    表7 γ 參數(shù)實驗結(jié)果 Table 7 Experimental results of γ parameter

    4.5.4 探究噪聲數(shù)據(jù)對模型性能的影響

    為充分探究噪聲數(shù)據(jù)對神經(jīng)網(wǎng)絡(luò)模型的影響,在本實驗中,使用基礎(chǔ)的Transformer 框架進行噪聲數(shù)據(jù)對比實驗,結(jié)果如表8所示。All表示使用20萬個未過濾的漢語-越南語跨語言摘要數(shù)據(jù)和11.579 8萬個未過濾的越南語-漢語跨語言摘要數(shù)據(jù)進行訓練;Filter-Bert/Mgf 表示訓練數(shù)據(jù)采用過濾后的數(shù)據(jù)進行訓練,其中漢語-越南語跨語言摘要數(shù)據(jù)集使用BERTScore 方式進行過濾,越南語-漢語跨語言摘要數(shù)據(jù)集使用Mgfscore 方式進行過濾;Random 表示從未過濾數(shù)據(jù)集中隨機抽取相同數(shù)量的數(shù)據(jù)進行訓練。

    表8 在不同數(shù)據(jù)下的實驗結(jié)果 Table 8 Experimental results under different datas

    從表8 可以看出,神經(jīng)網(wǎng)絡(luò)模型對噪聲數(shù)據(jù)較為敏感。為訓練出更好的模型,需要過濾掉噪聲數(shù)據(jù)。在漢語-越南語跨語言摘要數(shù)據(jù)集中,噪聲數(shù)據(jù)的比例較高,經(jīng)過篩選后使用前10 萬個高質(zhì)量數(shù)據(jù)進行訓練比使用20 萬個未過濾數(shù)據(jù)訓練的模型更有效地生成可讀性高的摘要。相對而言,越南語-漢語跨語言摘要數(shù)據(jù)的總量相對較小,但質(zhì)量相對較高,過濾掉前30%的數(shù)據(jù)訓練模型在RG-2 和RG-L指標上略遜于使用全部數(shù)據(jù)訓練的模型。然而,不管在哪個數(shù)據(jù)集下,噪聲都會對模型產(chǎn)生負面的影響。因此,必須從噪聲數(shù)據(jù)出發(fā)對漢越跨語言摘要研究進行探索。

    4.5.5 實例分析

    表9 所示為不同摘要模型生成的摘要示例。從表9 可以看出,以“2 ca cách ly ngay sau khiAn Giang.76 ca ghitrongTP.Trong71 capháttrong khu cách lykhuphong.Nam có11.289 ca ghitrongvà 1.689 ca.catínhngày 27/4nay:9.719 ca,trongcó 2.280…(譯文:進入安江后立即隔離了2 病例。胡志明市國內(nèi)記錄76 例,其中71 例已隔離或封鎖。越南國內(nèi)累計11 289 例,境外輸入1 689 例。4 月27 日至今新增病例9 719 例,其中2 280 例已治愈……)”以越南語-漢語摘要任務(wù)為例,相較于其他摘要模型,本文模型生成的摘要質(zhì)量更高,語義更連貫,且提供的信息更加完整,在內(nèi)容上更加接近參考摘要。在未使用過濾數(shù)據(jù)訓練的基礎(chǔ)模型(Transformer-all),生成的摘要信息較少。經(jīng)過使用高質(zhì)量數(shù)據(jù)繼續(xù)訓練模型后,各個模型都試圖生成更加豐富的信息,然而,只有本文所提的多策略強化學習漢越跨語言摘要模型才能生成關(guān)鍵信息:“迄今為止越南已記錄#名患者”。

    表9 不同漢語-越南語跨語言摘要模型生成的摘要示例 Table 9 Examples of summaries generated by different Chinese-Vietnamese cross-lingual summarization models

    5 結(jié)束語

    針對漢語-越南語跨語言摘要中的噪聲、偽目標摘要中選詞不當與實詞缺失2 種噪聲類型,本文提出一種多策略的跨語言摘要方法用于漢語-越南語跨語言摘要。基于強化學習技術(shù),使用真實源語言摘要和偽目標語言摘要作為基準,通過計算源語言摘要與生成摘要的相關(guān)性和缺失度來計算期望獎勵,弱化噪聲干擾;保留傳統(tǒng)的偽目標語言與生成摘要間的交叉熵損失,以學習目標語言間的詞序關(guān)系;通過將強化學習損失函數(shù)和交叉熵損失函數(shù)相結(jié)合,優(yōu)化模型訓練目標,改善直接使用偽目標語言摘要訓練模型時噪聲數(shù)據(jù)對生成摘要質(zhì)量的負面影響,從而提高生成摘要的質(zhì)量。實驗結(jié)果表明,引入真實的源語言摘要來設(shè)計多策略強化學習方法,能夠有效提升跨語言摘要模型在噪聲數(shù)據(jù)下的性能。后續(xù)將該方法擴展到其他數(shù)據(jù)集和任務(wù)中,例如針對機器翻譯數(shù)據(jù)噪聲問題,利用本文方法來降低噪聲數(shù)據(jù)對機器翻譯模型性能的影響。

    猜你喜歡
    語言模型
    一半模型
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
    語言是刀
    文苑(2020年4期)2020-05-30 12:35:30
    讓語言描寫搖曳多姿
    多向度交往對語言磨蝕的補正之道
    累積動態(tài)分析下的同聲傳譯語言壓縮
    3D打印中的模型分割與打包
    FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
    我有我語言
    免费看av在线观看网站| 久久ye,这里只有精品| 日韩人妻高清精品专区| 亚洲国产精品999| 人妻夜夜爽99麻豆av| 日韩制服骚丝袜av| 女人十人毛片免费观看3o分钟| 99热6这里只有精品| 亚洲人成网站高清观看| 我的老师免费观看完整版| www.色视频.com| 视频中文字幕在线观看| 成年人午夜在线观看视频| 乱码一卡2卡4卡精品| 亚洲丝袜综合中文字幕| 国产一区二区三区综合在线观看 | 国产精品一区www在线观看| 2021少妇久久久久久久久久久| 美女内射精品一级片tv| 精品久久久精品久久久| av国产精品久久久久影院| 一级毛片久久久久久久久女| 日本av手机在线免费观看| 国产综合精华液| 欧美性感艳星| av国产精品久久久久影院| 国产免费视频播放在线视频| av卡一久久| 好男人视频免费观看在线| 日韩欧美精品免费久久| 国模一区二区三区四区视频| 成年人午夜在线观看视频| 久久久久久久亚洲中文字幕| 91久久精品电影网| 亚洲精品国产成人久久av| 亚洲国产色片| av专区在线播放| 亚洲av日韩在线播放| 久久久久视频综合| 老司机影院成人| 99热这里只有是精品50| 中文字幕av成人在线电影| 麻豆国产97在线/欧美| 五月天丁香电影| 国产成人精品一,二区| 熟女电影av网| 高清av免费在线| 在现免费观看毛片| 久久毛片免费看一区二区三区| 91久久精品电影网| 成人漫画全彩无遮挡| 99热6这里只有精品| 少妇的逼水好多| 天天躁夜夜躁狠狠久久av| 高清av免费在线| 男人爽女人下面视频在线观看| 一级爰片在线观看| 国产乱人视频| 天堂8中文在线网| 免费看av在线观看网站| 亚洲在久久综合| 3wmmmm亚洲av在线观看| 青青草视频在线视频观看| 国产乱来视频区| 蜜桃在线观看..| 日日啪夜夜撸| 精品少妇久久久久久888优播| 韩国高清视频一区二区三区| 在线观看免费视频网站a站| 制服丝袜香蕉在线| 2018国产大陆天天弄谢| a 毛片基地| 成年女人在线观看亚洲视频| 精品人妻偷拍中文字幕| 青青草视频在线视频观看| 狂野欧美白嫩少妇大欣赏| 午夜免费观看性视频| 成人毛片a级毛片在线播放| 久久久国产一区二区| 色婷婷久久久亚洲欧美| 亚洲精品一二三| 这个男人来自地球电影免费观看 | 色婷婷av一区二区三区视频| 国产老妇伦熟女老妇高清| 久久精品熟女亚洲av麻豆精品| 纵有疾风起免费观看全集完整版| 中国国产av一级| 国产亚洲一区二区精品| 亚洲经典国产精华液单| 中文精品一卡2卡3卡4更新| 中文乱码字字幕精品一区二区三区| 日韩电影二区| 日本与韩国留学比较| 国产精品女同一区二区软件| 国产爽快片一区二区三区| 亚洲成人av在线免费| 99久久中文字幕三级久久日本| 一区二区三区乱码不卡18| 久久精品国产a三级三级三级| 精品国产一区二区三区久久久樱花 | 少妇人妻 视频| 欧美成人a在线观看| 国产日韩欧美亚洲二区| 欧美精品一区二区大全| 久久99热这里只频精品6学生| 蜜桃亚洲精品一区二区三区| 伊人久久精品亚洲午夜| 在线观看av片永久免费下载| 夫妻性生交免费视频一级片| 精品少妇黑人巨大在线播放| 交换朋友夫妻互换小说| 男女下面进入的视频免费午夜| 伦理电影免费视频| 观看美女的网站| 日日摸夜夜添夜夜爱| 下体分泌物呈黄色| kizo精华| 永久免费av网站大全| 2022亚洲国产成人精品| 亚洲国产高清在线一区二区三| 只有这里有精品99| 免费播放大片免费观看视频在线观看| 噜噜噜噜噜久久久久久91| 嫩草影院新地址| 亚洲欧美日韩卡通动漫| 亚洲欧美一区二区三区国产| 亚洲,欧美,日韩| 观看av在线不卡| 午夜福利视频精品| 久久婷婷青草| 免费观看a级毛片全部| 国产精品久久久久久av不卡| 国产精品麻豆人妻色哟哟久久| 成人毛片a级毛片在线播放| 成人影院久久| 下体分泌物呈黄色| 久久久欧美国产精品| 天天躁夜夜躁狠狠久久av| 亚洲伊人久久精品综合| 秋霞在线观看毛片| 亚洲av二区三区四区| 国产精品人妻久久久影院| 黄色视频在线播放观看不卡| 人妻一区二区av| 男女下面进入的视频免费午夜| 国产在视频线精品| 亚洲性久久影院| 亚洲国产av新网站| 久久久久国产精品人妻一区二区| 成人免费观看视频高清| 亚洲精品色激情综合| 久久久久国产精品人妻一区二区| 免费av不卡在线播放| 又粗又硬又长又爽又黄的视频| 狂野欧美激情性bbbbbb| 国产黄片美女视频| 成人特级av手机在线观看| 国产精品一二三区在线看| 成人高潮视频无遮挡免费网站| 久久久久久伊人网av| 国产淫片久久久久久久久| 亚洲精华国产精华液的使用体验| 免费观看a级毛片全部| 一区二区三区乱码不卡18| 久久精品熟女亚洲av麻豆精品| 日日啪夜夜撸| 最近手机中文字幕大全| 亚洲性久久影院| 精品一区二区免费观看| 韩国av在线不卡| 国产欧美亚洲国产| 麻豆国产97在线/欧美| 妹子高潮喷水视频| 精品国产露脸久久av麻豆| 日本猛色少妇xxxxx猛交久久| 欧美丝袜亚洲另类| 99视频精品全部免费 在线| 男女边吃奶边做爰视频| 国产久久久一区二区三区| 国产成人精品久久久久久| 99九九线精品视频在线观看视频| 中文字幕人妻熟人妻熟丝袜美| 交换朋友夫妻互换小说| 亚洲,一卡二卡三卡| av在线老鸭窝| 26uuu在线亚洲综合色| 日本一二三区视频观看| 亚洲国产日韩一区二区| 少妇的逼好多水| 超碰97精品在线观看| 欧美最新免费一区二区三区| 国产精品女同一区二区软件| 成人一区二区视频在线观看| 3wmmmm亚洲av在线观看| 99热6这里只有精品| 波野结衣二区三区在线| 舔av片在线| 国语对白做爰xxxⅹ性视频网站| 日韩欧美一区视频在线观看 | 噜噜噜噜噜久久久久久91| 久久精品国产亚洲av天美| 国产女主播在线喷水免费视频网站| 校园人妻丝袜中文字幕| 亚洲丝袜综合中文字幕| av免费在线看不卡| 少妇熟女欧美另类| 亚洲第一区二区三区不卡| 美女xxoo啪啪120秒动态图| 久久精品国产鲁丝片午夜精品| 久久精品人妻少妇| 美女cb高潮喷水在线观看| 18+在线观看网站| 亚洲国产av新网站| 免费看日本二区| 寂寞人妻少妇视频99o| 深爱激情五月婷婷| 99久久精品一区二区三区| 日韩中字成人| 少妇熟女欧美另类| 两个人的视频大全免费| 女人十人毛片免费观看3o分钟| 联通29元200g的流量卡| 九九久久精品国产亚洲av麻豆| 水蜜桃什么品种好| 日本免费在线观看一区| 综合色丁香网| 久久久精品免费免费高清| 少妇丰满av| 乱系列少妇在线播放| 国产精品一区二区三区四区免费观看| 国产亚洲最大av| 久久精品国产a三级三级三级| 国产黄色免费在线视频| 婷婷色综合www| 亚洲无线观看免费| 最近最新中文字幕免费大全7| 亚洲欧美中文字幕日韩二区| 国产色爽女视频免费观看| h日本视频在线播放| 国产 一区精品| 人人妻人人添人人爽欧美一区卜 | 日韩成人伦理影院| 久久精品人妻少妇| 舔av片在线| 欧美丝袜亚洲另类| 91精品一卡2卡3卡4卡| 蜜臀久久99精品久久宅男| 丰满迷人的少妇在线观看| 国产中年淑女户外野战色| kizo精华| 一区在线观看完整版| 99久国产av精品国产电影| 久久久久久久久久成人| 在线观看三级黄色| 亚洲精品乱码久久久v下载方式| 午夜福利高清视频| 婷婷色综合www| 亚洲在久久综合| 2018国产大陆天天弄谢| 免费黄频网站在线观看国产| 久久精品国产自在天天线| 亚洲精品国产av成人精品| 日韩视频在线欧美| 永久网站在线| 深夜a级毛片| 免费av中文字幕在线| 国产黄色视频一区二区在线观看| 午夜免费男女啪啪视频观看| 国产精品福利在线免费观看| 亚洲成人手机| 亚洲丝袜综合中文字幕| 男女边摸边吃奶| 夫妻午夜视频| 成年av动漫网址| 久久久午夜欧美精品| 亚洲精品国产av成人精品| 人妻制服诱惑在线中文字幕| 欧美一区二区亚洲| 国产在线男女| 男女边吃奶边做爰视频| 青春草视频在线免费观看| 日韩精品有码人妻一区| 欧美 日韩 精品 国产| 亚洲av欧美aⅴ国产| 日韩欧美精品免费久久| 国产精品一区二区在线观看99| 偷拍熟女少妇极品色| 欧美97在线视频| 久久久久久伊人网av| 晚上一个人看的免费电影| 国产乱人视频| 国产精品久久久久久精品电影小说 | 亚洲自偷自拍三级| 观看免费一级毛片| 精品久久久久久电影网| 中文字幕免费在线视频6| av在线观看视频网站免费| 国产亚洲精品久久久com| 不卡视频在线观看欧美| 深爱激情五月婷婷| 亚洲欧美成人精品一区二区| 亚洲欧洲日产国产| 成人综合一区亚洲| 日韩三级伦理在线观看| 最近最新中文字幕大全电影3| 国产一区二区在线观看日韩| 嘟嘟电影网在线观看| 久久热精品热| 成年人午夜在线观看视频| 国产av精品麻豆| av在线播放精品| 欧美日本视频| 丰满乱子伦码专区| 久久婷婷青草| 2018国产大陆天天弄谢| 久久久a久久爽久久v久久| 又大又黄又爽视频免费| 中文字幕制服av| 日产精品乱码卡一卡2卡三| 亚洲精品日本国产第一区| 黑丝袜美女国产一区| 免费观看性生交大片5| 80岁老熟妇乱子伦牲交| 亚洲欧洲日产国产| 精品一品国产午夜福利视频| 精品久久国产蜜桃| 一级毛片aaaaaa免费看小| 丰满人妻一区二区三区视频av| 18禁动态无遮挡网站| 亚洲精品,欧美精品| 久久久久国产精品人妻一区二区| 亚洲av欧美aⅴ国产| av不卡在线播放| 欧美日韩综合久久久久久| 久久国产亚洲av麻豆专区| 久久久久久久久久成人| 国产综合精华液| 人人妻人人看人人澡| 国产男女内射视频| 一级毛片aaaaaa免费看小| 黑人高潮一二区| 尤物成人国产欧美一区二区三区| 亚洲伊人久久精品综合| 尤物成人国产欧美一区二区三区| 亚洲国产精品专区欧美| 涩涩av久久男人的天堂| 日本vs欧美在线观看视频 | 日韩,欧美,国产一区二区三区| 我要看日韩黄色一级片| 亚洲欧美成人精品一区二区| 99九九线精品视频在线观看视频| 色5月婷婷丁香| 狂野欧美激情性xxxx在线观看| 国产日韩欧美在线精品| 高清av免费在线| 国产成人精品一,二区| 我的女老师完整版在线观看| 新久久久久国产一级毛片| 搡女人真爽免费视频火全软件| 国产亚洲一区二区精品| 欧美精品一区二区免费开放| 亚洲精品456在线播放app| 亚洲欧美精品专区久久| 精品熟女少妇av免费看| 国产成人免费无遮挡视频| 成年女人在线观看亚洲视频| 五月伊人婷婷丁香| 春色校园在线视频观看| 亚洲在久久综合| 精品久久久久久久久亚洲| 我要看黄色一级片免费的| 秋霞伦理黄片| 久久久久久伊人网av| 秋霞在线观看毛片| 亚洲色图av天堂| 成人影院久久| 免费看不卡的av| 男女国产视频网站| 亚洲无线观看免费| 免费观看性生交大片5| 久久鲁丝午夜福利片| 成人18禁高潮啪啪吃奶动态图 | 成年免费大片在线观看| 日本午夜av视频| 久久久久久久国产电影| 亚洲av.av天堂| 久久久a久久爽久久v久久| 久久久久视频综合| 成人一区二区视频在线观看| 搡老乐熟女国产| 亚洲性久久影院| 一级毛片久久久久久久久女| 久久久久久久久久成人| 国产高清有码在线观看视频| 国产黄片美女视频| 免费观看的影片在线观看| 久久人妻熟女aⅴ| av不卡在线播放| 两个人的视频大全免费| 最近的中文字幕免费完整| 汤姆久久久久久久影院中文字幕| 香蕉精品网在线| 日韩中字成人| 97在线人人人人妻| 亚洲一级一片aⅴ在线观看| 免费少妇av软件| 色哟哟·www| 另类亚洲欧美激情| 日韩成人av中文字幕在线观看| 日韩国内少妇激情av| 国产成人免费无遮挡视频| 久久国产精品大桥未久av | 99热这里只有是精品50| 丰满乱子伦码专区| 久久精品国产亚洲av涩爱| 亚洲aⅴ乱码一区二区在线播放| 人人妻人人澡人人爽人人夜夜| 欧美日韩国产mv在线观看视频 | 日韩一区二区三区影片| av免费观看日本| 亚洲精品乱码久久久v下载方式| 国产成人免费观看mmmm| 男女无遮挡免费网站观看| 国产亚洲最大av| 内射极品少妇av片p| 国产av国产精品国产| 网址你懂的国产日韩在线| 插阴视频在线观看视频| 午夜福利网站1000一区二区三区| 亚洲精品成人av观看孕妇| 国产真实伦视频高清在线观看| 中文字幕亚洲精品专区| 99热网站在线观看| 一级毛片aaaaaa免费看小| 噜噜噜噜噜久久久久久91| 久久精品国产亚洲av涩爱| 国产成人a∨麻豆精品| 国产成人freesex在线| 少妇猛男粗大的猛烈进出视频| 国产av码专区亚洲av| 国产精品久久久久久精品电影小说 | 国精品久久久久久国模美| av福利片在线观看| 六月丁香七月| 亚洲国产高清在线一区二区三| videossex国产| 亚洲成人av在线免费| 在线观看一区二区三区| 直男gayav资源| 免费观看av网站的网址| 国产在视频线精品| 亚洲av国产av综合av卡| 51国产日韩欧美| 国产极品天堂在线| 免费在线观看成人毛片| 久久国产乱子免费精品| 亚洲av不卡在线观看| 十分钟在线观看高清视频www | 国产精品一区www在线观看| 久久人妻熟女aⅴ| 搡老乐熟女国产| av视频免费观看在线观看| 在线观看免费日韩欧美大片 | 日韩人妻高清精品专区| 亚洲av免费高清在线观看| 在线观看av片永久免费下载| 亚洲人与动物交配视频| 99热国产这里只有精品6| 亚洲精品中文字幕在线视频 | 久久这里有精品视频免费| 国产精品爽爽va在线观看网站| 国产淫片久久久久久久久| 国产成人精品福利久久| 毛片一级片免费看久久久久| 亚洲欧美精品自产自拍| 2021少妇久久久久久久久久久| 亚洲精品日韩在线中文字幕| 99热全是精品| 免费播放大片免费观看视频在线观看| 高清毛片免费看| 黑人高潮一二区| 国产一区有黄有色的免费视频| 搡女人真爽免费视频火全软件| 亚洲美女搞黄在线观看| 亚洲伊人久久精品综合| 国产午夜精品一二区理论片| 亚洲精品国产色婷婷电影| 亚洲无线观看免费| 在线观看美女被高潮喷水网站| 欧美最新免费一区二区三区| 性色avwww在线观看| 日韩av不卡免费在线播放| 久久久久网色| 成人黄色视频免费在线看| 精品亚洲成a人片在线观看 | 久久精品熟女亚洲av麻豆精品| 国产精品女同一区二区软件| 国产成人freesex在线| 高清欧美精品videossex| 亚洲精品乱码久久久久久按摩| 国产精品99久久99久久久不卡 | 性高湖久久久久久久久免费观看| 毛片女人毛片| 日本黄大片高清| 干丝袜人妻中文字幕| av免费在线看不卡| 亚洲三级黄色毛片| 色视频在线一区二区三区| 十八禁网站网址无遮挡 | 亚洲国产精品成人久久小说| 在线观看免费日韩欧美大片 | 嫩草影院入口| 国产永久视频网站| 97精品久久久久久久久久精品| 五月伊人婷婷丁香| 亚洲精品国产av蜜桃| 自拍欧美九色日韩亚洲蝌蚪91 | 色网站视频免费| 日韩 亚洲 欧美在线| 2022亚洲国产成人精品| 成人二区视频| 亚洲精品亚洲一区二区| 免费看av在线观看网站| 亚洲av中文av极速乱| 亚洲精品成人av观看孕妇| 美女主播在线视频| 国产色爽女视频免费观看| 制服丝袜香蕉在线| 极品教师在线视频| 国产国拍精品亚洲av在线观看| 亚洲在久久综合| 天天躁日日操中文字幕| 亚洲激情五月婷婷啪啪| 精品亚洲乱码少妇综合久久| 在线观看三级黄色| 久久久久国产网址| a 毛片基地| 久久99蜜桃精品久久| 新久久久久国产一级毛片| 成人18禁高潮啪啪吃奶动态图 | 国产黄色视频一区二区在线观看| 免费人妻精品一区二区三区视频| 国产日韩欧美亚洲二区| 免费大片18禁| 性高湖久久久久久久久免费观看| 亚洲人与动物交配视频| 国产 一区精品| 欧美成人一区二区免费高清观看| 国产男女超爽视频在线观看| 91精品伊人久久大香线蕉| 欧美激情国产日韩精品一区| 国精品久久久久久国模美| 在线精品无人区一区二区三 | 亚洲人成网站在线播| 一区二区av电影网| 高清毛片免费看| 十分钟在线观看高清视频www | av福利片在线观看| 欧美国产精品一级二级三级 | 久久精品人妻少妇| 青春草国产在线视频| 大话2 男鬼变身卡| 国产淫片久久久久久久久| 免费av不卡在线播放| 夜夜骑夜夜射夜夜干| 欧美最新免费一区二区三区| 高清欧美精品videossex| 永久免费av网站大全| 国产亚洲精品久久久com| 在线观看av片永久免费下载| 免费在线观看成人毛片| 91午夜精品亚洲一区二区三区| 色视频www国产| 久久久久精品久久久久真实原创| 纯流量卡能插随身wifi吗| 亚洲经典国产精华液单| 午夜福利高清视频| 黄色视频在线播放观看不卡| 日本与韩国留学比较| 中文字幕制服av| 久久精品久久久久久噜噜老黄| 在线观看人妻少妇| 日韩三级伦理在线观看| 久久久欧美国产精品| 噜噜噜噜噜久久久久久91| 欧美最新免费一区二区三区| 精品人妻熟女av久视频| 日韩av不卡免费在线播放| 熟妇人妻不卡中文字幕| 777米奇影视久久| 国产欧美日韩精品一区二区| 观看美女的网站| 少妇的逼水好多| 亚洲国产精品一区三区| 成人免费观看视频高清| 国产在视频线精品| 最近中文字幕2019免费版| 麻豆成人午夜福利视频| 久久国产乱子免费精品| 国产v大片淫在线免费观看| 色婷婷av一区二区三区视频| 嘟嘟电影网在线观看| 日韩伦理黄色片| 最近最新中文字幕大全电影3| 午夜福利在线在线| 新久久久久国产一级毛片| 国产高清国产精品国产三级 | 欧美日韩视频精品一区| 久久久a久久爽久久v久久| 亚洲自偷自拍三级| 国产成人一区二区在线| videossex国产| 人体艺术视频欧美日本| 丝袜脚勾引网站| 久久国产乱子免费精品|