• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    任務型對話系統(tǒng)中的自然語言生成研究進展綜述

    2022-03-10 01:25:30覃立波黎州揚婁杰銘禹棋贏車萬翔
    中文信息學報 2022年1期
    關鍵詞:單詞模板領域

    覃立波,黎州揚,婁杰銘,禹棋贏,車萬翔

    (哈爾濱工業(yè)大學 計算學部,黑龍江 哈爾濱 150001)

    0 引言

    任務型對話系統(tǒng)能夠幫助用戶完成特定任務,所以近年來受到學術界和工業(yè)界的廣泛關注。傳統(tǒng)的模塊化任務型對話系統(tǒng)[1]主要包括四個模塊: 自然語言理解模塊[2-4];對話狀態(tài)跟蹤模塊[5-7];策略學習模塊[8-10]和自然語言生成模塊(NLG)[11-13]。本文主要關注任務型對話系統(tǒng)中的NLG模塊(ToDNLG),其是模塊化任務型對話系統(tǒng)中最重要的模塊之一,用于將系統(tǒng)生成的對話動作轉(zhuǎn)化為用戶可以理解的自然語言回復。如表1所示,輸入包含對話動作inform和槽值對(name=Blue Spice,priceRange=low,familyFriendly=yes),ToDNLG的作用是將輸入轉(zhuǎn)換為對應的自然語言回復: “The Blue Spice is a low cost venue. It is a family friendly location.”

    表1 樣例示例

    近年來,隨著深度神經(jīng)網(wǎng)絡和預訓練語言模型的發(fā)展,ToDNLG的研究已取得了重大突破。但目前仍缺乏對ToDNLG現(xiàn)有方法和最新趨勢的全面調(diào)研。為了回顧現(xiàn)有進展,并幫助研究人員在未來開展新的工作,本文首次對ToDNLG近10年來的發(fā)展進行了全面的調(diào)研和總結。而且,盡管目前ToDNLG模型在標準數(shù)據(jù)集上取得了顯著效果, 但在實際應用中仍有許多問題需要解決。例如,現(xiàn)有神經(jīng)模型無法對生成的回復進行解釋,也無法在低資源場景下獲得滿意的效果。因此,本文對ToDNLG的前沿和挑戰(zhàn)進行了詳細總結,也為ToDNLG后續(xù)研究帶來了新的理解和思考。最后,目前ToDNLG研究領域中沒有一個開源的資源庫來幫助研究人員快速了解進展,故本文也構建了ToDNLG模塊的相關研究資源庫。我們希望該資源庫能夠促進該領域的發(fā)展。

    綜上所述,本文貢獻可以總結為以下幾點:

    (1) 整體總結: 據(jù)我們所知,本文的工作第一次對ToDNLG方向近10年的發(fā)展進行詳細總結,包括非深度學習年代的ToDNLG模型和基于深度學習的ToDNLG模型。

    (2) 前沿和挑戰(zhàn): 本文討論并分析了現(xiàn)有ToDNLG的局限性,并且探討了一些新的前沿領域和面臨的挑戰(zhàn)。供研究人員了解ToDNLG領域的最新進展、前沿和挑戰(zhàn)。

    (3) 豐富的資源: 我們收集了關于ToDNLG的豐富資源,包括開源實現(xiàn)、數(shù)據(jù)集和論文清單(1)https://github.com/yizhen20133868/Awesome-TOD -NLG-Survey。據(jù)我們所知,這是首個ToDNLG社區(qū)的開源資源庫。。

    本文組織結構如下: 第1節(jié)概述ToDNLG的背景;第2節(jié)介紹ToDNLG現(xiàn)有工作的全面調(diào)研成果;第3節(jié)討論新的前沿領域及其挑戰(zhàn);第4節(jié)對全文進行總結。

    1 背景

    1.1 任務定義

    M={D,(s1,v1),…,(sn,vn)}

    (1)

    ToDNLG的輸出是將輸入的MR經(jīng)過一系列變化,轉(zhuǎn)換成句法正確、語義準確、語句流暢的自然語言回復y=[y1,…,yT],其中,yi是回復y中的第i個詞,T是生成回復的長度。綜上所述,ToDNLG任務的形式化定義如式(2)所示。

    y=NLG(M)

    (2)

    1.2 數(shù)據(jù)集描述

    目前深度學習方法中常用到的數(shù)據(jù)集有Hotel[11],Restaurant[11], Laptop[12], Television[12]和E2E[14], 具體描述如下:

    Hotel和Restaurant數(shù)據(jù)集的背景為在舊金山市的酒店、餐廳預訂; Laptop和Television數(shù)據(jù)集的背景為購買筆記本電腦、電視產(chǎn)品;E2E數(shù)據(jù)集的背景為餐廳預訂。

    以上數(shù)據(jù)集詳細統(tǒng)計如表2所示。

    表2 數(shù)據(jù)集統(tǒng)計

    1.3 常用指標

    ToDNLG任務的常用指標為BLEU[15]和Slot Error Rate(ERR)。

    ? BLEU: BLEU指標是N-gram相似度的指標,用來衡量生成句子的流暢度。

    ? Slot Error Rate (ERR): 用來衡量生成句子與輸入的slot-pairs的匹配程度,如式(3)所示。

    (3)

    其中,N是MR中所含槽值對的數(shù)量,p和q分別是生成回復中缺少和多余的槽位數(shù)量。

    2 方法分類

    任務型對話中的自然語言生成方法可以劃分為傳統(tǒng)方法和深度學習方法兩大類。其中傳統(tǒng)方法包括: (1)基于模板的方法; (2)基于句子規(guī)劃的方法; (3)基于類的方法; (4)基于短語的方法。深度學習方法包括: (1)基于解碼器的方法; (2)基于序列到序列的方法; (3)基于Transformer的方法。

    2.1 傳統(tǒng)方法

    2.1.1 基于模板的方法

    基于模板的方法(Template-based)是一種根據(jù)人工設計的模板直接生成自然語言的方法。每個模板分為兩部分: (1)固定的自然語言模板; (2)需要根據(jù)對話動作中的槽值進行填充的槽位。此方法生成語言的步驟如下: 通過輸入的對話動作選擇合適的模板,再根據(jù)對話動作中的信息填充槽位。

    基于模板的方法是最樸素的ToDNLG方法,在早期的對話系統(tǒng)中比較常見。Reiter[16]首次在論文中提出了基于模板的概念。Axelrod等人[17]在IBM公司的航班信息系統(tǒng)中加入基于模板的對話系統(tǒng)。Baptist等人[18]在開發(fā)對話系統(tǒng)GENESIS-Ⅱ時使用基于模板的方法提高外語和非傳統(tǒng)語言的生成質(zhì)量。Becker等人[19]將詞匯化擴展到整個短語,并提出了基于模板的部分派生方法。

    該方法的優(yōu)缺點總結如下:

    優(yōu)點:簡單、高效,產(chǎn)生的回復精準、易控制且質(zhì)量較高(依賴于模板集的質(zhì)量)。

    缺點:可移植性差,不同的領域需要編寫不同的模板,人工編寫和維護的工作量較大。

    2.1.2 基于句子規(guī)劃的方法

    基于句子規(guī)劃的方法(Plan-based)通過引入句法樹的結構,自動加入語言結構的信息,使得生成的句子更加流暢?;诰渥右?guī)劃的方法包括三個模塊: (1)句子規(guī)劃生成模塊; (2)句子規(guī)劃排序模塊; (3)表層實現(xiàn)器模塊。

    句子規(guī)劃生成模塊:句子規(guī)劃生成模塊包含一系列人工設置的語句合并操作規(guī)則,這些合并操作可以將一系列較低層的謂詞變元表示逐層地組合成更高層的深層句法結構。句子規(guī)劃通常以句子規(guī)劃樹的形式呈現(xiàn)。句子規(guī)劃樹是二叉樹,內(nèi)部結點表示語句合成操作。句子規(guī)劃生成模塊會先將MR進行一些可能的排序,而后將其作為句子規(guī)劃樹的葉子節(jié)點,并轉(zhuǎn)化為基本短句。最后再層級地加入作為非葉子節(jié)點的語句合成操作,從而生成不同的句子規(guī)劃樹。

    句子規(guī)劃排序模塊: 此模塊的任務是對句子規(guī)劃生成模塊生成的一系列句子進行排序,并將得分最高的句子送給最后的表層實現(xiàn)模塊進行自然語言生成。排序器的具體實現(xiàn)通常使用RankBoost算法[20],這種方法可以進行自動訓練和排序,將最好的句子規(guī)劃輸入下一個模塊。

    表層實現(xiàn)器模塊: 此模塊是將接收到的上一模塊輸出的句子規(guī)劃轉(zhuǎn)換成自然語言形式的最終回復。轉(zhuǎn)換過程是基于各個語句合并操作的規(guī)則,在句子規(guī)劃樹上,自底向上、逐層地將所有子節(jié)點合并成父節(jié)點,最終生成自然語言回復。

    在基于句子規(guī)劃的方法中,Reed等人[21]首次提出了句子規(guī)劃概念,構造了簡單的分層規(guī)劃框架;Reed[22]總結了基于句子規(guī)劃方法顯著性的含義和實現(xiàn)。Walker等人[20]提出了SPoT結構,將基于規(guī)劃的方法分為了隨機句子規(guī)劃生成器和排序器,并提出了基于反饋自動訓練的方法,提升了方法的效果。Stent等人[23]基于SPoT為對話系統(tǒng)構建句子規(guī)劃器時,引入了更多的修辭關系組合,以建模句子內(nèi)部的復雜信息。Fran?ois等人[24]在處理對話系統(tǒng)時,將基于句子規(guī)劃和基于模板的方法結合起來,并使訓練過程可訓練,因而模型能自動適應特定的領域。

    該方法的優(yōu)缺點總結如下:

    優(yōu)點:基于句子規(guī)劃的方法使用了句法樹,可以建模和生成復雜的語言結構。

    缺點:同樣需要大量的領域知識,可移植性和可拓展性差,對于新領域需要大量的人工工作,且效果并不一定優(yōu)于基于模板的方法。

    2.1.3 基于類的方法 (Class-based)

    基于類的方法(Class-based)是一種統(tǒng)計方法,使用語言模型進行自然語言生成。此方法先構建話語類(Utterance Class)和單詞類(Word Class)的集合,并為語料庫中的語料標注話語類和單詞類,然后將處理好的語料庫依次輸入兩個模塊: (1)內(nèi)容規(guī)劃模塊,(2)表層生成模塊。

    內(nèi)容規(guī)劃模塊:此模塊的輸入是系統(tǒng)回復的話語類別,輸出是系統(tǒng)回復中應包含的單詞類數(shù)量及應包含的單詞類。該模塊使用一個雙階段的語言模型來決定回復中應該包含哪些單詞類。

    在第一個階段中,模型根據(jù)給定的話語類別統(tǒng)計出單詞類的概率分布P(n|c),其中,c是待生成的系統(tǒng)回復的話語類別,n是系統(tǒng)回復應該包含的單詞類的數(shù)量,再通過概率分布預測本句應該包含的單詞類的數(shù)量。在第二個階段中,使用bi-gram語言模型,單詞類集合的概率分布為P(Sn|Sn-1),其中,Sn-1是前一條語句的單詞類集合,Sn是待預測的當前語句的單詞類集合。根據(jù)前一條語句中的單詞類集合的概率分布預測系統(tǒng)回復中應該包含的單詞類,參數(shù)估計一般使用最大似然法。為了減少待估計的參數(shù)數(shù)量,通常會做一些獨立性假設,將估計單詞類集合轉(zhuǎn)化為估計P(si|sk),其中,si、sk是單個單詞類別;i,k分別是預測單詞類集合和前一條語句中單詞類集合的下標。

    表層生成模塊: 此模塊的任務是使用語言模型隨機生成回復。訓練階段,先對語料進行去詞匯化(將單詞替換成相應的單詞類),再對每一個話語類別,使用去詞匯化后的語料建立N-gram語言模型。針對某一個話語類別生成回復的時候,使用相應類別的語言模型,用集束搜索的策略生成多個回復,再結合內(nèi)容規(guī)劃模塊的結果,設計一些啟發(fā)式的標準,對語言模型生成的多個回復進行打分,選擇最高分的回復。最后用真實的值來填充其中的單詞類,得到最終的自然語言回復。

    基于類的方法由Oh等人[25]首次提出,他們在表層生成中使用了語言模型,減少了標記工作,增加了生成語言的速度。Barzilay等人[26]受到生物信息學的啟發(fā),將多序列對齊技術應用于映射字典獲取問題,提高結果字典的準確性和表達能力,而且多種語言表達的存在有助于系統(tǒng)學習多種表達概念的方式。Belz[27]使用基于類的自然語言生成模型,半自動地創(chuàng)建了五個不同版本的天氣預報生成器,且最好的生成器性能超過了專家預測。

    該方法的優(yōu)缺點總結如下:

    優(yōu)點:相比于之前的方法,基于類的方法使用了語言模型,在生成結果的流暢度、多樣性上都有明顯提升。

    缺點:每個領域都需要手工創(chuàng)建類別集合,可移植性和可拓展性差。此外,語言模型的計算效率低,稀疏問題未能得到很好的解決,且該方法的獨立性假設過強。

    2.1.4 基于短語的方法

    基于短語的方法 (Phrase-based)是一種基于統(tǒng)計的數(shù)據(jù)驅(qū)動型方法,將人工工作從模板的設計和維護轉(zhuǎn)移到數(shù)據(jù)標注上。該方法在訓練前需要對訓練集中的句子以短語為單位進行對齊標注;訓練時,將標注的結果,即一系列無序的強制語義堆(Mandatory Semantic Stack)送給語言生成模塊生成自然語言回復。基于對齊標注數(shù)據(jù)進行語言生成比較簡單,比較通用的方法是使用動態(tài)貝葉斯網(wǎng)絡[28]生成回復。主要包括數(shù)據(jù)對齊標注和語言生成模塊。

    數(shù)據(jù)對齊標注:基于短語的方法需要對齊標注的數(shù)據(jù),即用一個基于堆的語義表達去約束語義概念序列。每一個句子會被自動映射到一個短語層次的語義堆(Phrase-Level Semantic Stacks)。

    語言生成模塊:此模塊的任務是輸入一個含有多個強制語義堆的集合,生成最可能的回復序列。

    基于短語的方法由Fran?ois等人[28]首次提出,他們構造了一個統(tǒng)計語言生成器BAGEL,并使用貝葉斯網(wǎng)絡進行學習,在小部分數(shù)據(jù)訓練中和人類評估的效果接近。Du?ek等人[29]提出的基于句法的方法是對基于短語方法的改進,它可以使模型利用大規(guī)模來對齊的標注數(shù)據(jù)。Lampouras等人[30]加入了模仿學習的方法進行結構性預測,并調(diào)整了局部最優(yōu)學習搜索框架,在三個數(shù)據(jù)集上都達到了與最優(yōu)方法相近的結果。

    該方法的優(yōu)缺點總結如下:

    優(yōu)點:該方法是數(shù)據(jù)驅(qū)動的方法,不依賴手工寫成的生成器,可以用較少的參數(shù)建模長距離的依賴關系和特定領域的慣用短語。

    缺點:需要大量的語義對齊處理,難以移植和拓展。標注數(shù)據(jù)的方法對結果影響很大,需要進行大量標注方式的嘗試。

    2.2 深度學習方法

    隨著深度學習技術的迅速發(fā)展,ToDNLG模塊的研究趨勢也從需要大量特征工程的傳統(tǒng)方法中轉(zhuǎn)移到基于深度學習的方法上來。

    深度學習方法主要包括: (1)基于解碼器(Decoder-based)的方法; (2)基于序列到序列(Seq2Seq-based)的方法; (3)基于Transformer的方法。其中基于解碼器的方法首次開啟了ToDNLG深度學習時代,基于序列到序列的方法首次借鑒了機器翻譯領域的相關技術來提高性能,而基于Transformer的方法很好地解決了之前自回歸方法因無法并行而效率低下的問題,以及模型上界不高的缺點。

    接下來我們將詳細描述這三種方法及其優(yōu)缺點。

    2.2.1 基于解碼器的方法

    如圖1(a)所示,基于解碼器的方法使用簡單的編碼方式(如One-hot向量)來表示輸入,不需要通過編碼器將輸入進一步變化。而是直接使用RNN構造的解碼器[31]來生成回復。此類方法通常分為語言生成模塊和重排序模塊。

    圖1 深度學習方法結構圖

    語言生成模塊的輸入為語義表示,輸出是多個可能的去詞化(delexicalisation)的語句。該模塊輸入MR表示的編碼,應用RNN及其衍生的神經(jīng)網(wǎng)絡結構,如LSTM、GRU[31-33]等,使用隨機生成或集束搜索的方式輸出多個可能的句子。而重排序模塊的任務是將生成的多個去詞化語句進行打分并排序,選出最好的語句并輸出語句。一般使用CNN或者Backward RNN進行重排序。

    Wen等人[34]首次將基于解碼器的方法應用到ToDNLG任務中,提出了Recurrent Generation Model,如圖2所示。Wen等人使用one-hot編碼分別將對話動作DA和slot type進行編碼,然后再將所有生成的one-hot向量拼接在一起,作為輸入的MRs表示。為了能讓模型在生成時能考慮到輸入的MR語義信息,他們對RNN cell進行了修改,使其能夠接受MR表示中的信息。在每個生成的時刻,生成的詞表示是基于去詞化后總詞表的one-hot向量,并使用一個門控向量來控制每個時刻接收多少MR信息。生成多個可能的句子后,使用CNN或者Backward RNN進行重排序。當使用CNN時,一般的做法是經(jīng)過卷積層、池化層和全連接層,生成表示候選句所含MR表示的multi-one-hot向量。這個multi-one-hot向量以模型輸入的MR表示作為參考進行評分。而Backward RNN的方法會將輸入的去詞化語句逆序輸入到RNN模塊,通過計算后向RNNLM的對數(shù)似然進行重排序。Wen等人[11]基于Recurrent Generation Model,進一步對LSTM cell進行了改進,提出了SC-LSTM模型。SC-LSTM cell引入了語義控制模塊。對于每個時刻輸入的語義信息,使用GloVe詞向量[35]編碼,然后根據(jù)當前輸入的單詞和上一時刻的隱層來得到門控值,通過門控的方式傳遞,更新當前的語義控制向量。而語義控制向量則會參與到LSTM cell的當前狀態(tài)計算中,從而達到語義信息控制的目的。

    該方法的優(yōu)缺點總結如下:

    優(yōu)點:開創(chuàng)了在ToDNLG使用神經(jīng)網(wǎng)絡方法的先河,同時使用了語言模型和神經(jīng)網(wǎng)絡方法,生成的語句具有多樣性,且減少了人工特征干預。

    缺點:使用語義控制的one-hot編碼含有的信息較少,設計較為簡單;生成語句的標準太簡單,搜索空間小,有時無法得到較好的結果。此外,模型無法應對二值化的或者無法去詞化的slot情況。

    2.2.2 基于序列到序列(Seq2Seq)的方法

    隨著Seq2Seq類的模型在機器翻譯等領域取得了較好的效果[36-38],近年來有一些工作開始探索Seq2Seq在任務型對話自然語言生成中的應用,如圖1(b)所示。

    該類方法在編碼器端,對于輸入的MR,DA使用one-hot向量表示,而對于每個槽值對,對它的槽位和槽值分開進行編碼操作,然后將它們的表示相加得到這個槽值對的表示。在解碼時,采用自回歸的方式,引入注意力機制,生成回復。

    Du?ek等人[39]探索了用Seq2Seq方法生成句子規(guī)劃樹和直接生成自然語言回復這兩種方式的優(yōu)劣性,如圖3所示。其工作首先對輸入的MR進行處理,對于每個槽值對,都將對話動作表示加入其中,形成DA-slot type-slot value三元組,然后將這些三元組拼接形成輸入序列。編碼器使用LSTM編碼,解碼器使用LSTM結構和注意力(attention)機制進行解碼,使用句子級別的注意力分數(shù)與每個詞的加權和,生成自然語言。實驗結果表明,使用Seq2Seq方法比直接生成自然語言回復的方式更好。Wen等人[40]參考內(nèi)容選取領域的研究,提出了適應于ToDNLG的一種基于注意力機制的Encoder-Decoder架構,取得了比基于解碼器的方法更好的效果。Du?ek等人[41]從他們的上一個模型出發(fā),引入了語言模型的信息。他們在保持模型總體框架不變的情況下,對輸入進行了改進,將用戶的話語拼接在輸入的MR三元組前面,作為前置的上文;且新增加了一個上文編碼器,單獨對用戶話語進行編碼。然后將兩個編碼器的結果進行拼接得到解碼器的輸入。Tran等人[42]對Wen等人[40]的工作的了進一步的修改,他們在Encoder與Decoder之間增加了一個聚合模塊Aggregator。Aggregator的目標是更好地利用語義信息對當前時刻輸入的詞進行處理。Agarwal等人[43]提出了Char2Char的生成模型,將MR轉(zhuǎn)為字母級別的輸入,從而免去了去詞化步驟,輸出時也采用了字母級別的生成。Juraska等人[44]提出了Slug2Slug模型,認為槽位與回復語句中片段的語義對齊十分重要,他們將這個對齊引入到數(shù)據(jù)預處理和重排序模塊中,在E2E數(shù)據(jù)集上取得了當時的最佳效果。

    圖3 Du?ek等人文中的模型結構圖及示例

    該方法的優(yōu)缺點總結如下:

    優(yōu)點:相較于Decoder-based模型,Seq2Seq模型通過注意力機制的encoder-decoder架構,能夠更好地編碼MR輸入,并且將輸入中包含的語義信息加入到解碼階段中,獲得了較好的效果。

    缺點:對于MR輸入,只將其視為一個序列進行編碼,而忽略了其中的結構化信息。Encoder-decoder采用的自回歸建模范式無法并行化處理,導致模型訓練的時間較長。

    2.2.3 基于Transformer的方法

    隨著Transformer結構的提出和發(fā)展,其在ToDNLG生成領域的各種變體也受到了廣泛關注,如圖1(c)所示。

    圖4 Chen等人文中的模型結構圖及示例

    Chen等人[45]提出了SC-HDSA,如圖4所示。之前關于MR的利用中,大部分工作忽略了MR之間的關系,將MR視為序列輸入。而Chen等人關注MR的結構信息,使用了一個圖式的結構來掌握語義信息,將MR分為領域—對話動作—槽位三層結構。在解碼時,聯(lián)合帶有多抽頭注意力的分層Transformer語言生成結構。標準的Transformer結構將不同的多抽頭輸出拼接成一個輸出向量。SC-HDSA模型則是在每一層根據(jù)輸入的分層MR結構,激活特定的多抽頭,從而更好地控制信息傳遞的方向,獲得了較好的效果。Peng等人[46]提出SC-GPT模型,將MR平鋪輸入到GPT預訓練模型中,使用序列到序列的方法直接獲得結果。Kale等人[47]認為預訓練模型在預訓練階段使用的語料和微調(diào)時語料中的MR結構化輸入有所區(qū)別,他們嘗試使用了基于模板的轉(zhuǎn)化方式。使用Text-to-Text Transfer Transformer(T5)構造的encoder-decoder模型進行訓練,獲得了比SC-GPT模型更好的效果。

    該方法的優(yōu)缺點總結如下:

    優(yōu)點:Transformer-based的模型可以通過預訓練機制提高模型建模語言的能力,跨時序的注意力機制能夠?qū)Y構化的MR輸入進行更好的處理,達到了目前最好的效果。

    缺點:基于Transformer-based的模型需要更多的數(shù)據(jù)進行訓練,并且基于預訓練Transformer-based的模型需要更多的計算資源。

    基于深度學習方法的ToDNLG實驗結果總結如表3所示。

    表3 基于深度學習方法的ToDNLG實驗結果總結

    3 前沿及挑戰(zhàn)

    3.1 跨領域ToDNLG

    由于深度學習和預訓練模型的發(fā)展,現(xiàn)有ToDNLG已經(jīng)取得了很好的性能。但現(xiàn)有的ToDNLG模型依賴于大量的標注數(shù)據(jù)進行訓練,限制了它們擴展領域的靈活性。且在真實應用場景中,為每個新領域收集豐富的標注數(shù)據(jù)集是不可取的。因此跨領域ToDNLG研究越來越受到關注。跨領域ToDNLG旨在利用多個源領域下的訓練語料來幫助學習一個或多個目標領域的自然語言生成。

    Wen等人[40]首次進行多領域ToDNLG的探索,他們提出首先將模型在合成的跨領域數(shù)據(jù)集上進行訓練,然后在領域內(nèi)數(shù)據(jù)集上進行微調(diào)的做法。這個方法在一定程度上能夠?qū)崿F(xiàn)多領域之間的知識遷移。Tran等人[48]提出了一個對抗式訓練方法,加入多個適應步驟,并構建了相似度評價標準產(chǎn)生域不變特征,幫助生成器從源域到目標域進行有效的學習。Tseng等人[49]利用條件變分自動編碼器架構,在生成過程中用句子層面的全局隱變量信息來改進基于解碼器的模型。當測試在遷移領域內(nèi)傳達所需信息的能力時,模型顯示出很好的效果。

    跨領域的ToDNLG主要面臨的挑戰(zhàn)如下:

    領域數(shù)量龐大: 在應用場景中,領域數(shù)量會迅速擴增,如何在巨大的領域之中遷移有利的領域知識,而避免有害的負遷移是一個值得探索的問題。

    Zero-shot跨領域遷移: 當目標領域沒有任何標注語料,如何建模源領域和目標領域的相關性進行有效的遷移是一個挑戰(zhàn)。

    3.2 可解釋ToDNLG

    如今,端到端神經(jīng)網(wǎng)絡已經(jīng)在ToDNLG中取得了很好的表現(xiàn)。然而,現(xiàn)有的模型都采用神經(jīng)網(wǎng)絡,往往被視為一個黑盒結構?;谏窠?jīng)網(wǎng)絡的ToDNLG模型無法對每個單詞的生成產(chǎn)生合理可信的解釋,不具備良好的可解釋性。

    為了解決這個問題,Li等人[50]提出了一個新的框架——異構渲染機(HRM)。HRM由一個渲染器集和一個模式切換器組成。在每一個生成步驟均顯式地判斷每個生成單詞的類型。通過這個過程,模型可以清楚地解釋每一個單詞的來源和生成過程。該工作邁出了可解釋性ToDNLG的第一步,非常具有啟發(fā)意義。

    可解釋性ToDNLG主要面臨的挑戰(zhàn)如下:

    性能損失: HRM盡管在一定程度上提高了模型的可解釋性,但是也降低了準確率,如何在提高可解釋性的同時又不降低模型的性能是一個有意義的課題。

    端到端訓練: 現(xiàn)有可解釋性模型為了顯式地解釋每一步生成,無法進行端到端的訓練。如何進行整體端到端的訓練是一個值得被探索的研究方向。

    3.3 多任務學習

    多任務學習指的是通過聯(lián)合學習多個相關的任務來提高各個任務的學習方法,已經(jīng)在自然語言處理領域取得了很好的效果。近些年來,在ToDNLG領域,也有一些研究人員利用多任務學習去學習其他任務的知識,并將其遷移到ToDNLG上來提高ToDNLG的性能。

    Zhu等人[51]提出NLG-LM架構,同時訓練ToDNLG和語言模型(LM),借助同時訓練語言模型來保證生成流暢的句子。Su等人[52]提出使用對偶監(jiān)督學習來同時建模NLU和ToDNLG任務,利用ToDNLG的對偶任務NLU的知識來提升NLG的性能。

    多任務學習ToDNLG主要面臨的挑戰(zhàn)如下:

    有效遷移:如何找到合適相關的其他任務來完成多任務學習,從而進行有效遷移,是一個挑戰(zhàn)。

    高效率:多任務學習往往通過犧牲時間效率來提高性能。如何利用多任務學習的優(yōu)勢,又保證單任務學習的時間效率值得被關注。

    3.4 低資源ToDNLG

    目前基于神經(jīng)網(wǎng)絡的ToDNLG模型都依賴于大量的標注數(shù)據(jù)進行訓練,但是在真實應用中,很難對每一個新的場景去標注充足的數(shù)據(jù)。因此,如何在少量訓練數(shù)據(jù)下進行ToDNLG模型的訓練,也能取得不錯的效果是目前的一個研究趨勢。

    Peng等人[46]提出SC-GPT,直接利用預訓練模型GPT來進行小樣本ToDNLG訓練。將MR展平為序列作為輸入來生成回復。該方法是對小樣本ToDNLG領域的首次探索。Xu等人[53]認為,盡管SC-GPT模型在小樣本ToDNLG上的應用取得了一定的效果,但模型沒有進一步提升效果的能力。因此想嘗試使用數(shù)據(jù)增廣的方式來提高小樣本ToDNLG的效果。將自訓練的神經(jīng)檢索模型與小樣本NLU結合,能夠自動地從開放域的文本中自動創(chuàng)建ToDNLG的數(shù)據(jù)。該方法與前人的方法是正交的,可以將這些新數(shù)據(jù)與前人方法結合來獲得更好的效果。

    低資源ToDNLG主要面臨的挑戰(zhàn)如下:

    結構融入:低資源場景下,如何有效融入ToDNLG的結構信息來提高性能,目前還沒有得到足夠的關注。

    泛化性:低資源場景下,如何使訓練的ToDNLG模型具有良好的泛化性是一個值得關注的課題。

    3.5 復雜ToDNLG

    目前的ToDNLG模型均只能考慮較為簡單的場景: 即輸入單個MR,也就是包含一個對話動作和與其對應的槽值對來進行對話系統(tǒng)回復的生成。但是現(xiàn)實場景較為復雜,在生成回復時,往往可能需要考慮多個MR輸入,也就是多個對話動作和對應的槽值對,這樣能夠滿足一些真實復雜場景的需求。近些年來,也有一些研究人員在該復雜ToDNLG方向進行了探索。

    Balakrishnan等人[54]首次考慮了多個MR輸入ToDNLG,提出了一個新的數(shù)據(jù)集,對多個MR進行處理,包括定義這些MR之間的關系,如約束關系、并列關系等。這篇文章是復雜ToDNLG方向的首個探索,具有推動該領域發(fā)展的意義。

    復雜ToDNLG主要面臨的挑戰(zhàn)如下:

    復雜建模:如何有效地建模多個MR之間的關系是一個待解決的挑戰(zhàn)。

    4 總結

    本文完成了任務型對話系統(tǒng)中的自然語言生成模塊(ToDNLG)全面調(diào)研?;趯ψ罱ぷ鞯南到y(tǒng)分析,本文首先對近10年的ToDNLG方法進行了總結歸納。此外,考慮到最近ToDNLG系統(tǒng)的局限性,本文分析并討論了該研究領域的發(fā)展趨勢。最后,本文提供一個開源網(wǎng)站,包括ToDNLG數(shù)據(jù)集、論文、基線項目,希望該網(wǎng)站能夠促進ToDNLG社區(qū)的發(fā)展。

    猜你喜歡
    單詞模板領域
    鋁模板在高層建筑施工中的應用
    鋁模板在高層建筑施工中的應用
    單詞連一連
    領域·對峙
    青年生活(2019年23期)2019-09-10 12:55:43
    看圖填單詞
    看完這些單詞的翻譯,整個人都不好了
    鋁模板在高層建筑施工中的應用
    城市綜改 可推廣的模板較少
    新常態(tài)下推動多層次多領域依法治理初探
    肯定與質(zhì)疑:“慕課”在基礎教育領域的應用
    亚洲国产色片| 欧美另类一区| 欧美国产精品va在线观看不卡| 最近中文字幕高清免费大全6| 我的女老师完整版在线观看| 777米奇影视久久| 中文精品一卡2卡3卡4更新| 男女边吃奶边做爰视频| 9色porny在线观看| 久久国产亚洲av麻豆专区| 99九九在线精品视频| 男人爽女人下面视频在线观看| 老司机影院成人| 免费黄色在线免费观看| 丝袜在线中文字幕| 一级爰片在线观看| 亚洲精品一二三| 波野结衣二区三区在线| 男女免费视频国产| 777米奇影视久久| 一本大道久久a久久精品| 久久精品国产a三级三级三级| 国产在线免费精品| 久久久久久伊人网av| 卡戴珊不雅视频在线播放| a级毛色黄片| a级毛片黄视频| 成人午夜精彩视频在线观看| 黑人巨大精品欧美一区二区蜜桃 | 久久人妻熟女aⅴ| 最近中文字幕2019免费版| 99国产综合亚洲精品| 久久99一区二区三区| 18+在线观看网站| 高清视频免费观看一区二区| 波野结衣二区三区在线| 国产永久视频网站| 精品国产乱码久久久久久小说| xxx大片免费视频| 久久影院123| 久久午夜福利片| 午夜激情av网站| 晚上一个人看的免费电影| 久久久久久久亚洲中文字幕| 熟女av电影| 美女脱内裤让男人舔精品视频| 久久久久久久久久久久大奶| 18在线观看网站| 午夜久久久在线观看| 国产精品久久久久成人av| 乱码一卡2卡4卡精品| 99精国产麻豆久久婷婷| 最近最新中文字幕免费大全7| av国产久精品久网站免费入址| 自线自在国产av| 看十八女毛片水多多多| 最近最新中文字幕免费大全7| 性色avwww在线观看| 高清在线视频一区二区三区| 满18在线观看网站| 又粗又硬又长又爽又黄的视频| 国产精品嫩草影院av在线观看| 日本欧美视频一区| 最新的欧美精品一区二区| 国产视频首页在线观看| 欧美3d第一页| www.av在线官网国产| 99香蕉大伊视频| 啦啦啦中文免费视频观看日本| 如何舔出高潮| 熟女电影av网| 免费av中文字幕在线| 国产精品99久久99久久久不卡 | 99久久人妻综合| 成人亚洲精品一区在线观看| 亚洲美女视频黄频| 精品国产国语对白av| 高清在线视频一区二区三区| 男女下面插进去视频免费观看 | 亚洲,欧美,日韩| 欧美日韩视频精品一区| 亚洲色图综合在线观看| 精品亚洲成a人片在线观看| 肉色欧美久久久久久久蜜桃| 国产精品三级大全| 在线观看www视频免费| 亚洲,欧美,日韩| 一区在线观看完整版| 亚洲欧美日韩卡通动漫| 黑人巨大精品欧美一区二区蜜桃 | 日韩成人av中文字幕在线观看| 国产 精品1| 男人爽女人下面视频在线观看| 日韩欧美精品免费久久| 色视频在线一区二区三区| 国产片内射在线| 国产片内射在线| 欧美日韩国产mv在线观看视频| 在线观看www视频免费| 精品一区二区三卡| 国产在线免费精品| 这个男人来自地球电影免费观看 | 91精品三级在线观看| 如日韩欧美国产精品一区二区三区| 日本午夜av视频| 97在线视频观看| 午夜福利影视在线免费观看| 亚洲国产欧美日韩在线播放| 国产一区有黄有色的免费视频| 国产女主播在线喷水免费视频网站| 国国产精品蜜臀av免费| 韩国高清视频一区二区三区| 99视频精品全部免费 在线| 亚洲国产欧美在线一区| 99热6这里只有精品| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 久久 成人 亚洲| 亚洲美女搞黄在线观看| 欧美精品人与动牲交sv欧美| 欧美性感艳星| 国产在线一区二区三区精| 狠狠婷婷综合久久久久久88av| 午夜激情久久久久久久| 热re99久久精品国产66热6| 捣出白浆h1v1| 爱豆传媒免费全集在线观看| 99热全是精品| 欧美最新免费一区二区三区| 欧美少妇被猛烈插入视频| a级毛色黄片| 国产成人精品福利久久| 色哟哟·www| 黄网站色视频无遮挡免费观看| 精品人妻熟女毛片av久久网站| 一区二区av电影网| 亚洲av免费高清在线观看| 日韩欧美一区视频在线观看| 国产一区二区在线观看日韩| 色婷婷久久久亚洲欧美| 亚洲精品美女久久av网站| 精品久久久久久电影网| 在现免费观看毛片| 国产在线视频一区二区| 少妇的逼好多水| 国产精品一二三区在线看| 国产在线免费精品| 亚洲综合色网址| 久久精品久久精品一区二区三区| 狠狠精品人妻久久久久久综合| 人人妻人人澡人人爽人人夜夜| 久久久久视频综合| 中文乱码字字幕精品一区二区三区| 免费黄网站久久成人精品| 亚洲成色77777| 国产精品国产三级专区第一集| 国产日韩一区二区三区精品不卡| 国产深夜福利视频在线观看| 日韩人妻精品一区2区三区| 久久影院123| 内地一区二区视频在线| 制服丝袜香蕉在线| 久久青草综合色| 涩涩av久久男人的天堂| 美女大奶头黄色视频| 久久综合国产亚洲精品| 极品少妇高潮喷水抽搐| 亚洲精品,欧美精品| 少妇猛男粗大的猛烈进出视频| 久久久国产欧美日韩av| 香蕉国产在线看| 18禁在线无遮挡免费观看视频| 日韩视频在线欧美| 美女主播在线视频| 国产精品久久久久久精品电影小说| 欧美老熟妇乱子伦牲交| 成人国产av品久久久| 欧美少妇被猛烈插入视频| 国产一级毛片在线| 全区人妻精品视频| av国产精品久久久久影院| 国产高清三级在线| 日韩伦理黄色片| 国产亚洲精品久久久com| 18禁国产床啪视频网站| 五月玫瑰六月丁香| 中文字幕亚洲精品专区| 日韩av不卡免费在线播放| 免费观看无遮挡的男女| 少妇被粗大的猛进出69影院 | 99热6这里只有精品| 成人免费观看视频高清| 夫妻午夜视频| 内地一区二区视频在线| 美女大奶头黄色视频| 国产av国产精品国产| 国产一区有黄有色的免费视频| 欧美日韩成人在线一区二区| 国内精品宾馆在线| 亚洲,欧美精品.| 久久这里只有精品19| 亚洲欧美中文字幕日韩二区| 人人妻人人澡人人爽人人夜夜| 男女边吃奶边做爰视频| 在线观看人妻少妇| 99热国产这里只有精品6| 中文乱码字字幕精品一区二区三区| 欧美激情国产日韩精品一区| 午夜久久久在线观看| 国产欧美日韩一区二区三区在线| 午夜福利在线观看免费完整高清在| 久久热在线av| 亚洲三级黄色毛片| 亚洲熟女精品中文字幕| 最近的中文字幕免费完整| 成人免费观看视频高清| 男女边吃奶边做爰视频| av在线老鸭窝| 少妇人妻 视频| 国产精品99久久99久久久不卡 | 国产毛片在线视频| 国产亚洲欧美精品永久| 精品亚洲成a人片在线观看| 蜜臀久久99精品久久宅男| 欧美日韩国产mv在线观看视频| 蜜桃在线观看..| 亚洲国产精品专区欧美| 日韩一区二区三区影片| 高清黄色对白视频在线免费看| xxxhd国产人妻xxx| 国产精品人妻久久久久久| 日日撸夜夜添| 成年av动漫网址| 男的添女的下面高潮视频| 国产免费视频播放在线视频| 免费在线观看完整版高清| 亚洲一级一片aⅴ在线观看| 国产无遮挡羞羞视频在线观看| 国产成人精品久久久久久| 天美传媒精品一区二区| 国产亚洲av片在线观看秒播厂| 狠狠婷婷综合久久久久久88av| 大香蕉久久成人网| 日日撸夜夜添| 校园人妻丝袜中文字幕| 亚洲精品第二区| 久久亚洲国产成人精品v| av播播在线观看一区| 亚洲精品第二区| 亚洲人成网站在线观看播放| 久久99精品国语久久久| 两个人看的免费小视频| 999精品在线视频| 国产白丝娇喘喷水9色精品| 精品国产一区二区久久| 精品久久久精品久久久| 国产又爽黄色视频| 中文天堂在线官网| 成人18禁高潮啪啪吃奶动态图| 成人二区视频| 午夜免费男女啪啪视频观看| 日韩av不卡免费在线播放| 久久人人爽av亚洲精品天堂| 国产成人aa在线观看| 免费在线观看黄色视频的| 在线观看免费高清a一片| 欧美丝袜亚洲另类| 90打野战视频偷拍视频| 婷婷色综合大香蕉| 亚洲婷婷狠狠爱综合网| 亚洲美女搞黄在线观看| 一级毛片黄色毛片免费观看视频| 视频区图区小说| 狂野欧美激情性xxxx在线观看| 黄网站色视频无遮挡免费观看| 不卡视频在线观看欧美| 日韩中字成人| 咕卡用的链子| 两个人免费观看高清视频| 国产黄频视频在线观看| 人人妻人人添人人爽欧美一区卜| 欧美日韩亚洲高清精品| 国产探花极品一区二区| 久久99一区二区三区| av一本久久久久| 黄色 视频免费看| 欧美最新免费一区二区三区| 国产男人的电影天堂91| 国产日韩欧美视频二区| 看免费成人av毛片| 亚洲情色 制服丝袜| 精品一品国产午夜福利视频| 亚洲综合色网址| 国产乱人偷精品视频| 日韩中字成人| 国产精品蜜桃在线观看| 男人操女人黄网站| 国产69精品久久久久777片| 精品人妻偷拍中文字幕| 久久久久网色| 国产有黄有色有爽视频| av电影中文网址| 伦理电影大哥的女人| 在线观看美女被高潮喷水网站| 亚洲精品久久成人aⅴ小说| 亚洲一级一片aⅴ在线观看| 亚洲美女搞黄在线观看| 免费观看a级毛片全部| 一边摸一边做爽爽视频免费| 18在线观看网站| 国产精品一区www在线观看| 免费女性裸体啪啪无遮挡网站| 卡戴珊不雅视频在线播放| 在线精品无人区一区二区三| 观看美女的网站| 久久久精品免费免费高清| 国产一区亚洲一区在线观看| 亚洲国产毛片av蜜桃av| 国产欧美另类精品又又久久亚洲欧美| 欧美精品高潮呻吟av久久| 国产成人91sexporn| 18禁观看日本| 最新中文字幕久久久久| 精品99又大又爽又粗少妇毛片| 日本av免费视频播放| 亚洲欧美一区二区三区国产| 一级片免费观看大全| 女性被躁到高潮视频| 美女脱内裤让男人舔精品视频| 久久韩国三级中文字幕| 波野结衣二区三区在线| 美女内射精品一级片tv| 波野结衣二区三区在线| 亚洲国产最新在线播放| 亚洲成人av在线免费| 男男h啪啪无遮挡| 免费大片黄手机在线观看| 欧美性感艳星| 亚洲精品美女久久久久99蜜臀 | 考比视频在线观看| 欧美国产精品一级二级三级| 国产又色又爽无遮挡免| 欧美精品av麻豆av| 色5月婷婷丁香| 欧美精品av麻豆av| 欧美激情 高清一区二区三区| 国产片内射在线| 人妻 亚洲 视频| 色哟哟·www| 久久婷婷青草| 国产精品免费大片| 另类亚洲欧美激情| 久久影院123| 国产精品不卡视频一区二区| 国产综合精华液| 久久青草综合色| 国产精品偷伦视频观看了| 男女高潮啪啪啪动态图| 天堂俺去俺来也www色官网| 国产在线视频一区二区| 亚洲美女视频黄频| 亚洲欧美清纯卡通| 深夜精品福利| 五月玫瑰六月丁香| 天天躁夜夜躁狠狠久久av| 亚洲综合色惰| 99久久精品国产国产毛片| 午夜视频国产福利| 两性夫妻黄色片 | 免费观看性生交大片5| 丁香六月天网| 亚洲美女黄色视频免费看| 一级毛片我不卡| 久久av网站| 大码成人一级视频| 久久久久久久大尺度免费视频| 22中文网久久字幕| 美国免费a级毛片| 亚洲久久久国产精品| 亚洲综合色网址| 亚洲图色成人| 一区二区三区精品91| av不卡在线播放| 九草在线视频观看| 精品一区在线观看国产| 97在线人人人人妻| 午夜av观看不卡| 黄色视频在线播放观看不卡| 国产av码专区亚洲av| 免费大片18禁| 十八禁网站网址无遮挡| 午夜福利视频精品| 国产av精品麻豆| 最后的刺客免费高清国语| 你懂的网址亚洲精品在线观看| 亚洲欧美清纯卡通| 男的添女的下面高潮视频| 最近2019中文字幕mv第一页| 成人手机av| 女的被弄到高潮叫床怎么办| 少妇人妻久久综合中文| 国产xxxxx性猛交| 日本猛色少妇xxxxx猛交久久| 午夜视频国产福利| 午夜免费鲁丝| 国产白丝娇喘喷水9色精品| 精品久久久精品久久久| 国产免费一级a男人的天堂| 丝袜脚勾引网站| 亚洲精品自拍成人| 亚洲av综合色区一区| 香蕉国产在线看| 午夜精品国产一区二区电影| av片东京热男人的天堂| 亚洲第一av免费看| 久久久精品94久久精品| 国产探花极品一区二区| 9191精品国产免费久久| 成人毛片60女人毛片免费| 最近2019中文字幕mv第一页| 欧美日韩视频精品一区| 亚洲精品一区蜜桃| 啦啦啦在线观看免费高清www| 精品人妻在线不人妻| 久久久国产一区二区| 91成人精品电影| 韩国高清视频一区二区三区| 亚洲精品美女久久av网站| 桃花免费在线播放| 人妻少妇偷人精品九色| 黑丝袜美女国产一区| 9色porny在线观看| 午夜影院在线不卡| 黑人高潮一二区| 国产亚洲av片在线观看秒播厂| 亚洲国产av影院在线观看| 国产深夜福利视频在线观看| 国产 一区精品| 女性被躁到高潮视频| 免费av不卡在线播放| 国产日韩一区二区三区精品不卡| 日韩视频在线欧美| 久久久久久伊人网av| 丝袜在线中文字幕| 亚洲一区二区三区欧美精品| 久久久久网色| 免费女性裸体啪啪无遮挡网站| 毛片一级片免费看久久久久| 在线精品无人区一区二区三| 丰满乱子伦码专区| 国产免费又黄又爽又色| 十分钟在线观看高清视频www| 久久人人97超碰香蕉20202| 波多野结衣一区麻豆| 国产日韩欧美视频二区| 精品人妻偷拍中文字幕| 免费日韩欧美在线观看| 最近中文字幕2019免费版| 人妻人人澡人人爽人人| 亚洲一区二区三区欧美精品| 成人亚洲精品一区在线观看| 精品少妇久久久久久888优播| 成人免费观看视频高清| 久久久久网色| 如日韩欧美国产精品一区二区三区| 日韩制服丝袜自拍偷拍| 国产男女内射视频| 伦精品一区二区三区| 99久久综合免费| 亚洲欧美精品自产自拍| 欧美成人午夜精品| 亚洲欧美成人综合另类久久久| 一个人免费看片子| 久久影院123| 久久久国产精品麻豆| 亚洲av免费高清在线观看| 国产极品天堂在线| 韩国精品一区二区三区 | 熟妇人妻不卡中文字幕| 久久久国产一区二区| 深夜精品福利| 美国免费a级毛片| 久久免费观看电影| 飞空精品影院首页| 国产男人的电影天堂91| 亚洲成av片中文字幕在线观看 | 97精品久久久久久久久久精品| 制服诱惑二区| 欧美精品高潮呻吟av久久| 久久ye,这里只有精品| 国产一区二区激情短视频 | 国产淫语在线视频| 久久99热这里只频精品6学生| 九九在线视频观看精品| 亚洲精品成人av观看孕妇| 免费播放大片免费观看视频在线观看| 日韩电影二区| 国精品久久久久久国模美| 午夜福利在线观看免费完整高清在| 日韩一区二区三区影片| 亚洲综合色惰| 18禁国产床啪视频网站| 久久精品国产综合久久久 | 熟妇人妻不卡中文字幕| 有码 亚洲区| 黄色配什么色好看| av不卡在线播放| av播播在线观看一区| 极品少妇高潮喷水抽搐| 久久久久人妻精品一区果冻| 最近中文字幕2019免费版| 在线免费观看不下载黄p国产| 人人妻人人澡人人看| 久久婷婷青草| 91精品国产国语对白视频| 欧美精品一区二区大全| 狠狠精品人妻久久久久久综合| 啦啦啦在线观看免费高清www| 99国产精品免费福利视频| 国语对白做爰xxxⅹ性视频网站| 1024视频免费在线观看| 亚洲av在线观看美女高潮| 男女高潮啪啪啪动态图| 免费高清在线观看日韩| 一边摸一边做爽爽视频免费| 亚洲av男天堂| 色5月婷婷丁香| 最近手机中文字幕大全| 两性夫妻黄色片 | 精品国产一区二区久久| 久久毛片免费看一区二区三区| 亚洲成人手机| 1024视频免费在线观看| 亚洲少妇的诱惑av| 国产日韩一区二区三区精品不卡| 香蕉丝袜av| 欧美丝袜亚洲另类| 五月玫瑰六月丁香| 久久久久国产网址| 97人妻天天添夜夜摸| 看非洲黑人一级黄片| 午夜福利乱码中文字幕| 美女福利国产在线| 久久久久久久久久久久大奶| 欧美成人午夜免费资源| 国产视频首页在线观看| 熟女电影av网| 欧美亚洲日本最大视频资源| 亚洲综合色网址| 欧美激情极品国产一区二区三区 | 国产一区二区在线观看日韩| 在线观看免费视频网站a站| 午夜福利视频精品| 亚洲精品日韩在线中文字幕| 丁香六月天网| 精品少妇久久久久久888优播| 国产免费一级a男人的天堂| 三上悠亚av全集在线观看| 国国产精品蜜臀av免费| 色网站视频免费| 三级国产精品片| 七月丁香在线播放| 亚洲在久久综合| 国产精品久久久久久精品电影小说| 免费播放大片免费观看视频在线观看| 国产午夜精品一二区理论片| 午夜老司机福利剧场| 91aial.com中文字幕在线观看| 欧美精品高潮呻吟av久久| 91在线精品国自产拍蜜月| 22中文网久久字幕| 极品少妇高潮喷水抽搐| 午夜免费鲁丝| 母亲3免费完整高清在线观看 | 久久毛片免费看一区二区三区| 一级毛片我不卡| 欧美日韩视频精品一区| 久久婷婷青草| 成人无遮挡网站| av在线观看视频网站免费| 国产成人精品一,二区| 一区二区三区四区激情视频| 精品人妻偷拍中文字幕| 国产亚洲精品第一综合不卡 | 全区人妻精品视频| 亚洲国产欧美日韩在线播放| 欧美另类一区| 中文字幕另类日韩欧美亚洲嫩草| 亚洲国产欧美日韩在线播放| 黑人猛操日本美女一级片| 全区人妻精品视频| 久久久久久人人人人人| 国产视频首页在线观看| 成年美女黄网站色视频大全免费| 国产欧美日韩一区二区三区在线| 国产视频首页在线观看| 亚洲欧美一区二区三区黑人 | 国产av精品麻豆| 亚洲精品456在线播放app| 国产精品三级大全| 国产熟女欧美一区二区| 国产精品蜜桃在线观看| 中文字幕最新亚洲高清| 日本-黄色视频高清免费观看| 男人舔女人的私密视频| 成人影院久久| 最近最新中文字幕大全免费视频 | 亚洲精品国产色婷婷电影| av.在线天堂| 熟妇人妻不卡中文字幕| 亚洲情色 制服丝袜| 男的添女的下面高潮视频| 国产亚洲av片在线观看秒播厂| 高清不卡的av网站| 亚洲精品,欧美精品| h视频一区二区三区|