• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于技能網(wǎng)絡的通用自然語言生成模型

    2024-05-09 02:56:58廖俊偉
    中文信息學報 2024年3期
    關鍵詞:技能實驗模型

    廖俊偉,程 帥

    (電子科技大學 計算機科學與工程學院,四川 成都 611731)

    0 引言

    Transformer模型[1]誕生后,其靈活性促進了一系列多任務模型的發(fā)展[2-4]。多任務模型是指僅使用一個模型來處理多個不同任務。這些模型一般都是典型的“稠密”(Dense)模型——當執(zhí)行任何一個任務的時候,模型的參數(shù)被全部激活。但對于這種不同任務共享所有參數(shù)的模型,并不清楚模型中的每一部分參數(shù)分別學到了什么知識或者能力。這帶來了兩個問題: 一方面,盡管處理不同自然語言任務需要不同的技能[5],稠密模型的這個特性使我們無法根據(jù)不同任務顯式地選擇激活不同的技能;另一方面,當使用訓練好的稠密模型來執(zhí)行新的任務時,不管模型中包含的技能是否與新的任務相關,這些技能都會用于新任務的學習,從而導致不相關的技能影響模型學習新的任務。

    為解決上述問題,本文提出了一種基于技能網(wǎng)絡的通用自然語言生成模型(SkillNet-NLG)。模型的基本思想是其網(wǎng)絡結構中包含了多個技能模塊,其中每一個模塊代表一種獨特的技能。這些技能的定義如表1所示。

    表1 SkillNet-NLG的技能及其定義

    與傳統(tǒng)的稠密模型在執(zhí)行某一任務時激活所有的參數(shù)不同,SkillNet-NLG僅激活與特定任務相關的技能模塊。如圖1所示,為了執(zhí)行對話生成任務,SkillNet-NLG需要的能力包括生成開放式文本的能力(Sopen-end),理解對話的上下文的能力(Sconversation)以及理解基于自然語言的問題的能力(Squestion)。因此,對應于Sopen-end,Sconversation,Squestion和Sgeneral(1)Sgeneral定義為一種通用技能,該技能是完成任何一個任務所需要的缺省能力,默認總是處于激活狀態(tài)。四種能力的技能模塊被激活。

    圖1 SkillNet-NLG模型示意圖

    本文提出的SkillNet-NLG是基于Transformer[1]架構實現(xiàn)。Transformer是一種編碼器-解碼器(Encoder-Decoder)模型,其編碼器和解碼器分別包含多個結構相同的Transformer層,而每個Transformer層又是由多頭注意力網(wǎng)絡(Multi-Head Attention Network)和前饋網(wǎng)絡(Feed-Forward Neural Network,FFN)構成。具體來說,SkillNet-NLG針對Transformer結構的改動如下: 對于編碼器與解碼器中的Transformer層,每間隔一層將其中的FFN替換為多個結構相同的FFN。每一個FFN對應于一種技能。當模型處理某個任務時,只有與執(zhí)行該任務所需的技能相關的FFN被激活。

    本文在多個中文自然語言生成任務上進行了大量的實驗,驗證SkillNet-NLG的效果(2)本文提出的方法與具體的語言無關。在后續(xù)研究中將嘗試將SkillNet-NLG用于其他語言的生成任務。。在多任務訓練階段,使用了五種自然語言生成任務,包括文本摘要生成、廣告生成、問答、對話生成以及語法糾錯。經(jīng)過多任務訓練后的SkillNet-NLG,在五種任務中的其中四種任務上,超過了之前工作中針對特定任務單獨訓練的表現(xiàn)最好的模型的性能。同時,SkillNet-NLG的性能也優(yōu)于另外兩種常用的多任務模型,即稠密模型和混合專家模型(Mixture-of-Expert,MoE)。此外,本文還將經(jīng)過多任務訓練的 SkillNet-NLG通過微調(diào)應用于與多任務訓練階段不同的其他文本生成任務,包括主題到文章的生成、復述生成和故事生成。實驗結果表明,SkillNet-NLG的表現(xiàn)優(yōu)于前述的所有基線模型。

    1 相關工作

    SkillNet-NLG是一種通用的自然語言生成模型,即使用一個模型執(zhí)行多種自然語言生成任務。其在模型訓練階段采取了多任務的訓練方法,因此與傳統(tǒng)的多任務模型有相似之處。從模型結構上來看,SkillNet-NLG的主要特征是引入了技能模塊,在執(zhí)行某一任務時,根據(jù)預先定義的任務技能,選擇部分技能模塊激活,因此是一種稀疏激活的模型。

    1.1 多任務模型

    傳統(tǒng)的多任務模型[2-4]通常包括一個所有任務共享的特征表示層(Feature Representation Layer)和多個針對特定任務的預測層(Task-Specific Prediction Layers)。在多任務訓練階段,共享的特征表示層從數(shù)據(jù)中學習到通用的特征表示,而預測層則學習到與任務相關的特征表示,但是并不清楚在特征表示層學習到了什么知識或者技能。與之不同,SkillNet-NLG包含清晰定義的技能模塊,這些技能模塊根據(jù)任務需要被選擇性地激活。直觀地說,SkillNet-NLG不是學習如何針對某個特定任務進行優(yōu)化,而是學習如何對每個特定技能模塊進行優(yōu)化,以及如何組合多個技能模塊來完成某項任務。因此,SkillNet-NLG可以更好地泛化到模型在訓練階段從未見過的新任務上。

    1.2 稀疏激活模型

    另外一類典型的稀疏激活模型是混合專家模型(Mixture-of-Expert,MoE)[6-9]?;旌蠈<夷P桶鄠€并列的專家模塊(Expert Modules),這些專家模塊通常具有相同的網(wǎng)絡結構?;旌蠈<夷P屯ㄟ^一個參數(shù)化的門控模塊(Gating Module)來控制激活部分或者全部的專家模塊。但是并不清楚每個專家模塊學到了什么類型的知識,同時也無法解釋為什么選擇激活某些專家模塊而不激活另外一些專家模塊。與之不同,SkillNet-NLG具有定義清晰的技能模塊,具體激活哪些技能模塊則是根據(jù)任務的需要,由人工進行判斷。

    2 模型與方法

    本節(jié)首先介紹了作為SkillNet-NLG基礎的Transformer結構(2.1節(jié));其次,對SkillNet-NLG模型的實現(xiàn)思路和細節(jié)進行描述(2.2節(jié));最后介紹了如何對任務分解相關技能(2.3節(jié)),以及如何對SkillNet-NLG進行多任務訓練(2.4節(jié))。

    2.1 背景介紹

    SkillNet-NLG是基于Transformer的一種改進模型。下面簡單介紹一下Transformer的結構。

    Transformer是一種具有多層結構的編碼器-解碼器模型。在編碼器端,如圖2(a)所示,Transformer的每一層由一個多頭自注意力網(wǎng)絡(Multi-head Self-attention Network, Attention)和一個前饋網(wǎng)絡(Feed-Forward Network,FFN)組成。對于給定的Transformer某一層輸入特征hin=(h1,h2,…,hn),該層的輸出計算如式(1)所示。

    圖2 Transformer與SkillNet-NLG的層結構對比

    hout=FNN(Attention(hin))

    (1)

    在多頭注意力機制中,輸入特征通過不同的權值矩陣被線性映射到不同的信息子空間,并在每個子空間完成相同的注意力計算,以對文本潛在的結構和語義進行充分學習。其中第i個頭的注意力headi計算過程如式(2)~式(4)所示。

    Attention(hin)=Concat(head1,…,headN)WO

    (5)

    其中,N是注意力頭個數(shù),WO是參數(shù)矩陣。

    前饋網(wǎng)絡FFN對多頭注意力輸出進行兩次線性變換,并在兩次變換之間使用了ReLU激活函數(shù),如式(6)所示。

    FFN(x)=Max(0,xW1+b1)W2+b2

    (6)

    其中,x表示FFN的輸入,即多頭注意力的輸出;W1、b1、W2、b2是學習參數(shù)。

    Transformer解碼器的每層結構與編碼器類似,不同之處在于解碼器的每層中額外增加了一個多頭注意力網(wǎng)絡。這個增加的多頭注意力網(wǎng)絡在解碼器的輸入和編碼器的輸出之間進行多頭注意力的計算操作。

    2.2 SkillNet-NLG

    SkillNet-NLG的基本設計思想是模型包含多個技能模塊,當模型執(zhí)行某一個任務時,僅激活完成任務所需的技能對應的技能模塊。SkillNet-NLG對Transformer結構上的改動如圖2(b)所示(3)圖中以Transformer的編碼器層為例進行說明,解碼器層與之類似。。SkillNet-NLG將Transformer層中的單個FFN替換為多個相同結構的FFN,每個FFN都對應于一種技能。當模型處理某個任務時,僅激活該任務所需技能對應的FFN。例如,對于對話生成任務需要的四種技能(Sopen-end,Sconversation,Squestion和Sgeneral),模型僅激活這四種技能對應的FFN,而其余的兩個技能(Snon-open-end和Sdata-to-text)對應的FFN并沒有被激活。對于某個特定技能k的FFNk,其功能與原始的FFN類似,生成該技能的特征表示如式(7)所示。

    hk=FFNk(Attention(hin))

    (7)

    由于激活的技能子模塊隨任務不同而變化,為了計算SkillNet-NLG的每層輸出的特征表示,對所有激活技能的特征表示進行平均池化操作如式(8)所示。

    (8)

    其中,S代表激活的技能集合。例如,對于圖1所示的對話生成任務,S={Sopen-end, Sconversation, Squestion, Sgeneral}。為避免增加過多的模型參數(shù),參考Lepikhin等人[7]的做法,上述對Transformer層的改動不是針對所有的Transformer層進行,而是選擇每間隔一層進行。

    2.3 任務分解

    SkillNet-NLG的基本設計思想是模型包含多個技能模塊,當模型執(zhí)行某一個任務時,僅激活完成任務所需的技能對應的技能模塊。因此在模型執(zhí)行任務之前,需要分析完成任務需要哪些技能。

    從“輸入-輸出”信息變換的角度,自然語言生成可分為開放式語言生成(Open-end Language Generation)和非開放式語言生成(Non-open-end Language Generation)[10]。在非開放式語言生成任務中,輸入信息在語義上提供了完備甚至更多的信息,模型需要將這些信息用語言文字表述出來。例如在文本摘要任務中,輸入給出了比輸出語義空間中更多的信息,模型需要通過信息過濾來選擇合適的信息表達在輸出文本中。因此,模型為完成文本摘要任務,需要非開放式語言生成能力(Snon-open-end)。對應的,開放式語言生成是指輸入信息不完備、不足以引導模型得到完整輸出語義的任務。例如,問答是典型的開放式語言生成任務,模型根據(jù)提問生成回答。這個場景下輸入信息有限,模型需要利用其他信息(如外部知識庫)或者生成輸入中未指定或未約束的部分內(nèi)容。這類任務普遍具有“一到多”的特點,即同一個輸入存在多種語義顯著不同的輸出文本,因此針對這類任務需要模型具備開放式語言生成能力(Sopen-end)。此外,問答任務需要在理解提問的基礎上生成適當?shù)幕卮?因此模型還需要具備理解自然語言問題的能力(Squestion)。

    將多任務訓練的SkillNet-NLG用于新任務的時候,雖然模型在訓練階段沒有見過該任務,但是可以通過組合新任務所需要的技能,使模型能夠快速將多任務階段學習到的知識遷移到新任務的學習上。以主題到文章生成任務為例,該任務是根據(jù)輸入的一組與主題相關的關鍵詞生成一篇圍繞主題的文章。根據(jù)任務定義,該任務需要開放式的語言生成能力(Sopen-end)。此外,由于給定的輸入是一組關鍵詞,模型還需要具備從結構化數(shù)據(jù)生成文本的能力(Sdata-to-text)。

    采用與上述類似的分析,本文對常見的自然語言生成任務定義了所需的技能(表2)。表中各個任務的介紹參見第3.1節(jié)。

    表2 常見自然語言生成任務的技能定義

    2.4 模型訓練

    對SkillNet-NLG進行多任務訓練是通過混合所有任務的訓練數(shù)據(jù)進行的。在模型訓練過程中的每一步,首先從參與訓練的多個任務中選擇一個任務的一個小批量數(shù)據(jù)(Mini-batch),然后在輸入數(shù)據(jù)中添加代表該任務的特殊前綴。模型計算生成的文本與參考文本之間的交叉熵損失(Cross-Entropy Loss),并進行后向傳播(Back Propagation)更新模型參數(shù)。由于各個任務的訓練數(shù)據(jù)存在數(shù)量不均衡的情況,參考Raffel等人[3]的方法,本文采用了基于溫度調(diào)節(jié)(Temperature-Scaled)的數(shù)據(jù)采樣混合策略。具體來說,根據(jù)概率{p1,…,pN}從N個任務中隨機選擇一個任務并采樣該任務一個小批量數(shù)據(jù)。其中,概率pi計算如式(9)所示。

    (9)

    其中,ni表示第i個任務的訓練數(shù)據(jù)數(shù)量;K表示人為設置的數(shù)據(jù)大小上限,以避免某個任務的數(shù)據(jù)量過大從而導致采樣比率過高;T表示采樣溫度。當T= 1時,上述分布等于原始的數(shù)據(jù)分布;當T較大(如T=1 024)時,此時的分布接近于均勻分布。關于選擇不同T對模型訓練的影響請參見第3.6節(jié)中的分析。

    3 實驗與結果分析

    本節(jié)描述了實驗設置,并對實驗結果進行了分析與討論(4)實驗代碼、數(shù)據(jù)集和模型下載地址https://github.com/david-liao/skillnet_nlg。

    3.1 任務及數(shù)據(jù)集

    本文在常見的自然語言生成任務的中文基準數(shù)據(jù)集上開展實驗,任務種類、每個任務使用的數(shù)據(jù)集統(tǒng)計信息和評測指標如表3所示。表中第一組五個任務的數(shù)據(jù)集用于SkillNet-NLG的多任務訓練及訓練后的模型在每個任務上的性能評測。表中第二組三個任務的數(shù)據(jù)集用于對訓練好的SkillNet-NLG進行微調(diào),并評測微調(diào)后模型在新任務上的性能表現(xiàn)。

    表3 實驗數(shù)據(jù)集統(tǒng)計信息

    以下詳細介紹所有用到的數(shù)據(jù)集:

    (1) 文本摘要任務的目的是對輸入的文本內(nèi)容進行總結以獲得其主旨大意,便于人們快速理解文本含義。LCSTS是從新浪微博收集的大規(guī)模中文短文本摘要數(shù)據(jù)集[11]。本文中采用了與Shao等人[12]相同的數(shù)據(jù)集劃分及評測指標。

    (2) 廣告生成任務是根據(jù)給定的一組商品屬性與屬性值對生成一段廣告文案。AdGen來自中國最大的電子商務平臺,包含約12萬條與服裝有關的屬性與屬性值對和對應的廣告文案。本文采用了與Shao等人[12]相同的數(shù)據(jù)預處理過程,將輸入數(shù)據(jù)表示為屬性與屬性值對的列表。

    (3) 問答任務是根據(jù)提出的問題生成使用自然語言的回答。MATINF-QA是一個大規(guī)模中文開放域問答數(shù)據(jù)集[13],包括107萬條來自健康領域的問答數(shù)據(jù)。

    (4) 對話生成任務是基于歷史對話記錄生成對話的下一句的回復。KdConv是一個多領域基于知識驅(qū)動的對話數(shù)據(jù)集,其中,包含4 500條來自三個不同領域的對話數(shù)據(jù)。本文參照Sun等人[14]對數(shù)據(jù)進行劃分和預處理,并且從輸入數(shù)據(jù)中移除了知識三元組。

    (5) 語法糾錯任務主要是糾正文本中的拼寫、標點符號、語法以及用詞等錯誤。NLPCC來自NLPCC 2018 Shared Task(5)http://tcci.ccf.org.cn/conference/2018/taskdata.php[15],包含1 200萬條由非母語人士撰寫的中文文本,其中的語法錯誤已由母語人士進行了注釋和修正。本文使用官方提供的評測腳本(6)http://www.comp.nus.edu.sg/nlp/software.html計算MaxMatch(M2)得分作為評測指標。

    (6) 主題到文章生成任務根據(jù)輸入的一組與主題相關的關鍵詞生成一篇圍繞主題的短文。ZhiHu是從中文問答網(wǎng)站知乎收集整理的主題到文章生成的數(shù)據(jù)集[16],包含約100個高頻主題詞以及長度在50至100之間的中文短文。本文采用了與Yang等人[17]相同的數(shù)據(jù)劃分和評測指標(7)數(shù)據(jù)集下載地址https://pan.baidu.com/s/17pcfWUuQTbcbniT0tBdwFQ。

    (7) 復述生成任務生成與輸入句子表達意思相同但是用詞和語法有所變化的句子。PKU Paraphrase Bank (PKUPB)是一個包含509 832條復述語句對的句子級別的中文復述生成語料庫(8)https://github.com/pkucoli/PKU-Paraphrase-Bank。本文分別從原始語料中隨機采樣1萬條作為驗證集和測試集,剩下部分作為訓練集。

    (8) 故事生成任務根據(jù)給出的一段提示生成一篇合乎情理的故事。生成的故事必須保持通篇主題一致并且具有一定的獨創(chuàng)性。OutGen是由Guan等人[18]創(chuàng)建的基于大綱的故事生成任務數(shù)據(jù)集,該任務要求根據(jù)給定的人物和事件大綱生成一篇連貫的故事。其中的大綱是一組打亂順序的短語。本文使用了與Guan等人[18]一致的數(shù)據(jù)劃分和評測指標(9)數(shù)據(jù)和評測腳本的下載地址https://github.com/thucoai/LOT-LongLM。。

    3.2 參數(shù)設置

    本文提出的SkillNet-NLG基于Huggingface Transformers開發(fā)庫(10)https://github.com/huggingface/transformers[19]的BART-large模型[4]實現(xiàn)。模型由分別為12層的編碼器和解碼器組成,模型的隱層維度(Hidden State Dimensions)為1 024,前饋網(wǎng)絡維度(Feed Forward Dimension)為4 096。所有的技能模塊(FFNk)使用本文自己預訓練的中文BART模型對應Transformer層的FFN參數(shù)進行初始化。SkillNet-NLG在多任務訓練階段,設置參數(shù)更新步數(shù)為10萬步,最大輸入序列長度(Maximum Source Length)為512,最大輸出序列長度(Maximum Target Length)為200,批量大小(Batch Size)為512。使用Adam[20]優(yōu)化器(β1=0.9,β2=0.999,ε=1e-8),并且設置學習率在訓練的前1萬步逐漸預熱(Warmup)至峰值3e-5,隨后線性下降。多任務訓練階段的每個任務的訓練損失學習曲線如圖3所示。在2.4節(jié)中用于計算訓練數(shù)據(jù)采樣策略的數(shù)據(jù)大小上限K設置為221,采樣溫度(Sampling Temperature)T在候選集{1,2,4,8,16,1 024}中進行超參搜索后選擇了4。模型推理(Inference)階段使用了集束搜索(Beam Search)的解碼方法,所有任務的集束大小(Beam Size)均設置為4。

    圖3 多任務訓練階段各任務的學習曲線

    在基于多任務訓練的SkillNet-NLG上分別微調(diào)三個新任務的超參數(shù)設置如表4所示。表中未列出的其他參數(shù)與多任務訓練階段相同,不再贅述。

    表4 模型微調(diào)超參數(shù)設置

    3.3 基線模型

    為了評價SkillNet-NLG在多任務上的性能,引入多種典型模型進行實驗對比,其中包括分別針對每個任務單獨訓練的模型和另外兩種多任務模型。以下詳細介紹所有參與比較的模型:

    (1) 針對特定任務單獨訓練的模型(Task-specific): 基于本文自己預訓練的中文BART模型[4](以下簡稱BART模型),分別在每個任務數(shù)據(jù)集上單獨微調(diào)的模型。因此,對于用于多任務訓練階段的五個任務,一共訓練了五個模型。與此相對,SkillNet-NLG與其他基線模型都是多任務模型,即僅使用一個模型執(zhí)行五個任務。

    (2) 多任務訓練的稠密模型(Dense): 該模型是在五個任務數(shù)據(jù)集上使用2.4節(jié)中介紹的方法訓練的BART模型。

    (3) 多任務訓練的混合專家模型(MoE): 該模型是在BART模型的基礎上,參照Lepikhin等人[7]實現(xiàn)的混合專家模型。對于輸入的每個詞元(Token),模型使用一個門控網(wǎng)絡選擇激活前兩名(top-2)的專家模塊。為了與SkillNet-NLG可比較(包含六個技能模塊),本文實現(xiàn)的MoE模型包含了六個專家模塊(Expert Module)。MoE模型使用了BART模型參數(shù)進行初始化,并在五個任務數(shù)據(jù)集上使用2.4節(jié)中介紹的多任務訓練方法進行訓練。

    實驗中用到的所有模型參數(shù)數(shù)量統(tǒng)計信息如表5所示。由于SkillNet-NLG和MoE模型都屬于稀疏激活的模型,表中最后一列列出了模型在實際使用過程中激活的參數(shù)數(shù)量。從表中可以看出,SkillNet-NLG的實際激活參數(shù)數(shù)量依賴于其執(zhí)行特定任務時激活的技能模塊數(shù)量。

    表5 模型參數(shù)量統(tǒng)計

    3.4 模型性能對比

    表6展示了 SkillNet-NLG 和所有基線方法在參與多任務訓練的五個任務上的結果。為了便于與最新研究成果對比,表中第一行給出了當前在任務數(shù)據(jù)集上性能表現(xiàn)最好系統(tǒng)的結果。其中,LCSTS,AdGen和MATINF-QA的結果來自 CPT-Large[12],KdConv的結果來自 mBART-Large[21],NLPCC的結果來自Mask GEC[22]。同時為便于比較整體性能,表中最后一列給出模型在所有任務上的結果的平均值。

    表6 不同模型在用于多任務訓練的五個任務數(shù)據(jù)集上的實驗結果

    從實驗結果上看,SkillNet-NLG在所有任務的平均得分上表現(xiàn)優(yōu)于針對特定任務單獨訓練的模型(Task-specific)和另外兩個多任務模型(Dense和MoE)。我們分別對每個任務使用 Paired Bootstrap Resampling[23-24]方法計算了模型SkillNetNLG和Task-specific的實驗結果之間的p-value值: 0.243 2(LCSTS),0.180 3(AdGen),0.718 2(MATINF-QA),0.769 2(KdConv),0.366 4(NLPCC)。結果表明在顯著性水平α= 0.05 的情況下,不能完全拒絕兩種方法之間沒有顯著性差異的假設(p>0.05)。在僅使用一個模型的執(zhí)行所有任務的情況下,SkillNet-NLG在五個任務中的四個上面表現(xiàn)均優(yōu)于目前性能最好的系統(tǒng)??梢姳疚奶岢龌诩寄芫W(wǎng)絡的稀疏激活方法對于模型在多任務上的性能提升起到了重要作用。

    表7展示了所有模型在三個新任務上的實驗結果,其中的Dense、MoE、SkillNetNLG是指在上述多任務實驗中訓練好的模型基礎上針對新任務分別微調(diào)得到的模型。表中第一行給出了目前在任務數(shù)據(jù)集上性能表現(xiàn)最好系統(tǒng)的結果。其中,ZhiHu的結果來自SCTKG(Gold-Senti)[25], OutGen的結果來自LongLMlarge[18]。

    表7 不同模型在三個新任務數(shù)據(jù)集上的實驗結果

    從實驗結果上看,SkillNet-NLG在三個新任務上的表現(xiàn)均優(yōu)于針對特定任務單獨訓練的模型和其他兩個多任務模型。SkillNet-NLG在Zhihu數(shù)據(jù)集(主題到文章生成任務)上取得了與Qiao等人[25]工作中記錄的最好結果相近(BLEU-2分值僅差0.04)的性能。后者的方法使用了外部的知識庫(Knowledge Base)來輔助文章的生成,而SkillNet-NLG沒有使用任何額外知識。特別值得注意的是,SkillNet-NLG在OutGen數(shù)據(jù)集(故事生成任務)上超過了Guan等人[18]的LongLMlarge模型1.22的BLEU-2分值,后者的模型使用了更多參數(shù)(約10億參數(shù))并且在大規(guī)模的領域內(nèi)的數(shù)據(jù)上進行了預訓練。

    3.5 消融實驗

    本文根據(jù)2.3節(jié)中描述的方法對任務中使用的技能進行了分解(表2)。為了驗證分解方案的有效性,我們分別對模型在多任務和新任務兩種場景下進行了消融實驗。

    模型在多任務訓練階段的五個任務上的技能分解方案如表8所示。其中,①使用預定義的技能,即表2中定義的技能分解方案。②每個任務對應一種技能,各個技能之間沒有重疊。③ 每個任務隨機分配一組技能。由于模型實際激活參數(shù)數(shù)量依賴于其執(zhí)行特定任務時使用的技能個數(shù)(表5)。為與SkillNet-NLG的激活參數(shù)數(shù)量進行公平對比,隨機分配的技能的個數(shù)與表2中定義的技能個數(shù)保持一致。④在預定義方案中通用技能Sgeneral是完成任一任務所需要的缺省能力,默認總是處于激活狀態(tài)。因此一種可供比較的分解方案是每個任務都固定包含Sgeneral,其他的技能則采用與③中類似的方法隨機分配。表中結果顯示使用其他技能分解方案的模型性能相較預定義的技能分解方案均有不同程度的下降,表明了SkillNet-NLG任務技能分解的有效性。此外,方案④由于包含通用技能,能夠?qū)W習完成所有任務所需的具有共性的能力,表現(xiàn)優(yōu)于完全使用隨機分配技能的方案,即方案③。

    表8 模型在用于多任務訓練的五個任務上消融實驗結果

    模型在三個新任務上的技能分解方案如表9所示。其中,方案②使用了預定義技能集合的補集(表1 中定義了技能集合的全集)。例如,對于故事生成任務(OutGen),預定義的技能集合是 {Sgeneral,Sopen-end},預定義外的技能集合則是 {Sopen-end,Sdata-to-text,Sconversation,Squestion};方案 ⑤在預定義的技能基礎上再隨機分配一個技能; 方案⑥隨機分配與預定義技能個數(shù)一致的一組技能。表中結果顯示,使用其他技能分配方案的模型性能較預定義的方案(見表2)均有不同程度下降,表明了SkillNet-NLG技能分解方案對新任務的有效性。

    表9 模型在三個新任務上的消融實驗結果

    3.6 數(shù)據(jù)采樣策略分析

    在SkillNet-NLG的多任務訓練階段(2.4節(jié)),為了克服任務數(shù)據(jù)量不均衡的問題,使用了基于溫度調(diào)節(jié)(Temperature-Scaled)的數(shù)據(jù)采樣混合策略。該策略根據(jù)數(shù)據(jù)采樣溫度T計算的概率選擇任務訓練數(shù)據(jù)。為了進一步考察采樣溫度T對模型在各個任務上的性能影響程度,選取了有代表性的T值進行對比實驗,以提供T值選擇的依據(jù)。在參與多任務訓練的五個任務的驗證集上的實驗結果如圖4所示。

    圖4 不同采樣溫度對實驗結果的影響

    當設置T= 1時,數(shù)據(jù)采樣策略按照每個任務的實際訓練數(shù)據(jù)大小的比例進行采樣,這導致用于多任務訓練的五個數(shù)據(jù)集大小極不平衡(見表3中數(shù)據(jù)集統(tǒng)計信息)。從圖中可以看出,此時高資源任務LCSTS(216萬條訓練數(shù)據(jù))在不同T設置中取得最大值;而低資源任務KdConv(6.3萬條訓練數(shù)據(jù))在不同T設置中值最小。隨著T值逐漸增大,高資源任務和低資源任務之間的數(shù)據(jù)不均衡現(xiàn)象逐漸得到緩解。高資源任務的分值開始下降,而低資源任務的分值開始上升。當T= 4時,模型在兩種極端情況之間達到一種平衡狀態(tài)。此時模型在五個任務上面的平均分值最高。根據(jù)這一實驗結果,本文在所有多任務訓練實驗中均采用了T= 4的設置。

    4 總結與展望

    本文提出了一種稱作SkillNet-NLG的通用自然語言生成模型,該模型能夠僅使用一個模型處理多種自然語言生成任務。SkillNet-NLG的核心思想是執(zhí)行某一任務時,根據(jù)預先定義的任務所需要的技能,稀疏激活模型中與該技能相關的模型參數(shù)。這種模型設計思路的優(yōu)勢在于使得模型在學習新任務的時候可以選擇與任務相關的技能遷移過去,從而避免不相關技能的負面影響。在多種自然語言生成任務上對模型進行評估的實驗結果表明,SkillNet-NLG性能優(yōu)于常用的基線模型,充分驗證了其在自然語言生成任務上的有效性。

    未來的研究工作中,可以探索將本文提出的方法應用在中文以外的其他自然語言生成任務中,以驗證方法的通用性。另外,本文中模型是通過修改Transformer的前饋網(wǎng)絡層來實現(xiàn)的,可以考慮其他實現(xiàn)方法,例如,改動Transformer的多頭注意力層,進一步提升模型性能。最后,可以考慮引入探查性的任務來研究模型的技能模塊學習到的知識,使模型具有更強的可解釋性。

    猜你喜歡
    技能實驗模型
    一半模型
    高級技能
    記一次有趣的實驗
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權M-估計的漸近分布
    做個怪怪長實驗
    秣馬厲兵強技能
    中國公路(2017年19期)2018-01-23 03:06:33
    拼技能,享豐收
    3D打印中的模型分割與打包
    NO與NO2相互轉(zhuǎn)化實驗的改進
    欧美精品一区二区免费开放| 精品人妻在线不人妻| 免费一级毛片在线播放高清视频 | 99久久综合免费| 亚洲一码二码三码区别大吗| 亚洲视频免费观看视频| 婷婷色av中文字幕| 国产人伦9x9x在线观看| 精品国产乱码久久久久久小说| a级毛片在线看网站| 亚洲欧美一区二区三区黑人| 亚洲精品中文字幕在线视频| 观看av在线不卡| 美女高潮到喷水免费观看| 欧美av亚洲av综合av国产av| 天堂俺去俺来也www色官网| 国产精品 欧美亚洲| 美女主播在线视频| 亚洲国产看品久久| 亚洲五月婷婷丁香| 欧美日本中文国产一区发布| 国产一区有黄有色的免费视频| 亚洲中文日韩欧美视频| 极品人妻少妇av视频| 久久久亚洲精品成人影院| 色网站视频免费| 亚洲午夜精品一区,二区,三区| 在线观看国产h片| 国产精品秋霞免费鲁丝片| 亚洲激情五月婷婷啪啪| 国产欧美日韩精品亚洲av| 日韩精品免费视频一区二区三区| 丁香六月欧美| 自拍欧美九色日韩亚洲蝌蚪91| 日韩熟女老妇一区二区性免费视频| 飞空精品影院首页| 中文字幕精品免费在线观看视频| 一级毛片电影观看| 久久这里只有精品19| 久久天躁狠狠躁夜夜2o2o | 日本一区二区免费在线视频| 亚洲黑人精品在线| 女性生殖器流出的白浆| 久久狼人影院| 亚洲专区中文字幕在线| 亚洲午夜精品一区,二区,三区| 国产99久久九九免费精品| 一本色道久久久久久精品综合| 久久九九热精品免费| 啦啦啦 在线观看视频| 91成人精品电影| 999久久久国产精品视频| av天堂久久9| 男的添女的下面高潮视频| 久久av网站| 熟女av电影| 黄片小视频在线播放| 新久久久久国产一级毛片| 午夜91福利影院| 久久精品国产综合久久久| 91九色精品人成在线观看| 熟女少妇亚洲综合色aaa.| 久久精品国产亚洲av涩爱| 午夜视频精品福利| 久久久久久免费高清国产稀缺| 国产精品一区二区在线不卡| 国产欧美日韩综合在线一区二区| 欧美精品一区二区免费开放| 久久99精品国语久久久| 国产精品二区激情视频| 赤兔流量卡办理| 搡老岳熟女国产| 手机成人av网站| 女人爽到高潮嗷嗷叫在线视频| 一本大道久久a久久精品| 国产精品久久久久久精品电影小说| 国产一区亚洲一区在线观看| 久久鲁丝午夜福利片| 亚洲精品一二三| 高清视频免费观看一区二区| 亚洲成av片中文字幕在线观看| 97精品久久久久久久久久精品| 欧美日韩视频高清一区二区三区二| 黑人猛操日本美女一级片| 成人国产av品久久久| 桃花免费在线播放| 国产精品久久久久久人妻精品电影 | 两人在一起打扑克的视频| 天天躁夜夜躁狠狠久久av| 国产欧美亚洲国产| 国产精品国产av在线观看| 新久久久久国产一级毛片| 国产精品久久久久久精品古装| 亚洲午夜精品一区,二区,三区| 亚洲国产欧美网| 丰满迷人的少妇在线观看| 高清av免费在线| 欧美黄色淫秽网站| 人人妻人人澡人人看| 久久精品亚洲av国产电影网| 国产成人精品久久二区二区91| 女性生殖器流出的白浆| 一二三四社区在线视频社区8| 精品一区二区三卡| 看十八女毛片水多多多| 亚洲av美国av| 丁香六月天网| 欧美日韩亚洲高清精品| 中文字幕亚洲精品专区| 亚洲精品中文字幕在线视频| 亚洲av在线观看美女高潮| 国产在视频线精品| 七月丁香在线播放| 国产成人av教育| 国产成人一区二区三区免费视频网站 | 十八禁网站网址无遮挡| 欧美激情极品国产一区二区三区| 捣出白浆h1v1| 亚洲av电影在线进入| 夫妻性生交免费视频一级片| 国产精品熟女久久久久浪| 日韩大片免费观看网站| 中文欧美无线码| 日韩一卡2卡3卡4卡2021年| 啦啦啦在线观看免费高清www| 国产片内射在线| 十分钟在线观看高清视频www| 国产熟女午夜一区二区三区| 亚洲五月婷婷丁香| 美女大奶头黄色视频| 国产高清不卡午夜福利| 精品免费久久久久久久清纯 | 久久影院123| 免费在线观看黄色视频的| 久久久精品国产亚洲av高清涩受| 女人精品久久久久毛片| 捣出白浆h1v1| 美女中出高潮动态图| 精品一品国产午夜福利视频| 在线观看免费视频网站a站| 国产淫语在线视频| 另类亚洲欧美激情| 欧美黑人欧美精品刺激| 纯流量卡能插随身wifi吗| 欧美日韩亚洲高清精品| 亚洲自偷自拍图片 自拍| 欧美日韩视频高清一区二区三区二| 亚洲精品av麻豆狂野| 王馨瑶露胸无遮挡在线观看| 黄色a级毛片大全视频| 久久综合国产亚洲精品| 黑人欧美特级aaaaaa片| 黄片播放在线免费| 欧美精品av麻豆av| 国产高清videossex| 一级毛片电影观看| 久久ye,这里只有精品| av天堂久久9| 国产一区二区 视频在线| 久久影院123| 免费高清在线观看日韩| 你懂的网址亚洲精品在线观看| 男女之事视频高清在线观看 | 麻豆av在线久日| videosex国产| 另类亚洲欧美激情| 尾随美女入室| 99精国产麻豆久久婷婷| 天天操日日干夜夜撸| 国产精品国产三级专区第一集| 欧美精品人与动牲交sv欧美| 成年人黄色毛片网站| 成人国语在线视频| 亚洲精品av麻豆狂野| 亚洲午夜精品一区,二区,三区| 99久久99久久久精品蜜桃| 激情五月婷婷亚洲| 精品第一国产精品| 男男h啪啪无遮挡| 国产黄色视频一区二区在线观看| 三上悠亚av全集在线观看| 国产不卡av网站在线观看| av线在线观看网站| 欧美日韩亚洲高清精品| 精品人妻在线不人妻| 欧美在线黄色| 亚洲国产毛片av蜜桃av| 亚洲,欧美精品.| 免费观看人在逋| 欧美人与性动交α欧美精品济南到| 亚洲av日韩在线播放| 亚洲精品一二三| 在线观看一区二区三区激情| 久久久精品免费免费高清| 成年人免费黄色播放视频| 国产精品香港三级国产av潘金莲 | 超色免费av| 黄色片一级片一级黄色片| 精品欧美一区二区三区在线| 国产片内射在线| 亚洲精品av麻豆狂野| 国产视频首页在线观看| 亚洲精品久久午夜乱码| 男人爽女人下面视频在线观看| 久久青草综合色| 高潮久久久久久久久久久不卡| 啦啦啦在线免费观看视频4| 亚洲欧美一区二区三区久久| 亚洲精品国产av成人精品| 免费在线观看黄色视频的| 国产精品秋霞免费鲁丝片| 久久人人爽av亚洲精品天堂| av电影中文网址| www日本在线高清视频| 王馨瑶露胸无遮挡在线观看| 亚洲情色 制服丝袜| 大片免费播放器 马上看| 日韩 亚洲 欧美在线| 人妻 亚洲 视频| 久久精品国产亚洲av高清一级| 男女免费视频国产| 日韩,欧美,国产一区二区三区| 老汉色av国产亚洲站长工具| 国产欧美亚洲国产| 亚洲人成77777在线视频| videosex国产| 夫妻性生交免费视频一级片| 美女中出高潮动态图| av在线app专区| 午夜福利乱码中文字幕| 黄色一级大片看看| 如日韩欧美国产精品一区二区三区| 波多野结衣一区麻豆| 免费在线观看黄色视频的| 又粗又硬又长又爽又黄的视频| 日韩制服骚丝袜av| 精品一区二区三区四区五区乱码 | 99国产精品99久久久久| 国产日韩欧美视频二区| 久热这里只有精品99| 搡老岳熟女国产| 国产亚洲一区二区精品| 十八禁高潮呻吟视频| a级片在线免费高清观看视频| 母亲3免费完整高清在线观看| 精品免费久久久久久久清纯 | 汤姆久久久久久久影院中文字幕| 丝袜人妻中文字幕| 亚洲av男天堂| 精品一区二区三区av网在线观看 | 精品人妻1区二区| 99久久人妻综合| 国产免费又黄又爽又色| 肉色欧美久久久久久久蜜桃| 欧美精品一区二区免费开放| av福利片在线| 精品久久蜜臀av无| 亚洲精品久久午夜乱码| 不卡av一区二区三区| 日韩中文字幕欧美一区二区 | 久久九九热精品免费| 日韩大片免费观看网站| 日本vs欧美在线观看视频| www.精华液| 久久精品国产综合久久久| 久久久精品区二区三区| 在线观看免费视频网站a站| 国产主播在线观看一区二区 | 91麻豆av在线| 久久久久精品国产欧美久久久 | 中文字幕最新亚洲高清| 亚洲三区欧美一区| 乱人伦中国视频| 亚洲人成网站在线观看播放| 夫妻性生交免费视频一级片| 欧美日韩视频精品一区| 亚洲精品久久午夜乱码| 国产老妇伦熟女老妇高清| 最近手机中文字幕大全| 精品少妇久久久久久888优播| 99九九在线精品视频| 国产精品免费视频内射| 精品人妻一区二区三区麻豆| 90打野战视频偷拍视频| 操出白浆在线播放| 精品少妇黑人巨大在线播放| 夫妻性生交免费视频一级片| 国产精品一国产av| 成年女人毛片免费观看观看9 | 满18在线观看网站| 成人黄色视频免费在线看| 国产精品 欧美亚洲| 曰老女人黄片| 欧美成人精品欧美一级黄| 国产真人三级小视频在线观看| 五月开心婷婷网| 免费高清在线观看视频在线观看| 少妇的丰满在线观看| 免费一级毛片在线播放高清视频 | 亚洲一区中文字幕在线| 久久人人97超碰香蕉20202| 蜜桃在线观看..| 久久精品人人爽人人爽视色| 久久精品国产亚洲av高清一级| 午夜av观看不卡| 9色porny在线观看| 飞空精品影院首页| 岛国毛片在线播放| 大话2 男鬼变身卡| 欧美精品一区二区免费开放| 国产亚洲一区二区精品| 久久国产精品男人的天堂亚洲| 男女免费视频国产| 久久这里只有精品19| 啦啦啦中文免费视频观看日本| 国产精品久久久久久精品古装| av有码第一页| 日韩一卡2卡3卡4卡2021年| 超碰成人久久| 赤兔流量卡办理| 大型av网站在线播放| 超色免费av| 日本vs欧美在线观看视频| 中文字幕最新亚洲高清| 欧美国产精品va在线观看不卡| 搡老岳熟女国产| 男女下面插进去视频免费观看| 熟女少妇亚洲综合色aaa.| 午夜福利影视在线免费观看| 激情视频va一区二区三区| 黄片小视频在线播放| 一区二区三区精品91| 多毛熟女@视频| 欧美性长视频在线观看| 天天影视国产精品| 色94色欧美一区二区| 婷婷色麻豆天堂久久| 黄色a级毛片大全视频| 久久久久久久大尺度免费视频| 久久国产精品大桥未久av| 一本—道久久a久久精品蜜桃钙片| 9色porny在线观看| 日日爽夜夜爽网站| 亚洲精品第二区| a级片在线免费高清观看视频| 两性夫妻黄色片| 亚洲,一卡二卡三卡| 秋霞在线观看毛片| 老熟女久久久| 亚洲成人国产一区在线观看 | 啦啦啦视频在线资源免费观看| 999久久久国产精品视频| 成人免费观看视频高清| 如日韩欧美国产精品一区二区三区| 欧美人与性动交α欧美精品济南到| 国产高清videossex| 性色av一级| 亚洲人成77777在线视频| 久9热在线精品视频| 91麻豆av在线| 9191精品国产免费久久| 亚洲国产欧美日韩在线播放| 欧美人与善性xxx| 国产一区二区三区av在线| 久久久久久久久免费视频了| 黄网站色视频无遮挡免费观看| 国产精品国产av在线观看| 日韩人妻精品一区2区三区| 国产激情久久老熟女| 热re99久久国产66热| 亚洲精品在线美女| 久久久久精品人妻al黑| bbb黄色大片| 又黄又粗又硬又大视频| 国产av一区二区精品久久| 亚洲成色77777| 婷婷色麻豆天堂久久| 777米奇影视久久| 五月天丁香电影| 国产成人一区二区在线| 亚洲av男天堂| 狂野欧美激情性bbbbbb| a级片在线免费高清观看视频| 久久精品久久久久久噜噜老黄| 99国产精品99久久久久| 国产欧美日韩一区二区三区在线| 人人妻人人澡人人爽人人夜夜| 777米奇影视久久| 天堂俺去俺来也www色官网| 国产三级黄色录像| 黄色片一级片一级黄色片| 男女高潮啪啪啪动态图| 国产免费一区二区三区四区乱码| 亚洲中文字幕日韩| 久久鲁丝午夜福利片| 精品欧美一区二区三区在线| 一级毛片女人18水好多 | a级毛片在线看网站| 色视频在线一区二区三区| 国产一级毛片在线| 岛国毛片在线播放| 777米奇影视久久| 少妇 在线观看| 欧美黄色片欧美黄色片| 午夜av观看不卡| 老司机亚洲免费影院| 欧美人与善性xxx| 久久久久国产一级毛片高清牌| 另类精品久久| 国产成人精品久久久久久| 国产精品一区二区在线不卡| 中文字幕高清在线视频| 黄色 视频免费看| 人人妻人人澡人人爽人人夜夜| 99热国产这里只有精品6| 美女国产高潮福利片在线看| 精品少妇黑人巨大在线播放| 国产成人91sexporn| 久久久久久久久免费视频了| 国产一级毛片在线| 99国产综合亚洲精品| √禁漫天堂资源中文www| 国产亚洲av高清不卡| 大香蕉久久网| 777米奇影视久久| 丰满饥渴人妻一区二区三| av有码第一页| 国产男人的电影天堂91| 国产老妇伦熟女老妇高清| 一区二区日韩欧美中文字幕| 免费在线观看黄色视频的| 下体分泌物呈黄色| 欧美av亚洲av综合av国产av| 久久99一区二区三区| 国产一区二区 视频在线| www.自偷自拍.com| 国产免费福利视频在线观看| 国产高清videossex| 亚洲国产成人一精品久久久| 久久中文字幕一级| 免费av中文字幕在线| 悠悠久久av| 国产亚洲精品久久久久5区| 伦理电影免费视频| 狠狠精品人妻久久久久久综合| 免费女性裸体啪啪无遮挡网站| 欧美少妇被猛烈插入视频| 女人被躁到高潮嗷嗷叫费观| 少妇裸体淫交视频免费看高清 | 男女下面插进去视频免费观看| 国产人伦9x9x在线观看| 91字幕亚洲| 国产成人精品久久二区二区91| 久久久久久久久免费视频了| av线在线观看网站| 亚洲国产欧美一区二区综合| 中文字幕人妻丝袜一区二区| 一级,二级,三级黄色视频| 亚洲国产欧美网| 亚洲av美国av| 国产精品免费大片| 国产爽快片一区二区三区| 纵有疾风起免费观看全集完整版| 久久99热这里只频精品6学生| 亚洲第一av免费看| 中文字幕人妻熟女乱码| 亚洲专区国产一区二区| 久久中文字幕一级| 啦啦啦在线免费观看视频4| 1024香蕉在线观看| 欧美日韩亚洲国产一区二区在线观看 | 精品人妻一区二区三区麻豆| 国产精品偷伦视频观看了| 久久久久网色| 亚洲av日韩精品久久久久久密 | 色播在线永久视频| 美女中出高潮动态图| 在线观看免费午夜福利视频| 欧美日韩精品网址| 亚洲九九香蕉| 99国产精品99久久久久| 亚洲男人天堂网一区| 国产激情久久老熟女| 日本欧美视频一区| 色婷婷av一区二区三区视频| 另类精品久久| 国产福利在线免费观看视频| 精品少妇内射三级| 国产熟女欧美一区二区| 国产高清国产精品国产三级| 免费黄频网站在线观看国产| 日韩伦理黄色片| 免费看av在线观看网站| 老鸭窝网址在线观看| 高清欧美精品videossex| 午夜福利在线免费观看网站| 免费在线观看日本一区| 国产精品国产av在线观看| 在线av久久热| 悠悠久久av| 人成视频在线观看免费观看| 精品卡一卡二卡四卡免费| 一二三四社区在线视频社区8| www.熟女人妻精品国产| 免费少妇av软件| e午夜精品久久久久久久| 在线亚洲精品国产二区图片欧美| 人成视频在线观看免费观看| 丝袜美足系列| 国产伦理片在线播放av一区| 欧美日韩亚洲国产一区二区在线观看 | 国产伦人伦偷精品视频| 91精品国产国语对白视频| 国产91精品成人一区二区三区 | 久久久国产欧美日韩av| 最黄视频免费看| 欧美日韩黄片免| a级毛片在线看网站| 亚洲国产欧美网| 亚洲男人天堂网一区| 日韩一本色道免费dvd| 日韩免费高清中文字幕av| 成年人免费黄色播放视频| 男女国产视频网站| 无遮挡黄片免费观看| 69精品国产乱码久久久| 一级黄色大片毛片| 亚洲av日韩在线播放| 9191精品国产免费久久| 久久av网站| 成人影院久久| 两个人免费观看高清视频| svipshipincom国产片| 美女中出高潮动态图| 亚洲综合色网址| 国产在线观看jvid| 老司机午夜十八禁免费视频| 免费看av在线观看网站| 大话2 男鬼变身卡| 午夜福利影视在线免费观看| 日本黄色日本黄色录像| 我的亚洲天堂| 亚洲av美国av| 欧美久久黑人一区二区| 尾随美女入室| 国产一区二区 视频在线| 18禁国产床啪视频网站| 国产精品欧美亚洲77777| 国产日韩欧美在线精品| 99热网站在线观看| av天堂在线播放| 色婷婷av一区二区三区视频| 好男人电影高清在线观看| av福利片在线| 国产爽快片一区二区三区| 又大又黄又爽视频免费| 女人被躁到高潮嗷嗷叫费观| 国产精品成人在线| 久久国产精品影院| 人成视频在线观看免费观看| 咕卡用的链子| 亚洲av日韩精品久久久久久密 | 亚洲欧美日韩另类电影网站| 亚洲av日韩在线播放| 五月天丁香电影| 亚洲av日韩在线播放| 一边摸一边抽搐一进一出视频| 久久人妻熟女aⅴ| 欧美国产精品va在线观看不卡| 99国产综合亚洲精品| 欧美日韩国产mv在线观看视频| 免费高清在线观看日韩| 91九色精品人成在线观看| 精品国产一区二区三区久久久樱花| 色播在线永久视频| 亚洲av日韩精品久久久久久密 | 又紧又爽又黄一区二区| 亚洲国产欧美一区二区综合| a 毛片基地| 超色免费av| 每晚都被弄得嗷嗷叫到高潮| 日本一区二区免费在线视频| 欧美+亚洲+日韩+国产| 精品熟女少妇八av免费久了| 日韩中文字幕欧美一区二区 | 亚洲成人手机| 国产免费现黄频在线看| 国产成人免费无遮挡视频| 人人妻人人澡人人爽人人夜夜| av国产久精品久网站免费入址| 国产熟女欧美一区二区| 欧美人与性动交α欧美软件| 大陆偷拍与自拍| 一级毛片女人18水好多 | 一边亲一边摸免费视频| 久久亚洲精品不卡| 国产人伦9x9x在线观看| 亚洲av美国av| 一区二区三区四区激情视频| 女人久久www免费人成看片| 亚洲av片天天在线观看| 成人亚洲欧美一区二区av| netflix在线观看网站| 国产成人精品在线电影| 一级毛片我不卡| 久久精品国产亚洲av高清一级| 丝袜脚勾引网站| 欧美日韩成人在线一区二区| 亚洲精品在线美女| 久9热在线精品视频| 91字幕亚洲| 国产成人免费观看mmmm| 搡老岳熟女国产| 国产精品 欧美亚洲| 在线天堂中文资源库|