• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于交叉層級數(shù)據(jù)共享的多任務模型

    2022-06-21 06:45:18陳穎于炯陳嘉穎杜旭升
    計算機應用 2022年5期
    關鍵詞:信息模型

    陳穎,于炯,*,陳嘉穎,杜旭升

    (1.新疆大學 軟件學院,烏魯木齊 830091; 2.新疆大學 信息科學與工程學院,烏魯木齊 830046)(?通信作者電子郵箱yujiong@xju.edu.cn)

    基于交叉層級數(shù)據(jù)共享的多任務模型

    陳穎1,于炯1,2*,陳嘉穎2,杜旭升2

    (1.新疆大學 軟件學院,烏魯木齊 830091; 2.新疆大學 信息科學與工程學院,烏魯木齊 830046)(?通信作者電子郵箱yujiong@xju.edu.cn)

    針對多任務學習模型中相關度低的任務之間存在的負遷移現(xiàn)象和信息共享困難問題,提出了一種基于交叉層級數(shù)據(jù)共享的多任務模型。該模型關注細粒度的知識共享,且能保留淺層共享專家的記憶能力和深層特定任務專家的泛化能力。首先,統(tǒng)一多層級共享專家,以獲取復雜相關任務間的公共知識;然后,將共享信息分別遷移到不同層級的特定任務專家之中,從而在上下層之間共享部分公共知識;最后,利用基于數(shù)據(jù)樣本的門控網絡自主選擇不同任務所需信息,從而減輕樣本依賴性對模型的不利影響。相較于多門控混合專家(MMOE)模型,所提模型在UCI census-income數(shù)據(jù)集上對兩個任務的F1值分別提高了7.87個百分點和1.19個百分點;且在MovieLens數(shù)據(jù)集上的回歸任務的均方誤差(MSE)值降低到0.004 7,分類任務的AUC值提高到0.642。實驗結果表明,所提出的模型適用于改善負遷移現(xiàn)象的影響,且能更高效地學習復雜相關任務之間的公共信息。

    多任務學習;信息共享;負遷移;神經網絡;遷移學習

    0 引言

    多任務學習在一個模型之中同時學習多個不同任務,能通過任務之間的信息遷移有效提升模型學習效率[1],目前已廣泛應用于自然語言處理、機器翻譯、計算機視覺等領域[2-6]。通過對模型進行正則化或改進任務之間的遷移學習以提升模型預測能力仍是現(xiàn)有多任務學習研究的主流方向。然而,由于現(xiàn)實世界中的多任務之間關系復雜甚至相互沖突,這將導致模型性能顯著下降,即負遷移現(xiàn)象,同時,Tang等[7]提出的seesaw現(xiàn)象也是多任務模型面臨的一個難點,眾多模型[1,8-10]性能均受該現(xiàn)象影響。為改善負遷移現(xiàn)象,研究者們就如何更有利地學習任務之間的公共信息做了大量工作,如:Cross-stitch網絡[9]、Sluice網絡[10]等提出了學習靜態(tài)線性聯(lián)合來融合不同任務高維表征,但卻未考慮樣本獨立性對相應任務的影響;多門控混合專家(Multi-gate Mixture-Of-Experts, MMOE)模型[8]基于輸入樣本聯(lián)合底層專家,為每個任務設置了一個門控網絡,使樣本的線性轉換作為門控網絡選擇底層專家的權重,從而使每個任務均依賴于相應樣本空間,但該模型忽略了專家之間的差異性和交互性,即對每個專家一視同仁,不同任務使用相同的專家輸出,這將受到seesaw現(xiàn)象的影響;PLE(Progressive Layered Extraction)模型[7]既考慮了樣本獨立性,也對共享專家和特定任務專家進行了分離,從而有效提升了模型的預測能力,減輕了負遷移和seesaw現(xiàn)象的影響,但對于共享專家而言,深層次知識抽取會提升其泛化能力從而給共享知識加入噪聲,背離其提取底層表征中公共知識的初衷,且特定任務專家學習共享知識只能通過門控網絡,公共知識的重要度僅依賴于輸入樣本,因此,特定任務專家無法深入學習共享信息。

    針對上述問題,本文提出了能在不同層級專家內部進行遷移學習的交叉層級數(shù)據(jù)共享多任務(Cross-Layer Shared multi-task, CLS)模型。該模型利用特定的門控網絡建模任務對樣本空間的依賴性;同時,分離特定任務專家和共享專家,不同任務除使用相同的共享專家外,亦有獨立的特定任務專家學習特定信息;最后,統(tǒng)一多層級共享專家,將共享專家學習到的先驗知識以特定的路由方式傳輸給不同任務的不同層級的專家,使不同層級的專家使用部分共享專家內部相同層級的輸出,既準確記憶公共知識,亦使任務不絕對依賴門控網絡,從而深入學習共享信息。在兩個真實公開數(shù)據(jù)集以及一個合成數(shù)據(jù)集上的實驗結果表明,CLS模型的性能優(yōu)于基線多任務模型,驗證了其有效性和可行性。

    本文的主要工作如下:1)利用先驗知識捕獲任務之間的公共信息,并將信息遷移到不同的特定任務專家之中,提出了層級共享路由機制;2)保留淺層共享專家的記憶能力和深層特定任務專家的泛化能力,統(tǒng)一多個層級的共享專家,提出了交叉層級共享網絡;3)引入門控單元,聯(lián)合交叉層級共享網絡,提出了可挖掘深層語義信息的CLS模型。

    1 相關工作

    深度學習背景下,多任務模型通常使用隱藏層的硬參共享或軟參共享來學習任務之間的關系,其中,最基本的模型是硬參共享模型[1]。

    硬參共享模型是最常用的多任務學習方法,其在所有任務中使用相同的隱藏層,并同時對特定任務保留不同的輸出層。硬參共享模型顯著降低了過擬合的風險,當需要學習的任務越多,模型就越需要找到一個能捕獲所有任務信息的表示,在原始任務上出現(xiàn)過擬合的可能性就越?。坏谌蝿罩g相互沖突時,該模型容易受到負遷移帶來的不利影響。針對該問題,Cross-stitch網絡[8]、Sluice網絡[9]等提出了學習線性組合的權值,從而使任務有選擇性地融合其余任務的信息;然而這些模型中不同任務的高維表征用相同的靜態(tài)線性權重聯(lián)合會出現(xiàn)seesaw現(xiàn)象。

    軟參共享模型中,每個任務均有其自身的模型以及參數(shù),通過對模型參數(shù)之間的距離進行正則化使參數(shù)盡可能相似[11],或利用門控網絡和注意力網絡來做信息融合以提高預測精度。Jacobs等[12]最早提出了將門控網絡應用于聯(lián)合底層專家的模型,但沒有考慮任務之間樣本的區(qū)別;因此文獻[8]中針對每個任務設置一個門控網絡,明確地從數(shù)據(jù)中建模任務關系以優(yōu)化每個任務;Ma等[13]利用AutoML(Automated Machine Learning)技術提出了一種新的子網路由框架,通過二進制隨機變量來控制子網之間的連接,并使用神經架構搜索[14]來探索最優(yōu)結構,以在保持多任務模型計算性能的同時實現(xiàn)更加靈活的參數(shù)共享。在此基礎上,多層級的多任務模型被提出,用于挖掘高維數(shù)據(jù)深層語義信息,如ML-MMOE(Multi-Layer MMOE)、PLE等。

    此外,一些具備更高效共享學習機制的其他多任務模型也被研究者研究[15-17],如:Hadash等[18]提出了一個同時學習排序任務和評級任務參數(shù)的多任務框架,通過共享底層表示改進了文獻[1]中的文本推薦任務;Akhtar等[19]利用多任務框架和任務之間的相關性,將多任務模型應用于推薦系統(tǒng)以分析用戶的多種情感,從而提升多任務學習性能;Zhao等[20]為能捕捉任務之間的差異、有效優(yōu)化多個目標,引入了基于輸入樣本的門控網絡[8],但該門控網絡無差別地對待所有專家,只通過控制門控網絡的權重參數(shù)優(yōu)化不同目標,很難解決復雜相關任務之間的信息共享[11]。CLS模型準確分離共享專家和特定任務專家,對于相關度復雜的任務,不絕對依賴于專家頂端的門控網絡與共享專家進行交流,共享信息在專家內部即能進行學習,從而更細粒度、簡單且高效地學習公共知識,有效減輕負遷移現(xiàn)象。

    2 交叉層級共享多任務模型

    交叉層級共享網絡的核心思想是在每個專家的內部均對公共知識進行學習,不同層級專家學習部分相同的共享信息。前者將共享專家學習到的公共信息以層級共享路由方式映射到不同層級的特定任務專家之中,不同層級的特定任務專家即可更深入地學習共享信息,從而更有利于信息共享和信息交流;后者可保留淺層共享專家的記憶能力,亦可維持特定任務專家的泛化能力。然后,使用了一個高效的門控網絡,該門控網絡能夠自主學習選擇怎樣的共享信息來提高模型性能。最后,結合交叉層級共享網絡和高效的門控網絡,提出了交叉層級數(shù)據(jù)共享多任務模型。

    2.1 交叉層級共享路由機制

    對于復雜且相互競爭的任務,僅利用門控網絡學習共享專家公共知識,可能會導致特定任務專家受到不必要的參數(shù)干擾。利用共享專家和特定任務專家之間知識的層級共享,可以更加細粒度地學習共享信息,任務相關度高時,能更準確地學習不同任務之間的公共信息;任務相關度低時,公共知識也能作為特定任務專家每層的輸入數(shù)據(jù)來進行學習,對于不需要共享的沖突信息,特定任務專家學習過程中只需給予其更低的重要度,即可降低干擾信息的影響,不再增加額外計算成本。這樣既能充分利用共享專家學習到的不同任務間的共享信息,更是弱化了門控網絡的作用,減輕了共享信息僅能通過門控網絡選擇而導致的依賴性。

    在交叉層級共享網絡中,所有專家使用相同的底層輸入表征,在輸入表征之上分離建模特定任務專家組件和共享專家組件,特定任務知識和公共知識在不同專家內部通過訓練自動學習,無需人為區(qū)分。以兩個任務的情況為例,如圖1所示,輸入層之上,分為TaskA、TaskB的特定任務專家組件,其中間灰色標志組件為共享專家。TaskA中,每兩個層級的特定任務專家共享一個層級的共享專家,如ExpertA1、ExpertA2兩者共用一個共享專家中的輸出數(shù)據(jù),共享專家的層數(shù)由特定任務專家的層數(shù)決定。共享專家中所有會在不同層級的特定任務專家中重復使用的數(shù)據(jù)已在圖1中用虛線箭頭標出。對于ExpertA1、ExpertA2,其輸入層均不使用共享專家中的輸出數(shù)據(jù),ExpertA1的Layer2和ExpertA2的Layer4使用專有的共享專家輸出數(shù)據(jù)。因此,對于具有K個任務的交叉層級共享網絡,第k個任務的輸出為:

    其中:wk為第k()個任務輸出層的可訓練參數(shù);x為輸入表示;Ck(x)是由前層神經網絡和共享專家最后一層神經網絡的輸出組成的向量。

    圖1 交叉層級共享網絡Fig. 1 Cross-layer shared network

    共享專家的神經網絡層數(shù)由特定任務專家決定,兩者層數(shù)相等。例如,當一個網絡具有兩層專家,每個專家具有三層神經網絡時,共享專家神經網絡的層數(shù)同為三層,所以,第一層特定任務專家的輸入依次為:(x,concat(Ek(1,1),),,其中,Ek(i,j)表示第k個任務第i層專家的第j層神經網絡的輸出,表示共享專家第l層神經網絡的輸出,此處默認mk和ms的值為1。同理可得,第二層特定任務專家的輸入依次為:(),concat(Ek(2,1),),concat(Ek(2,2),)),而對于每一層特定任務專家的輸入,其為前一層特定任務專家的輸出與相應共享專家的輸出。

    在此,定義不同層級專家的共享率p為:

    其中:Q表示共享專家的神經網絡層數(shù);q表示用于層級共享的隱藏層層數(shù)。p表示:在共享專家所有層的輸出數(shù)據(jù)中,為同一任務不同層級專家共享的數(shù)據(jù)所占總數(shù)據(jù)的比例。當特定任務專家只有單層神經網絡時,共享專家的輸出數(shù)據(jù)不傳給任何一個特定任務專家,此時模型退化為單任務模型,共享率為0;當其具有兩層神經網絡時,同一任務的每層特定任務專家具有不同的共享專家輸出數(shù)據(jù),共享率為0,由此往后,層數(shù)增加,共享率增加。

    交叉層級共享網絡采取共享專家和特定任務專家分離的方法,使得不同類型的專家能夠專注地學習所需要學習的知識,即:共享專家專注學習不同任務之間的公共知識,特定任務專家分別學習不同任務所需信息,消除共享知識和特定任務知識之間的參數(shù)沖突帶來的不利影響。這意味著,每個任務都會影響共享專家的參數(shù)取值,以及時調整共享專家內部公共特征學習的權重,而特定任務專家的參數(shù)取值只受到相應任務的影響。采用交叉層級共享方法后,特定任務專家內部每一層神經網絡都可以學習到部分公共知識,從而能更加細粒度地學習松散相關任務間的公共知識,且無需付出高昂的計算代價,對相互沖突的任務也不會引入更多的無關信息。此外,還聯(lián)合了不同層級專家之間的信息共享,保留淺層神經網絡的記憶能力,充分利用共享信息,緩解參數(shù)爆炸和共享信息抽象化、復雜化給模型性能帶來的不利影響。

    2.2 門控網絡

    考慮到不同任務對輸入數(shù)據(jù)樣本空間的依賴性,在每層專家的輸出層后加了一個定制共享門控網絡[7],網絡結構如圖2所示。

    圖2 門控網絡模型Fig. 2 Gated network model

    不同于MMOE簡單地使用輸入數(shù)據(jù)的線性轉換來建模不同專家的權重,該門控網絡通過對輸入層數(shù)據(jù)的加權來控制不同專家的重要度,能靈活選擇共享專家傳遞的共享信息。在該門控網絡中,輸入層的數(shù)據(jù)經過單層前饋神經網絡和softmax激活函數(shù)后,作為門控網絡選擇矩陣的權重,從而靈活地學習需要的共享知識,第k個任務的門控網絡的輸出為:

    其中:E(k,mk)表示第k個任務的第mk個子網的輸出;表示共享專家中第ms個子網的輸出。

    最終,第k個任務Tower層的輸出為:

    其中tk表示任務k的Tower層。

    門控網絡作用于每個特定任務專家的頂層,靈活選擇特定任務專家的輸出信息和共享專家的輸出信息。任務之間的相關度較高時,門控網絡會給予共享專家輸出信息更高的權重。當任務相關度較低時,門控網絡便會選擇性地將共享信息重要度降低,從而使特定任務專家能夠專注地學習所需知識,不會因為接收到的無關信息降低模型性能。

    2.3 CLS模型

    簡單的交叉層級共享網絡無法更深層次地抽取輸入表征中高階的語義信息,為解決該問題,設計了一個CLS模型。在該模型中,所有專家被分為特定任務專家和共享專家,門控網絡被應用于每個任務每個專家的頂層。如圖3所示,每個任務的共享專家和特定任務專家均由多個子網組成,并在專家內部所有子網的不同層級之間實現(xiàn)信息共享,除每個專家的頂層門控網絡與子網內部層級共享策略不同以外,所有特定任務專家與共享專家之間的信息共享策略均相同。

    圖3 多層級CLS模型Fig. 3 Multi-layer CLS model

    CLS模型中特定任務專家與共享專家的數(shù)據(jù)聯(lián)合方法同交叉層級共享網絡相同,每個專家頂層的門控網絡共享策略已經在2.2節(jié)提到。因此,在交叉層級多任務模型中,第k個任務第n()層的輸出為:

    其中:wk,n為第k個任務第n層交叉層級網絡以為輸入的可訓練參數(shù);為前一層交叉層級網絡的輸出;為第k個任務第n層的選擇矩陣,需要注意的是,共享專家的選擇矩陣與特定任務專家的選擇矩陣不同,其為所有任務的輸出向量和共享專家的輸出向量組合而成,組合方式同式(6)相同,不再贅述。

    因此,模型中任務k的最終輸出為:

    CLS模型通過共享專家與特定任務專家內部的信息交流,使得不同層級之間的專家也能對相同的共享信息進行學習。將不同任務之間的信息交互分布于每個專家內部,能更加高效地學習共享信息,減輕任務之間復雜相關度對特定任務專家知識學習的影響。

    3 實驗與結果分析

    CLS模型主要關注更加高效的知識共享,為了驗證其性能,將CLS模型在合成數(shù)據(jù)集、UCI census-income數(shù)據(jù)集和MovieLens數(shù)據(jù)集上和基線模型進行對比。由于現(xiàn)實世界中多任務模型常應用于不同任務類型的場景中,如兩個任務分別為分類任務和回歸任務,因此還在不同任務類型上對模型進行了實驗。此外,還分析了門控網絡對于模型性能的影響以及CLS模型在不同任務相關度上的表現(xiàn),進一步驗證了CLS模型在共享知識學習和改善負遷移現(xiàn)象上的有效性。

    3.1 合成數(shù)據(jù)集上的實驗

    3.1.1 數(shù)據(jù)集

    Synthetic Data是基于控制任務相關度而從系統(tǒng)中生成的數(shù)據(jù)[8],在本文實驗中,依照文獻[8]中原有的數(shù)據(jù)生成規(guī)則,使αi和βi服從N(0,0.01)的正態(tài)分布,設置。同時,如表1所示,共包含兩部分合成數(shù)據(jù),在驗證模型性能時,共生成120萬條數(shù)據(jù)樣本,其中100萬條為訓練數(shù)據(jù),10萬條為驗證數(shù)據(jù),其余數(shù)據(jù)為測試數(shù)據(jù)。

    在驗證任務相關度對模型性能的影響時,共使用了12萬條數(shù)據(jù),任務相關度分別設置為[0.2,0.5,0.8,1],訓練集、驗證集、測試集的數(shù)據(jù)分配策略同上。

    表1 實驗中使用的合成數(shù)據(jù)集Tab. 1 Synthetic datasets used in experiments

    3.1.2 對比模型

    將本文提出的交叉層級數(shù)據(jù)共享多任務(CLS)模型與以下模型進行對比:

    1)Shared-bottom模型[1]。該共享底層模型是廣泛應用于多任務模型中的方法,其基本理念是使不同的任務共享一個知識抽取網絡,僅tower層輸出相分離。

    2)MMOE模型[8]。該模型提出對每個任務使用基于輸入樣本的門控單元控制每個專家的重要度,從而使不同的任務在同一個專家上具備一定的選擇能力。

    3.1.3 實驗步驟

    合成數(shù)據(jù)集上一共進行了兩個實驗:

    1)第一個實驗的目的是為了評估在大規(guī)模數(shù)據(jù)集上模型的性能,因此依照合成數(shù)據(jù)的生成方式[8],共生成了120萬條數(shù)據(jù)。實驗過程中,為保證公平性,使共享底層模型設置為一個三層[256,128,64]的多層感知機(Multi-Layer Perceptron, MLP)網絡;MMOE的神經元個數(shù)及專家個數(shù)的參數(shù)設置依照原文獻中的實驗結果,分別為16和8;CLS模型中需要調整的參數(shù)為每個專家神經元個數(shù),在保證模型不過擬合或欠擬合的情況下進行參數(shù)調整,最終一共設置兩層專家,共享率為2/3,每個專家為兩層的神經網絡,每層網絡及門控網絡神經元個數(shù)均為16。同時,保證共享底層模型、MMOE、CLS的模型參數(shù)依次減少,其中CLS模型的參數(shù)個數(shù)少于任何一個對比模型。對于每個模型,其任務相關度(即皮爾遜相關系數(shù))為0.6,所有模型初始學習率為0.000 01,迭代次數(shù)為300。

    2)第二個實驗的目的是驗證不同任務相關度對模型性能的影響。此實驗中,對MMOE和CLS模型進行了對比實驗,任務相關度依次控制為[0.2,0.5,0.8,1]。針對每個任務相關度生成了12萬條數(shù)據(jù),其中MMOE中設置8個專家,每個專家4個神經元,CLS模型具有兩層專家,每個專家均為兩層神經網絡,每層8個神經元。模型用Adam優(yōu)化器進行訓練,學習率從[0.000 1,0.001,0.01]中進行網格搜索。CLS的模型參數(shù)少于MMOE的模型參數(shù),迭代次數(shù)為300。

    在第一個實驗中,統(tǒng)計了隨著迭代次數(shù)的增加,各模型在大規(guī)模數(shù)據(jù)上均方誤差(Mean Square Error, MSE)值的變化。在第二個實驗中,同樣用MSE值來衡量不同任務相關度對不同模型性能的影響。

    3.1.4 結果分析

    在合成數(shù)據(jù)1上的實驗結果如圖4所示。從圖4可以看出,所有任務中共享底層模型的表現(xiàn)較不理想。隨著迭代次數(shù)的增加,所提模型的MSE值均低于MMOE模型,保持良好的效果,而且MSE值的波動較為平穩(wěn),模型性能較為穩(wěn)定。這表明,相較于MMOE和共享底層模型,CLS模型中的交叉層級數(shù)據(jù)共享并未給特定任務專家引入過多噪聲,在大規(guī)模數(shù)據(jù)上具有較好的表現(xiàn),具備處理超大規(guī)模數(shù)據(jù)的能力。

    圖4 三種模型的MSE比較Fig. 4 MSE comparison of three models

    關于任務相關度對模型性能的影響如圖5所示。在這個實驗中,比較了MMOE模型和CLS模型在不同任務相關度上的表現(xiàn),可以看出:

    1)任務相關度較低時,MMOE模型表現(xiàn)不佳;而對于所提出的模型,任務相關度對模型性能的影響不明顯。這表明,即使在相關度低的任務上,因為對共享信息的充分學習,所提模型的性能未受影響,不同任務之間相互沖突的信息亦并未造成負遷移現(xiàn)象。

    2)在不同相關度、不同任務上,所提出模型的表現(xiàn)均優(yōu)于MMOE。即使具備更少的可訓練參數(shù),所提出CLS模型的性能均超過具備更多可訓練參數(shù)的MMOE模型。

    圖5 不同模型在不同相關度上的性能比較Fig. 5 Performance comparison of different models with different correlations

    3.2 真實數(shù)據(jù)集上的實驗

    3.2.1 數(shù)據(jù)集

    UCI census-income數(shù)據(jù)集:該數(shù)據(jù)集是從1994年美國人口普查數(shù)據(jù)庫中抽取得到,包含299 285個成年人的統(tǒng)計數(shù)據(jù)實例,共計40個特征。為了驗證多任務模型的效果,將其兩個任務標簽分別設置為Income和Marital status,前者預測其年收入是否大于$50 000,后者預測其婚姻狀況,兩個任務均為分類問題,其相關度為0.176 8[8]。

    MovieLens數(shù)據(jù)集:該數(shù)據(jù)集是推薦系統(tǒng)領域廣泛使用的數(shù)據(jù)集,包含943個用戶對1 682部電影的100 000條評分(1~5分),其中每個用戶對不同電影的評分數(shù)據(jù)不少于20條。在此數(shù)據(jù)集中,訓練集和測試集數(shù)據(jù)的比例為7∶3;將對用戶的年齡預測視為回歸任務,用戶對電影的評分預測視為分類任務,即當評分大于3時,表示用戶喜歡這部電影,否則為不喜歡該電影,其任務相關度約為0.055。表2給出了兩個數(shù)據(jù)集在實驗中的數(shù)據(jù)分布細節(jié)。

    表2 實驗中使用的真實數(shù)據(jù)集Tab. 2 Real datasets used in experiments

    3.2.2 對比模型

    Single-task[21]:使用兩個分離的MLP網絡來分別預測不同任務,該模型中兩個任務具有相同的輸入數(shù)據(jù)。

    Cross-stitch模型[9]:該模型使用兩個交叉共享單元學習兩個任務之間的公共知識,一個系數(shù)矩陣來學習不同任務隱藏層的輸出,通過自動調整系數(shù)矩陣中參數(shù)的值控制不同任務之間的共享知識學習。

    PLE模型[7]:該模型分離特定任務專家和共享專家,并使用門控網絡選擇性地學習共享專家和特定任務專家的知識。

    CLS-0:本文提出的交叉層級共享網絡,為了驗證交叉層級共享網絡的作用,在此網絡中使用的門控單元與MMOE中相同,其余數(shù)據(jù)共享和輸出與2.1節(jié)提到的相同。

    此外,對比模型還包括共享底層模型、MMOE模型以及本文提到的CLS模型。

    3.2.3 實驗步驟

    在兩個真實數(shù)據(jù)集上進行了對比實驗,第一個為UCI census-income數(shù)據(jù)集,在這個數(shù)據(jù)集上,對比了單任務模型、共享底層模型、Cross-stitch模型以及MMOE模型。為驗證交叉層級共享網絡的作用,同時比較了CLS-0和CLS的模型性能。本文實驗中,對比模型的參數(shù)均參照原文獻中針對相應數(shù)據(jù)集得出的最佳結果,CLS-0和CLS中需要調整的參數(shù)包括神經元個數(shù)。根據(jù)文獻[7-8]中所用對比模型在該數(shù)據(jù)集上的參數(shù)設置,單任務模型和共享底層模型均為一個三層的MLP網絡,其神經元個數(shù)依次為[32,16,8],Cross-stitch模型、CLS-0和CLS的神經元個數(shù)為32,MMOE設置8個專家,每個專家4個神經元,PLE模型依照原文獻設置兩層專家網絡,每個專家為單層神經網絡,包含16個神經元。所有模型初始學習率為0.001,迭代次數(shù)為400。

    第二個數(shù)據(jù)集為MovieLens數(shù)據(jù)集,在這個數(shù)據(jù)集上對比了共享底層模型、Cross-stitch模型、MMOE模型以及PLE模型和本文提出的CLS-0、CLS模型。共享底層模型為[128,64,32]的三層神經網絡,MMOE、PLE和Cross-stitch模型的參數(shù)設置同上不變,CLS和CLS-0模型神經元個數(shù)設置為16,所有模型中,初始學習率為0.000 1,迭代次數(shù)為400。

    在以上兩個數(shù)據(jù)集的實驗中,第一個實驗使用了AUC(Area Under Curve)、F1-score、ACC(ACCuracy)指標來衡量分類任務模型性能;第二個實驗,由于兩個任務類型的不同,分別使用MSE和AUC來衡量不同模型在兩個任務上的表現(xiàn)。此外,還定義了一個新的評價指標——多任務模型綜合值(Multi-task model Comprehensive Value, MCV),來衡量多任務模型在不同任務上的綜合表現(xiàn)。給定一個多任務模型,該模型每個任務的指標值為,其MCV定義為:在同一樣本中,具備相同任務的任意多任務模型的每個任務指標值的綜合之和,MCV值越大,表示模型性能越佳。

    3.2.4 結果分析

    在UCI census-income數(shù)據(jù)集上各模型性能的表現(xiàn)如表3所示,用加粗字體標注出了所提模型在兩個任務(Task1-Income、Task2-Marital)上的AUC值、F1-score、ACC值以及每個指標的MCV,同時比較了CLS-0和各對比模型之間的性能差異,可以看出:

    1)CLS-0模型的共享策略使得模型性能相較于所有基線模型有顯著的提升,進一步驗證了CLS-0模型的交叉共享機制能夠更深入地學習不同任務間復雜相關的共享信息。

    2)加入的門控網絡使得CLS模型在所有模型中表現(xiàn)最佳,相較于MMOE模型,對兩個任務的F1值分別提高了7.87個百分點和1.19個百分點,表明了基于任務樣本空間的門控網絡有助于提升模型性能。

    3)CLS-0模型的MCV-F1值相較于MMOE模型提升了7.63個百分點,在對專家內部的知識共享進行建模并考慮淺層共享專家的記憶能力后,模型性能在預測結果的F1值上有所提升。

    表3 UCI census-income 數(shù)據(jù)集上的實驗結果Tab. 3 Experimental results on UCI census-income dataset

    考慮到不同任務類型對模型性能的影響,在MovieLens數(shù)據(jù)集上同樣做了對比實驗。在任務分別為預測用戶年齡和預測用戶對電影的評分時,比較了共享底層模型、Cross-stitch模型、MMOE模型、PLE模型、CLS-0以及CLS模型的表現(xiàn),其中預測年齡和預測評分的任務分別為回歸任務和分類任務。使用MSE、AUC指標來評價模型的表現(xiàn),如圖6所示。

    圖6 不同模型在不同任務類型上的性能比較Fig. 6 Performance comparison of different models on different task types

    可以得出:

    1)共享底層模型在預測年齡和評分兩個任務上均表現(xiàn)不佳。年齡任務和評分任務兩者的相關度較低,而大部分多任務模型往往擅長處理任務相關度較高的情況,任務之間復雜度較低時,表現(xiàn)并不理想[7]。

    2)Cross-stitch和MMOE兩個模型均出現(xiàn)了seesaw現(xiàn)象,即在提升一個任務的性能時,伴隨著另一個任務性能的下降。

    3)CLS-0模型的交叉共享路由策略提升了模型性能;CLS模型在所有模型中表現(xiàn)最佳,回歸任務的MSE值降低到0.004 7,分類任務的AUC值提高到0.642,并未受到seesaw現(xiàn)象的影響,顯著優(yōu)于其他基線模型。

    4 結語

    針對多任務模型中公共信息共享存在的負遷移問題,本文提出了交叉層級信息共享多任務模型。該模型結合特定的層級信息路由機制及不同層級專家之間的信息交叉共享,深入學習相關任務間的公共知識,提高預測目標準確度。實驗結果表明,所提CLS模型不僅能穩(wěn)定地處理大規(guī)模數(shù)據(jù),且能在復雜相關的知識中有效學習到不同任務之間的共享表示,同時具備應對任務相關度較低場景的能力,有效避免了seesaw現(xiàn)象的不利影響。未來將持續(xù)探索更加高效的信息路由機制,以及研究怎樣的層級信息共享方法更具備可解釋性。

    [1] CARUANA R. Multitask learning [M]// THRUN S, PRATT L. Learning to Learn. New York: Springer, 1998: 95-133.

    [2] 章蓀,尹春勇.基于多任務學習的時序多模態(tài)情感分析模型[J].計算機應用,2021,41(6):1631-1639.(ZHANG S, YIN C Y. Sequential multimodal sentiment analysis model based on multi-task learning [J]. Journal of Computer Applications, 2021, 41(6): 1631-1639.)

    [3] 姜堯崗,孫曉剛,林云.基于多任務卷積神經網絡人臉檢測網絡的優(yōu)化加速方法[J].計算機應用,2019,39(S2):59-62.(JIANG Y G, SUN X G,LIN Y. Optimization acceleration method for face detection network based on multi-task convolutional neural network[J]. Journal of Computer Applications, 2019, 39(S2): 59-62.)

    [4] BANSAL T, BELANGER D, MCCALLUM A. Ask the GRU: multitask learning for deep text recommendations [C]// Proceedings of the 2016 10th ACM Conference on Recommender Systems. New York: ACM, 2016: 107-114.

    [5] SHAO C J, FU H M, CHENG P J. Improving one-class recommendation with multi-tasking on various preference intensities [C]// Proceedings of the 2020 14th ACM Conference on Recommender Systems. New York: ACM, 2020: 498-502.

    [6] LU Y C, DONG R H, SMYTH B. Why I like it: multi-task learning for recommendation and explanation [C]// Proceedings of the 2018 12th ACM Conference on Recommender Systems. New York: ACM, 2018: 4-12.

    [7] TANG H Y, LIU J N, ZHAO M, et al. Progressive Layered Extraction (PLE): a novel Multi-Task Learning (MTL) model for personalized recommendations [C]// Proceedings of the 2020 14th ACM Conference on Recommender Systems. New York: ACM, 2020: 269-278.

    [8] MA J Q, ZHAO Z, YI X Y, et al. Modeling task relationships in multi-task learning with multi-gate mixture-of-experts [C]// Proceedings of the 2018 24th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2018:1930-1939.

    [9] ISHAN M, ABHINAV S, GUPTA A, et al. Cross-stitch networks for multi-task learning [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE,2016: 3994-4003.

    [10] RUDER S, BINGEL J, AUGENSTEIN I, et al. Sluice networks: learning what to share between loosely related tasks [EB/OL]. [2021-02-11]. https://arxiv.org/pdf/1705.08142v1.pdf.

    [11] ZHANG Y, YANG Q. An overview of multi-task learning [J]. National Science Review, 2018, 5(1): 30-43.

    [12] JACOBS R A, JORDAN M I, NOWLAN S J, et al. Adaptive mixtures of local experts [J]. Neural Computation, 1991, 3(1): 79-87.

    [13] MA J Q, ZHAO Z, CHEN J L, et al. SNR: sub-network routing for flexible parameter sharing in multi-task learning[C]// Proceedings of the 2019 33rd AAAI Conference on Artificial Intelligence. Palo Alto: AAAI Press, 2019:216-223.

    [14] ZOPH B, LE Q V. Neural architecture search with reinforcement learning [EB/OL]. [2021-02-11]. https://arxiv.org/pdf/1611. 01578.pdf.

    [15] WANG N, WANG H N, JIA Y L, et al. Explainable recommendation via multi-task learning in opinionated text data [C]// Proceedings of the 2018 41st International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM, 2018: 165-174.

    [16] WANG J L, HOI S C H, ZHAO P L, et al. Online multitask collaborative filtering for on-the-fly recommender systems [C]// Proceedings of the 2013 7th ACM Conference on Recommender Systems. New York: ACM, 2013: 237-244.

    [17] QIN Z, CHENG Y C, ZHAO Z, et al. Multitask mixture of sequential experts for user activity streams [C]// Proceedings of the 2020 26th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2020: 3083-3091.

    [18] HADASH G, SHALOM O S, OSADCHY R. Rank and rate: multi-task learning for recommender systems [C]// Proceedings of the 2018 12th ACM Conference on Recommender Systems. New York: ACM, 2018: 451-454.

    [19] AKHTAR M S, CHAUHAN D S, EKBAL A. A deep multi-task contextual attention framework for multi-modal affect analysis [J]. ACM Transaction on Knowledge Discovery from Data, 2020, 14(3): Article No.32.

    [20] ZHAO Z, HONG L C, WEI L, et al. Recommending what video to watch next: a multi-task ranking system [C]// Proceedings of the 2019 13th ACM Conference on Recommender Systems. New York: ACM, 2019: 43-51.

    [21] ROSENBLATT F. The perceptron: a probabilistic model for information storage and organization in the brain [J]. Psychological Review, 1958, 65(6): 386-408.

    Cross-layer data sharing based multi-task model

    CHEN Ying1, YU Jiong1,2*, CHEN Jiaying2, DU Xusheng2

    (1.School of Software,Xinjiang University,Urumqi Xinjiang830091,China;2.College of Information Science and Engineering,Xinjiang University,Urumqi Xinjiang830046,China)

    To address the issues of negative transfer and difficulty of information sharing between loosely correlated tasks in multi-task learning model, a cross-layer data sharing based multi-task model was proposed. The proposed model pays attention to fine-grained knowledge sharing, and is able to retain the memory ability of shallow layer shared experts and generalization ability of deep layer specific task experts. Firstly,multi-layer shared experts were unified to obtain public knowledge among complicatedly correlated tasks. Then, the shared information was transferred to specific task experts at different layers for sharing partial public knowledge between the upper and lower layers. Finally, the data sample based gated network was used to select the needed information for different tasks autonomously, thereby alleviating the harmful effects of sample dependence to the model. Compared with the Multi-gate Mixture-Of-Experts (MMOE) model, the proposed model improved the F1-score of two tasks by 7.87 percentage points and 1.19 percentage points respectively on UCI census-income dataset. The proposed model also decreased the Mean Square Error (MSE)value of regression task to 0.004 7 and increased the Area Under Curve (AUC) value of classification task to 0.642 on MovieLens dataset. Experimental results demonstrate that the proposed model is suitable to improve the influence of negative transfer and can learn public information among complicated related tasks more efficiently.

    multi-task learning; information sharing; negative transfer; neural network; transfer learning

    TP311.1

    A

    1001-9081(2022)05-1447-08

    10.11772/j.issn.1001-9081.2021030516

    2021?04?06;

    2021?06?22;

    2021?06?22。

    國家自然科學基金資助項目(61862060,61462079,61562086)。

    陳穎(1999—),女,湖南婁底人,碩士研究生,主要研究方向:數(shù)據(jù)挖掘、機器學習; 于炯(1964—),男,北京人,教授,博士生導師,博士,主要研究方向:綠色計算、機器學習、數(shù)據(jù)挖掘; 陳嘉穎(1988—),女,新疆沙灣人,博士研究生,主要研究方向:推薦系統(tǒng)、數(shù)據(jù)挖掘; 杜旭升(1995—),男,甘肅慶陽人,博士研究生,CCF會員,主要研究方向:機器學習、數(shù)據(jù)挖掘。

    This work is partially supported by National Natural Science Foundation of China (61862060,61462079, 61562086).

    CHEN Ying, born in 1999, M. S. candidate. Her research interests include data mining, machine learning.

    YU Jiong, born in 1964, Ph. D., professor. His research interests include green computing, machine learning, data mining.

    CHEN Jiaying, born in 1988, Ph. D. candidate. Her research interests include recommender system, data mining.

    DU Xusheng, born in 1995, Ph. D. candidate. His research interests include machine learning, data mining.

    猜你喜歡
    信息模型
    一半模型
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權M-估計的漸近分布
    訂閱信息
    中華手工(2017年2期)2017-06-06 23:00:31
    3D打印中的模型分割與打包
    FLUKA幾何模型到CAD幾何模型轉換方法初步研究
    展會信息
    中外會展(2014年4期)2014-11-27 07:46:46
    一個相似模型的應用
    信息
    健康信息
    祝您健康(1987年3期)1987-12-30 09:52:32
    亚洲第一区二区三区不卡| 亚洲成人中文字幕在线播放| 色婷婷av一区二区三区视频| 久久久久久久精品精品| 国产老妇伦熟女老妇高清| 国产日韩欧美亚洲二区| 岛国毛片在线播放| 亚洲欧美精品专区久久| 国产精品三级大全| 欧美xxxx性猛交bbbb| 久久久久久久亚洲中文字幕| 男女免费视频国产| 日韩三级伦理在线观看| 久久久色成人| 丝袜喷水一区| 日本-黄色视频高清免费观看| 一区二区av电影网| 国产高清有码在线观看视频| 亚洲国产成人一精品久久久| 看十八女毛片水多多多| 少妇丰满av| 观看美女的网站| 久久人人爽人人片av| 亚洲丝袜综合中文字幕| 男女啪啪激烈高潮av片| 久久久久人妻精品一区果冻| 免费在线观看成人毛片| 午夜免费男女啪啪视频观看| 国产精品偷伦视频观看了| 欧美少妇被猛烈插入视频| 国产精品嫩草影院av在线观看| 精品人妻一区二区三区麻豆| 精品国产露脸久久av麻豆| 最新中文字幕久久久久| 亚洲aⅴ乱码一区二区在线播放| 国产69精品久久久久777片| 午夜免费男女啪啪视频观看| 久久99蜜桃精品久久| 精品一区在线观看国产| 久久人人爽人人片av| 久热这里只有精品99| 少妇高潮的动态图| 亚洲伊人久久精品综合| 我要看黄色一级片免费的| 又爽又黄a免费视频| 国产黄片美女视频| 国产精品一及| 男人爽女人下面视频在线观看| 一个人免费看片子| 91久久精品电影网| 男女国产视频网站| 校园人妻丝袜中文字幕| 在线观看免费高清a一片| 看十八女毛片水多多多| 国产精品麻豆人妻色哟哟久久| av在线app专区| 亚洲人成网站在线播| 中文字幕免费在线视频6| 亚洲不卡免费看| 伊人久久国产一区二区| 直男gayav资源| 国产大屁股一区二区在线视频| 亚洲第一av免费看| 久久国产精品男人的天堂亚洲 | 99热这里只有是精品50| 久久久精品免费免费高清| 免费观看av网站的网址| 一级毛片 在线播放| 国产亚洲91精品色在线| 亚洲精品乱久久久久久| 亚洲av在线观看美女高潮| 国产v大片淫在线免费观看| 男人狂女人下面高潮的视频| 国产无遮挡羞羞视频在线观看| 妹子高潮喷水视频| 极品少妇高潮喷水抽搐| 欧美成人午夜免费资源| 在线观看免费视频网站a站| 国产精品不卡视频一区二区| 女人久久www免费人成看片| 看十八女毛片水多多多| 国产高潮美女av| 高清黄色对白视频在线免费看 | 日本与韩国留学比较| 久久人人爽人人爽人人片va| 99热这里只有是精品在线观看| 尾随美女入室| 又大又黄又爽视频免费| 久久午夜福利片| 国产日韩欧美亚洲二区| 91午夜精品亚洲一区二区三区| 伦理电影免费视频| 中文字幕亚洲精品专区| av天堂中文字幕网| 免费观看a级毛片全部| 91aial.com中文字幕在线观看| 免费黄网站久久成人精品| 一级av片app| 嘟嘟电影网在线观看| 国产欧美日韩一区二区三区在线 | 欧美精品人与动牲交sv欧美| 大话2 男鬼变身卡| 天天躁夜夜躁狠狠久久av| 国产一区二区在线观看日韩| 少妇人妻一区二区三区视频| 国产欧美另类精品又又久久亚洲欧美| 久久人人爽人人爽人人片va| 免费观看无遮挡的男女| 日本欧美国产在线视频| 国产精品一二三区在线看| 亚洲美女搞黄在线观看| 精品人妻一区二区三区麻豆| 久久亚洲国产成人精品v| 国产精品一区二区在线观看99| 亚洲伊人久久精品综合| 毛片女人毛片| 日日摸夜夜添夜夜添av毛片| 91精品国产国语对白视频| 亚洲精品日本国产第一区| 午夜视频国产福利| 视频区图区小说| 午夜福利影视在线免费观看| 人妻 亚洲 视频| 亚洲激情五月婷婷啪啪| 嫩草影院入口| 一级爰片在线观看| 91aial.com中文字幕在线观看| 高清不卡的av网站| 亚洲人成网站高清观看| 国产精品成人在线| 一级毛片久久久久久久久女| 久久精品国产亚洲av天美| 99视频精品全部免费 在线| 国产精品人妻久久久影院| 下体分泌物呈黄色| 少妇的逼水好多| 亚洲美女黄色视频免费看| 在线观看免费高清a一片| 又黄又爽又刺激的免费视频.| 永久免费av网站大全| 亚洲精品国产色婷婷电影| 欧美3d第一页| 肉色欧美久久久久久久蜜桃| 国国产精品蜜臀av免费| 蜜桃久久精品国产亚洲av| 亚洲国产高清在线一区二区三| 国国产精品蜜臀av免费| 色视频www国产| 网址你懂的国产日韩在线| 国产精品国产三级国产专区5o| 精品一区二区三区视频在线| 久久精品夜色国产| 精品亚洲乱码少妇综合久久| 又爽又黄a免费视频| av专区在线播放| 国产精品国产av在线观看| 亚洲av二区三区四区| av网站免费在线观看视频| 哪个播放器可以免费观看大片| 自拍欧美九色日韩亚洲蝌蚪91 | videossex国产| 亚洲人成网站高清观看| 欧美日韩在线观看h| 卡戴珊不雅视频在线播放| 日日啪夜夜爽| 久久热精品热| 亚洲aⅴ乱码一区二区在线播放| 亚洲人成网站高清观看| 国产一区二区在线观看日韩| 99久国产av精品国产电影| 欧美老熟妇乱子伦牲交| 18禁裸乳无遮挡动漫免费视频| 小蜜桃在线观看免费完整版高清| 免费观看a级毛片全部| 日韩免费高清中文字幕av| 久久毛片免费看一区二区三区| 亚洲熟女精品中文字幕| 国产 精品1| 精品少妇黑人巨大在线播放| 精品一区二区免费观看| 国产人妻一区二区三区在| 久久这里有精品视频免费| 在线观看一区二区三区激情| 一级二级三级毛片免费看| 亚洲婷婷狠狠爱综合网| 五月天丁香电影| videos熟女内射| 人妻少妇偷人精品九色| 欧美一区二区亚洲| 欧美精品亚洲一区二区| 直男gayav资源| 国产毛片在线视频| 国产日韩欧美亚洲二区| 日韩,欧美,国产一区二区三区| 免费av不卡在线播放| 国产极品天堂在线| 爱豆传媒免费全集在线观看| av卡一久久| 最近的中文字幕免费完整| 成人一区二区视频在线观看| 黑丝袜美女国产一区| 一边亲一边摸免费视频| 欧美高清性xxxxhd video| 成人毛片a级毛片在线播放| 日韩成人av中文字幕在线观看| 国产大屁股一区二区在线视频| 亚洲精品久久久久久婷婷小说| 91精品伊人久久大香线蕉| 国产一区有黄有色的免费视频| 日产精品乱码卡一卡2卡三| 六月丁香七月| 亚洲久久久国产精品| 丰满人妻一区二区三区视频av| 在线免费观看不下载黄p国产| 久久久久久久久久久免费av| 青青草视频在线视频观看| 精品亚洲成国产av| 3wmmmm亚洲av在线观看| 最近的中文字幕免费完整| 老司机影院毛片| a级毛片免费高清观看在线播放| 久久精品国产a三级三级三级| 亚洲av欧美aⅴ国产| 毛片一级片免费看久久久久| 久热这里只有精品99| 国产精品av视频在线免费观看| 免费黄色在线免费观看| 少妇人妻 视频| 狂野欧美激情性bbbbbb| 亚洲欧美一区二区三区黑人 | 在线观看免费高清a一片| 亚洲丝袜综合中文字幕| 18禁裸乳无遮挡动漫免费视频| 超碰97精品在线观看| 欧美三级亚洲精品| 国产成人a∨麻豆精品| av视频免费观看在线观看| 欧美日韩精品成人综合77777| 国产亚洲精品久久久com| 伊人久久精品亚洲午夜| 一边亲一边摸免费视频| av在线老鸭窝| 国产一区二区在线观看日韩| 久久久久性生活片| 中文字幕av成人在线电影| 国产免费一区二区三区四区乱码| 99re6热这里在线精品视频| 一级片'在线观看视频| 中文字幕免费在线视频6| 男的添女的下面高潮视频| 18禁在线无遮挡免费观看视频| 亚洲精品一二三| 国产精品人妻久久久影院| 大话2 男鬼变身卡| 深爱激情五月婷婷| 欧美高清成人免费视频www| 亚洲精品乱久久久久久| 97在线人人人人妻| 国产精品无大码| 高清欧美精品videossex| 欧美3d第一页| 国产精品三级大全| 久久影院123| 亚洲va在线va天堂va国产| 久久精品国产a三级三级三级| .国产精品久久| 丰满人妻一区二区三区视频av| 国产老妇伦熟女老妇高清| 日韩视频在线欧美| 麻豆成人av视频| 制服丝袜香蕉在线| 亚洲自偷自拍三级| 国产精品嫩草影院av在线观看| 一级爰片在线观看| 日韩欧美 国产精品| 99久久精品热视频| 好男人视频免费观看在线| 亚洲精品国产av成人精品| 亚洲成人一二三区av| 少妇的逼水好多| 男人舔奶头视频| 亚洲综合色惰| 91精品伊人久久大香线蕉| 国产精品国产av在线观看| 国产精品一及| 久久精品国产a三级三级三级| 日本av免费视频播放| 男人和女人高潮做爰伦理| 99国产精品免费福利视频| 色哟哟·www| 老师上课跳d突然被开到最大视频| 成人黄色视频免费在线看| 狂野欧美激情性bbbbbb| 国产永久视频网站| av国产久精品久网站免费入址| 亚洲,欧美,日韩| 男女国产视频网站| 欧美变态另类bdsm刘玥| 欧美国产精品一级二级三级 | 免费观看性生交大片5| 亚洲一级一片aⅴ在线观看| 97热精品久久久久久| 久久精品熟女亚洲av麻豆精品| 日产精品乱码卡一卡2卡三| 最近手机中文字幕大全| 日日摸夜夜添夜夜添av毛片| 99久久中文字幕三级久久日本| 在线免费观看不下载黄p国产| 伊人久久精品亚洲午夜| 看非洲黑人一级黄片| 女人十人毛片免费观看3o分钟| 免费在线观看成人毛片| 国产成人一区二区在线| 哪个播放器可以免费观看大片| 亚洲欧美日韩卡通动漫| 亚洲国产成人一精品久久久| 在线天堂最新版资源| 激情五月婷婷亚洲| 欧美 日韩 精品 国产| 三级经典国产精品| 亚洲精华国产精华液的使用体验| 国产高潮美女av| 综合色丁香网| 欧美高清性xxxxhd video| 国产成人精品久久久久久| 日韩制服骚丝袜av| 欧美日韩国产mv在线观看视频 | 一个人看的www免费观看视频| 久久久久视频综合| 亚洲人与动物交配视频| 赤兔流量卡办理| 亚洲av国产av综合av卡| 精品午夜福利在线看| 最近的中文字幕免费完整| 99re6热这里在线精品视频| 亚洲av成人精品一二三区| 欧美日韩国产mv在线观看视频 | 亚洲精品国产色婷婷电影| 亚洲丝袜综合中文字幕| 97在线视频观看| 男人添女人高潮全过程视频| 一级a做视频免费观看| 久久国产精品男人的天堂亚洲 | 日韩在线高清观看一区二区三区| 亚洲av电影在线观看一区二区三区| 秋霞伦理黄片| 国产视频首页在线观看| 国产欧美日韩精品一区二区| 一级a做视频免费观看| 亚洲三级黄色毛片| 少妇的逼好多水| 国产淫语在线视频| 一级a做视频免费观看| 久久精品熟女亚洲av麻豆精品| 中文精品一卡2卡3卡4更新| 99热这里只有是精品50| 一边亲一边摸免费视频| 欧美变态另类bdsm刘玥| 99九九线精品视频在线观看视频| 亚洲在久久综合| 成人18禁高潮啪啪吃奶动态图 | 三级国产精品片| 汤姆久久久久久久影院中文字幕| 免费黄色在线免费观看| 一区二区三区精品91| 狂野欧美激情性bbbbbb| 天天躁夜夜躁狠狠久久av| 国产片特级美女逼逼视频| 亚洲欧美精品自产自拍| 国产人妻一区二区三区在| 寂寞人妻少妇视频99o| 日韩亚洲欧美综合| 日韩一本色道免费dvd| 国产精品精品国产色婷婷| 亚洲人成网站高清观看| 精品久久久久久久久av| 国产精品国产av在线观看| 日韩强制内射视频| 国产毛片在线视频| 久久97久久精品| 人妻制服诱惑在线中文字幕| 亚洲婷婷狠狠爱综合网| 亚洲国产高清在线一区二区三| 亚洲高清免费不卡视频| 国产高清不卡午夜福利| 高清欧美精品videossex| 天堂中文最新版在线下载| 在现免费观看毛片| 亚洲激情五月婷婷啪啪| 欧美3d第一页| 精品国产三级普通话版| 精品人妻一区二区三区麻豆| 亚洲av福利一区| 成人综合一区亚洲| 日本猛色少妇xxxxx猛交久久| 秋霞伦理黄片| 丰满迷人的少妇在线观看| 亚洲久久久国产精品| 久久青草综合色| 久久鲁丝午夜福利片| 午夜福利视频精品| 免费观看av网站的网址| 精品人妻熟女av久视频| 亚洲欧美精品专区久久| 免费黄网站久久成人精品| 久久久久网色| 三级国产精品欧美在线观看| 水蜜桃什么品种好| 久久99精品国语久久久| 欧美极品一区二区三区四区| 日本vs欧美在线观看视频 | .国产精品久久| 一级毛片我不卡| 国产成人精品久久久久久| 人妻少妇偷人精品九色| 黄片无遮挡物在线观看| 亚洲人成网站在线播| 色婷婷av一区二区三区视频| 精品一区二区三卡| 伦理电影免费视频| 亚洲欧美日韩东京热| 男男h啪啪无遮挡| 插逼视频在线观看| 精品人妻熟女av久视频| 91aial.com中文字幕在线观看| 亚洲国产成人一精品久久久| av免费在线看不卡| 美女中出高潮动态图| 91久久精品国产一区二区三区| 高清视频免费观看一区二区| 亚洲成人手机| 国产精品久久久久久久电影| 国产人妻一区二区三区在| 久久久午夜欧美精品| 婷婷色av中文字幕| 麻豆国产97在线/欧美| 中文字幕免费在线视频6| 亚洲国产av新网站| 国产免费又黄又爽又色| 国产高清国产精品国产三级 | 大片免费播放器 马上看| 国产精品久久久久久久电影| 亚洲人与动物交配视频| 美女主播在线视频| 一个人免费看片子| 成人特级av手机在线观看| 亚洲国产精品999| 久久99热这里只频精品6学生| 久久久久久久久久久免费av| 一本一本综合久久| 久久99精品国语久久久| 亚洲成色77777| 毛片女人毛片| 欧美亚洲 丝袜 人妻 在线| 晚上一个人看的免费电影| 欧美bdsm另类| 国产精品伦人一区二区| av在线观看视频网站免费| 亚洲高清免费不卡视频| 国产精品久久久久久av不卡| 亚洲三级黄色毛片| 高清日韩中文字幕在线| 国产精品一二三区在线看| 成人毛片a级毛片在线播放| 亚洲欧美清纯卡通| 欧美最新免费一区二区三区| 亚洲精品久久午夜乱码| 91狼人影院| 97在线视频观看| 久久婷婷青草| 又粗又硬又长又爽又黄的视频| 免费人成在线观看视频色| 国产男人的电影天堂91| 老师上课跳d突然被开到最大视频| 少妇人妻 视频| 亚洲av不卡在线观看| 黄片无遮挡物在线观看| 成年免费大片在线观看| 久久热精品热| 国产老妇伦熟女老妇高清| 大话2 男鬼变身卡| 毛片女人毛片| 亚洲欧美成人精品一区二区| 青春草亚洲视频在线观看| 99热这里只有是精品50| 久久久久精品久久久久真实原创| 黄色视频在线播放观看不卡| 精品国产一区二区三区久久久樱花 | 国产乱人偷精品视频| 日本色播在线视频| 最近2019中文字幕mv第一页| 午夜福利在线观看免费完整高清在| 少妇猛男粗大的猛烈进出视频| 久久鲁丝午夜福利片| 黄色怎么调成土黄色| 高清视频免费观看一区二区| 国产精品一区二区在线不卡| 人妻 亚洲 视频| 欧美少妇被猛烈插入视频| 秋霞伦理黄片| 日本猛色少妇xxxxx猛交久久| 男女无遮挡免费网站观看| 中文精品一卡2卡3卡4更新| 成人美女网站在线观看视频| 中国三级夫妇交换| 亚洲人成网站高清观看| 国产欧美另类精品又又久久亚洲欧美| 中文在线观看免费www的网站| 日本wwww免费看| 亚洲不卡免费看| 久久久成人免费电影| av黄色大香蕉| 日韩一本色道免费dvd| 日本欧美视频一区| 久久婷婷青草| 各种免费的搞黄视频| 精品人妻熟女av久视频| 少妇的逼水好多| 欧美精品人与动牲交sv欧美| 国产高清有码在线观看视频| 91狼人影院| 国模一区二区三区四区视频| 色网站视频免费| 99久国产av精品国产电影| 亚洲激情五月婷婷啪啪| 晚上一个人看的免费电影| 亚洲欧美成人综合另类久久久| 亚洲人成网站高清观看| 99九九线精品视频在线观看视频| 免费av不卡在线播放| 99久国产av精品国产电影| 只有这里有精品99| 尤物成人国产欧美一区二区三区| 国产精品欧美亚洲77777| 日韩国内少妇激情av| 亚洲精品国产av成人精品| 国产永久视频网站| 亚洲精品456在线播放app| av免费在线看不卡| 一级爰片在线观看| 在线观看美女被高潮喷水网站| 欧美成人a在线观看| 国产又色又爽无遮挡免| 国产欧美另类精品又又久久亚洲欧美| 久久人人爽人人片av| 欧美精品人与动牲交sv欧美| 中文字幕免费在线视频6| 午夜激情久久久久久久| 亚洲国产日韩一区二区| 男人和女人高潮做爰伦理| 国产黄频视频在线观看| 中文字幕人妻熟人妻熟丝袜美| 成人特级av手机在线观看| 少妇高潮的动态图| 国产精品久久久久久精品电影小说 | 在线 av 中文字幕| 国产精品偷伦视频观看了| 老熟女久久久| 丰满人妻一区二区三区视频av| 欧美高清成人免费视频www| 久久午夜福利片| 亚洲一区二区三区欧美精品| 国产久久久一区二区三区| 色哟哟·www| 性高湖久久久久久久久免费观看| 亚洲欧美中文字幕日韩二区| 成人毛片a级毛片在线播放| 国产一级毛片在线| 久久女婷五月综合色啪小说| 国产综合精华液| 99国产精品免费福利视频| 国产男女超爽视频在线观看| 国内揄拍国产精品人妻在线| 国产精品久久久久久精品古装| 日韩一本色道免费dvd| 97精品久久久久久久久久精品| 午夜福利在线观看免费完整高清在| 大片免费播放器 马上看| 女性生殖器流出的白浆| 国产精品久久久久久精品电影小说 | 天美传媒精品一区二区| 在线看a的网站| 亚洲av不卡在线观看| 成人特级av手机在线观看| 成人亚洲欧美一区二区av| 久久久久性生活片| 久久久久久伊人网av| 亚洲性久久影院| 99久久精品国产国产毛片| 亚洲精品日韩av片在线观看| a级一级毛片免费在线观看| 精品久久久久久久末码| 这个男人来自地球电影免费观看 | 色婷婷久久久亚洲欧美| 日韩中字成人| 久热这里只有精品99| 一区二区三区免费毛片| 国产精品成人在线| 一个人免费看片子| 深爱激情五月婷婷| 国产av精品麻豆| 免费在线观看成人毛片| 亚洲精品乱久久久久久| 成人高潮视频无遮挡免费网站| a 毛片基地| 久久久成人免费电影| 99国产精品免费福利视频| 乱系列少妇在线播放| www.色视频.com| 免费看光身美女| 亚洲国产色片| 五月伊人婷婷丁香| 直男gayav资源| 亚洲色图综合在线观看| 80岁老熟妇乱子伦牲交|