• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于Spark的多標簽超網(wǎng)絡(luò)集成學習

    2017-12-05 11:21:31李航王進趙蕊
    智能系統(tǒng)學報 2017年5期
    關(guān)鍵詞:復雜度標簽樣本

    李航,王進,趙蕊

    (1.重慶郵電大學 軟件工程學院,重慶 400065; 2. 重慶郵電大學 計算智能重慶市重點實驗室,重慶 400065)

    基于Spark的多標簽超網(wǎng)絡(luò)集成學習

    李航1,王進2,趙蕊2

    (1.重慶郵電大學 軟件工程學院,重慶 400065; 2. 重慶郵電大學 計算智能重慶市重點實驗室,重慶 400065)

    近年來,多標簽學習在圖像識別和文本分類等多個領(lǐng)域得到了廣泛關(guān)注,具有越來越重要的潛在應用價值。盡管多標簽學習的發(fā)展日新月異,但仍然存在兩個主要挑戰(zhàn),即如何利用標簽間的相關(guān)性以及如何處理大規(guī)模的多標簽數(shù)據(jù)。針對上述問題,基于MLHN算法,提出一種能有效利用標簽相關(guān)性且能處理大數(shù)據(jù)集的基于Spark的多標簽超網(wǎng)絡(luò)集成算法SEI-MLHN。該算法首先引入代價敏感,使其適應不平衡數(shù)據(jù)集。其次,改良了超網(wǎng)絡(luò)演化學習過程,并優(yōu)化了損失函數(shù),降低了算法時間復雜度。最后,進行了選擇性集成,使其適應大規(guī)模數(shù)據(jù)集。在11個不同規(guī)模的數(shù)據(jù)集上進行實驗,結(jié)果表明,該算法具有較好的分類性能,較低的時間復雜度且具備良好的處理大規(guī)模數(shù)據(jù)集的能力。

    多標簽學習;超網(wǎng)絡(luò);標簽相關(guān)性;Apache Spark;選擇性集成學習

    多標簽學習在文本分類[1-2]、圖像注釋[3-4]和生物信息學[5]等多個應用領(lǐng)域得到了廣泛關(guān)注,也具有越來越重要的應用價值。在多標簽學習中,訓練集的一個樣本均對應一組標簽集合。假設(shè)X表示樣本空間,Y={1,2,…,q}表示所有可能的標簽集合,其中標簽的總數(shù)為q,T={(x1,Y1),(x2,Y2),…,(xm,Ym)}為具有m個樣本的訓練集,其中xi∈X且Yi?Y。則多標簽分類的目標是輸出一個多標簽分類器h:x→2y,使得對每一個給定的實例x∈X,都能預測出合適的標簽集合Y*?Y。

    多標簽學習的關(guān)鍵挑戰(zhàn)在于分類器預測的標簽空間數(shù)量為指數(shù)級(2q)。為了解決這個問題,有效地利用不同標簽之間的相關(guān)性以促進學習過程已成為多標簽學習的關(guān)鍵[6-7]。在過去幾年,許多利用標簽相關(guān)性的算法被提出,如校準標簽排序(CLR)[8],隨機k標簽集(RAkEL)[9]和廣義k標簽集成(GLE)[10]均考慮了標簽之間的相關(guān)性,然而這些算法的計算復雜度隨標簽數(shù)量的增加而顯著增加。

    另一方面,目前現(xiàn)實應用中的多標簽數(shù)據(jù)集的樣本、特征和標簽的數(shù)量遠遠超過常規(guī)大小,例如,視頻共享網(wǎng)站Youtube中有數(shù)百萬個視頻,而每個視頻可以被數(shù)百萬個候選類別標記。然而,大多數(shù)多標簽學習算法不能很好地適應數(shù)據(jù)集規(guī)模很大的應用。對近3年出現(xiàn)的多標簽學習方法[15-23]使用的訓練集的規(guī)模進行統(tǒng)計,可以看出訓練樣本數(shù)在50 000~100 000之間的數(shù)據(jù)集僅有5個,樣本數(shù)大于100 000的數(shù)據(jù)集僅有1個,大多數(shù)現(xiàn)有的多標簽學習算法僅適用于處理中小規(guī)模數(shù)據(jù)集。其次,文獻[19]雖然利用大規(guī)模數(shù)據(jù)集進行了實驗,但是它的計算復雜度高。

    多標簽超網(wǎng)絡(luò)MLHN與協(xié)同演化多標簽超網(wǎng)絡(luò)Co-MLHN[24]可以挖掘標簽間的高階關(guān)系,它將傳統(tǒng)的超網(wǎng)絡(luò)轉(zhuǎn)為多標簽超網(wǎng)絡(luò),用超邊和超邊的權(quán)重來表示特征子集與標簽之間的高階關(guān)系,利用了任意標簽間的相關(guān)性,且計算復雜度隨標簽數(shù)量的增加呈線性增長,但是其算法時間復雜度與樣本數(shù)量呈平方級關(guān)系,不能很好地處理規(guī)模較大的數(shù)據(jù)集,同時算法也未考慮到標簽不平衡對性能的影響。

    針對目前多標簽超網(wǎng)絡(luò)存在的問題,本文基于MLHN的思想,提出了Spark平臺下的改進多標簽超網(wǎng)絡(luò)集成算法SEI-MLHN,有效且高效地解決了多標簽學習問題。首先對多標簽數(shù)據(jù)集進行劃分;然后對劃分后的數(shù)據(jù)分別用基于Spark平臺的改進超網(wǎng)絡(luò)算法SI-MLHN進行訓練,形成多個局部超網(wǎng)絡(luò);最后對多個局部超網(wǎng)絡(luò)進行選擇性集成完成對測試樣本的預測。其中,SI-MLHN利用MLHN的思想并在Spark平臺下進行改進,首先計算每個樣本的k近鄰,然后利用k近鄰對超網(wǎng)絡(luò)進行演化學習,得到演化超網(wǎng)絡(luò)。

    為了評估本文算法的性能以及對大規(guī)模數(shù)據(jù)集的適應性,選用不同規(guī)模數(shù)據(jù)集來進行對比實驗,驗證了本文算法具有良好性能以及具備處理大規(guī)模數(shù)據(jù)集的能力。本文的主要貢獻如下:

    1)引入了代價敏感,使其能良好地適應多標簽不平衡數(shù)據(jù),提升算法性能;

    2)改良了超網(wǎng)絡(luò)演化學習過程,大幅度降低MLHN算法的計算復雜度;

    3)利用選擇性集成,降低了時間復雜度,并提高分類性能;

    4)基于Spark計算框架實現(xiàn)算法,使算法實現(xiàn)并行,提高算法運行效率。

    1 相關(guān)工作

    雖然多標簽學習已經(jīng)成功應用于生物信息學、音頻分類[25]以及web挖掘[26]等多個領(lǐng)域,但是由于多標簽分類器的輸出空間為指數(shù)級,以及現(xiàn)在大部分應用的數(shù)據(jù)集規(guī)模日益增加,對多標簽學習造成了很大的挑戰(zhàn)。

    為了應對分類器輸出空間數(shù)量巨大這個問題,現(xiàn)有的方法是利用標簽相關(guān)性來促進學習過程。基于標簽關(guān)聯(lián)性,張敏靈和周志華[27-28]將現(xiàn)有的學習算法分為3類,分別為一階策略、二階策略以及高階策略。一階策略是簡單地將多標簽學習轉(zhuǎn)為多個獨立的二分類問題來解決多標簽學習問題,例如ML-KNN[29]、BR[30]等;二階策略通過利用標簽之間的成對關(guān)系解決多標簽學習問題,例如CLR[31]、BP-MLL[32]等;高階策略通過探索標簽之間的高階關(guān)系來解決多標簽學習問題,例如CC[33]、CNMF[34]等。對這3種策略進行比較分析,一階策略的效率高且概念易理解,但忽略了標簽相關(guān)性。二階策略在一定程度上解決了標簽相關(guān)性,但忽略了現(xiàn)實世界中相關(guān)性超過二階的情況。高階策略具有比一階和二階更強的建模能力,但是其計算復雜度更高,可擴展性更低。

    為了應對多標簽數(shù)據(jù)的不平衡性造成算法性能下降這個問題,常規(guī)解決方案是為每一個標簽訓練一個二分類器,并通過隨機或合成欠采樣/過采樣來處理這個二分類器[35-36],但這些方法沒有很好地利用標簽間的關(guān)聯(lián)性。也有其他的解決方案,如張敏靈等[14]提出交叉耦合聚合算法COCOA,但是這種算法時間復雜度高,不適合處理大規(guī)模數(shù)據(jù)集。

    為了應對數(shù)據(jù)集規(guī)模大這個問題,現(xiàn)有的解決方案是利用分布式存儲系統(tǒng),提供一個基礎(chǔ)架構(gòu),從而實現(xiàn)高效和可擴展的大數(shù)據(jù)挖掘與分析。目前,為大數(shù)據(jù)分析開發(fā)了大量的計算框架[37-41],其中,最經(jīng)典的是MapReduce[37]。MapReduce簡單、通用且成熟,被廣泛使用,但是它只能進行Map和Reduce計算,不適合描述復雜數(shù)據(jù)處理過程,數(shù)據(jù)需要寫到磁盤,不能有效地執(zhí)行迭代算法。為了克服MapReduce的缺點,大量的計算框架被設(shè)計出來,如Haloop[38]、Apache Mahout[39]、i2MapReduce[40]和Apache Spark[41]等。Haloop是Hadoop MapReduce框架的修改版本,它繼承了Hadoop的基本分布式計算模型和架構(gòu)。Apache Mahout 是一個開源項目,主要用于創(chuàng)建可擴展的機器學習算法。i2MapReduce是MapReduce的一個增量處理擴展,并廣泛用于大數(shù)據(jù)挖掘。Apache Spark是一個開源的集群計算框架,用于大規(guī)模的交互計算。在上述框架中,Apache Spark利用內(nèi)存計算,并保留MapReduce的可擴展性和容錯能力,對迭代算法非常有效。Spark執(zhí)行速度比Hadoop MapReduce快100倍[41],并且顯著快于其他計算框架。

    綜上所述,為了解決上述問題,本文使用Spark計算框架作為平臺來實現(xiàn)多標簽算法。

    2 Spark下改進多標簽超網(wǎng)絡(luò)集成算法

    MLHN可以高效地挖掘標簽間的關(guān)聯(lián)性且學習復雜度與標簽維度呈線性關(guān)系,因此本文基于MLHN算法提出了Spark平臺下的改進多標簽超網(wǎng)絡(luò)集成算法SEI-MLHN,高效地解決了多標簽問題。首先,對多標簽數(shù)據(jù)集進行劃分,然后對劃分后的數(shù)據(jù)分別用SI-MLHN算法進行訓練,形成多個局部超網(wǎng)絡(luò),最后對多個局部超網(wǎng)絡(luò)進行選擇性集成完成對測試樣本的預測。其中,算法SI-MLHN利用MLHN的思想,在Spark平臺下進行改進,首先計算每個樣本的k近鄰,然后利用k近鄰對超網(wǎng)絡(luò)進行演化學習,得到超網(wǎng)絡(luò)。本節(jié)中,將對算法MLHN,MLHN的改進算法SI-MLHN,以及以SI-MLHN為基學習器進行選擇性集成的算法SEI-MLHN依次進行介紹。

    2.1 多標簽演化超網(wǎng)絡(luò)(MLHN)

    多標簽演化超網(wǎng)絡(luò)利用超邊集合以及超邊權(quán)重來表示樣本特征子集與多標簽類別之間的高階關(guān)聯(lián)。通過演化學習,可以近似地表示訓練樣本X和其標簽Y之間的概率分布P(X,Y),在MLHN中可以按式(1)進行表示:

    式中:yi為樣本x的第i個標簽;wji為超邊集合|E|中ej的第i個權(quán)重向量的值;I(x,yi;ej)為超邊與樣本匹配函數(shù),若匹配則取值為1,反之則為0,如式(2)所示:

    式中:yji是超邊ej的第i個標簽,dis(xn;ej)為超邊ej與樣本x的歐氏距離,δ為匹配閾值。δ的計算方法如式(3):

    式中:其中Gx為x的近鄰樣本集合,dim(x)為樣本x的特征維度。

    為了對未知樣本進行預測,MLHN通常把標簽預測誤差和相關(guān)標簽不一致性最小化作為演化學習目標。通過超邊初始化、超邊替代和梯度下降演化學習來對訓練集進行學習,使超邊權(quán)重wji進行更新,流程如圖1所示。圖1中,超邊eh=(vh,yh,wh),vh是超邊的頂點,為x的部分特征;yh為x的標簽;wh是xh對應yh的權(quán)重向量。

    圖1 MLHN算法流程圖Fig.1 Basic flow chart of MLHN

    2.2 Spark下改進多標簽超網(wǎng)絡(luò)(SI-MLHN)

    MLHN是一種有效的多標簽學習算法,但是目前的MLHN算法計算復雜度高,且對多標簽數(shù)據(jù)的不平衡特性沒有關(guān)注。本文一方面改進了MLHN的訓練過程,引入了代價敏感;另一方面通過并行計算來降低運算時間,設(shè)計了Spark下改進多標簽超網(wǎng)絡(luò),記作SI-MLHN。在本小節(jié),將分別介紹SI-MLHN的多標簽分類學習過程和演化學習過程。

    2.2.1 SI-MLHN分類學習過程

    SI-MLHN算法關(guān)注了多標簽樣本中普遍存在的標簽類別不平衡現(xiàn)象。對于一個未知樣本xn,SI-MLHN將返回每個標簽的概率P(yni=1|xn),如

    式(4):

    式中:yni為樣本x的第i個標簽;wji為超邊集合|E|中ej的第i個權(quán)重向量的值;I(xn,yni;ej)的計算方法如式(2);costi為第i個標簽的代價值,計算方式如式(7):

    式中T為有m個樣本的訓練集。

    由于SI-MLHN采用sigmoid函數(shù)返回了每個標簽與樣本相關(guān)的概率P(yni=1|xn),故將相關(guān)標簽閾值ti設(shè)定為0.5,從而獲得每個樣本的標簽集合,如式(8):

    在多標簽學習中,一個樣本只包含標簽空間中的部分標簽。如果可以排除一些不可能的標簽,可以減少標簽預測的不確定性。因此,SI-MLHN借鑒了Co-MLHN算法的思想,將KNN引入算法,減少算法預測的不確定標簽,提高算法的性能。算法1為SI-MLHN分類學習過程的偽代碼。

    算法1 SI-MLHN分類學習過程

    輸入訓練集T,測試樣本xn,標簽數(shù)q,近鄰數(shù)量k, SI-MLHN模型H,標簽閾值ti;

    輸出標簽概率p,預測標簽y*。

    1)在訓練集T中計算xn的k近鄰

    2)將模型H中是xn的近鄰且與xn匹配的超邊加入集合U中

    3)從U中提取標簽yi=1的超邊到集合U1中

    4)fori=1 toqdo

    5)W1[i]←0

    6)for eachej∈U1

    7)W1[i]=W1[i]+wji×costi

    8)end for

    9)end for

    10)從U中提取標簽yi=0的超邊到集U0中

    11)fori=1 toqdo

    12)W0[i]←0

    13) for eachej∈U0

    14)W0[i]=W0[i]+wji

    15) end for

    16)end for

    17)fori=1 toqdo

    19)p[i]=P(yi=1|xn)

    20) ifP(yni=1|xn)≥ti

    21)y*[i]=1

    22)elsey*[i]=0

    23)end if

    24)end for

    25)returnp,y*

    2.2.2 SI-MLHN演化學習過程

    SI-MLHN利用超邊的頂點和權(quán)重向量來代表多標簽數(shù)據(jù)標簽間的高階關(guān)聯(lián),其權(quán)重向量由超邊從訓練集中演化學習而來,首先進行了超邊初始化,然后進行了超邊替代與梯度下降演化學習,并利用Spark進行分布式并行計算,通過多個操作技巧,如cache、broadst,將變量緩存于內(nèi)存中,大量減少了網(wǎng)絡(luò)交換數(shù)據(jù)量和磁盤I/O操作,使算法更高效。

    由于超邊頂點向量v為隨機的,為了更好地擬合訓練樣本,需要通過超邊替代來選擇適應度高的超邊。如果新生成的超邊適應值高于現(xiàn)有超邊,則替換該超邊。適應值的計算方法如式(9)所示:

    式中:超邊ej的近鄰樣本個數(shù)為k,G為與超邊ej匹配的抽樣訓練集TS樣本集合,則將TS中樣本的數(shù)量設(shè)置為10倍的k,其中k個是超邊ej的近鄰樣本,其余的樣本則為訓練集樣本的隨機抽樣;q為標簽數(shù)量;yni為樣本(xn,yn)的第i個標簽;yi′為超邊ej的第i個標簽。由式(9)可以看出適應值代表了超邊標簽與匹配樣本標簽的相似度的平均值,相似度越高,則適應值越高。同時,式(4)也展示出,樣本與匹配超邊的標簽相似度越高,被正確分類的概率越大。

    本文將預測誤差作為學習目標。損失函數(shù)如式(10)所示,P*(yni=1|xn)為SI-MLHN分類器對樣本(xn,yn)的第i個標簽的預測值,利用梯度下降調(diào)整超邊的權(quán)重,降低損失值。超邊權(quán)重更新為式(11),并通過式(12)~(14),計算Δwki,其中wki為第k條超邊第i個標簽的權(quán)重,η為學習速率。

    算法2為SI-MLHN的演化學習流程偽代碼。由于本文采用歐氏距離作為距離度量,故需要先進行歸一化處理。

    算法2 SI-MLHN演化學習算法

    輸入訓練集T={(xn,yn)}(1≤n≤N),標簽數(shù)q,每個樣本生成的超邊數(shù)e, 超邊替代迭代次數(shù)tr,隨機梯度下降迭代次數(shù)td,樣本的近鄰數(shù)量k;

    輸出SI-MLHN:H。

    1)Tnor=T.map

    2)每條樣本進行歸一化

    3) end map.cache

    4)TnorBro= broadcast(Tnor)

    5)Tkv=Tnor.map

    6)每條樣本計算與TnorBro中樣本的歐式距離

    7)end map.map

    8)獲取距離最近的k個樣本

    9)end map

    10)TkvBro= broadcast(Tkv)

    11)Hini=Tkv.flatmap

    12)每條樣本生成e條超邊

    13)end flatmap.cache

    15)對超邊進行tr次替代

    16)end map.cache

    17)fort←1 totddo

    19)Htmp=Tkv.map

    21)end map.flatmap

    22)對超邊進行梯度計算

    23)end flatmap.reduceByKey(合并梯度值)

    25).map

    26)利用合并后梯度值更新超邊權(quán)重

    27)end map

    28)end for

    30)returnH

    2.3 Spark下集成多標簽超網(wǎng)絡(luò)(SEI-MLHN)

    SI-MLHN為MLHN的Spark平臺下分布式并行改進方法,大幅縮短了訓練時間,但是其時間復雜度仍然隨著樣本數(shù)量的增加呈平方級增長,仍然無法很好適應大樣本數(shù)據(jù)。故本文利用選擇性集成,一方面降低時間復雜度,另一方面提高算法性能,提出了Spark下集成多標簽超網(wǎng)絡(luò),記作SEI-MLHN。SEI-MLHN首先將訓練集進行分簇,并分別用SI-MLHN算法演化學習多個局部多標簽超網(wǎng)絡(luò)。對于未知樣本,首先獲得近鄰簇,然后利用局部超網(wǎng)絡(luò)選擇性集成對測試樣本進行預測,SEI-MLHN的流程見圖2。

    圖2 SEI-MLHN流程圖Fig.2 Flow chart of SEI-MLHN

    算法3 S-SOM

    輸入訓練集T={(xn,yn)}(1≤n≤N),類

    簇個數(shù)c,學習率η,迭代次數(shù)ti;

    1)Tnor=T.map

    2)每條樣本進行歸一化

    3)end map.cache

    4)W=初始化輸出層(隨機抽取c個樣本)

    5)WBro =broadcast(W)

    6)fort←1 toti

    7)for eachTnor的分區(qū) do

    8)for each 分區(qū)內(nèi)樣本 do

    9)利用輸出層計算獲勝節(jié)點

    11)end for

    12)end for

    13)更新優(yōu)勝鄰域

    15)end for

    完成訓練集分簇后,利用算法2對簇構(gòu)建SI-MLHN超網(wǎng)絡(luò)。對于測試集,SEI-MLHN將進行選擇性集成,偽代碼見算法4。

    算法4 SEI-MLHN分類算法

    5)組成測試樣本與近鄰樣本對

    7)end for

    9)E*=F.reduceByKey()

    10).map

    11)從s*k近鄰中選取最近k,利用算法1進行預測

    12)end map

    13)returnE*

    2.4 時間復雜度分析

    SEI-MLHN利用SI-MLHN進行選擇性集成來提高學習器的穩(wěn)定性和泛化能力。對于含有N個訓練樣本,樣本特征緯度為d,標簽數(shù)量為q的訓練集,SI-MLHN的訓練復雜度為O(N2d+enkN+kqN),記為FSI(N,k,e,n,d,q),其中e為每個訓練樣本產(chǎn)生的超邊數(shù)量,k為近鄰數(shù)量,n為訓練樣本的抽樣,在大規(guī)模數(shù)據(jù)集中n?N。對于未知樣本進行預測時,SI-MLHN首先在訓練集中尋找k個近鄰樣本,然后利用與之匹配的近鄰樣本產(chǎn)生的超邊進行預測。因此對有M個樣本的測試集,SI-MLHN的預測時間復雜度為O(MNd+eMN+kqM),記為FSI′(M,k,e,N,d,q)。SEI-MLHN對訓練集進行了分簇,并在預測時刪除了冗余學習器,因此其訓練時間復雜度為O(c·FSI(N′,k,e,n,d,q)),測試時間復雜度為O(s·FSI′(M,k,e,N′,d,q)),其中c為訓練集聚類簇數(shù),s為鄰域簇的數(shù)量,N′為最大類簇中樣本的數(shù)量,N′的數(shù)量取決于c以及訓練數(shù)據(jù)的分布,一般接近于N/c。

    3 實驗

    3.1 數(shù)據(jù)集

    為了對算法性能進行全面的評估,本文選擇了11個公開的常用多標簽數(shù)據(jù)集進行實驗,其中訓練樣本數(shù)小于5 000的數(shù)據(jù)集有6個,大于100 000的數(shù)據(jù)集有2個,如表1所示,表中的標簽基數(shù)是指每個樣本關(guān)聯(lián)標簽的平均數(shù)量。由于文本數(shù)據(jù)具有高維稀疏的特性,故在表1中對所有的文本數(shù)據(jù)集均使用Lee和Jiang[43]提出的模糊相關(guān)度量進行了變換,在模糊變換之后,每個文檔由模糊相關(guān)性向量表示,且維度與標簽維度相同。

    表1 實驗使用的多標簽數(shù)據(jù)集

    3.2 評價指標

    假設(shè)X表示樣本空間,Y={1,2,…,q}表示所有可能的標簽集合,E={(xi,Yi)|1≤i≤M}為具有M個樣本的多標簽測試集,h為輸出的多標簽分類器,則測試樣本xi的預測結(jié)果為h(xi)。f(xi,y)是標簽y在樣本xi上排名質(zhì)量的實值函數(shù),例如對于任意y1∈Y以及y2∈Y而言,f(xi,y1)gt;f(xi,y2)成立。實值函數(shù)f(·,·)也可以轉(zhuǎn)為排序函數(shù)rankf(·,·),即將所有的實值輸出f(xi,y)映射到集合Y上,使得f(xi,y1)gt;f(xi,y2)時,rankf(xi,y1)gt;rankf(xi,y2)也成立?;谏鲜雒枋?,本文采用的多標簽性能評價指標如下。

    1)Hamming Loss: 用于考察樣本在單個標簽上的誤分類情況。

    式中Δ表示兩個集合的對稱差。

    2)One-error:用于考察樣本測標簽排序集合中最前端的標簽誤分類的情況。

    3)Ranking Loss:用于考察樣本的預測標簽排序集合中的錯排情況。

    4)Average Precision:用于考察樣本的預測標簽集合中排在該樣本標簽之前的標簽分類正確的情況。

    5) Example BasedF1:

    3.3 比較的算法和實驗環(huán)境

    在本文中,將SEI-MLHN與兩種系列的算法進行比較實驗,第1種系列是常用的多標簽學習算法,如表2的前8種算法所示,它們均在表3所示的單節(jié)點環(huán)境中實現(xiàn)。第二種系列是在Spark平臺下實現(xiàn)的超網(wǎng)絡(luò)多標簽學習算法,如S-CoMLHN以及SEI-MLHN的基學習器SI-MLHN,Spark集群環(huán)境如表4所示,其中S-CoMLHN是Co-MLHN在Spark平臺下的實現(xiàn)。

    在實驗過程中比較算法的參數(shù)設(shè)置取自文獻[8-9,14,24,30,39,44],詳細設(shè)置見表3,其中算法SI-MLHN中每個樣本生成超邊的數(shù)量e為10,超邊替代迭代次數(shù)tr為5,隨機梯度下降迭代次數(shù)td為5。

    表2 實驗中的比較算法

    表3 實驗單節(jié)點環(huán)境

    表4 集群環(huán)境配置

    3.4 實驗結(jié)果

    3.4.1 參數(shù)分析

    對于算法SEI-MLHN,近鄰個數(shù)k是關(guān)鍵參數(shù)之一,為了測試算法對k參數(shù)的敏感度,本節(jié)將k以5為步長,在5~40范圍內(nèi)測試算法SI-MLHN的性能。如圖3所示,(c)、(e)隨k的增大波動較大,部分數(shù)據(jù)集kgt;10后趨于穩(wěn)定,多數(shù)數(shù)據(jù)集隨k增大性能變差;(a)中對k值不敏感,幾乎沒有變化;(b)隨k值增大性能變好,且在kgt; 10后趨于平穩(wěn);在(d)中不同的數(shù)據(jù)集隨著k值的變化,性能既有增加的,也有降低的,但總體上在k=10時,能有較好的性能。這是由于k值直接關(guān)系著預測樣本的匹配超邊數(shù)量,當k太小時與之匹配的超邊數(shù)量太小,會漏掉一些相關(guān)標簽,k值太大則會引入噪聲標簽且會影響算法運行效率,故本文將k取為10。

    (a)算法SEI-MLHN在各個數(shù)據(jù)集下對應不同k值的Hamming Loss變化情況

    (b)算法SEI-MLHN在各個數(shù)據(jù)集下對應不同k值的Ranking Loss變化情況

    (c)算法SEI-MLHN在各個數(shù)據(jù)集下對應不同k值的One-error變化情況

    (d)算法SEI-MLHN在各個數(shù)據(jù)集下對應不同k值的Average Precision變化情況

    (e)算法SEI-MLHN在各個數(shù)據(jù)集下對應不同k值的Example Based F1變化情況圖3 算法SEI-MLHN在各個數(shù)據(jù)集下對應不同k值的分類性能比較Fig.3 Performance comparison of SEI-MLHN under different values of k on Data Sets

    (a)算法SEI-MLHN在各個數(shù)據(jù)集下對應不同c值的Hamming Loss變化情況

    (b)算法SEI-MLHN在各個數(shù)據(jù)集下對應不同c值的Ranking Loss變化情況

    (c)算法SEI-MLHN在各個數(shù)據(jù)集下對應不同c值的One-error變化情況

    (d)算法SEI-MLHN在各個數(shù)據(jù)集下對應不同c值的Average Precision變化情況

    (e)算法SEI-MLHN在各個數(shù)據(jù)集下對應不同c值的Example Based F1變化情況

    (f)算法SEI-MLHN在各個數(shù)據(jù)集下對應不同c值的Train time變化情況圖4 算法SEI-MLHN在各個數(shù)據(jù)集下對應不同c值的分類性能比較Fig.4 Performance comparison of SEI-MLHN under different values of c on Data Sets

    圖4中,(a)、(c)、(d)、(e)中算法SEI-MLHN在各個數(shù)據(jù)集中的性能幾乎不變或變化幅度非常小,說明Hamming Loss 、One-error、Average Precision 和Example BasedF1對c和s的變化不敏感,(b)中SEI-MLHN的性能在數(shù)據(jù)集nuswide-cVLADplus中隨c和s的增大有小幅度的優(yōu)化,(f)中可以看出較小規(guī)模數(shù)據(jù)隨簇數(shù)c和s的增加訓練時間小幅增加,而對于大規(guī)模數(shù)據(jù)集,算法訓練時間大幅減少。故本文對樣本數(shù)量小于10 000的訓練集,c和s分別選取4和2;樣本數(shù)量在10 000到100 000之間的訓練集,c和s分別選取9和3;樣本數(shù)量大于100 000的訓練集,c和s分別選取25和5。

    3.4.2 分類性能比較

    在實驗中,所有的多標簽學習算法均采用相同的數(shù)據(jù)劃分,用50%的數(shù)據(jù)進行訓練,其余50%的數(shù)據(jù)進行測試。在計算評價指標時,評價指標取重復10次實驗的平均值。由于比較的部分算法無法在一周內(nèi)對數(shù)據(jù)集nuswide-cVLADplus、nuswide-bow完成訓練預測,故在對算法性能進行比較與分析時只取其余9個數(shù)據(jù)集進行實驗,如表5所示。在表6中列出了本文算法在nuswide-bow、nuswide-cVLADplus數(shù)據(jù)集上的評價指標值。

    表5為5個不同評價指標下各個多標簽學習算法在常規(guī)規(guī)模的數(shù)據(jù)集上的學習性能,表5中評價指標后的“↓”表示指標取值越小性能越佳,符號“↑”表示指標取值越大性能越佳,其中AveR表示該算法的平均排名。此外,表7對每個學習算法進行編號,例如BRSVM(A1)表示用A1代表算法BRSVM,再進一步給出了各多標簽學習算法之間的相對性能,具體為,給定算法A1和A2,A1gt;A2表示在給定的評價指標上,基于顯著度0.05的威爾科克森符號秩檢驗(Wilcoxon signed rank test),算法A1的性能顯著優(yōu)于A2。本文通過打分的方式對各學習算法的性能進行總體評價,若A1gt;A2,則A1的分數(shù)加1,A2的分數(shù)減1,通過比較每個算法的最終分數(shù),可以對算法進行排序,其中A1分數(shù)高于A2,表示算法A1的總體性能優(yōu)于A2。

    從表7中可以發(fā)現(xiàn),算法SEI-MLHN在除Ranking loss外的各項指標以及總分均顯著高于其余算法,表明它的分類性能在總體上優(yōu)于其余算法。其次, 算法SI-MLHN在Example basedF1上明顯優(yōu)于S-CoMLHN,說明SI-MLHN在一定程度上削弱了標簽不平衡的影響,雖然算法SI-MLHN在Hanmming Loss和Ranking loss上稍劣于S-CoMLHN,但從整體性能上進行比較,算法SI-MLHN仍優(yōu)于S-CoMLHN。再次,算法COCOA考慮了標簽間的高階關(guān)系且削弱了不平衡性的影響,但在Hanmming Loss上的性能較差,導致總分稍低于S-CoMLHN,也說明其總體性能稍低于S-CoMLHN。最后,可以從表7中得出結(jié)論,本文所提出的算法SEI-MLHN具有很好的處理多標簽分類問題的能力。

    3.4.3 運行效率比較

    為了對算法S-CoMLHN、SI-MLHN以及SEI-MLHN的運行時間進行比較,本文用3個較大規(guī)模數(shù)據(jù)集(eurlex-sm、eurlex-dc、mediamill)和2個大規(guī)模數(shù)據(jù)集(nuswide-bow 、nuswide-cVLADplus)進行實驗,且令所有實驗的SparkTask為32。由于S-CoMLHN在24小時內(nèi)無法完成2個大規(guī)模數(shù)據(jù)集的訓練和預測,故圖5中無對比結(jié)果。

    從圖5(a)中觀察到,算法S-CoMLHN的訓練時間顯著高于SI-MLHN和SEI-MLHN,且在數(shù)據(jù)集nuswide-bow 和nuswide-cVLADplus上沒有得到有效結(jié)果,說明該算法不能很好地適應大規(guī)模數(shù)據(jù)。在數(shù)據(jù)集eurlex-sm、eurlex-dc-leaves、mediamill上,算法SEI-MLHN與SI-MLHN的訓練時間沒有較大的區(qū)別,但是當數(shù)據(jù)集規(guī)模增大時,算法SEI-MLHN的訓練時間明顯低于SI-MLHN,表明算法SEI-MLHN比SI-MLHN大大縮短了訓練時間。從圖5(b)中觀察到,在數(shù)據(jù)集eurlex-sm、eurlex-dc、mediamill上,S-CoMLHN、SI-MLHN以及SEI-MLHN的測試時間沒有較大的區(qū)別,但是當數(shù)據(jù)集規(guī)模增大后,S-CoMLHN無法得到有效結(jié)果,且算法SEI-MLHN的測試時間也明顯低于SI-MLHN,說明算法SEI-MLHN也縮短了算法的測試時間。從圖5中可以得到結(jié)論,算法SEI-MLHN具有較高的算法運行效率,且對大規(guī)模數(shù)據(jù)集具有良好的適應能力。

    由于不同的SparkTask數(shù)值會對算法的運行時間產(chǎn)生影響,因此,為了測試SparkTask對算法SEI-MLHN運行效率的影響,選擇了不同大小規(guī)模的數(shù)據(jù)集進行實驗。圖6給出了隨不同的任務(wù)數(shù),算法SEI-MLHN在各個數(shù)據(jù)集下的訓練與測試時間的變化情況,時間以秒為單位。從圖6中觀察得到,對規(guī)模較小的多標簽數(shù)據(jù)集,如emontions、yeast,不同的SparkTask數(shù)值對算法的運行時間沒有較大的影響。而對于較大規(guī)模數(shù)據(jù)集mediamil,隨著SparkTask數(shù)值的增加,算法的訓練時間與測試時間急速下降,最后趨于平穩(wěn),但是當SparkTask增加到一定數(shù)量時訓練測試時間均增大,這是因為當數(shù)據(jù)集規(guī)模不夠大,SparkTask達到某個飽和點時,集群上各個節(jié)點的通信時間遠遠大于計算時間,算法的性能趨于平緩甚至變?nèi)酢?/p>

    表5 比較算法在5個評價指標上的實驗結(jié)果(均值、排名)

    續(xù)表5

    續(xù)表5

    表6 SI-MLHN和SEI-MLHN在數(shù)據(jù)集nus-wide-full-cVLADplus和nuswide-bow上的性能指標(均值±方差)

    表7 各多標簽學習算法在不同數(shù)據(jù)集上的相對性能比較

    (a)訓練時間變化情況

    (b)測試時間變化情況

    (a)訓練時間變化情況

    (b)測試時間變化情況

    4 結(jié)束語

    本文基于MLHN提出了一種能有效利用標簽相關(guān)性處理大數(shù)據(jù)集Spark平臺下的改進多標簽超網(wǎng)絡(luò)集成算法SEI-MLHN。該算法首先引入代價敏感,使其適應不平衡數(shù)據(jù)集并提升算法性能。然后,在超網(wǎng)絡(luò)演化學習過程中利用抽樣信息,以及修改損失函數(shù),降低算法時間復雜度。最后,進行選擇性集成,提高算法性能。在11個不同規(guī)模的數(shù)據(jù)集上進行實驗,結(jié)果表明,該算法具有良好的分類性能、較低的時間復雜度以及良好的處理大規(guī)模數(shù)據(jù)集的能力。

    在SEI-MLHN中,我們只考慮標簽之間的相關(guān)性,即標簽的同現(xiàn)。然而,標簽之間的排他關(guān)系對于多標簽分類也很重要。在未來,我們將研究如何利用超網(wǎng)絡(luò)標簽之間的包含性和排他性。

    [1]GAO S, WU W, LEE C H, et al. A MFoM learning approach to robust multiclass multi-label text categorization[C]//Proceedings of the 21st International Conference on Machine Learning. Canada: ACM Press, 2004: 42.

    [2]JIANG J Y, TSAI S C, LEE S J. FSKNN: multi-label text categorization based on fuzzy similarity and k nearest neighbors[J]. Expert systems with applications, 2012, 39(3): 2813-2821.

    [3]BOUTELL M R, LUO J, SHEN X, et al. Learning multi-label scene classification ☆[J]. Pattern recognition, 2004, 37(9):1757-1771.

    [4]QI G J, HUA X S, RUI Y, et al. Correlative multi-label video annotation[C]//In Proceedings of the 15th ACM International Conference on Multimedia. Germany: ACM Press, 2007: 17-26.

    [5]CESA-BIANCHI N, RE M, VALENTINI G. Synergy of multi-label hierarchical ensembles, data fusion, and cost-sensitive methods for gene functional inference[J]. Machine learning, 2012, 88(1): 209-241.

    [6]ZHANG M L, ZHANG K. Multi-label learning by exploiting label dependency[C]//Proceedings of the 16th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. USA: ACM Press, 2010: 999-1008.

    [7]TSOUMAKAS G, KATAKIS I, VLAHAVAS I. Mining multi-label data[M]. New York: Springer US, 2009: 667-685.

    [8]FüRNKRANZ J, HüLLERMEIER E, MENCíA E L, et al. Multilabel classification via calibrated label ranking[J]. Machine Learning, 2008, 73(2):133-153.

    [9]TSOUMAKAS G, KATAKIS I, VLAHAVAS I. Randomk-Labelsets for Multilabel Classification[J].IEEE transactions on knowledge amp; data engineering, 2010, 23(7): 1079-1089.

    [10]LO H Y, LIN S D, WANG H M. Generalizedk-labelsets ensemble for multi-label and cost-sensitive classification[J]. Knowledge amp; data engineering IEEE transactions on, 2014, 26(7):1679-1691.

    [11]HE H, GARCIA E A. Learning from imbalanced data[J]. IEEE transactions on knowledge and data engineering, 2009, 21(9):1263-1284.

    [12]XIOUFIS E S, SPILIOPOULOU M, TSOUMAKAS G, et al. Dealing with concept drift and class imbalance in multi-label stream classification[C]//IJCAI 2011 Proceedings of the International Joint Conference on Artificial Intelligence. Barcelona, Spain, 2011:1583-1588.

    [13]CHARTE F, RIVERA A, del JESUS M J, et al. A first approach to deal with imbalance in multi-label datasets[C]//In Proceedings of the International Conference on Hybrid Artificial Intelligence Systems. Springer Berlin Heidelberg, USA, 2013: 150-160.

    [14]ZHANG M L, LI Y K, LIU X Y. Towards class-imbalance aware multi-label learning[C]//Proceedings of the 24th International Joint Conference on Artificial Intelligence. Argentina: AAAI Press, 2015: 4041-4047.

    [15]LIU H, LI X, ZHANG S. Learning instance correlation functions for multilabel classification[J]. IEEE transactions on cybernetics, 2017, 47(2): 499-510.

    [16]ZHANG M L, WU L. Lift: multi-label learning with label[J]. Pattern analysis amp; machine intelligence IEEE transactions on, 2015, 37(1):107-20.

    [17]ALALI A, KUBAT M. PruDent: A pruned and confident stacking approach for multi-label classification[J]. IEEE transactions on knowledge amp; data engineering, 2015, 27(9):1-1.

    [18]WU Q, TAN M, Song H, et al. ML-forest: a multi-label tree ensemble method for multi-label classification[J]. IEEE transactions on knowledge and data engineering, 2016, 28(10):1-1.

    [19]HUANG J, LI G, HUANG Q, et al. Learning label-specific features and class-dependent labels for multi-label classification[J].IEEE transactions on knowledge and data engineering, 2016, 28(12):3309-3323.

    [20]WU Q, YE Y, ZHANG H, et al. ML-Tree: a tree-structure-based approach to multilabel learning.[J]. IEEE trans neural netw learn syst, 2014, 26(3):430-443.

    [21]CHARTE F. LI-MLC: A Label Inference Methodology for Addressing High Dimensionality in the Label Space for Multilabel Classification[J]. IEEE trans. neural networks and learning systems, 2014, 25(10): 1842-1854.

    [23]LO H Y, LIN S D, WANG H M. Generalizedk-labelsets ensemble for multi-label and cost-sensitive classification[J]. Knowledge and data engineering IEEE transactions on, 2014, 26(7):1679-1691.

    [24]SUN K W, LEE C H, WANG J. Multilabel classification via co-evolutionary multilabel hypernetwork[J]. IEEE transactions on knowledge and data engineering, 2016, 28(9):1-1.

    [25]LO H Y, WANG J C, WANG H M, et al. Cost-sensitive multi-label learning for audio tag annotation and retrieval[J]. IEEE transactions on multimedia, 2011, 13(3): 518-529.

    [26]OZONAT K, YOUNG D. Towards a universal marketplace over the web: statistical multi-label classification of service provider forms with simulated annealing[C]// ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. ACM, 2009:1295-1304.

    [27]ZHANG M L, ZHOU Z H. A review on multi-label learning algorithms[J]. IEEE transactions on knowledge and dada engineering, 2014, 26( 8): 1819-1837.

    [28]ZHANG M L, ZHANG K. Multi-label learning by exploiting label dependency[C]//Proceedings of the 16th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. USA: ACM Press, 2010: 999-1008.

    [29]ZHANG M L, ZHOU Z H. ML-KNN: A lazy learning approach to multi-label learning[J]. Pattern recognition, 2007, 40(7):2038-2048.

    [30]BOUTELL M R, LUO J, SHEN X, et al. Learning multi-label scene classification[J]. Pattern recognition, 2004, 37(9):1757-1771.

    [31]ELISSEEFF A, WESTON J. A kernel method for multi-labelled classification[C]//In NIPS’01 Proceedings of the 14th International Conference on Neural Information Processing Systems: Natural and Synthetic. Vancouver, British Columbia, Canada: MIT Press, 2001:681-687.

    [32]ZHANG M L, ZHOU Z H. Multilabel neural networks with applications to functional genomics and text categorization[J]. IEEE transactions on knowledge and data engineering, 2006, 18(10): 1338-1351.

    [33]READ J, PFAHRINGER B, HOLMES G, et al. Classifier chains for multi-label classification[J]. Machine learning, 2011, 85(3): 254-269.

    [34]YI L, RONG J, LIU Y. Semi-supervised Multi-label Learning by Constrained Non-negative Matrix Factorization.[C]//In AAAI’06 Proceedings of the 21st national conference on Artificial intelligence. Boston: AAAI Press,2006:421-426.

    [35]LIU X Y, LI Q Q, ZHOU Z H. Learning imbalanced multi-class data with optimal dichotomy weights[C]//Proceedings of the 2013 IEEE 13th International Conference on Data Mining. USA: IEEE Press, 2013: 478-487.

    [36]TAHIR M A, KITTLER J, MIKOLAJCZYK K, et al. Improving multilabel classification performance by using ensemble of multi-label classifiers[C]//Proceedings of the International Workshop on Multiple Classifier Systems. Egypt: Springer Berlin Heidelberg, 2010: 11-21.

    [37]DEAN J, GHEMAWAT S. MapReduce: Simplified data processing on large clusters[C]//In OSDI’04 Proceedings of the 6th conference on Symposium on Opearting Systems Design amp; Implementation. Berkeley, USA, 2004: 10-10.

    [38]ZAHARIA M, CHOWDHURY M, FRANKLIN M J, et al. Spark: cluster computing with working sets[C]//In HotCloud’10 Proceedings of the 2nd USENIX Conference on Hot Topics in Cloud Computing. Berkeley, USA, 2010: 10-10.

    [39]MIKA P. Flink: semantic web technology for the extraction and analysis of social networks[J]. Web semantics science services and agents on the world Wide Web, 2005, 3(2/3): 211-223.

    [40]BU Y, HOWE B, BALAZINSKA M, et al. HaLoop: efficient iterative data processing on large clusters[J]. Proceedings of the Vldb endowment, 2010, 3(1/2): 285-296.

    [41]ZAHARIA M, CHOWDHURY M, DAS T, et al. Resilient distributed datasets: a fault-tolerant abstraction for in-memory cluster computing[C]//In Proceedings of the 9th USENIX Conference on Networked Systems Design and Implementation. San Jose: USENIX Association, 2012: 2.

    [42]VESANTO J, ALHONIEMI E. Clustering of the self-organizing map[J]. IEEE transactions on neural networks, 2000, 11(3): 586-600.

    [43]LEE S J, JIANG J Y. Multilabel text categorization based on fuzzy relevance clustering[J]. IEEE transactions on fuzzy systems, 2014, 22(6): 1457-1471.

    [44]CHENG W, HüLLERMEIER E. Combining instance-based learning and logistic regression for multilabel classification[J]. Machine learning, 2009, 76(2):211-225.

    李航, 女,1995年生,碩士研究生,主要研究方向為機器學習與數(shù)據(jù)挖掘。

    王進,男,1979 年生,教授,博士,主要研究方向為大數(shù)據(jù)并行處理與分布式計算、大規(guī)模數(shù)據(jù)挖掘與機器學習。曾主持多項國家和重慶市科研課題,發(fā)表學術(shù)論文50多篇,其中被SCI檢索10篇,授權(quán)專利13項。

    趙蕊,男,1990年生,碩士研究生,主要研究方向為機器學習與數(shù)據(jù)挖掘。發(fā)表學術(shù)論文2篇,均被EI檢索。

    Multi-labelhypernetworkensemblelearningbasedonSpark

    LI Hang1, WANG Jin2, ZHAO Rui2

    (1.College of Software Engineering, Chongqing University of Posts and Telecommunications, Chongqing 400065, China; 2. Chongqing Key Laboratory of Computational Intelligence, Chongqing University of Posts and Telecommunications, Chongqing 400065, China)

    Multi-label learning has attracted a great deal of attention in recent years and has a wide range of potential real-world applications, including image identification and text categorization. Although great effort has been expended in the development of multi-label learning, two main challenges remain, i.e., how to utilize the correlation between labels and how to tackle large-scale multi-label data. To solve these challenges, based on the multi-label hypernetwork (MLHN) algorithm, in this paper, we propose a Spark-based multi-label hypernetwork ensemble algorithm (SEI-MLHN) that effectively utilizes label correlation and can deal with large-scale multi-label datasets. First, the algorithm introduces cost sensitivity to enable it to adapt to unbalanced datasets. Secondly, it improves the hypernetwork evolution learning process, optimizes the loss function, and reduces the inherent time complexity. Lastly, it uses selective ensemble learning to enable it to adapt to large-scale datasets. We conducted experiments on 11 datasets wit different scales. The results show that the proposed algorithm demonstrates excellent categorization performance, low time complexity, and the capability to handle large-scale datasets.

    multi-label learning; hypernetwork; label correlations; Apache Spark; selective ensemble learning

    10.11992/tis.201706033

    http://kns.cnki.net/kcms/detail/23.1538.TP.20170831.1058.018.html

    TP181

    A

    1673-4785(2017)05-0624-16

    中文引用格式:李航,王進,趙蕊.基于Spark的多標簽超網(wǎng)絡(luò)集成學習J.智能系統(tǒng)學報, 2017, 12(5): 624-639.

    英文引用格式:LIHang,WANGJin,ZHAORui.Multi-labelhypernetworkensemblelearningbasedonSparkJ.CAAItransactionsonintelligentsystems, 2017, 12(5): 624-639.

    2017-06-09. < class="emphasis_bold">網(wǎng)絡(luò)出版日期

    日期:2017-08-31.

    重慶市基礎(chǔ)與前沿研究計劃項目(cstc2014jcyjA40001,cstc2014jcyjA40022);重慶教委科學技術(shù)研究項目(自然科學類)(KJ1400436).

    李航.E-mail:1326202954@qq.com.

    猜你喜歡
    復雜度標簽樣本
    用樣本估計總體復習點撥
    一種低復雜度的慣性/GNSS矢量深組合方法
    無懼標簽 Alfa Romeo Giulia 200HP
    車迷(2018年11期)2018-08-30 03:20:32
    推動醫(yī)改的“直銷樣本”
    不害怕撕掉標簽的人,都活出了真正的漂亮
    海峽姐妹(2018年3期)2018-05-09 08:21:02
    求圖上廣探樹的時間復雜度
    隨機微分方程的樣本Lyapunov二次型估計
    標簽化傷害了誰
    村企共贏的樣本
    某雷達導51 頭中心控制軟件圈復雜度分析與改進
    午夜福利网站1000一区二区三区| 亚洲婷婷狠狠爱综合网| 日韩中文字幕欧美一区二区 | 久久久精品免费免费高清| 天天添夜夜摸| 日本vs欧美在线观看视频| 黄片播放在线免费| 美女视频免费永久观看网站| 日韩,欧美,国产一区二区三区| 色精品久久人妻99蜜桃| 菩萨蛮人人尽说江南好唐韦庄| 成人三级做爰电影| 色婷婷av一区二区三区视频| 如何舔出高潮| 日韩一区二区三区影片| 亚洲精品国产av蜜桃| 中文字幕精品免费在线观看视频| 国产成人a∨麻豆精品| 桃花免费在线播放| 女人高潮潮喷娇喘18禁视频| 国产精品一区二区精品视频观看| 久久久久视频综合| 最近中文字幕2019免费版| 亚洲av日韩在线播放| 男的添女的下面高潮视频| 日韩av在线免费看完整版不卡| 久久女婷五月综合色啪小说| 黑丝袜美女国产一区| 国产男女超爽视频在线观看| 亚洲欧美一区二区三区黑人| 亚洲七黄色美女视频| 久久精品国产亚洲av高清一级| 中文字幕人妻丝袜制服| 精品免费久久久久久久清纯 | 精品亚洲乱码少妇综合久久| 欧美av亚洲av综合av国产av | 美女扒开内裤让男人捅视频| 黄色毛片三级朝国网站| 女的被弄到高潮叫床怎么办| 成人国产麻豆网| 国产av一区二区精品久久| 国产成人一区二区在线| 人人妻人人爽人人添夜夜欢视频| 国产精品国产av在线观看| 免费黄频网站在线观看国产| 波多野结衣av一区二区av| 波多野结衣av一区二区av| 宅男免费午夜| 亚洲视频免费观看视频| 午夜福利,免费看| 欧美激情极品国产一区二区三区| 欧美黄色片欧美黄色片| 不卡视频在线观看欧美| 精品国产一区二区三区久久久樱花| 精品福利永久在线观看| 国产一区二区三区av在线| 如日韩欧美国产精品一区二区三区| bbb黄色大片| 久久久久国产一级毛片高清牌| 搡老乐熟女国产| 亚洲国产欧美网| 咕卡用的链子| 91国产中文字幕| 夫妻性生交免费视频一级片| 精品人妻熟女毛片av久久网站| 97人妻天天添夜夜摸| 亚洲av欧美aⅴ国产| 国产成人精品无人区| 久久毛片免费看一区二区三区| 欧美国产精品一级二级三级| 视频区图区小说| av免费观看日本| 国产欧美日韩综合在线一区二区| 亚洲色图 男人天堂 中文字幕| 中文字幕另类日韩欧美亚洲嫩草| 亚洲精品aⅴ在线观看| 麻豆av在线久日| 欧美日韩成人在线一区二区| 极品人妻少妇av视频| 人人妻人人澡人人看| 国产亚洲午夜精品一区二区久久| 亚洲av福利一区| 丰满乱子伦码专区| 啦啦啦中文免费视频观看日本| 免费日韩欧美在线观看| av电影中文网址| 美国免费a级毛片| 天堂俺去俺来也www色官网| 亚洲少妇的诱惑av| 亚洲成人国产一区在线观看 | 国产日韩欧美亚洲二区| 久久人妻熟女aⅴ| xxx大片免费视频| 亚洲国产精品成人久久小说| 91精品三级在线观看| 欧美日韩一级在线毛片| 一本大道久久a久久精品| 巨乳人妻的诱惑在线观看| 在线看a的网站| 欧美日韩亚洲国产一区二区在线观看 | 狠狠婷婷综合久久久久久88av| 最新在线观看一区二区三区 | 国产精品国产三级国产专区5o| 国产又色又爽无遮挡免| 波多野结衣一区麻豆| 啦啦啦视频在线资源免费观看| 丝瓜视频免费看黄片| 欧美激情高清一区二区三区 | 国产成人一区二区在线| 看非洲黑人一级黄片| 亚洲成人手机| 久久精品aⅴ一区二区三区四区| 婷婷色麻豆天堂久久| 欧美久久黑人一区二区| 国产欧美日韩一区二区三区在线| 一级毛片黄色毛片免费观看视频| 国产精品 欧美亚洲| 亚洲欧美一区二区三区久久| 久热爱精品视频在线9| 国产精品久久久久久久久免| 亚洲国产中文字幕在线视频| 一区二区三区精品91| 久久精品久久久久久噜噜老黄| 久久久久精品久久久久真实原创| 波多野结衣一区麻豆| 性少妇av在线| svipshipincom国产片| 校园人妻丝袜中文字幕| 咕卡用的链子| 另类精品久久| 亚洲欧美色中文字幕在线| 国产探花极品一区二区| 成人毛片60女人毛片免费| 一级毛片黄色毛片免费观看视频| 99香蕉大伊视频| 国产精品免费大片| 丰满迷人的少妇在线观看| 国产免费一区二区三区四区乱码| 免费在线观看视频国产中文字幕亚洲 | 久久毛片免费看一区二区三区| 国产免费福利视频在线观看| 在现免费观看毛片| 91老司机精品| 午夜免费鲁丝| 老司机在亚洲福利影院| www.自偷自拍.com| 欧美黑人精品巨大| 丝袜美腿诱惑在线| 菩萨蛮人人尽说江南好唐韦庄| 丰满乱子伦码专区| 在线 av 中文字幕| 黑人巨大精品欧美一区二区蜜桃| 热99久久久久精品小说推荐| 午夜福利在线免费观看网站| 在线观看免费日韩欧美大片| 亚洲成国产人片在线观看| 国产免费一区二区三区四区乱码| 丝袜在线中文字幕| 尾随美女入室| 免费高清在线观看视频在线观看| 人妻人人澡人人爽人人| 欧美黄色片欧美黄色片| av片东京热男人的天堂| 国产黄色视频一区二区在线观看| 国产男女超爽视频在线观看| 亚洲欧洲精品一区二区精品久久久 | 丝袜在线中文字幕| 天天操日日干夜夜撸| 欧美久久黑人一区二区| 巨乳人妻的诱惑在线观看| 国产精品成人在线| 欧美国产精品va在线观看不卡| 亚洲第一青青草原| 久久久久国产一级毛片高清牌| 国产精品国产三级国产专区5o| 成人免费观看视频高清| 男女国产视频网站| 涩涩av久久男人的天堂| 国产一区二区三区av在线| 女人爽到高潮嗷嗷叫在线视频| av视频免费观看在线观看| 日本色播在线视频| a级毛片黄视频| 高清视频免费观看一区二区| 午夜激情久久久久久久| 久久久久久久国产电影| 欧美在线一区亚洲| 99九九在线精品视频| 国产一区有黄有色的免费视频| 成年美女黄网站色视频大全免费| av又黄又爽大尺度在线免费看| 国产成人a∨麻豆精品| 桃花免费在线播放| 最近中文字幕高清免费大全6| 纯流量卡能插随身wifi吗| 久久精品aⅴ一区二区三区四区| 制服丝袜香蕉在线| 国产欧美日韩综合在线一区二区| 中文字幕最新亚洲高清| 中文字幕精品免费在线观看视频| 一区福利在线观看| 在线看a的网站| 国产日韩一区二区三区精品不卡| 亚洲国产成人一精品久久久| 国产免费现黄频在线看| 亚洲国产av新网站| 嫩草影院入口| 国产xxxxx性猛交| 久久久欧美国产精品| 亚洲av国产av综合av卡| www.精华液| av女优亚洲男人天堂| 欧美精品高潮呻吟av久久| 亚洲欧美一区二区三区黑人| 自拍欧美九色日韩亚洲蝌蚪91| 免费日韩欧美在线观看| 男人添女人高潮全过程视频| 亚洲七黄色美女视频| 国产亚洲欧美精品永久| 亚洲欧美一区二区三区久久| 新久久久久国产一级毛片| 欧美激情高清一区二区三区 | 亚洲精品在线美女| 欧美人与善性xxx| 国产熟女午夜一区二区三区| 欧美日韩视频高清一区二区三区二| 亚洲熟女毛片儿| 热99久久久久精品小说推荐| 在线观看免费日韩欧美大片| 亚洲 欧美一区二区三区| 熟妇人妻不卡中文字幕| 国产精品.久久久| 性少妇av在线| 99久国产av精品国产电影| 少妇精品久久久久久久| 国产免费福利视频在线观看| 亚洲精品国产一区二区精华液| 老司机在亚洲福利影院| 久久毛片免费看一区二区三区| 亚洲精品,欧美精品| 免费观看性生交大片5| 天天躁夜夜躁狠狠躁躁| 国产男女超爽视频在线观看| 国产成人欧美在线观看 | 中文字幕高清在线视频| 亚洲精品一区蜜桃| 最近最新中文字幕大全免费视频 | 婷婷色综合大香蕉| 中文字幕色久视频| 日日摸夜夜添夜夜爱| 亚洲伊人色综图| 日韩熟女老妇一区二区性免费视频| 汤姆久久久久久久影院中文字幕| 天堂8中文在线网| 亚洲精品国产一区二区精华液| 国产亚洲一区二区精品| 人妻一区二区av| 美女主播在线视频| 又黄又粗又硬又大视频| 美女视频免费永久观看网站| 欧美日韩国产mv在线观看视频| 亚洲精品日本国产第一区| av在线老鸭窝| 亚洲精品视频女| 看免费av毛片| 女的被弄到高潮叫床怎么办| 欧美人与性动交α欧美精品济南到| 一边亲一边摸免费视频| 啦啦啦中文免费视频观看日本| 老熟女久久久| 高清黄色对白视频在线免费看| 男女高潮啪啪啪动态图| 另类精品久久| 亚洲人成77777在线视频| 狂野欧美激情性xxxx| 97人妻天天添夜夜摸| 亚洲男人天堂网一区| 久久久久精品久久久久真实原创| 一本久久精品| 亚洲精品国产av蜜桃| 国产一级毛片在线| 99九九在线精品视频| 99热全是精品| 少妇精品久久久久久久| 中文字幕人妻丝袜一区二区 | 校园人妻丝袜中文字幕| 国产黄色视频一区二区在线观看| 午夜影院在线不卡| 日韩精品免费视频一区二区三区| 精品亚洲乱码少妇综合久久| 美女脱内裤让男人舔精品视频| 在线观看三级黄色| 久久人人爽人人片av| 老汉色av国产亚洲站长工具| 亚洲国产av影院在线观看| 高清欧美精品videossex| 亚洲成人一二三区av| 亚洲国产精品一区二区三区在线| 少妇人妻久久综合中文| 亚洲,一卡二卡三卡| 麻豆精品久久久久久蜜桃| 国产日韩欧美在线精品| 永久免费av网站大全| 日本猛色少妇xxxxx猛交久久| 国产av精品麻豆| 波多野结衣一区麻豆| 青春草亚洲视频在线观看| 在线 av 中文字幕| videos熟女内射| av.在线天堂| 久久久国产一区二区| 性色av一级| 国产成人精品福利久久| 日本vs欧美在线观看视频| 下体分泌物呈黄色| 在线精品无人区一区二区三| 日本wwww免费看| 又黄又粗又硬又大视频| 日韩精品免费视频一区二区三区| 最新的欧美精品一区二区| 制服人妻中文乱码| 纯流量卡能插随身wifi吗| 亚洲av日韩在线播放| svipshipincom国产片| 999精品在线视频| 人体艺术视频欧美日本| 亚洲精品日韩在线中文字幕| 欧美国产精品va在线观看不卡| 国产av码专区亚洲av| 中文字幕高清在线视频| 久久女婷五月综合色啪小说| 精品国产国语对白av| 91精品三级在线观看| 国产日韩一区二区三区精品不卡| a级片在线免费高清观看视频| 亚洲精品国产一区二区精华液| 搡老岳熟女国产| 亚洲美女视频黄频| 国产在线一区二区三区精| 青草久久国产| 国产精品久久久久久久久免| 看非洲黑人一级黄片| 飞空精品影院首页| 日韩精品有码人妻一区| 国产在线一区二区三区精| 亚洲欧洲国产日韩| 乱人伦中国视频| 成人国产麻豆网| 纯流量卡能插随身wifi吗| 日本午夜av视频| 久久精品久久久久久久性| 超色免费av| 亚洲欧美一区二区三区国产| 日韩人妻精品一区2区三区| 日本欧美国产在线视频| 天堂中文最新版在线下载| 国语对白做爰xxxⅹ性视频网站| 日韩欧美一区视频在线观看| 激情五月婷婷亚洲| 尾随美女入室| 亚洲 欧美一区二区三区| 国产一区二区三区综合在线观看| 国产成人免费无遮挡视频| 欧美日本中文国产一区发布| 啦啦啦中文免费视频观看日本| 国产一区二区三区综合在线观看| 在线观看免费高清a一片| 女性生殖器流出的白浆| 一级毛片我不卡| 看十八女毛片水多多多| 热re99久久国产66热| 亚洲av日韩精品久久久久久密 | 我的亚洲天堂| 亚洲精品美女久久久久99蜜臀 | 亚洲综合精品二区| 国产精品国产三级国产专区5o| 两个人看的免费小视频| 一边摸一边抽搐一进一出视频| 建设人人有责人人尽责人人享有的| 91精品三级在线观看| 国产精品成人在线| 国产成人av激情在线播放| 咕卡用的链子| 伊人久久国产一区二区| 黑丝袜美女国产一区| 中文字幕色久视频| 婷婷色av中文字幕| 亚洲一码二码三码区别大吗| 久久 成人 亚洲| 国产xxxxx性猛交| 午夜老司机福利片| 久久精品久久久久久久性| 制服丝袜香蕉在线| 黄色毛片三级朝国网站| 午夜福利一区二区在线看| 国产97色在线日韩免费| 国产精品久久久久久久久免| 天天躁夜夜躁狠狠久久av| 亚洲婷婷狠狠爱综合网| 宅男免费午夜| 欧美日韩亚洲国产一区二区在线观看 | 国产精品一区二区在线观看99| 黑人欧美特级aaaaaa片| 亚洲av在线观看美女高潮| 欧美日韩视频精品一区| 成年人午夜在线观看视频| 国产精品一区二区在线不卡| 国产精品久久久久成人av| 人妻 亚洲 视频| 青草久久国产| 丰满少妇做爰视频| 精品第一国产精品| 日韩一区二区三区影片| 成人午夜精彩视频在线观看| 最近最新中文字幕免费大全7| 热re99久久精品国产66热6| av网站免费在线观看视频| 国产成人a∨麻豆精品| 中文字幕人妻丝袜一区二区 | 国产精品99久久99久久久不卡 | 亚洲精品av麻豆狂野| 国产精品香港三级国产av潘金莲 | 亚洲欧美精品综合一区二区三区| 久久久久久久久久久久大奶| 国产亚洲一区二区精品| 成人国产麻豆网| 久久久国产欧美日韩av| 欧美少妇被猛烈插入视频| 久久av网站| 国产av国产精品国产| 天天添夜夜摸| 欧美国产精品va在线观看不卡| 天天躁夜夜躁狠狠久久av| 韩国高清视频一区二区三区| 操出白浆在线播放| 欧美av亚洲av综合av国产av | 九草在线视频观看| 亚洲欧美清纯卡通| a级毛片在线看网站| 99热全是精品| 人人妻人人澡人人看| 国产深夜福利视频在线观看| 国产极品粉嫩免费观看在线| 天堂俺去俺来也www色官网| 美女视频免费永久观看网站| 女性生殖器流出的白浆| 亚洲av电影在线观看一区二区三区| 亚洲国产精品国产精品| 免费高清在线观看视频在线观看| 日韩伦理黄色片| 最近的中文字幕免费完整| 成年美女黄网站色视频大全免费| 丝袜美足系列| 亚洲国产日韩一区二区| 在线观看国产h片| av视频免费观看在线观看| 大片电影免费在线观看免费| 精品人妻一区二区三区麻豆| 日韩精品有码人妻一区| 晚上一个人看的免费电影| 中文欧美无线码| 99热全是精品| 色精品久久人妻99蜜桃| 亚洲国产精品成人久久小说| 亚洲欧美一区二区三区黑人| 人妻人人澡人人爽人人| 午夜福利免费观看在线| 丰满迷人的少妇在线观看| 午夜福利一区二区在线看| 国产激情久久老熟女| 日韩 欧美 亚洲 中文字幕| 各种免费的搞黄视频| 人人妻,人人澡人人爽秒播 | 99精国产麻豆久久婷婷| 97人妻天天添夜夜摸| 国产 一区精品| 97在线人人人人妻| 男女高潮啪啪啪动态图| 性高湖久久久久久久久免费观看| 成年人午夜在线观看视频| 青草久久国产| 91成人精品电影| 激情五月婷婷亚洲| 久久久久久久久久久免费av| 曰老女人黄片| 一区在线观看完整版| 在线观看人妻少妇| 中国国产av一级| 国产精品一区二区在线观看99| 一边摸一边抽搐一进一出视频| 两性夫妻黄色片| 男女午夜视频在线观看| 男女国产视频网站| 90打野战视频偷拍视频| 日韩 亚洲 欧美在线| 亚洲熟女精品中文字幕| 午夜影院在线不卡| 色视频在线一区二区三区| 欧美日韩亚洲综合一区二区三区_| 一级a爱视频在线免费观看| 少妇被粗大猛烈的视频| 美女午夜性视频免费| 人人妻人人添人人爽欧美一区卜| 欧美日韩一区二区视频在线观看视频在线| 国产日韩欧美视频二区| 日日撸夜夜添| 熟女av电影| av国产久精品久网站免费入址| a级毛片在线看网站| 999久久久国产精品视频| 亚洲av福利一区| 十八禁网站网址无遮挡| 色婷婷久久久亚洲欧美| av免费观看日本| 亚洲第一av免费看| 最近中文字幕高清免费大全6| 天堂中文最新版在线下载| 精品国产超薄肉色丝袜足j| 国产97色在线日韩免费| 国产伦理片在线播放av一区| 最近手机中文字幕大全| 国产精品成人在线| 国产一区有黄有色的免费视频| 国产精品女同一区二区软件| 欧美日韩一区二区视频在线观看视频在线| 丰满饥渴人妻一区二区三| 午夜老司机福利片| 久久毛片免费看一区二区三区| 亚洲成人手机| 这个男人来自地球电影免费观看 | 日韩av免费高清视频| 九草在线视频观看| 97人妻天天添夜夜摸| 国产国语露脸激情在线看| 日韩 欧美 亚洲 中文字幕| 亚洲 欧美一区二区三区| 男女下面插进去视频免费观看| 国产精品蜜桃在线观看| 国产激情久久老熟女| 日韩熟女老妇一区二区性免费视频| a 毛片基地| 国产精品偷伦视频观看了| 免费黄色在线免费观看| 街头女战士在线观看网站| av电影中文网址| 自线自在国产av| 久久久亚洲精品成人影院| 最近2019中文字幕mv第一页| 久久性视频一级片| 999久久久国产精品视频| 菩萨蛮人人尽说江南好唐韦庄| tube8黄色片| 熟女少妇亚洲综合色aaa.| 男人爽女人下面视频在线观看| 黄网站色视频无遮挡免费观看| 精品福利永久在线观看| 国产精品国产三级国产专区5o| 一区二区三区精品91| 欧美成人午夜精品| 丝袜人妻中文字幕| 激情视频va一区二区三区| 免费观看a级毛片全部| 精品人妻一区二区三区麻豆| 成人国语在线视频| 青春草视频在线免费观看| 久久热在线av| 天天添夜夜摸| 一二三四在线观看免费中文在| 日本av免费视频播放| 久久久久久人妻| 中文精品一卡2卡3卡4更新| av又黄又爽大尺度在线免费看| 美女中出高潮动态图| 国产人伦9x9x在线观看| 欧美黑人欧美精品刺激| 国产免费视频播放在线视频| 精品国产露脸久久av麻豆| 天美传媒精品一区二区| 麻豆精品久久久久久蜜桃| 欧美人与性动交α欧美精品济南到| 熟妇人妻不卡中文字幕| 成人国产av品久久久| 我的亚洲天堂| 最近的中文字幕免费完整| 汤姆久久久久久久影院中文字幕| 亚洲三区欧美一区| 亚洲中文av在线| 精品久久久精品久久久| 丝袜美腿诱惑在线| 久久 成人 亚洲| 看免费成人av毛片| 91精品伊人久久大香线蕉| 中文字幕人妻丝袜一区二区 | 久久毛片免费看一区二区三区| 观看美女的网站| 热re99久久精品国产66热6| 色网站视频免费| 日韩成人av中文字幕在线观看| 欧美日韩综合久久久久久| 久久久久精品性色| 哪个播放器可以免费观看大片| 乱人伦中国视频| 免费av中文字幕在线| 久久鲁丝午夜福利片| 我要看黄色一级片免费的| 亚洲精品久久久久久婷婷小说| 久久久久久久国产电影| 国产成人欧美在线观看 | 亚洲av综合色区一区| 精品一区二区三区四区五区乱码 | 韩国精品一区二区三区| 亚洲精品国产一区二区精华液| 在线精品无人区一区二区三| 丰满少妇做爰视频| 交换朋友夫妻互换小说|