• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于最大相關(guān)最小冗余聯(lián)合互信息的多標(biāo)簽特征選擇算法

    2018-06-02 03:47:35張俐王樅
    通信學(xué)報(bào) 2018年5期
    關(guān)鍵詞:特征信息

    張俐,王樅

    (1. 北京郵電大學(xué)軟件學(xué)院,北京 100876;2. 北京郵電大學(xué)可信分布式計(jì)算與服務(wù)教育部重點(diǎn)實(shí)驗(yàn)室,北京 100876)

    1 引言

    近年來,大數(shù)據(jù)、云計(jì)算和人工智能等技術(shù)的迅速發(fā)展,給人類社會生產(chǎn)和生活帶來了前所未有的變化,在這之中就產(chǎn)生了大量的數(shù)據(jù)[1]。這些數(shù)據(jù)逐漸呈現(xiàn)出復(fù)雜化與高維化的趨勢,同時,這些高維數(shù)據(jù)存在著大量的冗余性和無關(guān)性的特征。而這些特征增加了機(jī)器學(xué)習(xí)算法的復(fù)雜度和運(yùn)行時間,同時降低了模型預(yù)測的準(zhǔn)確性,由此帶來了“維數(shù)災(zāi)難”的問題[2]。特征選擇就是通過選取具有代表性的特征子集,用選擇好的特征子集代替全集進(jìn)行學(xué)習(xí)模型的構(gòu)建與訓(xùn)練。簡單說,特征選擇可以通過降低特征維數(shù),提升學(xué)習(xí)模型的訓(xùn)練速度從而達(dá)到比較好的訓(xùn)練效果。它通常的做法是通過挖掘特征與目標(biāo)對象的相關(guān)性以及特征間冗余性的關(guān)系尋找最佳的特征子集對象。顯然,特征選擇算法已經(jīng)成為大數(shù)據(jù)、云計(jì)算、人工智能背景下企業(yè)商務(wù)活動和經(jīng)濟(jì)決策的重要研究方向,從而引起了國內(nèi)外眾多學(xué)者的關(guān)注[3~6]。目前,常見的降維方法主要分為2類:特征提取和特征選擇。特征提取方法主要是將已經(jīng)存在的特征集轉(zhuǎn)換為一種新的低維特征空間,新的特征集合是以線性或非線性的方式創(chuàng)建的,它代表的方法有線性判別分析[7](LDA, linear discriminate analysis)、獨(dú)立成分分析(ICA, independent component analysis)和主成分分析[8](PCA,principal component analysis);而特征選擇方法是從原始特征集合中選擇出一些最有效的特征以降低數(shù)據(jù)集維度的過程。目前,特征選擇技術(shù)大量被應(yīng)用到數(shù)據(jù)挖掘、機(jī)器學(xué)習(xí)、圖像處理和自然語言處理等方面。特征選擇算法主要分為2類:一種是依賴分類器模式(wrapper方法[9]和embedded方法),另一種是不依賴分類器模式(filter方法)。wrapper方法是把各種特征子集當(dāng)作測試對象,然后通過某個分類器的分類準(zhǔn)確率作為該組特征子集性能度量指標(biāo),最后根據(jù)測試的結(jié)果得到最優(yōu)的特征子集。它的主要問題為:一是計(jì)算量非常巨大;二是它采用了窮舉的方式去搜索所有可能的特征組合,方法笨拙且不利于推廣;三是對某個分類器過分依賴,容易出現(xiàn)“過擬合”現(xiàn)象。embedded方法集成在學(xué)習(xí)訓(xùn)練過程中,較wrapper方法計(jì)算簡單而且出現(xiàn)“過擬合”較少,但是尋找適應(yīng)當(dāng)前樣本的函數(shù)模型非常困難。filter方法依據(jù)特征與標(biāo)簽的相關(guān)性進(jìn)行特征排序。filter方法主要優(yōu)點(diǎn)有3個:一是在特征降維方面高效和擴(kuò)展性強(qiáng);二是它獨(dú)立于某個具體的分類器;三是信息論理論廣泛應(yīng)用在filter方法中,使 filter方法擁有比較扎實(shí)的理論基礎(chǔ)。例如,文獻(xiàn)[10~17]提出的互信息、交互信息、條件互信息和聯(lián)合互信息等。

    本文將依賴于信息論的基本理論知識,提出一種新的基于非線性的特征選擇方法——JMMC。該算法的目的就是要克服當(dāng)前 filter方法的某些局限性,例如,對某些特征的高估往往會導(dǎo)致其相關(guān)性和冗余性無法識別等問題。同時,本文算法借用前向搜索方法和最大最小的特征選擇原則,得到更好的特征子集,它能更高效地處理高維數(shù)據(jù)集。在UCI中的9個公開數(shù)據(jù)集中進(jìn)行實(shí)驗(yàn),結(jié)果顯示本文所提JMMC方法能夠有效地降低數(shù)據(jù)維度,并且也能夠提高不同分類器的分類準(zhǔn)確度。

    2 相關(guān)工作

    filter方法[18~24]是當(dāng)前特征選擇的一個研究熱點(diǎn)。因此,本節(jié)將詳細(xì)介紹最近幾年基于 filter方法的特征選擇算法。

    互信息法[6,14]主要依賴特征與目標(biāo)對象的互信息值大小來排列特征的次序。當(dāng)然在其中可能存在若干個冗余特征。因此,它對于高維特征集合就顯得力不從心。

    Kwak等[18]提出了統(tǒng)一信息分布下的互信息特征選擇(MIFS-U, mutual information feature selection under uniform information distribution)方法去改進(jìn)MIFS方法,該方法依然采用特征與目標(biāo)對象去衡量互信息的值,只不過它采用的是基于貪婪性的方法去搜索最有用的特征。

    文獻(xiàn)[19,20]提出了MIFS方法的改進(jìn)版本——?dú)w一化互信息的特征選擇方法(NMIFS),它用標(biāo)準(zhǔn)化的互信息取代了原來的互信息,這種做法的優(yōu)點(diǎn)可以避免互信息值在多值時取0的可能。

    文獻(xiàn)[21]提出了聯(lián)合互信息的特征選擇方法(JMI, joint mutual information),他們認(rèn)為在聯(lián)合互信息中所選特征子集中特征累加和值最大就是候選特征,那么由這些候選特征構(gòu)成的特征子集就是最優(yōu)子集。

    Peng等[22]提出了最小冗余最大相關(guān)特征搜索(minimal redundancy and maximal relevance)算法以及標(biāo)準(zhǔn)mRMR[23]。它們都使用基于互信息值對特征與類標(biāo)簽集C的相關(guān)性以及與所得特征子集S的冗余性進(jìn)行打分,并將得分最高的特征加入S中。mRMR算法的優(yōu)點(diǎn)是它將對特征子集的評價轉(zhuǎn)化為對單個特征的評價,同時將當(dāng)前特征子集中特征間的平均相關(guān)性來表示候選特征與當(dāng)前特征子集之間的冗余性。

    文獻(xiàn)[15]提出了 FCBF(fast correlation basd filter solution),這是基于系統(tǒng)不確定性原理的特征選擇方法。它通過候選特征與類別相關(guān)性來進(jìn)行特征排除,然后采用一個近似馬爾可夫毯原理對所得特征子集中冗余特征進(jìn)行刪減。

    文獻(xiàn)[24]提出了多標(biāo)簽的特征選擇算法,它主要通過多標(biāo)簽的方式去尋找重要的特征,從而構(gòu)成特征子集。

    綜上所述,目前,絕大多數(shù)特征選擇算法關(guān)注的重點(diǎn)依然是特征與標(biāo)簽之間的相關(guān)性和特征之間的冗余性。當(dāng)然,上面介紹的特征選擇方法都有它們各自的局限性。例如,MIFS-U就是當(dāng)所選特征在增加的時候,特征子集的數(shù)目也在增加,同時特征間的冗余性也同樣在增加;mRMR和 NMIFS在每次計(jì)算中僅涉及2個特征間的冗余性度量,這很容易造成某些特征重要性被過分夸大。

    3 最大聯(lián)合互信息算法分析與研究

    3.1 熵、條件熵、互信息和交互信息

    定義1 熵[25]是香農(nóng)在1948年提出的,它主要用來解決信息量化度量的問題。設(shè)隨機(jī)變量Y= {y1,… ,yn},p(yi)為yi的先驗(yàn)概率,那么H(Y)的熵就可以表示為

    從式(1)可知,Y不確定性越大,H(Y)也就越大,那么所需要的信息量也就越大。

    定義2 設(shè)隨機(jī)變量X= {x1,… ,xn},p(xi)為xi的先驗(yàn)概率,Y={y1,… ,ym},p(yj)為yj的先驗(yàn)概率,那么隨機(jī)變量X和隨機(jī)變量Y的聯(lián)合可以熵表示為

    定義3 設(shè)隨機(jī)變量X= {x1,… ,xn},p(xi)為xi的先驗(yàn)概率,Y={y1,… ,ym},p(yj)為yj的先驗(yàn)概率,那么隨機(jī)變量Y下隨機(jī)變量X的條件熵可以表示為

    定義 4 條件熵與聯(lián)合熵之間的關(guān)系如式(4)所示。

    定義 5 互信息[6]是信息論里的一種信息度量工具,它表示一個隨機(jī)變量X中包含的關(guān)于另一個隨機(jī)變量Y的信息量。設(shè)變量X和變量Y,聯(lián)合概率密度函數(shù)是p(xy),它們邊緣概率密度函數(shù)分別是p(x)、p(y),那么它們的互信息I(X;Y)可以表示為

    同理,根據(jù)式(1)~式(5),互信息與熵、條件熵和聯(lián)合熵之間的關(guān)系可以表示為

    定義6 條件互信息。設(shè)有3個隨機(jī)變量分別是X、Y、C,它們的聯(lián)合概率密度函數(shù)分別是p(XYC)、p(X|C)和p(Y|C)以及條件概率密度函數(shù)p(XY|C),假設(shè)隨機(jī)變量C是已知的,那么隨機(jī)變量X和隨機(jī)變量Y關(guān)于隨機(jī)變量C的條件互信息I(X;Y|C)可以表示為

    依據(jù)互信息和熵的定義,聯(lián)合互信息可以表示為

    定義7 交互信息[26]是指在任何特征子集中不存在,但是它卻被所有特征所共享的信息。通常,交互信息I(X;Y;C)與聯(lián)合互信息、互信息之間的關(guān)系可以表示為

    通常來說,交互信息值可以是正、負(fù)或 0。當(dāng)隨機(jī)變量X、Y組合在一起共同提交的信息不包含它們各自提交的信息時,交互信息表示為正,而最大交互信息是指隨機(jī)變量X、Y組合在一起所獲得的最大信息值;當(dāng)隨機(jī)變量X、Y各自提交信息包括某些相同的一些信息時,交互信息表示為負(fù);當(dāng)隨機(jī)引入某個隨機(jī)變量時,并不影響隨機(jī)變量X(或Y)和C之間的關(guān)系時,交互信息表示為0。

    3.2 特征的相關(guān)性、冗余性和交互信息

    特征相關(guān)性的分析是描述特征重要性的關(guān)鍵方法之一。在信息論中,特征的相關(guān)性根據(jù)其特點(diǎn)可以分為相關(guān)、冗余、無關(guān)和交互。John等[27]將特征分為3類:強(qiáng)相關(guān)、弱相關(guān)和無關(guān)特征。而在一個最優(yōu)特征集合中通常應(yīng)該包括所有的強(qiáng)相關(guān)特征和一部分弱相關(guān)特征,不包括無關(guān)特征等。由于弱相關(guān)特征的組成相當(dāng)復(fù)雜,如何從這些特征中進(jìn)一步篩選出冗余特征,對特征選擇算法性能提升至關(guān)重要。文獻(xiàn)[18~24]提出了許多特征選擇算法中都存在著選擇了一些冗余和不相關(guān)的特征。

    因此,下面將結(jié)合信息論中互信息、條件互信息和交換信息的概念,給出判斷特征相關(guān)性的標(biāo)準(zhǔn)。

    定義8 假設(shè)數(shù)據(jù)樣本集D= (T,F,C),n表示樣本的數(shù)量,樣本空間維數(shù)為m,T= {t1,… ,tn}表示樣 本 集 合 ,C= {c1,… ,ck}表 示 標(biāo) 簽 集 合 ,F(xiàn)= {f1,… ,fm}表示特征集合。fi∈F,fj∈F,其中fi≠fj。S?F表示S是F的子集,S′=F?S表示S′是F的子集。

    定義 9 特征相關(guān)性。在S已知的情況下,當(dāng)fi?S、fj?S時,如果存在I(fi,C;S) >I(fj,C;S),就表示fi與目標(biāo)標(biāo)簽C的相關(guān)性大于fj與目標(biāo)標(biāo)簽C的相關(guān)性。那么,可以進(jìn)一步推導(dǎo)出,如果fi與fj存在依賴關(guān)系,并且fi?S,S=fj∪S,就可以說明特征fi與目標(biāo)標(biāo)簽C的相關(guān)性會因?yàn)閒j的加入而提高,即I(fi,C;S) >I(fi,C)。

    定義10 特征冗余性。在S已知的情況下,如果fi與fj存在依賴關(guān)系,fj是冗余特征,并且fi?S,S=fj∪S,那么就可以說明特征fi與目標(biāo)標(biāo)簽C的相關(guān)性會因?yàn)閒j的加入而減少,即I(fi,C;S)<I(fi,C)。同時,也可以進(jìn)一步表示為I(F;C)≤I(S;C) +I(S′;C)。

    定義11 特征無關(guān)性。在S已知的情況下,如果fi與fj之間是無關(guān)的,即表示fi與fj相互獨(dú)立,那么就可以說明特征fi與目標(biāo)標(biāo)簽C的相關(guān)性不會因?yàn)閒j的加入而提高,即I(fi,C;S) =I(fi,C)。

    定義12 特征間交互信息。設(shè)fi∈S′,fj∈S,根據(jù)式(9),如果I(F;C)≥I(S;C) +I(S′;C),就表示在F集合中的任何一個特征的缺失都會導(dǎo)致降低對目標(biāo)標(biāo)簽C的預(yù)測能力。同時,交互信息值還可以進(jìn)一步表示為當(dāng)不同的特征fj加入S時,特征fi與目標(biāo)標(biāo)簽S的相關(guān)性的值就可以表示為I(fi,C;fj),那么加入的特征的最小值就可以表示為

    3.3 算法推導(dǎo)

    從3.2節(jié)可以知道,特征之間、特征與目標(biāo)標(biāo)簽C之間的相關(guān)性完全可以通過I(S′,C;S)與I(S′;C)、I(S′;S)之間的大小差值進(jìn)行確定。因此,I(S′,C;S)與I(S′;C)、I(S′;S)之間的關(guān)系決定了該特征是否是相關(guān)特征、冗余特征和無關(guān)特征。

    根據(jù)文獻(xiàn)[3]和文獻(xiàn)[11],給出特征評價準(zhǔn)則為其中,D(F)表示特征F與標(biāo)簽C的相關(guān)性;Rs(F)表示特征F與所選擇集合S中的特征之間的冗余性;Cs(F)表示特征F與所選擇集合S中的特征之間的交互信息。

    再根據(jù)式(8)~式(10)以及文獻(xiàn)[21]就可以推導(dǎo)出最終所要的結(jié)果

    將式(11)右邊計(jì)算式展開,設(shè)fi、fj為特征,C為標(biāo)簽,fi∈F?S,fj∈S,ijf≠f,根據(jù)交互信息規(guī)則[24]又有

    結(jié)合式(4)~式(12),有

    在實(shí)際中,I(fi;fj|C)求解非常困難,因此本文結(jié)合文獻(xiàn)[11,28~30]給出一種近似求解方法。

    令當(dāng)C給定時,Wi,j會因?yàn)镃的存在而不發(fā)生任何變化。因此,可以得出

    最后綜合式(13)~式(15)可以得出

    3.4 算法描述

    通過上面的分析可以知道,在進(jìn)行特征選擇時,除了要充分考慮特征相關(guān)性、冗余性外,還要考慮特征間與標(biāo)簽之間的交互信息,而在第 2節(jié)所分析的特征排序算法中,有些算法只是考慮了特征與標(biāo)簽之間的相關(guān)性;有些算法在考慮特征與標(biāo)簽之間的相關(guān)性以及特征與特征之間的冗余性的同時,卻往往忽略了特征之間還有交互信息的存在[31~36]。因此,本文提出了最大聯(lián)合互信息算法(JMMC),充分考慮了特征與標(biāo)簽之間的相關(guān)性,更進(jìn)一步考慮了某些重要特征對標(biāo)簽?zāi)酥琳麄€數(shù)據(jù)集產(chǎn)生的影響,并且也兼顧考慮了特征與特征之間交互信息,同時也借用了最大相關(guān)最小冗余的思想。下面,給出JMMC特征選擇算法偽代碼實(shí)現(xiàn),具體如算法1所示。

    算法1 JMMC特征選擇

    輸入 原始數(shù)據(jù)集D;原始特征集F;類標(biāo)簽集合C

    輸出 期望所選的特征排序集S

    1) 初始化

    2)S←φ;

    3) 計(jì)算最大互信息

    4) for each ?fi∈Fdo

    5) 計(jì)算每一個特征的互信息I(fi;C),并存入relevant_mi_set集合中

    6)fmax=max_sort(relevant_mi_set)

    7)F←Ffmax;S←fmax

    8) 使用貪婪搜索方法尋找下一個特征

    9) repeat untilF集合不為空:

    10) 選擇下一個特征方法:

    11) 根據(jù)式(16)進(jìn)行計(jì)算

    12)F←Ffmax

    13)S←S∪fmax

    14) 當(dāng)F集合為空時,跳出循環(huán)

    15) 輸出所要的排序集合S

    步驟1)~步驟2),初始化最優(yōu)特征集S;步驟3)~步驟7),選擇和標(biāo)簽類別相關(guān)性最大的特征變量,存入S集合中;步驟8)~步驟14),使用前向貪婪性搜索方法并結(jié)合式(16),得到與標(biāo)簽最大相關(guān)且與其他特征兩兩之間最小冗余的特征fmax并加入S中,循環(huán)結(jié)束的標(biāo)志是F特征集合為空。步驟15),算法就得到了最優(yōu)集S。

    4 實(shí)驗(yàn)研究

    本節(jié)將對JMMC算法進(jìn)行有效性驗(yàn)證,主要從以下 2個方面證明其有效性:1) 看 JMMC算法是否具有特征降維效果,并能同時提高模型的準(zhǔn)確度;2) 與其他特征選擇方法相比較,JMMC算法是否能有更好的降維效果。本文實(shí)驗(yàn)的研究框架具體如圖1所示。

    4.1 特征選擇方法

    JMMC算法在設(shè)計(jì)之初,就充分考慮了特征與標(biāo)簽的相關(guān)性以及特征之間的冗余性和交互信息,目的是有效地識別在特征集合中是否有冗余特征和無關(guān)特征的存在。為了解決上面實(shí)驗(yàn)考慮的問題,本文選擇4類具有代表性的特征選擇方法作為 JMMC算法的比較對象,它們分別是FullSet、IG、ReliefF和 FCBF。

    1) FullSet方法就是原始特征集合,選擇它的目的就是要研究JMMC算法做的特征選擇是否真的有效,即是否具有特征降維效果,并同時提高模型的準(zhǔn)確度。

    2) IG全稱為信息增益(information gain)[6,14],是一種經(jīng)典的特征排序算法,它主要研究候選特征與標(biāo)簽的相關(guān)性,也就是說候選特征與分類標(biāo)簽越相關(guān),它們之間的信息增益越大,該特征越重要。最后,根據(jù)特征與標(biāo)簽的相關(guān)性大小順序,進(jìn)行特征排序并輸出。因此,IG特征算法是特征選擇領(lǐng)域中檢驗(yàn)所提算法有效性時最常見的基準(zhǔn)算法之一。

    3) ReliefF算法[11]是一種經(jīng)典的基于特征距離的排序算法。它從樣本中的類內(nèi)距離和類間距離來衡量特征之間的差異。一般認(rèn)為好的特征應(yīng)該屬于同一類并且是該樣本的最近的鄰居,而屬于不同標(biāo)簽的樣本應(yīng)該在該特征上取值盡可能不同。在本文中,ReliefF算法中近鄰數(shù)和設(shè)置為 5。

    圖1 研究框架

    4) FCBF算法在第2節(jié)已有介紹,在此不再贅述。

    4.2 分類模型

    本文的實(shí)驗(yàn)環(huán)境是lenovo-ThinkPad筆記本,處理器是 Intel(R)-Core(TM) i7-4500UCPU@1.80 GHz,2.4 GHz,內(nèi)存是8 GB,Windows 7 64位操作系統(tǒng),pycharm和 Anaconda2-(64-bit)開發(fā)環(huán)境,python的運(yùn)行環(huán)境版本是2.7.12。同時,本文采用幾種頻率高的分類器模型,具體如下所示。

    1) 近鄰(KNN,k-nearest neighbor)算法,指當(dāng)一個樣本在特征空間中有k個最相鄰的樣本,而這些樣本中的大多數(shù)屬于某一個類別,那么該樣本也屬于這個類別。KNN近鄰分類器是最為經(jīng)典的分類器算法。KNN的近鄰數(shù)設(shè)置為3。

    2) 分類與回歸樹(C4.5, classification and regression tree)算法通過entropy或基尼系數(shù)來選擇特征進(jìn)行分叉。最終將具有p維特征的n個樣本分到c個類別中去。在本文中,C4.5采用基尼系數(shù)進(jìn)行特征分叉。

    3) 支持向量機(jī)(SVM, support vector machine),指通過升維把低維樣本向高維空間做映射,使原本在低維樣本空間中非線性可分的問題轉(zhuǎn)化為在特征空間中線性可分的問題。SVM分類器的參數(shù)都使用sklearn包的默認(rèn)參數(shù)設(shè)置。

    4) 混合分類器,就是將3KNN、C4.5和SVM進(jìn)行混合來看它們整體的分類結(jié)果,在這里,3KNN、C4.5和SVM中的權(quán)重均取。

    4.3 實(shí)驗(yàn)數(shù)據(jù)集

    本文選擇的實(shí)驗(yàn)數(shù)據(jù)全部來自國際通用的UCI機(jī)器學(xué)習(xí)的數(shù)據(jù)集,它們分別是 heart、dermatology、movement_libra、wdbc、arrhythmia、musk、mfeat-kar、mushroom、kr-vs-kp這 9個數(shù)據(jù)集,詳細(xì)內(nèi)容如表1所示。樣本數(shù)據(jù)分類數(shù)為2~15個,樣本數(shù)為270~8 124個,樣本的特征數(shù)為14~279維。為了保證數(shù)據(jù)更有說服性,整個實(shí)驗(yàn)過程采用 10折交叉驗(yàn)證[37]對實(shí)驗(yàn)數(shù)據(jù)集進(jìn)行測試和評價,最后,通過對10次實(shí)驗(yàn)求均值得到最后的實(shí)驗(yàn)結(jié)果。

    表1 實(shí)驗(yàn)中的UCI數(shù)據(jù)集

    4.4 實(shí)驗(yàn)結(jié)果分析

    本文均采用Accuracy預(yù)測特征算法的優(yōu)劣。同時,為了進(jìn)一步說明不同算法在不同分類器和數(shù)據(jù)集的優(yōu)劣,本文使用 Win/Draw/Loss來統(tǒng)計(jì)并分析算法兩兩之間的差異。Win表示算法A好于B,Draw表示算法A等于B,Loss表示算法A差于B。

    4.5 小樣本低維數(shù)據(jù)集的分析

    在小樣本數(shù)據(jù)集合中,平均樣本數(shù)為390個,平均特征數(shù)為 42.75。表 2~表 4給出了所選擇 4種數(shù)據(jù)集上不同分類器(3KNN、C4.5和SVM)采用 10折交叉驗(yàn)證法所獲得的平均分類準(zhǔn)確率和特征數(shù)。表5給出了所選擇4種數(shù)據(jù)集上混合分類器(由3KNN、C4.5和SVM組成)采用10折交叉驗(yàn)證法所獲得的平均分類準(zhǔn)確率和特征數(shù)。圖2~圖5給出了這4種數(shù)據(jù)集合的顯示混合分類器效果,其中,橫坐標(biāo)表示依次遞増的所選特征子集數(shù)目,縱坐標(biāo)表示平均分類率準(zhǔn)確率。根據(jù)表 2~表 5以及圖 2~圖 5所示的實(shí)驗(yàn)結(jié)果,JMMC算法使用3KNN分類器在heart數(shù)據(jù)集、dermatology數(shù)據(jù)集、movement_libra數(shù)據(jù)集和wdbc數(shù)據(jù)集上比FullSet要高出4.074%、0.833%、0.666%和1.391%;并且,JMMC算法使用C4.5分類器在 heart數(shù)據(jù)集、dermatology數(shù)據(jù)集、movement_libra數(shù)據(jù)集和 wdbc數(shù)據(jù)集上比FullSet要高出1.852%、0.833%、0.666%和1.391%;JMMC算法使用 SVM 分類器在 heart數(shù)據(jù)集、dermatology數(shù)據(jù)集、movement_libra數(shù)據(jù)集和wdbc數(shù)據(jù)集上比FullSet要高出1.481%、0.294%、

    0.889%和 5.596%;JMMC算法使用混合分類器在heart數(shù)據(jù)集、dermatology數(shù)據(jù)集、movement_libra數(shù)據(jù)集和wdbc數(shù)據(jù)集上比FullSet要高出10.745%、1.23%、0.889%和6.625%。通過對以上4種數(shù)據(jù)集在不同分類器以及它們的混合分類器來看,JMMC算法均起到了降低數(shù)據(jù)冗余度、提高分類準(zhǔn)確度的效果,同時,從表2~表5可以看出,由于分類器從弱變強(qiáng),分類的效果也會變好,并且所需要的平均特征數(shù)也會相應(yīng)減少?,F(xiàn)在,再來對比JMMC算法和其他特征排序算法,從表2~表5可以看出,JMMC算法在絕大多數(shù)情況下均優(yōu)于其他所選擇的特征排序算法,具體描述可以從表6看出。

    表2 基于3KNN分類器的所選特征集平均準(zhǔn)確率

    表3 基于C4.5分類器的所選特征集平均準(zhǔn)確率

    表4 基于SVM分類器的所選特征集平均準(zhǔn)確率

    表5 基于混合分類器和不同算法的平均準(zhǔn)確率

    綜上可得,在小樣本集中,JMMC算法在特征的選擇上由于更多地考慮了特征間冗余性與交互信息,所以說分類的準(zhǔn)確率更好一些。

    圖2 heart數(shù)據(jù)集不同算法的平均正確率

    圖3 dermatology數(shù)據(jù)集不同算法的平均正確率

    圖4 movement_libra數(shù)據(jù)集不同算法的平均正確率

    圖5 wdbc數(shù)據(jù)集不同算法的平均正確率

    4.6 大樣本高維數(shù)據(jù)集的分析

    在大樣本數(shù)據(jù)集合中,平均樣本數(shù)是2 843個,平均特征數(shù)為114。表7~表9給出了所選擇5種數(shù)據(jù)集上不同分類器(3KNN、C4.5和SVM)采用 10折交叉驗(yàn)證法所獲得的平均分類準(zhǔn)確率和特征數(shù)。表10給出了所選擇5種數(shù)據(jù)集上混合分類器(由3KNN、C4.5和SVM組成)采用10折交叉驗(yàn)證法所獲得的平均分類準(zhǔn)確率和特征數(shù)。圖6~圖10給出了這5種數(shù)據(jù)集合的顯示混合分類器效果,其中橫坐標(biāo)表示依次遞増的所選特征子集數(shù)目,縱坐標(biāo)表示平均分類率準(zhǔn)確率。根據(jù)表7~表10以及圖6~圖10所示的實(shí)驗(yàn)結(jié)果,JMMC算法使用 3KNN分類器在 arrhythmia數(shù)據(jù)集、musk數(shù)據(jù)集、mfeat-kar數(shù)據(jù)集、mushroom數(shù)據(jù)集和kr-vs-kp數(shù)據(jù)集上比FullSet要高出0.933%、1.549%、0、0和 3.538%;并且,JMMC算法使用C4.5分類器在arrhythmia數(shù)據(jù)集、musk數(shù)據(jù)集、mushroom數(shù)據(jù)集和kr-vs-kp數(shù)據(jù)集上比FullSet要高出5.456%、0.195%、0和0;JMMC算法使用SVM分類器在arrhythmia數(shù)據(jù)集、musk數(shù)據(jù)集、mfeat-kar數(shù)據(jù)集、mushroom數(shù)據(jù)集和 kr-vs-kp數(shù)據(jù)集上比FullSet要高出2.066%、2.789%、0、1.476%和 0;JMMC算法使用混合分類器在arrhythmia數(shù)據(jù)集、musk數(shù)據(jù)集、mfeat-kar數(shù)據(jù)集、mushroom數(shù)據(jù)集和 kr-vs-kp數(shù)據(jù)集上比FullSet要高出1.082%、0.286%、0.133%、0.607%和 1.18%。從以上的數(shù)據(jù)分析可以看出,JMMC算法只是在使用C4.5分類器時在mfeat-kar數(shù)據(jù)集上略低于FullSet,其他均優(yōu)于或等同于FullSet。同時,通過對以上5種數(shù)據(jù)集在不同分類器以及它們的混合分類器來看,JMMC算法起到了降低數(shù)據(jù)冗余度、提高分類準(zhǔn)確度的效果,同時,從表 8~表 10可以看出,由于分類器從弱變強(qiáng),分類的效果也會變好,并且,所需要的平均特征數(shù)也會相應(yīng)減少,其中在基于 SVM 的分類器表現(xiàn)得尤為明顯,特征數(shù)平均只需要32.4個。現(xiàn)在,再來對比JMMC算法和其他特征排序算法,從表7~表9可以看出,JMMC算法大部分均優(yōu)于其他所選擇的特征排序算法,可能由于分類器的原因造成在個別數(shù)據(jù)集上和不同分類器上存在JMMC算法略低于其他特征排序算法,這些具體情況都可以從表11看出?,F(xiàn)在,可以得出在大樣本集中,JMMC算法在特征的選擇上由于充分地考慮了特征間冗余性與交互信息,分類準(zhǔn)確率相比其他算法要更好一些。

    表6 JMMC算法與其他基于特征排序算法的Win/Draw/Loss分析

    表7 基于3KNN分類器的所選特征集平均準(zhǔn)確率

    表8 基于C4.5分類器的所選特征集平均準(zhǔn)確率

    表9 基于SVM分類器的所選特征集平均準(zhǔn)確率

    表10 基于不同分類器和不同算法的平均準(zhǔn)確率

    表11 JMMC算法與其他基于特征排序算法的Win/Draw/Loss分析

    圖6 arrhythmia數(shù)據(jù)集不同算法的正確率

    圖7 musk數(shù)據(jù)集不同算法的平均正確率

    圖8 mfeat-kar數(shù)據(jù)集不同算法的平均正確率

    圖9 mushroom數(shù)據(jù)集不同算法的平均正確率

    圖10 kr-vs-kp數(shù)據(jù)集不同算法的平均正確率

    5 結(jié)束語

    特征選擇算法主要是盡可能尋找較小的特征子集,從而獲得較高分類預(yù)測準(zhǔn)確率。本文通過引入條件互信息和交互信息,并依賴最大最小原則建立新的特征排序算法(JMMC算法)。它不僅考慮特征的相關(guān)性、冗余性和無關(guān)性,也充分考慮了特征間與目標(biāo)標(biāo)簽之間的交互信息。首先,依據(jù)信息論理論,重新定義了相關(guān)性、冗余性、無關(guān)性和交互信息。其次,給出了 JMMC算法的推導(dǎo)和實(shí)現(xiàn)過程。在UCI公開的9個樣本集和4種不同的分類器(3KNN、C4.5、SVM和混合分類器)中,JMMC算法在絕大多數(shù)情況下,平均分類準(zhǔn)確率均優(yōu)于其他特征排序算法。

    綜上可知,JMMC算法不僅能有效識別出相關(guān)特征、冗余特征和無關(guān)特征,而且也能識別出特征間產(chǎn)生交互信息的那些特征。因此,JMMC算法可以有效地提高分類的準(zhǔn)確度,并且降低特征的維數(shù)。下一步的工作將是對交互信息、條件互信息等理論進(jìn)行更進(jìn)一步的研究,以便能提出更加有效的特征排序算法來優(yōu)化選擇出的特征子集并進(jìn)一步提高它們分類的準(zhǔn)確率。

    [1] GEORGE G, HAAS M R, PENTLAND A. Big data and management[J]. Academy of Management Journal,2014,57(2)∶321-326.

    [2] XIE J Y, XIE W X. Several selection algorithms based on the discernibility of a feature subset and support vector machines[J].Chinese Journal of Computers, 2014,37(8)∶1704-1718.

    [3] BROWN G, POCOCK A, ZHAO M J, et al. Conditional likelihood maximisation-a unifying framework for information theoretic feature selection[J].Journal of Machine Learning Research, 2012,13∶27-66.

    [4] CHENG H G, QIN Z, FENG C, et al. Conditional mutual information based feature selection analysing for synergy and redundancy[J].Electronics and Telecommunications Research Institute, 2011(33)∶210-218.

    [5] CHANDRASHEKAR G, SAHIN F .A survey on feature selection methods[J].Computers and Electrical Engineering, 2014(40)∶16-28.

    [6] ZHANG Z H, LI S N, LI Z G, et al. Multi-label feature selection algorithm based on information entropy[J].Journal of Computer Research and Development, 2013,50(6)∶1177-1184.

    [7] YU H, YANG J.A direct LDA algorithm for high-dimensional data with application to face recognition[J].Pattern Recognition, 2001(34)∶2067-2070.

    [8] BAJWA I S, NAWEED M S, ASIF M N, et al. Feature based image classification by using principal component analysis[J].ICGST International Journal on Graphics Vision and Image Processing, 2009(9)∶ 11-17.

    [9] MALDONADO S, WEBER R. A wrapper method for feature selection using support vector machine[J].Information Science, 2009, 179(13)∶2208-2217.

    [10] PENG C. DistributedK-Means clustering algorithm based on Fisher discriminant ratio[J].Journal of Jiangsu University, 2014, 35(4)∶422-427.

    [11] ZHANG Y S, YANG A, XIONG C, et al. Feature selection using data envelopment analysis[J].Knowledge-Based Systems,2014(64)∶70-80.

    [12] YU L, LIU H. Feature selection for high-dimensional data∶ a fast correlation-based filter solution[C]//The 20th International Conferences on machine learning. 2003∶ 856-863.

    [13] HUANG D, CHOW T W S. Effective feature selection scheme using mutual information[J]. Neurocomputing,2005 (63)∶325-343.

    [14] LIU H W, SUN J G, LIU L, et al. Feature selection with dynamic mutual information[J]. IEEE Transactions on Neural Networks, 2009,20(2)∶ 189-201.

    [15] DUAN H X, ZHANG Q Y, ZHANG M.FCBF algorithm based on normalized mutual information for feature selection[J].Journal Huazhong University of Science & Technology(Natural Science Edition), 2017,45(1)∶52-56.

    [16] SUN G L, SONG Z C, LIU J L, et al. Feature selection method based on maximum information coefficient and approximate markov blanket[J]. Acta Automatica Sinica, 2017,43(5)∶795-805.

    [17] VERGARA J R, ESTEVEZ P.A review of feature selection methods based on mutual information[J].Neural Computing and Applications,2014,24(1)∶175-186.

    [18] KWAK N, CHOI C H. Input feature selection for classification problems[J]. IEEE Transactions on Neural Networks, 2002(13)∶143-159.

    [19] ESTéVEZ P A, TESMER M, PEREZ C A, et al. Normalized mutual information feature selection[J].IEEE Transaction on Neural Networks,2009(20)∶189-201.

    [20] HOQUE N, BHATTACHARYYA D K, KALITA J K.MIFS-ND∶a mutual information-based feature selection method[J]. Expert Systems with Applications,2014,41(14)∶6371-6385.

    [21] HOWARD H Y, JOHN M. Feature selection based on joint mutual information[C]//Advances in Intelligent Data Analysis (AIDA), Computational Intelligence Methods and Applications (CIMA), International Computer Science Conventions Rochester New York. 1999∶ 1-8.

    [22] PENG H, LONG F, DING C, Feature selection based on mutual in-formation∶ criteria of max-dependency, max-relevance, and min- redundancy[C]//IEEE Transaction on Pattern Analysis & Machine Intelligence. 2005, 27 (8)∶ 1226-1238

    [23] VINH L T, THANG N D, LEE Y K. An improved maximum relevance and minimum redundancy feature selection algorithm based on normalized mutual information[C]//Tenth International Symposium on Applications and the Internet. 2010∶ 395-398.

    [24] LEE J, KIM D W. Mutual information-based multi-label feature selection using interaction information[J].Expert Systems with Applications,2015(42)∶ 2013-2025.

    [25] COVER T, THOMAS J.Elements of theory[M]. New York∶ John Wiley & Sons, 2002.

    [26] JAKULIN A. Attribute interactions in machine learning (Master thesis)[M]//Lecture Notes in Computer Science. 2003.

    [27] JOHN G H, KOHAVI R, PFLEGER K. Irrelevant features and the subset selection problem[C]//The Eleventh International Conference on Machine Learning, 1994∶ 121-129.

    [28] BENNASAR M, HICKS Y, SETCHI R. Feature selection using Joint mutual information maximisation[J]. Expert System Application,2015(42)∶ 8520-8532.

    [29] ZHANG Y S, ZHANG Z G. Feature subset selection with cumulate conditional mutual information minimization[J]. Expert Systems with Applications, 2012,39(5)∶6078-6088.

    [30] YU L, LIU H. Efficient feature selection via analysis of relevance and redundancy[J]. Journal of Machine Learning Research, 2004, 5(12)∶1205-1224.

    [31] TAPIA E, BULACIO P, ANGELONE L F. Sparse and stable gene selection with consensus SVM-RFE[J]. Pattern Recognition Letters,2012,33(2)∶164-172.

    [32] UNLER A, MURAT A, CHINNAM R B. mr2PSO∶ a maximum relevance minimum redundancy feature selection method based on swarm intelligence for support vector machine classification[J]. Information Sciences, 2011(20)∶ 4625-4641.

    [33] CHE J X, YANG Y L LI L, et al. Maximum relevance minimum common redundancy feature selection for nonlinear data[J]. Information Sciences, 2017(5)∶68-89.

    [34] CHAKRABORTY R, PAL N R. Feature selection using a neural framework with controlled redundancy[J].IEEE Transactions on Neural Networks and Learning Systems, 2015,26 (1) ∶35-50.

    [35] AKADI A E, OUARDIGHI A, ABOURAJDINE D.A powerful feature selection approach based on mutual information[J]. International Journal of Computer Science and Network Security, 2008(8)∶116-211.

    [36] FLEURET F. Fast binary feature selection with conditional mutual information[J]. Journal of Machine Learning Research, 2004(5)∶1531-1555.

    [37] NIU X T. Support vector extracted algorithm based on KNN and 10 fold cross-validation method[J].Journal of Huazhong Normal University, 2014,48(3)∶335-338.

    猜你喜歡
    特征信息
    抓住特征巧觀察
    新型冠狀病毒及其流行病學(xué)特征認(rèn)識
    如何表達(dá)“特征”
    不忠誠的四個特征
    抓住特征巧觀察
    訂閱信息
    中華手工(2017年2期)2017-06-06 23:00:31
    展會信息
    中外會展(2014年4期)2014-11-27 07:46:46
    線性代數(shù)的應(yīng)用特征
    河南科技(2014年23期)2014-02-27 14:19:15
    信息
    健康信息
    祝您健康(1987年3期)1987-12-30 09:52:32
    大又大粗又爽又黄少妇毛片口| 欧美潮喷喷水| 中国美白少妇内射xxxbb| 夜夜看夜夜爽夜夜摸| 美女免费视频网站| 久久6这里有精品| 少妇熟女欧美另类| 日韩大尺度精品在线看网址| 我的老师免费观看完整版| 国产精品久久久久久精品电影| 狂野欧美激情性xxxx在线观看| 女生性感内裤真人,穿戴方法视频| 亚洲欧美精品自产自拍| 在线免费十八禁| 在线观看美女被高潮喷水网站| 狠狠狠狠99中文字幕| 国产成人a∨麻豆精品| 亚洲最大成人手机在线| 日本欧美国产在线视频| 热99re8久久精品国产| 亚洲人与动物交配视频| 中出人妻视频一区二区| 国产久久久一区二区三区| 亚洲在线观看片| 久久久久免费精品人妻一区二区| 黄色一级大片看看| 国产高潮美女av| 97超视频在线观看视频| 一本一本综合久久| 可以在线观看毛片的网站| 精品一区二区三区人妻视频| 国产精品三级大全| 在线看三级毛片| 美女被艹到高潮喷水动态| 悠悠久久av| 日韩三级伦理在线观看| 国产片特级美女逼逼视频| 午夜精品一区二区三区免费看| 成年版毛片免费区| 精品一区二区免费观看| 俺也久久电影网| 亚洲国产精品国产精品| 一级黄色大片毛片| 精品国产三级普通话版| 午夜福利在线观看吧| 欧美高清性xxxxhd video| 亚洲av五月六月丁香网| 国产一区二区在线观看日韩| 亚洲av熟女| 91精品国产九色| 国产午夜精品论理片| 成人av一区二区三区在线看| 男女边吃奶边做爰视频| 麻豆乱淫一区二区| 内射极品少妇av片p| 亚洲乱码一区二区免费版| 久久久久久大精品| 麻豆精品久久久久久蜜桃| 啦啦啦观看免费观看视频高清| 夜夜看夜夜爽夜夜摸| 99热只有精品国产| 在线免费十八禁| 免费人成在线观看视频色| 人妻夜夜爽99麻豆av| 变态另类丝袜制服| 国产精品一区www在线观看| 免费观看精品视频网站| 亚洲成人久久性| 十八禁网站免费在线| 亚洲五月天丁香| 国产久久久一区二区三区| 成人亚洲欧美一区二区av| 婷婷六月久久综合丁香| 毛片一级片免费看久久久久| 亚洲人成网站高清观看| 国产高清视频在线播放一区| 床上黄色一级片| 麻豆成人午夜福利视频| 人人妻人人看人人澡| 此物有八面人人有两片| 嫩草影院精品99| 免费在线观看成人毛片| 久久久久国产精品人妻aⅴ院| 亚洲成人中文字幕在线播放| 久久久久国内视频| 人妻丰满熟妇av一区二区三区| 色哟哟哟哟哟哟| 亚洲熟妇中文字幕五十中出| 乱系列少妇在线播放| 国产精品电影一区二区三区| 欧美日本亚洲视频在线播放| 免费搜索国产男女视频| 99热这里只有是精品50| 日韩av不卡免费在线播放| 久久久久久久午夜电影| 国产单亲对白刺激| 中文亚洲av片在线观看爽| 国产精品,欧美在线| 午夜福利视频1000在线观看| 天堂av国产一区二区熟女人妻| 精品人妻偷拍中文字幕| 校园人妻丝袜中文字幕| 女的被弄到高潮叫床怎么办| 在线观看av片永久免费下载| 黄色视频,在线免费观看| 男人狂女人下面高潮的视频| 国产毛片a区久久久久| 热99在线观看视频| 欧美成人一区二区免费高清观看| 观看免费一级毛片| 日本免费一区二区三区高清不卡| 成人漫画全彩无遮挡| 成年女人毛片免费观看观看9| 人妻制服诱惑在线中文字幕| 久久久久久伊人网av| 午夜老司机福利剧场| 十八禁国产超污无遮挡网站| 国产精品久久久久久亚洲av鲁大| 国产精品久久久久久av不卡| 青春草视频在线免费观看| 久久热精品热| 欧美激情在线99| 高清毛片免费看| 国产老妇女一区| 国产高清视频在线观看网站| 国产麻豆成人av免费视频| 国产午夜精品论理片| 最新中文字幕久久久久| 日韩亚洲欧美综合| 免费看光身美女| 热99在线观看视频| 国产精品美女特级片免费视频播放器| 精品少妇黑人巨大在线播放 | 白带黄色成豆腐渣| 国产一区亚洲一区在线观看| 亚洲四区av| 观看免费一级毛片| 成人欧美大片| 18禁在线无遮挡免费观看视频 | 黄色一级大片看看| 你懂的网址亚洲精品在线观看 | 国产久久久一区二区三区| 伊人久久精品亚洲午夜| 国产精品无大码| 免费观看人在逋| 国产精品一区www在线观看| 国产欧美日韩精品一区二区| h日本视频在线播放| 一a级毛片在线观看| 亚洲最大成人av| 99久国产av精品国产电影| 国产又黄又爽又无遮挡在线| 亚洲色图av天堂| 一a级毛片在线观看| 我要看日韩黄色一级片| 成年女人毛片免费观看观看9| 国产探花极品一区二区| 婷婷精品国产亚洲av在线| 国产精品国产三级国产av玫瑰| 超碰av人人做人人爽久久| 热99re8久久精品国产| 真人做人爱边吃奶动态| 亚洲一区二区三区色噜噜| 欧美日韩精品成人综合77777| 欧美精品国产亚洲| 99riav亚洲国产免费| 免费一级毛片在线播放高清视频| 久久精品久久久久久噜噜老黄 | 国产一区二区三区在线臀色熟女| 国产精品永久免费网站| 久久精品人妻少妇| 欧美xxxx黑人xx丫x性爽| 亚洲欧美日韩高清在线视频| 婷婷色综合大香蕉| 精品一区二区三区视频在线| 黄色一级大片看看| 五月玫瑰六月丁香| 精品日产1卡2卡| 亚洲中文字幕日韩| 综合色丁香网| 日日摸夜夜添夜夜添小说| 国产午夜精品久久久久久一区二区三区 | 不卡视频在线观看欧美| 国产高清不卡午夜福利| 久久热精品热| 深夜精品福利| 春色校园在线视频观看| 内地一区二区视频在线| 伊人久久精品亚洲午夜| 国产真实伦视频高清在线观看| 国产黄a三级三级三级人| 国产欧美日韩一区二区精品| 男女那种视频在线观看| 变态另类成人亚洲欧美熟女| 午夜a级毛片| 女人十人毛片免费观看3o分钟| 亚洲精品456在线播放app| 天天一区二区日本电影三级| 97人妻精品一区二区三区麻豆| 日本免费a在线| 99热全是精品| 久久久久精品国产欧美久久久| 亚洲国产色片| 乱码一卡2卡4卡精品| 一个人看的www免费观看视频| 久久99热这里只有精品18| 美女内射精品一级片tv| 成人二区视频| 欧美绝顶高潮抽搐喷水| 亚洲美女黄片视频| 天美传媒精品一区二区| 极品教师在线视频| 国产精品不卡视频一区二区| 国内少妇人妻偷人精品xxx网站| 床上黄色一级片| 国产黄色视频一区二区在线观看 | 黄片wwwwww| 欧美在线一区亚洲| 国产91av在线免费观看| 网址你懂的国产日韩在线| avwww免费| 99久久无色码亚洲精品果冻| 亚洲欧美精品综合久久99| 一个人看视频在线观看www免费| 日本五十路高清| 亚洲欧美日韩卡通动漫| 尾随美女入室| 国产精品日韩av在线免费观看| 国产探花在线观看一区二区| 少妇人妻一区二区三区视频| 亚洲最大成人手机在线| 亚洲av二区三区四区| 97在线视频观看| 色尼玛亚洲综合影院| 日韩精品青青久久久久久| 一级毛片我不卡| 国产亚洲精品av在线| 国产精品一及| 欧美高清性xxxxhd video| 国产三级中文精品| videossex国产| 午夜日韩欧美国产| 亚州av有码| 91精品国产九色| 成人av一区二区三区在线看| 欧美在线一区亚洲| 久久精品国产亚洲av涩爱 | 俺也久久电影网| 尾随美女入室| 欧美一区二区国产精品久久精品| 国内精品久久久久精免费| 一a级毛片在线观看| 国产麻豆成人av免费视频| 波野结衣二区三区在线| 久久6这里有精品| 少妇的逼水好多| 国产精品av视频在线免费观看| 国产麻豆成人av免费视频| 亚洲专区国产一区二区| 丝袜美腿在线中文| 久久亚洲国产成人精品v| 免费电影在线观看免费观看| 亚洲国产精品久久男人天堂| 欧美日韩在线观看h| 老司机影院成人| 国产毛片a区久久久久| 91久久精品国产一区二区三区| 天堂影院成人在线观看| 少妇丰满av| 乱系列少妇在线播放| 波野结衣二区三区在线| 狠狠狠狠99中文字幕| 少妇的逼水好多| 91麻豆精品激情在线观看国产| 桃色一区二区三区在线观看| 日韩一本色道免费dvd| 久久久久九九精品影院| 久久久久国产精品人妻aⅴ院| 久久久久久国产a免费观看| 亚洲不卡免费看| 国产男靠女视频免费网站| 一本久久中文字幕| 一个人看的www免费观看视频| 噜噜噜噜噜久久久久久91| 国产综合懂色| 一区福利在线观看| 性欧美人与动物交配| 精品一区二区三区人妻视频| 美女cb高潮喷水在线观看| 内射极品少妇av片p| 国产一区二区激情短视频| 尤物成人国产欧美一区二区三区| 男女下面进入的视频免费午夜| 美女 人体艺术 gogo| 精品一区二区三区视频在线观看免费| 日韩av在线大香蕉| 国产伦一二天堂av在线观看| or卡值多少钱| 亚洲中文日韩欧美视频| 少妇的逼好多水| 免费黄网站久久成人精品| 村上凉子中文字幕在线| 最近的中文字幕免费完整| 99视频精品全部免费 在线| 午夜亚洲福利在线播放| 欧美高清成人免费视频www| 亚洲18禁久久av| 精品久久久久久成人av| 亚洲乱码一区二区免费版| 人妻少妇偷人精品九色| av在线蜜桃| 国模一区二区三区四区视频| 黄色配什么色好看| 久久综合国产亚洲精品| 国产精品亚洲美女久久久| 床上黄色一级片| 国产大屁股一区二区在线视频| 成人国产麻豆网| 精品无人区乱码1区二区| 日本黄色视频三级网站网址| 色播亚洲综合网| 国产午夜精品论理片| 丰满乱子伦码专区| 中文字幕久久专区| 国产精品国产三级国产av玫瑰| 日本在线视频免费播放| 精品久久久久久久久亚洲| 午夜激情福利司机影院| 日韩精品青青久久久久久| 成人av在线播放网站| av.在线天堂| 毛片一级片免费看久久久久| 亚洲精品一卡2卡三卡4卡5卡| 欧美性感艳星| 国产亚洲精品av在线| 麻豆国产97在线/欧美| 国产在线精品亚洲第一网站| 深夜精品福利| 亚洲在线自拍视频| 亚洲精品色激情综合| 国产aⅴ精品一区二区三区波| 久久这里只有精品中国| 亚洲精品乱码久久久v下载方式| 国产午夜精品久久久久久一区二区三区 | 国产又黄又爽又无遮挡在线| 免费电影在线观看免费观看| 又爽又黄a免费视频| 日韩精品有码人妻一区| 色尼玛亚洲综合影院| 黄片wwwwww| 麻豆av噜噜一区二区三区| 久久精品人妻少妇| 久久人人爽人人片av| 91久久精品电影网| 别揉我奶头~嗯~啊~动态视频| 身体一侧抽搐| 国产片特级美女逼逼视频| 日本黄色视频三级网站网址| 亚洲精品国产av成人精品 | 老司机影院成人| 国产老妇女一区| 国产精品久久视频播放| 国产视频一区二区在线看| av卡一久久| 看十八女毛片水多多多| 97热精品久久久久久| 亚洲经典国产精华液单| av卡一久久| h日本视频在线播放| 可以在线观看毛片的网站| 中文亚洲av片在线观看爽| 免费搜索国产男女视频| 看免费成人av毛片| 久久久精品欧美日韩精品| 国产在线精品亚洲第一网站| 亚洲精品色激情综合| 久久久精品大字幕| 欧美精品国产亚洲| 亚洲丝袜综合中文字幕| 久久久久久大精品| 美女被艹到高潮喷水动态| 日韩精品青青久久久久久| 男女边吃奶边做爰视频| 久久精品国产自在天天线| 最后的刺客免费高清国语| 人妻制服诱惑在线中文字幕| 国产一区亚洲一区在线观看| 色尼玛亚洲综合影院| 色在线成人网| 成人无遮挡网站| 国内少妇人妻偷人精品xxx网站| 国产精品日韩av在线免费观看| 最新在线观看一区二区三区| av在线蜜桃| 成人无遮挡网站| 老熟妇乱子伦视频在线观看| av在线天堂中文字幕| 久久人妻av系列| 亚洲精品日韩在线中文字幕 | 国产精品久久久久久精品电影| 亚洲精品久久国产高清桃花| 美女被艹到高潮喷水动态| 久久这里只有精品中国| 国产中年淑女户外野战色| 欧美日韩国产亚洲二区| 亚洲精品色激情综合| 精品日产1卡2卡| 免费看a级黄色片| 99久久精品国产国产毛片| 日韩精品中文字幕看吧| 成人特级av手机在线观看| 免费黄网站久久成人精品| 亚洲精品在线观看二区| 春色校园在线视频观看| 少妇熟女aⅴ在线视频| 国产精品日韩av在线免费观看| 欧美国产日韩亚洲一区| 2021天堂中文幕一二区在线观| 亚洲欧美清纯卡通| 成年版毛片免费区| 欧美性感艳星| 精品国内亚洲2022精品成人| 丰满的人妻完整版| 啦啦啦啦在线视频资源| 精品人妻偷拍中文字幕| 久久国内精品自在自线图片| 一级黄色大片毛片| 成人午夜高清在线视频| 国产成人一区二区在线| 亚洲18禁久久av| 免费观看精品视频网站| 淫秽高清视频在线观看| 欧美激情国产日韩精品一区| 六月丁香七月| 国产一级毛片七仙女欲春2| 身体一侧抽搐| 99久国产av精品国产电影| 日本熟妇午夜| 国产又黄又爽又无遮挡在线| 夜夜看夜夜爽夜夜摸| 国产精品,欧美在线| 国产精品国产三级国产av玫瑰| 听说在线观看完整版免费高清| 三级毛片av免费| 色综合色国产| 国产精品一区二区三区四区久久| 久久精品国产亚洲网站| 亚洲av中文字字幕乱码综合| 国产高清激情床上av| 国产欧美日韩一区二区精品| 蜜桃久久精品国产亚洲av| 在线观看免费视频日本深夜| 淫秽高清视频在线观看| 亚洲人成网站在线播| 老师上课跳d突然被开到最大视频| 亚洲精品一卡2卡三卡4卡5卡| 亚洲精品成人久久久久久| 日本精品一区二区三区蜜桃| 亚洲精品国产av成人精品 | 日日摸夜夜添夜夜添av毛片| 在线免费观看的www视频| 国产aⅴ精品一区二区三区波| 亚洲精品色激情综合| 老女人水多毛片| 免费电影在线观看免费观看| 一级毛片aaaaaa免费看小| 久久精品综合一区二区三区| 中文资源天堂在线| 午夜亚洲福利在线播放| 一级黄色大片毛片| 久久久国产成人免费| 男人舔奶头视频| 性欧美人与动物交配| 欧美bdsm另类| 久久精品国产鲁丝片午夜精品| 亚洲综合色惰| 免费人成在线观看视频色| 噜噜噜噜噜久久久久久91| 国产免费男女视频| 日韩欧美精品免费久久| 国产高清视频在线播放一区| 日本黄色片子视频| 男女下面进入的视频免费午夜| 中文在线观看免费www的网站| 国产高清视频在线观看网站| 在线国产一区二区在线| 国产高清有码在线观看视频| 日本黄色视频三级网站网址| 中文字幕精品亚洲无线码一区| 亚洲成人精品中文字幕电影| 色尼玛亚洲综合影院| 国产精品人妻久久久影院| 免费一级毛片在线播放高清视频| 在线观看美女被高潮喷水网站| 国语自产精品视频在线第100页| 午夜免费激情av| 国产精品综合久久久久久久免费| 干丝袜人妻中文字幕| 搡女人真爽免费视频火全软件 | 在线播放无遮挡| 国产精品,欧美在线| 午夜福利成人在线免费观看| 一进一出抽搐gif免费好疼| 日日摸夜夜添夜夜爱| 亚洲欧美日韩高清在线视频| 五月伊人婷婷丁香| 久99久视频精品免费| 精品不卡国产一区二区三区| 嫩草影院新地址| 午夜视频国产福利| 床上黄色一级片| 国产伦在线观看视频一区| 日日摸夜夜添夜夜爱| 国内精品美女久久久久久| 国产视频内射| 婷婷六月久久综合丁香| 成人亚洲精品av一区二区| 亚洲真实伦在线观看| 99国产极品粉嫩在线观看| 精品欧美国产一区二区三| 不卡视频在线观看欧美| 精品久久久久久久久av| 乱码一卡2卡4卡精品| 免费av毛片视频| 可以在线观看毛片的网站| 精品免费久久久久久久清纯| 亚洲中文字幕日韩| 麻豆精品久久久久久蜜桃| 亚洲欧美成人综合另类久久久 | 日日摸夜夜添夜夜爱| 国内精品美女久久久久久| 欧美3d第一页| 色吧在线观看| 日日摸夜夜添夜夜添小说| 亚洲av第一区精品v没综合| 插逼视频在线观看| 麻豆乱淫一区二区| 99久久精品热视频| 国产亚洲精品综合一区在线观看| 欧美成人a在线观看| 我的老师免费观看完整版| 啦啦啦啦在线视频资源| 美女黄网站色视频| 国产精品亚洲美女久久久| 亚洲精品久久国产高清桃花| 欧美+亚洲+日韩+国产| 人妻久久中文字幕网| 床上黄色一级片| 国产成人freesex在线 | 99久久久亚洲精品蜜臀av| 免费在线观看成人毛片| 久久99热这里只有精品18| 日韩欧美在线乱码| 亚洲av第一区精品v没综合| 国产免费一级a男人的天堂| 成熟少妇高潮喷水视频| 国产精品三级大全| 亚洲经典国产精华液单| 最近2019中文字幕mv第一页| 亚洲精品成人久久久久久| 一级毛片aaaaaa免费看小| 亚洲国产精品成人综合色| ponron亚洲| 精品久久久久久成人av| 91久久精品国产一区二区三区| 看十八女毛片水多多多| 女人十人毛片免费观看3o分钟| 免费看光身美女| 偷拍熟女少妇极品色| 亚洲av不卡在线观看| 看免费成人av毛片| 亚洲高清免费不卡视频| 国产熟女欧美一区二区| 日韩欧美免费精品| 日韩国内少妇激情av| 我要看日韩黄色一级片| 成人高潮视频无遮挡免费网站| 日韩成人av中文字幕在线观看 | 国产精品免费一区二区三区在线| 国产又黄又爽又无遮挡在线| 国产伦一二天堂av在线观看| 国产一区二区三区在线臀色熟女| 欧美日韩国产亚洲二区| 亚洲性夜色夜夜综合| 国产免费男女视频| 一区二区三区四区激情视频 | 亚洲在线自拍视频| 在线免费观看的www视频| 日韩欧美国产在线观看| 国产伦精品一区二区三区视频9| 亚洲av成人精品一区久久| 日韩欧美一区二区三区在线观看| 国产91av在线免费观看| 国产精品福利在线免费观看| 日本欧美国产在线视频| 小说图片视频综合网站| 国内精品宾馆在线| 国产精品综合久久久久久久免费| 亚洲av免费在线观看| 美女 人体艺术 gogo| 久久欧美精品欧美久久欧美| 国产麻豆成人av免费视频| 人人妻人人澡人人爽人人夜夜 | 亚州av有码| 久久久久国产精品人妻aⅴ院| 最近2019中文字幕mv第一页| 亚洲av.av天堂| 91狼人影院| 给我免费播放毛片高清在线观看| 97人妻精品一区二区三区麻豆| 免费人成在线观看视频色| 成人无遮挡网站| 国产精品福利在线免费观看| 国产精品电影一区二区三区| 成人无遮挡网站|