• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于最大相關(guān)最小冗余的多標(biāo)記特征選擇

    2016-10-14 15:10:11楊文元
    數(shù)碼設(shè)計(jì) 2016年2期
    關(guān)鍵詞:高維特征選擇類別

    楊文元

    ?

    基于最大相關(guān)最小冗余的多標(biāo)記特征選擇

    楊文元*

    (閩南師范大學(xué)福建省粒計(jì)算重點(diǎn)實(shí)驗(yàn)室,福建漳州363000)

    針對(duì)多標(biāo)記學(xué)習(xí)中高維數(shù)據(jù)運(yùn)行速度問題,提出一種基于最大相關(guān)最小冗余的特征選擇算法ML-MRMR。利用數(shù)據(jù)與標(biāo)記的互信息,獲得了最大相關(guān)性最少冗余性特征集合。分析了所選特征百分比與精度關(guān)系。實(shí)驗(yàn)結(jié)果表明,所提出算法在速度和精度上都具有明顯的優(yōu)勢(shì)。

    多標(biāo)記學(xué)習(xí);特征選擇;最大相關(guān)最小冗余;數(shù)據(jù)降維

    引言

    隨著計(jì)算機(jī)網(wǎng)絡(luò)和信息化的發(fā)展,網(wǎng)絡(luò)數(shù)據(jù)和資源呈海量特征,數(shù)據(jù)的標(biāo)注結(jié)構(gòu)復(fù)雜程度也在增加,傳統(tǒng)的單標(biāo)記方法無法滿足對(duì)復(fù)雜數(shù)據(jù)進(jìn)行分析處理的需求,以機(jī)器學(xué)習(xí)技術(shù)為基礎(chǔ)的多標(biāo)記學(xué)習(xí)技術(shù)現(xiàn)已成為一個(gè)研究熱點(diǎn),其研究成果廣泛地應(yīng)用于各種不同的領(lǐng)域,如圖像視頻的語義標(biāo)注、功能基因組、音樂情感分類以及營銷指導(dǎo)等[1, 2]。多標(biāo)記學(xué)習(xí)的主要特點(diǎn)在于它能反映真實(shí)世界對(duì)象具有的多義性。因此,在最近十年來,多標(biāo)記學(xué)習(xí)已逐漸吸引國內(nèi)外許多一流的學(xué)術(shù)機(jī)構(gòu)和科學(xué)研究者。

    多標(biāo)記問題定義和評(píng)價(jià)指標(biāo)是一個(gè)研究熱點(diǎn)。由于多標(biāo)記學(xué)習(xí)輸出空間的類別標(biāo)記集合數(shù)隨著標(biāo)記空間的增大而成指數(shù)規(guī)模增長,當(dāng)標(biāo)記空間具有k個(gè)類別標(biāo)記時(shí),則可能的類別標(biāo)記集合數(shù)為2k,為了有效應(yīng)對(duì)標(biāo)記集合空間過大所造成的學(xué)習(xí)困難,學(xué)習(xí)系統(tǒng)需要充分利用標(biāo)記之間的相關(guān)性來輔助學(xué)習(xí)過程的進(jìn)行,基于考察標(biāo)記之間相關(guān)性的不同方式,有一階策略、二階策略、高階策略等多標(biāo)記學(xué)習(xí)問題求解策略[3]。在多標(biāo)記學(xué)習(xí)問題中,由于每個(gè)對(duì)象可能同時(shí)具有多個(gè)類別標(biāo)記,因此傳統(tǒng)監(jiān)督學(xué)習(xí)中常用的單標(biāo)記評(píng)價(jià)指標(biāo),如精度(accuracy)、查準(zhǔn)率(precision)、查全率(recall)等,無法直接用于多標(biāo)記學(xué)習(xí)系統(tǒng)的性能評(píng)價(jià)。因此,研究者們相繼提出了一系列多標(biāo)記評(píng)價(jià)指標(biāo),總的來看可分為兩種類型,即“基于樣本”的評(píng)價(jià)指標(biāo)[4-6]以及“基于類別”的評(píng)價(jià)指標(biāo)[7]。

    多標(biāo)記學(xué)習(xí)的問題轉(zhuǎn)換和算法適應(yīng)是另一個(gè)研究熱點(diǎn)[3, 8]。問題轉(zhuǎn)換方法是將多標(biāo)記問題轉(zhuǎn)換為其它已知的學(xué)習(xí)問題進(jìn)行求解,代表性學(xué)習(xí)算法有一階方法Binary Relevance[9],該方法將多標(biāo)記學(xué)習(xí)問題轉(zhuǎn)化為“二類分類”問題求解;二階方法[10],該方法將多標(biāo)記學(xué)習(xí)問題轉(zhuǎn)化為“標(biāo)記排序”問題求解;高階方法[11],該方法將多標(biāo)記學(xué)習(xí)問題轉(zhuǎn)化為”多類分類”問題求解。算法適應(yīng)直接執(zhí)行多標(biāo)記分類方法,是解決問題的完整形式,通過對(duì)常用監(jiān)督學(xué)習(xí)算法進(jìn)行改進(jìn),將其直接用于多標(biāo)記數(shù)據(jù)的學(xué)習(xí)。代表性學(xué)習(xí)算法有一階方法ML-kNN[12],該方法將k近鄰算法進(jìn)行改造以適應(yīng)多標(biāo)記數(shù)據(jù);二階方法Rank-SVM[13]和CML[5],Rank-SVM將核學(xué)習(xí)算法SVM進(jìn)行改造以適應(yīng)多標(biāo)記數(shù)據(jù)。

    數(shù)據(jù)量增大的同時(shí),數(shù)據(jù)的維度也越來越高,在多標(biāo)記學(xué)習(xí)過程中,高維數(shù)據(jù)訓(xùn)練和測(cè)試需要更多的計(jì)算時(shí)間和空間。因此,降低高維數(shù)據(jù)的維度是多標(biāo)記學(xué)習(xí)中一個(gè)重要的研究課題。

    特征提取和特征選擇是兩種主要的降維方法:特征提取通過某些原始特征映射到低維空間變換[14],然后生成一些新的特性;特征選擇目的是找到一個(gè)給出一定的預(yù)先確定的標(biāo)準(zhǔn)的最優(yōu)特征子集[15,16]。特征選擇不僅減少了許多特征個(gè)數(shù),使得學(xué)習(xí)算法效率更高,而且可以提高多標(biāo)記學(xué)習(xí)的性能,因?yàn)樗梢员苊膺^擬合現(xiàn)象。

    在高維數(shù)據(jù)中,特征數(shù)量往往較多,但其中存在大量冗余或不相關(guān)的特征,特征選擇是從原始特征集中,按照某一評(píng)價(jià)準(zhǔn)則選擇出一組具有良好區(qū)分特性的特征子集。特征選擇能剔除冗余或不相關(guān)的特征,從而達(dá)到減少特征個(gè)數(shù)、提高模型精確度、減少運(yùn)行時(shí)間等目的,同時(shí),選取出的特征更有利于理解模型與分析數(shù)據(jù)[17]。

    針對(duì)對(duì)多標(biāo)記學(xué)習(xí)中高維數(shù)據(jù)問題,本文基于FisherScore提出多Multi-label FisherScore (MLFS)算法,首先,對(duì)高維數(shù)據(jù)進(jìn)行特征選擇,其次,分析精度與特征選擇率關(guān)系,最后,所提出的方法與現(xiàn)有的特征選擇算法相比,實(shí)驗(yàn)結(jié)果表明,該算法具有明顯優(yōu)勢(shì)。

    1 特征選擇相關(guān)工作

    按照特征選擇是否獨(dú)立學(xué)習(xí)算法,特征選擇技術(shù)可以分為封裝方法和過濾方法。封裝方法用學(xué)習(xí)算法評(píng)價(jià)特征的重要性[18],即圍繞挖掘算法“封裝”特征選擇過程,如貝葉斯分類器、支持向量機(jī)和聚類[19, 20]。封裝方法的計(jì)算代價(jià)通常較高[21],因?yàn)樾枰磸?fù)訓(xùn)練學(xué)習(xí)算法,因而對(duì)多標(biāo)記學(xué)習(xí)中的高維數(shù)據(jù)算處理可能不是有效的。過濾方法分析數(shù)據(jù)的內(nèi)在特征,并在學(xué)習(xí)任務(wù)前根據(jù)某些準(zhǔn)則選擇一定數(shù)據(jù)排名最高的特征[22]。是一個(gè)純粹的預(yù)處理工具,與學(xué)習(xí)算法無關(guān),因此過濾方法比封裝方法更有效。

    許多特征選擇方法使用兩個(gè)特征之間的依賴度來評(píng)價(jià)特征,而不是使用獨(dú)立特征和特征子集之間的特性。利用相似性矩陣并引入矩陣分解技術(shù)進(jìn)行特征選擇,它提供了一個(gè)整批處理模式搜索特征。例如,Nie等人提出了一個(gè)健壯的特征選擇標(biāo)準(zhǔn),使用結(jié)合L2,1范數(shù)最小化損失函數(shù)和正則化[23]。Farahat等人提出了一種矩陣分解標(biāo)準(zhǔn)特征選擇,提供了一個(gè)高效的貪婪算法[24]。楊等人提出了一個(gè)有效的多任務(wù)特征選擇的在線學(xué)習(xí)算法,在節(jié)約時(shí)間復(fù)雜性和內(nèi)存花費(fèi)上顯示其巨大的優(yōu)勢(shì)[25]。Song等人構(gòu)建一個(gè)用于特征選擇使用Hilbert-Schmidt獨(dú)立性標(biāo)準(zhǔn)的框架,是基于好特性應(yīng)該是與標(biāo)記高度相關(guān)的假設(shè)。趙等人介紹了相似性特征選擇標(biāo)準(zhǔn),包含許多廣泛使用的標(biāo)準(zhǔn)[26]。

    本文提出基于最大相關(guān)最小冗余的特征選擇算法,作對(duì)比的典型特征算法主要是:Relieff特征選擇的策略是隨機(jī)選擇實(shí)例,并根據(jù)最近鄰的特征相關(guān)性設(shè)置權(quán)重,Relieff是特征選擇中是最成功的策略之一[27];Kruskal-Wallis則使用樣本間總體方差方差進(jìn)行測(cè)試[28],已成為MATLAB函數(shù)kruskalwallis。

    2 評(píng)價(jià)指標(biāo)

    根據(jù)多標(biāo)記學(xué)習(xí)的兩個(gè)任務(wù),即多標(biāo)記分類和標(biāo)記排名,評(píng)價(jià)指標(biāo)也分為兩類:基于分類方法和基于排名方法[2,3]。

    2.1 基于分類的評(píng)價(jià)指標(biāo)

    基于分類的評(píng)價(jià)指標(biāo)有Average precision和Hamming loss,Average precision是一種最直觀的評(píng)價(jià)方式,評(píng)價(jià)樣本的預(yù)測(cè)標(biāo)記排名中排在相關(guān)標(biāo)記前面的也是相關(guān)標(biāo)記的概率平均,計(jì)算公式如下所示[3]

    Hamming loss通過計(jì)算多標(biāo)記分類器預(yù)測(cè)出的標(biāo)記結(jié)果與實(shí)際標(biāo)記的差距來度量多標(biāo)記分類器的性能,計(jì)算公式如下所示[3]

    2.2 基于排名的評(píng)價(jià)指標(biāo)

    One-error,該方法評(píng)價(jià)每個(gè)樣本的預(yù)測(cè)標(biāo)記排名中,排在第一位的標(biāo)記不在該樣本的相關(guān)標(biāo)記集中的概率評(píng)價(jià),計(jì)算公式如下所示[3]

    Coverage,該方法評(píng)價(jià)每個(gè)樣本的預(yù)測(cè)標(biāo)記排名中需要在標(biāo)記序列表中最少查找到第幾位才可以找出所有與該樣本相關(guān)的標(biāo)記,計(jì)算公式如下所示[3]

    Ranking loss,該方法評(píng)價(jià)所有樣本的預(yù)測(cè)標(biāo)記排名中,不相關(guān)標(biāo)記在相關(guān)標(biāo)記前面的概率的平均,計(jì)算公式如下所示[3]。

    3 最大相關(guān)最小冗余特征選擇

    3.1 最大相關(guān)最小冗余

    最大相關(guān)最小冗余是基于互信息的特征選擇方法,它根據(jù)最大統(tǒng)計(jì)依賴性準(zhǔn)則來選擇特征[30]。從特征空間中尋找與目標(biāo)類別有最大相關(guān)性且相互之間具有最少冗余性的m個(gè)特征,最大相關(guān)和最小冗余的定義為[30,31]:

    (2)

    其中: S表示特征集合; c表示目標(biāo)類別; I( xi; c)表示特征i 和目標(biāo)類別 c之間的互信息; I( xi,xj) 是特征i與特征 j 之間的互信息.給定兩個(gè)隨機(jī)變量x和y,它們之間的互信息根據(jù)其概率密度函數(shù) p( x) 、p( y) 和 p( x,y) 分別定義為

    對(duì)于多元變量Sm和目標(biāo)類別c,互信息定義為

    (4)

    綜合公式(3)和(4),MRMR的特征選擇標(biāo)準(zhǔn)為

    公式(5)表示應(yīng)該選擇與類別最大相關(guān)而與候選特征最小冗余的特征.假定已確定一個(gè)有 m個(gè)特征的數(shù)據(jù)集 Sm,下一步需要從數(shù)據(jù)集{S-Sm}中選擇使得式( 4) 最大化的第 m + 1個(gè)特征為

    (6)

    3.2 基于MRMR多標(biāo)記特征選擇算法

    依據(jù)上述公式可以實(shí)現(xiàn)單標(biāo)記特征選擇算法MRMR[30],沒有考慮多個(gè)類別同時(shí)存在的情況,不適于多標(biāo)記數(shù)據(jù)的特征選擇。為克服這一缺陷,本文將MRMR算法擴(kuò)展到多標(biāo)記問題中,提出一種多標(biāo)記數(shù)據(jù)特征選擇算法:ML-MRMR算法。算法如下:

    算法:ML-MRMR

    輸入:數(shù)據(jù)矩陣,標(biāo)記矩陣,特征選擇百分比k 輸出:特征選擇集 1: 初始化矩陣Matrix_rank2: for i =1 to multi-label 3: rank= MRMR(train_data, train_target(i)) //由公式(1)到(6)計(jì)算4: Matrix_rank=Matrix_rank+ rank 5: end for 6: ,從而選擇得到特征向量I

    4 實(shí)驗(yàn)及分析

    實(shí)驗(yàn)中,多標(biāo)記學(xué)習(xí)的四個(gè)數(shù)據(jù)集來源于公開數(shù)據(jù)集,特征選擇運(yùn)行速度明顯提高,同時(shí)精度等評(píng)價(jià)指標(biāo)也提高。數(shù)據(jù)集的具體情況見表1所示。

    表1 數(shù)據(jù)集基本描述

    4.1 評(píng)價(jià)指標(biāo)結(jié)果

    對(duì)比的四個(gè)算法分別是不進(jìn)行特征選擇NSF、Relieff、KruskalWallis、MRMR[27-29],所有算法及評(píng)價(jià)基于ML-KNN[32],采用十折交叉驗(yàn)證,實(shí)驗(yàn)結(jié)果見表2所示。

    平均精度(Ave. Prec.)越大表明算法越好,其他四個(gè)指標(biāo)Coverage、Hamming loss、One-error、Ranking Loss是越小表明算法越好,從表中可以看出,ML-MRMR特征選擇算法明顯好于其他算法。特別值得提到的是ML-MRMR的算法的所有指標(biāo)都好于NSF,其原因是通過最大相關(guān)最小冗余的選擇,過濾掉了冗余特征而保留優(yōu)化的特征子集,有效提高精度和降低誤差,并提升了高維數(shù)據(jù)的多標(biāo)記學(xué)習(xí)速度,整體提高學(xué)習(xí)模型的性能。

    4.2 特征選擇百分比分析

    所選特征百分比與學(xué)習(xí)精度關(guān)系,圖1-4顯示基于相似矩陣的ML-MRMR特征選擇算法的學(xué)習(xí)精度大于未作特征選擇的學(xué)習(xí)精度,當(dāng)全部選擇時(shí)則兩者精度一樣。ML-MRMR特征選擇算法在選擇20-60%特征達(dá)到最高精度,增加特征后精度反而有所下降,這是表明全部特征中存在一定的冗余特征,反而影響精度。

    圖1 Business精度與所選特征百分比關(guān)系

    圖2 Computers精度與所選特征百分比關(guān)系

    圖3 Reference精度與所選特征百分比關(guān)系

    圖4 Science精度與所選特征百分比關(guān)系

    表2 實(shí)驗(yàn)結(jié)果

    5 結(jié)語

    本文針對(duì)多標(biāo)記學(xué)習(xí)中高維數(shù)據(jù)的降維問題提出一種有效的降維技術(shù),通過最大相關(guān)最小冗余找到一個(gè)最相關(guān)信息的特征子集,利用ML-MRMR去除冗余特征而選擇有效特征的新方法。對(duì)四個(gè)公開數(shù)據(jù)集,該方法與現(xiàn)有算法相比,實(shí)結(jié)果表明,該算法具有快速和精度高等明顯優(yōu)勢(shì)。

    [1] G. Tsoumakas and I. Katakis, Multi-Label Classification: An Overview. 2007.

    [2] 李思男, 李寧, and 李戰(zhàn)懷, 多標(biāo)記數(shù)據(jù)挖掘技術(shù):研究綜述. 計(jì)算機(jī)科學(xué), 2013(04): p. 14-21.

    [3] M. L. Zhang and Z. H. Zhou, A Review on Multi-Label Learning Algorithms. Ieee Transactions on Knowledge and Data Engineering, 2014. 26(8): p. 1819-1837.

    [4] R. E. Schapire and Y. Singer, BoosTexter: A boosting-based system for text categorization. Machine Learning, 2000. 39(2-3): p. 135-168.

    [5] N. Ghamrawi and A. McCallum, Collective multi-label classification, in Proceedings of the 14th ACM international conference on Information and knowledge management. 2005, ACM: Bremen, Germany. p. 195-200.

    [6] S. Godbole and S. Sarawagi, Discriminative Methods for Multi-labeled Classification, in Advances in Knowledge Discovery and Data Mining, H. Dai, R. Srikant, and C. Zhang, Editors. 2004, Springer Berlin Heidelberg. p. 22-30.

    [7] G. Tsoumakas and I. Vlahavas, Random k-Labelsets: An Ensemble Method for Multilabel Classification, in Machine Learning: ECML 2007, J. Kok, et al., Editors. 2007, Springer Berlin Heidelberg. p. 406-417.

    [8] T. Grigorios and K. Ioannis, Multi-Label Classification: An Overview. International Journal of Data Warehousing and Mining (IJDWM), 2007. 3(3): p. 1-13.

    [9] M. R. Boutell, J. B. Luo, X. P. Shen, and C. M. Brown, Learning multi-label scene classification. Pattern Recognition, 2004. 37(9): p. 1757-1771.

    [10] J. Furnkranz, E. Hullermeier, E. L. Mencia, and K. Brinker, Multilabel classification via calibrated label ranking. Machine Learning, 2008. 73(2): p. 133-153.

    [11] G. Tsoumakas and I. Vlahavas, Random k-labelsets: An ensemble method for multilabel classification, in Machine Learning: ECML 2007, Proceedings, J.N. Kok, et al., Editors. 2007, Springer-Verlag Berlin: Berlin. p. 406-417.

    [12] M. L. Zhang and Z. H. Zhou, ML-KNN: A lazy learning approach to multi-label leaming. Pattern Recognition, 2007. 40(7): p. 2038-2048.

    [13] A. Elisseeff and J. Weston, A kernel method for multi-labelled classification, in Advances in Neural Information Processing Systems 14, Vols 1 and 2, T.G. Dietterich, S. Becker, and Z. Ghahramani, Editors. 2002, M I T Press: Cambridge. p. 681-687.

    [14] I. Guyon and A. Elisseeff, Feature extraction: foundations and applications, Vol. 207. 2006: Springer.

    [15] I. Guyon and A. Elisseeff, An introduction to variable and feature selection. Journal of Machine Learning Research, 2003. 3: p. 1157-1182.

    [16] Y.M. Yang and J.O. Pedersen. A comparative study on feature selection in text categorization. in International Conference on Machine Learning. 1997.

    [17] 黃莉莉, 湯進(jìn), 孫登第, and 羅斌, 基于多標(biāo)記ReliefF的特征選擇算法. 計(jì)算機(jī)應(yīng)用, 2012(10): p. 2888-2890+2898.

    [18] H. Liu and L. Yu, Toward integrating feature selection algorithms for classification and clustering. IEEE Transactions on Knowledge and Data Engineering, 2005. 17(4): p. 491-502.

    [19] J. Weston, S. Mukherjee, O. Chapelle, M. Pontil, T. Poggio, and V. Vapnik. Feature selection for SVMs. in Advances in Neural Information Processing Systems. 2000.

    [20] M. Dash, K. Choi, Peter Scheuermann, and Huan Liu. Feature selection for clustering - a filter solution. in IEEE International Conference on Data Mining. 2002.

    [21] R. Kohavi and G.H. John, Wrappers for feature subset selection. Artificial Intelligence, 1997. 97(1-2): p. 273-324.

    [22] L. Yu and H. Liu. Feature selection for high-dimensional data: a fast correlation-based filter solution. in Proceedings of the Twentieth International Conference on Machine Learning. 2003.

    [23] F.P. Nie, H. Huang, X. Cai, and C. Ding. Efficient and robust feature selection via joint $_2,1$-norms minimization. in Advances in Neural Information Processing Systems. 2010.

    [24] A.K. Farahat, A. Ghodsi, and M.S. Kamel, Efficient greedy feature selection for unsupervised learning. Knowledge and information systems, 2013. 35: p. 285-310.

    [25] H.Q. Yang, M.R. Lyu, and I.King, Efficient online learning for multitask feature selection. ACM Transactions on Knowledge Discovery from Data, 2013. 7(2): p. 1-27.

    [26] Z. Zhao, L. Wang, H. Liu, and J.P. Ye, On similarity preserving feature selection. Knowledge and Data Engineering, IEEE Transactions on, 2013. 25(3): p. 619-632.

    [27] H. Liu and H. Motoda, Computational Methods of Feature Selection, 2008: Chapman & Hall.

    [28] L. J. Wei, Asymptotic Conservativeness and Efficiency of Kruskal-Wallis Test for K Dependent Samples. Journal of the American Statistical Association, 1981. 76(376): p. 1006-1009.

    [29] H. Long Peng, F. Ding C., Feature Selection Based on Mutual Information: Criteria of Max-Dependency, Max-Relevance, and Min-Redundancy. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005. 27(8): p. 1226-1238.

    [30] H.C Peng, F.H Long, and C. Ding, Feature selection based on mutual information: criteria of max-dependency, max-relevance, and min-redundancy. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005. Vol. 27(No. 8): p. pp.1226-1238.

    [31] 丁建睿, 黃劍華, 劉家鋒, and 張英濤, 基于mRMR和SVM的彈性圖像特征選擇與分類. 哈爾濱工業(yè)大學(xué)學(xué)報(bào), 2012(05): p. 81-85.

    [32] ZHANG ML, ZHOU ZH.ML-KNN: A lazy learning approach to multi-label learning. Pattern Recognition, 2007. 40: p. 2038-2048.

    Feature Selection via Max-Relevanceand Min-Redundancy in Multi-label Learning

    YANG Wenyuan*

    (Lab of Granular Computing, Minnan Normal University, Zhangzhou, Fujian 363000, China)

    High dimensional data affects the speed of multi-label learning. This paper proposes the ML-MRMR algorithm for multi-label feature selection. By using the mutual information of data and labels, the features of maximum correlation and minimum redundancy obtained. The relationship between precision and selected percent of features is also analyzed. Experimental results show that the ML-MRMR algorithm is better than existing ones in terms of speed and precision.

    multi-label learning; feature selection; max-relevance and min-redundancy; dimensionality reduction

    1672-9129(2016)02-0021-05

    TP181

    A

    2016-09-13;

    2016-09-24。

    國家自然科學(xué)基金61379049。

    楊文元(1967-),男,博士,副教授,主要研究方向:機(jī)器學(xué)習(xí)、粒計(jì)算。

    (*通信作者電子郵箱yangwy@mnnu.edu.cn)

    猜你喜歡
    高維特征選擇類別
    一種改進(jìn)的GP-CLIQUE自適應(yīng)高維子空間聚類算法
    基于加權(quán)自學(xué)習(xí)散列的高維數(shù)據(jù)最近鄰查詢算法
    Kmeans 應(yīng)用與特征選擇
    電子制作(2017年23期)2017-02-02 07:17:06
    聯(lián)合互信息水下目標(biāo)特征選擇算法
    服務(wù)類別
    新校長(2016年8期)2016-01-10 06:43:59
    一般非齊次非線性擴(kuò)散方程的等價(jià)變換和高維不變子空間
    高維Kramers系統(tǒng)離出點(diǎn)的分布問題
    論類別股東會(huì)
    商事法論集(2014年1期)2014-06-27 01:20:42
    中醫(yī)類別全科醫(yī)師培養(yǎng)模式的探討
    基于特征選擇和RRVPMCD的滾動(dòng)軸承故障診斷方法
    精品人妻视频免费看| 久久久午夜欧美精品| 国产午夜精品久久久久久一区二区三区 | av在线天堂中文字幕| 免费大片18禁| 日韩强制内射视频| 久久6这里有精品| 亚洲四区av| 午夜精品久久久久久毛片777| 亚洲国产精品久久男人天堂| 18+在线观看网站| 黄色一级大片看看| 亚洲成人免费电影在线观看| 亚州av有码| 丰满乱子伦码专区| 夜夜爽天天搞| 国产人妻一区二区三区在| 亚洲av电影不卡..在线观看| 成人一区二区视频在线观看| 欧美激情久久久久久爽电影| 国产高清不卡午夜福利| 此物有八面人人有两片| 高清日韩中文字幕在线| 99riav亚洲国产免费| 亚洲成人久久爱视频| 如何舔出高潮| 亚洲美女搞黄在线观看 | 日韩中字成人| 亚洲va日本ⅴa欧美va伊人久久| 成人美女网站在线观看视频| 亚洲精品乱码久久久v下载方式| 夜夜夜夜夜久久久久| 免费看av在线观看网站| 国产麻豆成人av免费视频| 日本欧美国产在线视频| 女人被狂操c到高潮| 熟女人妻精品中文字幕| 18禁黄网站禁片午夜丰满| 在线免费十八禁| 男人和女人高潮做爰伦理| 久9热在线精品视频| 国产v大片淫在线免费观看| 无人区码免费观看不卡| 成人性生交大片免费视频hd| 久久久精品欧美日韩精品| 五月伊人婷婷丁香| 男女啪啪激烈高潮av片| 国产熟女欧美一区二区| 国产高清视频在线播放一区| 国产 一区精品| 国产精品久久久久久久电影| 日韩大尺度精品在线看网址| 亚洲不卡免费看| 很黄的视频免费| 久久久色成人| 成人午夜高清在线视频| 亚洲av日韩精品久久久久久密| 亚洲精品亚洲一区二区| 一个人看视频在线观看www免费| 美女 人体艺术 gogo| 欧美性感艳星| 国产伦精品一区二区三区视频9| 男女啪啪激烈高潮av片| 午夜福利在线在线| 久久久久久久久大av| 色播亚洲综合网| 国产精品一区www在线观看 | 日韩欧美在线乱码| 悠悠久久av| 3wmmmm亚洲av在线观看| 午夜福利在线观看吧| 国产精品永久免费网站| 亚洲电影在线观看av| 丰满人妻一区二区三区视频av| 国产成人影院久久av| 精品久久久久久久久久久久久| 国语自产精品视频在线第100页| 久久精品久久久久久噜噜老黄 | 日韩中文字幕欧美一区二区| 国产不卡一卡二| 国产伦人伦偷精品视频| 别揉我奶头 嗯啊视频| 亚洲精品一卡2卡三卡4卡5卡| 22中文网久久字幕| 国产伦人伦偷精品视频| 午夜久久久久精精品| 日本成人三级电影网站| 免费高清视频大片| 亚洲av免费高清在线观看| 欧美日韩亚洲国产一区二区在线观看| 九九在线视频观看精品| 国产主播在线观看一区二区| 国产亚洲精品久久久com| 美女高潮的动态| 国产色婷婷99| 国产亚洲精品久久久久久毛片| netflix在线观看网站| 在线a可以看的网站| 中文字幕av成人在线电影| 18禁黄网站禁片免费观看直播| 有码 亚洲区| www.www免费av| 国产单亲对白刺激| 欧美日本视频| 成人国产一区最新在线观看| 日本免费a在线| 可以在线观看的亚洲视频| 黄色丝袜av网址大全| 欧美日韩国产亚洲二区| 男人舔奶头视频| 免费电影在线观看免费观看| 欧美成人性av电影在线观看| 免费在线观看成人毛片| 中文字幕高清在线视频| 久久香蕉精品热| 亚洲一区二区三区色噜噜| 国产av在哪里看| 免费av毛片视频| 亚洲无线在线观看| 一本一本综合久久| 高清在线国产一区| 一区二区三区激情视频| 国产精品av视频在线免费观看| av视频在线观看入口| 午夜激情福利司机影院| 国产伦精品一区二区三区四那| 国产精品亚洲一级av第二区| 久久精品国产亚洲av香蕉五月| 高清毛片免费观看视频网站| 午夜福利成人在线免费观看| 亚洲精华国产精华液的使用体验 | 淫秽高清视频在线观看| 日韩 亚洲 欧美在线| netflix在线观看网站| 亚洲国产高清在线一区二区三| 国产一区二区三区av在线 | 精品久久久久久,| АⅤ资源中文在线天堂| 97热精品久久久久久| 欧美最黄视频在线播放免费| 一区二区三区高清视频在线| 国产一区二区三区在线臀色熟女| 干丝袜人妻中文字幕| 色综合色国产| avwww免费| 97热精品久久久久久| 亚洲美女搞黄在线观看 | 永久网站在线| 亚洲一级一片aⅴ在线观看| 中亚洲国语对白在线视频| 欧美成人免费av一区二区三区| 99精品在免费线老司机午夜| 精品久久久久久久久亚洲 | 国产黄片美女视频| 波多野结衣高清无吗| 亚洲无线在线观看| 直男gayav资源| 免费无遮挡裸体视频| 亚洲一级一片aⅴ在线观看| 在线观看午夜福利视频| 色5月婷婷丁香| 日韩一本色道免费dvd| 亚洲av一区综合| 国产高清有码在线观看视频| 亚洲男人的天堂狠狠| 亚洲最大成人中文| 久久精品久久久久久噜噜老黄 | 日日夜夜操网爽| 日韩国内少妇激情av| 我的女老师完整版在线观看| 99国产精品一区二区蜜桃av| 成人无遮挡网站| 欧美日韩亚洲国产一区二区在线观看| 国产精品电影一区二区三区| 欧美日本亚洲视频在线播放| 免费大片18禁| 国产高清三级在线| 1000部很黄的大片| 深爱激情五月婷婷| 国产v大片淫在线免费观看| 亚洲成人免费电影在线观看| 日韩欧美三级三区| 国产中年淑女户外野战色| 天堂av国产一区二区熟女人妻| 日本五十路高清| 18禁裸乳无遮挡免费网站照片| 国产精品,欧美在线| 真人一进一出gif抽搐免费| 成人综合一区亚洲| 麻豆久久精品国产亚洲av| 深爱激情五月婷婷| 校园春色视频在线观看| 亚洲第一区二区三区不卡| 97超视频在线观看视频| 一本久久中文字幕| 欧美高清成人免费视频www| 精品人妻偷拍中文字幕| 国产成年人精品一区二区| 国产69精品久久久久777片| 久久久久免费精品人妻一区二区| 精品人妻1区二区| 91久久精品国产一区二区三区| bbb黄色大片| 国产av麻豆久久久久久久| 亚洲成人久久性| 波多野结衣高清作品| 久9热在线精品视频| 窝窝影院91人妻| 日日啪夜夜撸| 日韩av在线大香蕉| 淫妇啪啪啪对白视频| 黄色日韩在线| 亚洲av电影不卡..在线观看| 99久久久亚洲精品蜜臀av| eeuss影院久久| 国产亚洲精品久久久com| 国产午夜精品论理片| 国产精品一区二区免费欧美| 婷婷精品国产亚洲av在线| 国产精品久久视频播放| 内射极品少妇av片p| 丰满人妻一区二区三区视频av| 欧美丝袜亚洲另类 | 久久久精品欧美日韩精品| 黄色丝袜av网址大全| 99国产极品粉嫩在线观看| 性色avwww在线观看| 国产亚洲精品av在线| 国产精品一及| 成年女人毛片免费观看观看9| 免费观看在线日韩| 狂野欧美激情性xxxx在线观看| 精品人妻一区二区三区麻豆 | 欧美最新免费一区二区三区| 欧美黑人欧美精品刺激| 亚洲图色成人| 人妻夜夜爽99麻豆av| 一区二区三区四区激情视频 | 日本-黄色视频高清免费观看| 婷婷六月久久综合丁香| 天堂√8在线中文| 非洲黑人性xxxx精品又粗又长| 黄片wwwwww| 国产亚洲精品久久久com| 狂野欧美激情性xxxx在线观看| 丰满的人妻完整版| 夜夜看夜夜爽夜夜摸| 动漫黄色视频在线观看| 99视频精品全部免费 在线| 老熟妇乱子伦视频在线观看| 老熟妇仑乱视频hdxx| 亚洲成人精品中文字幕电影| 99热只有精品国产| 久久精品国产亚洲av香蕉五月| av国产免费在线观看| 一进一出好大好爽视频| av在线亚洲专区| 免费观看在线日韩| 国产三级在线视频| 精品一区二区三区视频在线观看免费| 少妇被粗大猛烈的视频| 色吧在线观看| 久久久精品欧美日韩精品| 午夜a级毛片| 亚洲av中文av极速乱 | 免费黄网站久久成人精品| 国产v大片淫在线免费观看| 亚洲在线自拍视频| 欧美绝顶高潮抽搐喷水| 动漫黄色视频在线观看| 欧美日韩精品成人综合77777| 麻豆国产97在线/欧美| 少妇猛男粗大的猛烈进出视频 | 婷婷六月久久综合丁香| 亚洲av成人av| 少妇猛男粗大的猛烈进出视频 | 久久久午夜欧美精品| 久久这里只有精品中国| 91在线精品国自产拍蜜月| 在现免费观看毛片| 亚洲欧美激情综合另类| av黄色大香蕉| 少妇的逼好多水| 欧美在线一区亚洲| 乱系列少妇在线播放| 免费黄网站久久成人精品| 国产激情偷乱视频一区二区| 国产视频一区二区在线看| 嫩草影视91久久| 97超视频在线观看视频| 狠狠狠狠99中文字幕| 亚洲最大成人手机在线| 中出人妻视频一区二区| 99久久精品一区二区三区| 婷婷精品国产亚洲av| 亚洲真实伦在线观看| 九九久久精品国产亚洲av麻豆| 亚洲专区中文字幕在线| 久久精品国产清高在天天线| 色哟哟·www| 少妇猛男粗大的猛烈进出视频 | 国产精品永久免费网站| 日韩欧美精品v在线| 久久婷婷人人爽人人干人人爱| 国产精品爽爽va在线观看网站| 精品免费久久久久久久清纯| 国产精品嫩草影院av在线观看 | 最近最新免费中文字幕在线| 中亚洲国语对白在线视频| 久久天躁狠狠躁夜夜2o2o| 1024手机看黄色片| 嫁个100分男人电影在线观看| 在线免费十八禁| 午夜激情欧美在线| 亚洲七黄色美女视频| 国国产精品蜜臀av免费| 国产精品日韩av在线免费观看| 五月玫瑰六月丁香| 亚洲18禁久久av| 日本黄大片高清| 人人妻人人看人人澡| 老师上课跳d突然被开到最大视频| 日韩欧美在线二视频| 人妻久久中文字幕网| 非洲黑人性xxxx精品又粗又长| 亚洲av一区综合| 久久久久久久久久黄片| 一a级毛片在线观看| 婷婷亚洲欧美| 国产欧美日韩精品一区二区| 日本 欧美在线| 少妇人妻久久综合中文| 最近中文字幕2019免费版| 国产日韩欧美亚洲二区| 天天躁日日操中文字幕| 99热网站在线观看| 三级经典国产精品| 国产欧美日韩一区二区三区在线 | 美女中出高潮动态图| 91精品国产九色| 亚洲精品日本国产第一区| 精品一区在线观看国产| 久久久久视频综合| 观看av在线不卡| 亚洲真实伦在线观看| 99精国产麻豆久久婷婷| 熟女电影av网| 天堂中文最新版在线下载| 亚洲美女视频黄频| 国产永久视频网站| 日本vs欧美在线观看视频 | 黄色配什么色好看| 欧美精品一区二区大全| 国内揄拍国产精品人妻在线| 综合色丁香网| 久久久久网色| 在线亚洲精品国产二区图片欧美 | 中文字幕av成人在线电影| 日韩精品有码人妻一区| 免费av中文字幕在线| 老司机影院毛片| 1000部很黄的大片| 草草在线视频免费看| 男女国产视频网站| 黄色视频在线播放观看不卡| 中文字幕人妻熟人妻熟丝袜美| 少妇精品久久久久久久| 日日摸夜夜添夜夜添av毛片| 午夜福利在线观看免费完整高清在| 日本与韩国留学比较| 九色成人免费人妻av| 亚洲综合精品二区| 亚洲精品一区蜜桃| 我的老师免费观看完整版| 777米奇影视久久| 五月天丁香电影| 秋霞伦理黄片| 亚洲精品乱码久久久久久按摩| 伦理电影免费视频| 国产乱来视频区| 欧美激情国产日韩精品一区| 精品久久久久久久久亚洲| 美女福利国产在线 | 久热久热在线精品观看| 成人亚洲精品一区在线观看 | 日本一二三区视频观看| 日本欧美视频一区| 欧美三级亚洲精品| 欧美日韩在线观看h| 国产成人免费观看mmmm| 日日撸夜夜添| 国国产精品蜜臀av免费| 午夜福利影视在线免费观看| 99热这里只有是精品在线观看| 欧美日韩国产mv在线观看视频 | 在线天堂最新版资源| 免费观看a级毛片全部| 有码 亚洲区| 中文乱码字字幕精品一区二区三区| 欧美 日韩 精品 国产| 在线观看人妻少妇| 内射极品少妇av片p| 成人高潮视频无遮挡免费网站| 纵有疾风起免费观看全集完整版| 亚洲精品日韩av片在线观看| 国产国拍精品亚洲av在线观看| 99久久综合免费| 美女高潮的动态| av黄色大香蕉| 亚洲最大成人中文| 日韩av在线免费看完整版不卡| 男女下面进入的视频免费午夜| 草草在线视频免费看| 国产亚洲最大av| 婷婷色综合www| 亚洲精品中文字幕在线视频 | 人妻一区二区av| 国产熟女欧美一区二区| 汤姆久久久久久久影院中文字幕| 精华霜和精华液先用哪个| 深爱激情五月婷婷| 亚洲av综合色区一区| 97超碰精品成人国产| 蜜臀久久99精品久久宅男| 久久影院123| 香蕉精品网在线| 国产精品一区二区三区四区免费观看| h日本视频在线播放| av在线蜜桃| 国产高潮美女av| 午夜日本视频在线| 成人国产av品久久久| 永久免费av网站大全| 欧美亚洲 丝袜 人妻 在线| 亚洲国产精品专区欧美| 日韩强制内射视频| 少妇人妻久久综合中文| 麻豆国产97在线/欧美| 嫩草影院新地址| 狂野欧美白嫩少妇大欣赏| 乱码一卡2卡4卡精品| 性高湖久久久久久久久免费观看| av网站免费在线观看视频| av又黄又爽大尺度在线免费看| 舔av片在线| a级毛色黄片| av视频免费观看在线观看| 欧美xxⅹ黑人| 日产精品乱码卡一卡2卡三| 成人影院久久| 亚洲欧美日韩另类电影网站 | 久久久久人妻精品一区果冻| 97热精品久久久久久| 中文字幕免费在线视频6| 日韩,欧美,国产一区二区三区| 91aial.com中文字幕在线观看| 青青草视频在线视频观看| 麻豆精品久久久久久蜜桃| 中文资源天堂在线| 国产女主播在线喷水免费视频网站| 丰满人妻一区二区三区视频av| 亚洲成人手机| 免费黄频网站在线观看国产| 国产精品不卡视频一区二区| 91aial.com中文字幕在线观看| av国产精品久久久久影院| 美女视频免费永久观看网站| 人妻一区二区av| 国产女主播在线喷水免费视频网站| 色吧在线观看| 2018国产大陆天天弄谢| 亚洲欧美清纯卡通| 尤物成人国产欧美一区二区三区| 国产av精品麻豆| 自拍欧美九色日韩亚洲蝌蚪91 | 97热精品久久久久久| 精品亚洲成a人片在线观看 | 黄片无遮挡物在线观看| 欧美另类一区| 亚洲人与动物交配视频| 亚洲无线观看免费| 国产亚洲欧美精品永久| 国产久久久一区二区三区| 久久毛片免费看一区二区三区| 亚洲国产色片| 国产高潮美女av| 欧美丝袜亚洲另类| 欧美日韩综合久久久久久| 大香蕉97超碰在线| 亚洲激情五月婷婷啪啪| 免费看日本二区| 日日撸夜夜添| 97超碰精品成人国产| av国产精品久久久久影院| 高清午夜精品一区二区三区| 久久久久国产精品人妻一区二区| 少妇人妻一区二区三区视频| 亚洲图色成人| 一级a做视频免费观看| 久久亚洲国产成人精品v| 嫩草影院入口| 中文天堂在线官网| 国产一级毛片在线| 亚洲怡红院男人天堂| 日韩一区二区视频免费看| 最近中文字幕高清免费大全6| 大香蕉久久网| 99久久精品国产国产毛片| 汤姆久久久久久久影院中文字幕| 老熟女久久久| 国产精品免费大片| 伊人久久精品亚洲午夜| 午夜老司机福利剧场| 亚洲av日韩在线播放| 亚洲成人一二三区av| 少妇人妻 视频| 青春草视频在线免费观看| 成人影院久久| 波野结衣二区三区在线| 亚洲国产精品成人久久小说| 久久精品国产自在天天线| 夜夜爽夜夜爽视频| 校园人妻丝袜中文字幕| 亚洲av日韩在线播放| 美女视频免费永久观看网站| 国产男人的电影天堂91| 亚洲国产日韩一区二区| 国产淫片久久久久久久久| 日日啪夜夜撸| 老师上课跳d突然被开到最大视频| 亚洲欧洲日产国产| 黄色配什么色好看| 国产片特级美女逼逼视频| 精华霜和精华液先用哪个| 黄色欧美视频在线观看| av在线播放精品| 国产女主播在线喷水免费视频网站| 一级av片app| 亚洲av福利一区| 日韩,欧美,国产一区二区三区| 在现免费观看毛片| 精华霜和精华液先用哪个| 亚洲三级黄色毛片| 在线观看美女被高潮喷水网站| 美女脱内裤让男人舔精品视频| 人妻系列 视频| 精品一区二区免费观看| 午夜免费男女啪啪视频观看| 天天躁日日操中文字幕| 国产永久视频网站| 亚洲人成网站在线播| 有码 亚洲区| 国产黄片美女视频| 99热全是精品| 97超视频在线观看视频| 国产成人freesex在线| 国产淫片久久久久久久久| 久久精品久久久久久噜噜老黄| 国产伦精品一区二区三区四那| av国产精品久久久久影院| 我的老师免费观看完整版| 亚洲精品国产av蜜桃| 精品久久久久久久久av| 成人亚洲精品一区在线观看 | 久久这里有精品视频免费| 久久韩国三级中文字幕| 日韩人妻高清精品专区| 亚洲精品一区蜜桃| 中国国产av一级| 国产熟女欧美一区二区| 一级av片app| 免费久久久久久久精品成人欧美视频 | 国产乱人视频| 亚洲精品一区蜜桃| 国产视频首页在线观看| 人人妻人人澡人人爽人人夜夜| 日韩一区二区三区影片| 国产一区亚洲一区在线观看| 黄色配什么色好看| 最近2019中文字幕mv第一页| 亚洲av男天堂| 国产伦在线观看视频一区| 热99国产精品久久久久久7| 精华霜和精华液先用哪个| 久久这里有精品视频免费| 欧美成人一区二区免费高清观看| 黄片无遮挡物在线观看| 亚洲人成网站高清观看| 啦啦啦视频在线资源免费观看| 在线观看av片永久免费下载| 国产深夜福利视频在线观看| 成人漫画全彩无遮挡| 永久网站在线| 九九爱精品视频在线观看| 在线观看国产h片| 夜夜看夜夜爽夜夜摸| 久久久久久久大尺度免费视频| 日本猛色少妇xxxxx猛交久久| 成人亚洲精品一区在线观看 | 成人毛片a级毛片在线播放| 成年av动漫网址| 久久影院123| 精品熟女少妇av免费看| 99热这里只有精品一区| 成人18禁高潮啪啪吃奶动态图 | 一级毛片aaaaaa免费看小| 精品久久久久久久末码| 久久99精品国语久久久| 日本欧美视频一区| 91精品伊人久久大香线蕉| 亚洲精品,欧美精品| 成人综合一区亚洲| 好男人视频免费观看在线| 国产精品偷伦视频观看了| 精品久久久噜噜|