• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于數(shù)據(jù)集特征的KNN最優(yōu)K值預(yù)測(cè)方法

    2016-07-19 02:12:45李洪奇楊中國(guó)朱麗萍
    關(guān)鍵詞:信息熵決策樹類別

    李洪奇 楊中國(guó) 朱麗萍 劉 薔

    (中國(guó)石油大學(xué)石油數(shù)據(jù)挖掘北京市重點(diǎn)實(shí)驗(yàn)室 北京 102249)(中國(guó)石油大學(xué)計(jì)算機(jī)系 北京 102249)

    ?

    基于數(shù)據(jù)集特征的KNN最優(yōu)K值預(yù)測(cè)方法

    李洪奇楊中國(guó)朱麗萍劉薔

    (中國(guó)石油大學(xué)石油數(shù)據(jù)挖掘北京市重點(diǎn)實(shí)驗(yàn)室北京 102249)(中國(guó)石油大學(xué)計(jì)算機(jī)系北京 102249)

    摘要KNN算法中的參數(shù)K的選擇一般采取多次交叉驗(yàn)證方法求取,數(shù)據(jù)規(guī)模較大時(shí)并不適用。同時(shí),影響參數(shù)選擇最根本的因素是數(shù)據(jù)集本身。因此,提出利用數(shù)據(jù)集本身的特征預(yù)測(cè)最優(yōu)K值的方法。首先提取歷史數(shù)據(jù)集的簡(jiǎn)單特征、統(tǒng)計(jì)特征、信息熵特征、簡(jiǎn)單算法精度特征、復(fù)雜度特征等構(gòu)建特征向量,然后利用線性回歸、神經(jīng)網(wǎng)絡(luò)等方法建立特征向量與最優(yōu)K值之間的預(yù)測(cè)模型,并用該模型預(yù)測(cè)新數(shù)據(jù)集的最優(yōu)K值。在UCI數(shù)據(jù)集上的實(shí)驗(yàn)表明,該方法能迅速預(yù)測(cè)最優(yōu)K值,并確保一定的精度。

    關(guān)鍵詞KNN分類算法數(shù)據(jù)集特征信息熵最優(yōu)K

    0引言

    KNN分類算法[1]是機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)經(jīng)典算法,該算法簡(jiǎn)單、易于實(shí)現(xiàn),被列為數(shù)據(jù)挖掘十大算法之一[2]。KNN是一種基于實(shí)例的學(xué)習(xí)算法,它的分類原理是尋找與被預(yù)測(cè)對(duì)象最相似的K個(gè)對(duì)象—鄰居,由鄰居確定被預(yù)測(cè)對(duì)象的類別。K值決定了鄰居的個(gè)數(shù),進(jìn)一步?jīng)Q定了密度估計(jì)的平滑度,它的取值是一個(gè)重要的問題[3]。如果值取得過小,則算法易受噪聲的影響,使分類結(jié)果不穩(wěn)定;值取得過大,則模型偏向于將預(yù)測(cè)對(duì)象為類別數(shù)量多的一類。同時(shí),過大的K值也增加了算法的時(shí)間復(fù)雜度。

    前人有很多工作研究了最優(yōu)K值選擇的問題。文獻(xiàn)[4,5]從理論上說明當(dāng)鄰居距離使用的是歐式距離的時(shí)候,K的選擇應(yīng)該遵循原則:k→∞,k/n→0,這個(gè)理論對(duì)小樣本數(shù)據(jù)并不適用。文獻(xiàn)[6,7]使用交叉驗(yàn)證的方式評(píng)估取得最小錯(cuò)誤率的K值作為最優(yōu)K值。這種方式是目前普遍使用的方法,它的計(jì)算復(fù)雜性較大,存在多值性,難以取舍。

    模型的精度、參數(shù)本質(zhì)上是由數(shù)據(jù)集本身的特征決定的。文獻(xiàn)[18]利用各種數(shù)據(jù)集構(gòu)建元數(shù)據(jù)建立回歸模型對(duì)算法精度進(jìn)行預(yù)測(cè)并取得較好效果。借鑒文獻(xiàn)[18]的思想,利用已有數(shù)據(jù)集的先驗(yàn)知識(shí),提取數(shù)據(jù)集的特征直接預(yù)測(cè)KNN算法中的參數(shù)K值。對(duì)UCI公共數(shù)據(jù)集[19]的特征進(jìn)行度量,利用線性回歸模型建立數(shù)據(jù)集特征和最優(yōu)K值之間的模型。對(duì)新的數(shù)據(jù)集提取相應(yīng)的特征,利用訓(xùn)練好的回歸模型對(duì)最優(yōu)K值進(jìn)行預(yù)測(cè)。該方法在UCI120個(gè)數(shù)據(jù)集測(cè)試上取得理想結(jié)果,能在短時(shí)間內(nèi)預(yù)測(cè)出KNN算法的最優(yōu)K值。

    1算法精度與數(shù)據(jù)集的關(guān)系

    文獻(xiàn)[17]通過分析UCI上的五個(gè)數(shù)據(jù)集(sick、labor、pima、iono和vechicle)的K值與精度變化曲線指出KNN算法的精度會(huì)隨著K值呈現(xiàn)一定規(guī)律變化。K值從1開始逐漸增大的過程中,精度會(huì)出現(xiàn)一定的抖動(dòng),之后會(huì)出現(xiàn)平穩(wěn)的下降趨勢(shì)。并分析了上述規(guī)律的主要原因:K較小時(shí)候,精度會(huì)受到噪聲的很大影響;當(dāng)K較大的時(shí)候,精度會(huì)受到多數(shù)類別樣本的影響。不同的數(shù)據(jù)集由于數(shù)據(jù)分布、噪聲點(diǎn)、離群點(diǎn)、屬性類別等不一樣,參數(shù)K的取值也不一樣。文獻(xiàn)[20]指出影響模型精度的原因是數(shù)據(jù)集本身的特征,他們用數(shù)據(jù)集上提取的特征向量預(yù)測(cè)各個(gè)模型的精度,并取得較好效果。

    圖1是UCI數(shù)據(jù)集中任意挑選的20個(gè)數(shù)據(jù)集在十種分類算法下的精度表現(xiàn),參數(shù)為weka(http://www.cs.waikato.ac.nz/ml/weka/)的默認(rèn)參數(shù)。同時(shí)計(jì)算了每個(gè)數(shù)據(jù)集對(duì)應(yīng)各個(gè)算法的精度平均值、方差以及KNN算法最優(yōu)K值,這里的最優(yōu)K值是通過十折交叉驗(yàn)證的方式取得精度最高對(duì)應(yīng)的K值。

    圖1 20個(gè)數(shù)據(jù)集精度以及KNN算法中的最優(yōu)K值

    表1列舉了部分?jǐn)?shù)據(jù)集的算法精度值,從表1可以看出,每個(gè)數(shù)據(jù)集在各種算法上的精度表現(xiàn)都有一定規(guī)律性。比如:數(shù)據(jù)集horse-colic的精度在0.8附近,最小值為0.75(KStar),最大值0.856(PART、C4.5)。此數(shù)據(jù)集在基于實(shí)例的算法,3NN和KStar的精度都不如基于樹規(guī)則的C4.5、PART算法。這本質(zhì)上是由于數(shù)據(jù)集的數(shù)據(jù)分布規(guī)律和特征決定的。同樣,KNN算法中,最優(yōu)K值是和數(shù)據(jù)集的特征緊密聯(lián)系的,數(shù)據(jù)集的特征決定了各個(gè)分類器的精度以及最優(yōu)K值。尋找到合適的數(shù)據(jù)集特征來刻畫數(shù)據(jù)集,就能有效地預(yù)測(cè)算法的精度以及最優(yōu)K值。

    表1 部分?jǐn)?shù)據(jù)集的算法精度以及最優(yōu)K值

    2數(shù)據(jù)集與最優(yōu)K值預(yù)測(cè)

    2.1數(shù)據(jù)集的刻畫

    刻畫數(shù)據(jù)集的方法,可以分為六個(gè)方面:簡(jiǎn)單特征[21]、統(tǒng)計(jì)特征[22]、基于信息熵的特征[23]、基于模型的特征[24]、基于地標(biāo)算法精度的特征[25]、基于數(shù)據(jù)集復(fù)雜性的特征[26]。這些數(shù)據(jù)集特征的詳細(xì)內(nèi)容如下:

    1) 簡(jiǎn)單特征:樣本數(shù)量、類別數(shù)量、特征數(shù)量、類別型特征的數(shù)量、數(shù)值型特征的數(shù)量、類別型特征的比例、數(shù)值型特征個(gè)數(shù)比例、維度比。

    2) 統(tǒng)計(jì)特征:峰度、偏度、典型相關(guān)分析、特征值、最大關(guān)聯(lián)系數(shù)。

    3) 信息熵:標(biāo)準(zhǔn)化類別信息熵、標(biāo)注化類別平均信息熵、聯(lián)合信息熵、互信息、信噪比、信息熵度量下的等同特征數(shù)目。計(jì)算公式如下:

    (1)

    (2)

    (3)

    (4)

    其中,X是屬性變量,Y是類別量,p(x)是屬性變量X的概率分布。JointEntropy是聯(lián)合熵,MutualInf(X,Y)是屬性和類別的互信息,ClassEntropy是類別熵,AttsEntropy是屬性熵。

    4) 基于決策樹的特征:構(gòu)建一棵沒有剪枝的決策樹,關(guān)于這棵決策樹的很多統(tǒng)計(jì)量作為特征。用到的統(tǒng)計(jì)量是葉節(jié)點(diǎn)的個(gè)數(shù)、節(jié)點(diǎn)的個(gè)數(shù)、每個(gè)特征的平均節(jié)點(diǎn)數(shù)、每個(gè)樣本的平均節(jié)點(diǎn)數(shù)。利用決策樹來判別數(shù)據(jù)集相似性的原理是認(rèn)為相似的數(shù)據(jù)集會(huì)產(chǎn)生的決策樹有相似的結(jié)構(gòu)。圖2是決策樹的統(tǒng)計(jì)特征示意圖。

    圖2 決策樹指標(biāo)示意圖

    決策樹指標(biāo)的提取,包括樹的寬度、高度、層數(shù)、分支數(shù)目、屬性使用次數(shù)等,都是以圖2所示的決策樹作為基礎(chǔ)。

    5) 簡(jiǎn)單算法精度特征:簡(jiǎn)單分類器的精度,比如:樸素貝葉斯算法、線性判別、1NN。簡(jiǎn)單分類器的精度表現(xiàn)能在一定程度上反映數(shù)據(jù)集的特征。

    6) 數(shù)據(jù)復(fù)雜性指標(biāo):特征最大Fisher判別率、類別間重合比例、最大單特征分類效率、聯(lián)合特征分類效率、類別重合率、邊界比例、邊界點(diǎn)不同類別比例、屬性純凈度等。這些指標(biāo)的具體定義的詳細(xì)介紹見文獻(xiàn)[26]。其中屬性純凈度的概念是針對(duì)離散型數(shù)據(jù)集,它用來定義數(shù)據(jù)集中的屬性對(duì)類別的區(qū)別能力大小,計(jì)算公式如下:

    (5)

    (6)

    定義數(shù)據(jù)集的總的純凈度為:

    (7)

    首先定義屬性的每個(gè)屬性值的純凈度為對(duì)應(yīng)屬性值vi的樣本在各個(gè)類別下的分布的混亂程度,也就是對(duì)應(yīng)該分布的信息熵,見式(5)。屬性f是類別型屬性,設(shè)f有m個(gè)屬性值{v1,v2,…,vm},樣本取值為屬性值vk的個(gè)數(shù)為|vk|,式(5)中的pkj為樣本在特征f下取值為vk且屬于第j類的樣本概率。Purej指的是第j個(gè)特征的純凈度,見式(6),它是每個(gè)屬性值純凈度的加權(quán)和。數(shù)據(jù)集E的純凈度定義為所有特征純凈度的最小值,見式(7)。

    前人利用數(shù)據(jù)集的特征在算法選擇問題上做了很多工作。比如:用于模型選擇[27]、用于模型參數(shù)確定[28]、樣本選擇[29]。

    2.2影響KNN算法精度的指標(biāo)

    文獻(xiàn)[18]指出類別個(gè)數(shù)、峰度、聯(lián)合熵、相當(dāng)于類別屬性信息熵的屬性數(shù)量、互信息、決策樹的寬度、寬度均值、寬度方差、1NN、C4.5、NB(樸素貝葉斯算法)等特征對(duì)KNN算法的精度有較大影響。同時(shí),為了保證計(jì)算效率,文中只選擇部分?jǐn)?shù)據(jù)集特征作為預(yù)測(cè)K值的特征。選擇的特征的復(fù)雜度要小于O(N×|D|×log|D|)。

    數(shù)據(jù)集屬性可能是數(shù)值型或者類別型的,計(jì)算數(shù)據(jù)集的特征向量會(huì)涉及到屬性類型的轉(zhuǎn)化。數(shù)值型數(shù)據(jù)離散化有基于信息熵的MDLP算法、頻率等;類別型數(shù)據(jù)數(shù)值化一般采取的是二進(jìn)制的方法。實(shí)際運(yùn)用算法過程中,一般將連續(xù)數(shù)據(jù)離散化,而較少將類別數(shù)據(jù)數(shù)值化。因此本文使用的數(shù)據(jù)集特征向量的提取指標(biāo)中不考慮只針對(duì)數(shù)值型數(shù)據(jù)的指標(biāo)。例如:去掉了峰度、偏度等指標(biāo)。這樣避免了由于數(shù)據(jù)類型之間的轉(zhuǎn)化對(duì)結(jié)果造成影響。而對(duì)于混合型數(shù)據(jù)集,在計(jì)算類別型指標(biāo)的時(shí)候就要先將連續(xù)數(shù)據(jù)離散化,離散化方法采取的最后選擇的用于預(yù)測(cè)KNN算法最優(yōu)K值的數(shù)據(jù)集特征如表2所示。

    表2 數(shù)據(jù)集特征指標(biāo)

    2.3最優(yōu)K值預(yù)測(cè)流程

    算法流程為首先提取每個(gè)數(shù)據(jù)集的特征向量,以及在十折交叉驗(yàn)證下的最優(yōu)K值。最優(yōu)K值的求取采取窮舉的方法。如果用交叉驗(yàn)證方式評(píng)價(jià)的最優(yōu)K值有多個(gè),則選擇較小的K值。利用特征向量和K值構(gòu)成訓(xùn)練樣本,采取線性回歸模型建立模型。最后,對(duì)新的數(shù)據(jù)集預(yù)測(cè)最優(yōu)K值。具體流程如圖3所示。

    圖3 最優(yōu)K值預(yù)測(cè)方法流程

    利用特征向量和K值構(gòu)成的訓(xùn)練樣本構(gòu)建線性回歸模型,利用weka(http://www.cs.waikato.ac.nz/ml/weka/)自帶的線性回歸算法進(jìn)行建模。特征向量的計(jì)算指標(biāo)都是復(fù)雜性在O(N×|D|×log|D|)內(nèi)的,而且避免了多次交叉驗(yàn)證求取最優(yōu)K值,因此該方法預(yù)測(cè)K值是有意義的。對(duì)于新樣本,首先提取該數(shù)據(jù)集的特征,然后利用訓(xùn)練好的模型預(yù)測(cè)出K值。

    預(yù)測(cè)模型的建立有很多種選擇,可以使用神經(jīng)網(wǎng)絡(luò)、決策樹、KNN算法、支持向量機(jī)等。本文僅以線性回歸模型為例進(jìn)行說明。處理具體應(yīng)用的數(shù)據(jù)集的時(shí)候,可以選擇本領(lǐng)域的大量數(shù)據(jù)集作為歷史數(shù)據(jù)集。根據(jù)機(jī)器學(xué)習(xí)理論,更具有代表性的、更多的歷史數(shù)據(jù)集的積累會(huì)改善機(jī)器學(xué)習(xí)的準(zhǔn)確性。本文實(shí)驗(yàn)以來自網(wǎng)絡(luò)的公開的加州大學(xué)歐文分校的機(jī)器學(xué)習(xí)數(shù)據(jù)庫(kù)[19]為例進(jìn)行說明,實(shí)驗(yàn)結(jié)果證明了該方法的有效性。

    3實(shí)驗(yàn)

    3.1數(shù)據(jù)集

    數(shù)據(jù)集來自加州大學(xué)歐文分校公開的機(jī)器學(xué)習(xí)數(shù)據(jù)庫(kù)。選取其中120個(gè)分類型數(shù)據(jù)集作為本實(shí)驗(yàn)的數(shù)據(jù)來源,涉及計(jì)算機(jī)工程、生命科學(xué)、物理科學(xué)、社會(huì)生活、電子商務(wù)以及游戲等領(lǐng)域。數(shù)據(jù)集的實(shí)例個(gè)數(shù)分布在14到20 000個(gè);屬性個(gè)數(shù)分布在3到101個(gè);類別個(gè)數(shù)分布在2到28個(gè)。這些都是數(shù)據(jù)集的表面特征,取更大的范圍能保證本文方法的適用性。

    3.2評(píng)價(jià)指標(biāo)

    本文提出的方法在計(jì)算復(fù)雜度上遠(yuǎn)遠(yuǎn)低于重復(fù)多次的十次交叉驗(yàn)證方法。為了支持這一結(jié)論,本文在評(píng)價(jià)指標(biāo)中加入了算法性能指標(biāo)。

    其次預(yù)測(cè)的K值與最優(yōu)K值的差距是算法效果的直接體現(xiàn)。為了計(jì)算預(yù)測(cè)的K值與最優(yōu)K值的距離,要計(jì)算數(shù)據(jù)在這兩個(gè)K值下的精度差距。借鑒文獻(xiàn)[17]采用的三個(gè)評(píng)價(jià)指標(biāo):

    1)MAE(magnitudeofabsoluteerror)表示推薦的值對(duì)應(yīng)的分類精度(預(yù)測(cè)精度)與最優(yōu)對(duì)應(yīng)的分類精度(最優(yōu)精度)的絕對(duì)誤差,即MAE=(最優(yōu)精度-預(yù)測(cè)精度) × 100%。

    2)MRE(magnitudeofrelativeerror)表示預(yù)測(cè)精度與最優(yōu)精度之間的相對(duì)誤差,即MRE=(最優(yōu)精度-預(yù)測(cè)精度)÷最優(yōu)精度×100%。對(duì)于MAE和MRE,它們的值越小表示預(yù)測(cè)精度越接近最優(yōu)精度,意味著算法效果越好。

    3)PRED(·)是另一個(gè)常用的評(píng)價(jià)指標(biāo)。PRED(m)表示MAE小于m%的數(shù)據(jù)集個(gè)數(shù)占總預(yù)測(cè)數(shù)據(jù)集個(gè)數(shù)的百分比;最優(yōu)的K和預(yù)測(cè)出來的K值對(duì)應(yīng)精度的差別在5%之內(nèi)就認(rèn)為是不錯(cuò)的結(jié)果。

    3.3實(shí)驗(yàn)結(jié)果與分析

    3.3.1算法性能測(cè)試

    算法的性能測(cè)試,測(cè)試環(huán)境是:CPU是Intelcorei5duo3.2GHz,內(nèi)存4GB。

    實(shí)驗(yàn)?zāi)康氖菧y(cè)試算法的運(yùn)行效率,選擇了120個(gè)數(shù)據(jù)集進(jìn)行對(duì)比測(cè)試。表3顯示了部分?jǐn)?shù)據(jù)集的在最優(yōu)K值預(yù)測(cè)算法運(yùn)行時(shí)間、文獻(xiàn)[17]提出的壓縮K值范圍的算法時(shí)間、使用多次交叉驗(yàn)證算法運(yùn)行的時(shí)間。K值的初始范圍為1~logN,文獻(xiàn)[17]的算法的是進(jìn)一步壓縮了K值范圍為1~log(logN)。由表3可以看出,本文使用的算法的運(yùn)行效率明顯高于多次交叉驗(yàn)證算法的運(yùn)行效率。當(dāng)數(shù)據(jù)集的樣本個(gè)數(shù)較大的情況下,差異越是明顯。

    表3 最優(yōu)K值預(yù)測(cè)算法與KNN算法運(yùn)行效率對(duì)比

    續(xù)表3

    3.3.2算法效果

    根據(jù)選擇的120個(gè)數(shù)據(jù)集特征以及最優(yōu)K值構(gòu)成的訓(xùn)練樣本,利用分層抽樣的辦法選擇其中60個(gè)數(shù)據(jù)集作為訓(xùn)練集,總的120個(gè)數(shù)據(jù)集作為測(cè)試集。此模型只是在有限的歷史數(shù)據(jù)集中學(xué)習(xí)得到的案例,不能直接使用到任意應(yīng)用領(lǐng)域中。為了說明實(shí)驗(yàn)的有效性,本文給出了實(shí)驗(yàn)得到的回歸模型如圖4所示。

    圖4 回歸模型

    可以看到的是,指標(biāo)屬性個(gè)數(shù)比例(RateOfnumericAtt以及RateOfNominalAtt)、簡(jiǎn)單算法精度(C4.5、NB、1NN)以及基于未剪枝決策樹的統(tǒng)計(jì)量(樹高-treeheight、最長(zhǎng)分支-LongBranch)等對(duì)回歸模型影響較大。用預(yù)測(cè)的K值與最優(yōu)K值對(duì)應(yīng)的KNN算法精度衡量本方法的效果。部分?jǐn)?shù)據(jù)集的在兩個(gè)K值下的精度偏差,如表4所示。

    表4 預(yù)測(cè)K值和最優(yōu)K值的絕對(duì)

    續(xù)表4

    表5統(tǒng)計(jì)了120個(gè)數(shù)據(jù)集上MAE和MRE的最小值(min)、最大值(max)、中位數(shù)(median)、眾數(shù)(mode)、平均值(mean)和標(biāo)準(zhǔn)差(std),并給出了PRED(m)的值。

    表5 整體測(cè)試數(shù)據(jù)集上的絕對(duì)誤差MAE(%)與相對(duì)誤差MRE(%)

    從表5可以看出有86.13%的數(shù)據(jù)集的預(yù)測(cè)K值精度與最優(yōu)K值對(duì)應(yīng)精度的絕對(duì)偏差在5%范圍內(nèi)。此結(jié)果與文獻(xiàn)[17]對(duì)比,預(yù)測(cè)準(zhǔn)確率要低于94%,但是本方法避免了多次交叉驗(yàn)證即可求取最優(yōu)K值,因此在速度上更優(yōu)。

    4結(jié)語

    本文針對(duì)KNN算法中近鄰數(shù)的確定問題進(jìn)行了研究。不同于從交叉驗(yàn)證方式、概率分布角度、快速搜索方式求取K值,本文從數(shù)據(jù)集特征的角度直接預(yù)測(cè)最優(yōu)K值。在120個(gè)公開數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明了該算法的運(yùn)行效率高,實(shí)驗(yàn)效果較好。實(shí)驗(yàn)過程中算法采取的回歸模型能很好地預(yù)測(cè)未知數(shù)據(jù)集最優(yōu)K值,為快速確定模型參數(shù)提供了新的方法。雖然本方法預(yù)測(cè)模型參數(shù)取得較快速度,但是在精度上有所損失,只有86%的數(shù)據(jù)集能確保精度誤差在5%范圍內(nèi)。

    計(jì)算眾多數(shù)據(jù)集特征影響模型參數(shù)會(huì)影響預(yù)測(cè)性能,進(jìn)一步篩選有效、可用的數(shù)據(jù)集特征是下一步的工作。另外,數(shù)據(jù)集特征對(duì)模型多參數(shù)的預(yù)測(cè)、模型的選擇是下一步要研究的工作。

    參考文獻(xiàn)

    [1]CoverT,HartP.Nearestneighborpatternclassification[J].IEEETransonInformationTheory,1967,13(1):21-27.

    [2]WuXD,KumarV,RossQuinlanJ,etal.Top10algorithmsindatamining[J].KnowledgeandInformationSystems,2008,14(1):1-37.

    [3]GuoG,WangH,BellD,etal.KNNmodel-basedapproachinclassification[C]//IntConfonCooperativeInformationSystems.Berlin:Springer-Verlag,2003:986-996.

    [4]LoftsgaardenDO,QuesenberryCP.Anonparametricestimateofmultivariatedensityfunction[J].AnnMathStatist,1965,36(3):1049-1051.

    [5]CoverTM,HartPE.Nearestneighborpatternclassification[J].IEEETransInformTheory,1968,13(1):21-27.

    [6]LachenbruchPA,MickeyMR.Estimationoferrorratesindiscriminantanalysis[J].Technometrics,1968,10(1):1-11.

    [7]StoneM.Crossvalidation:areview.MathOperationsforschungundStatistik[J].SeriesStatistics,1978,9(1):127-139.

    [8]GatesG.Thereducednearestneighborrule[J].IEEETransonInformationTheory,1972,18(3):431-433.

    [9]FukunagaK,HostetlerLD.Optimizationofk-nearest-neighbordensityestimates[J].IEEETransInformTheoryIT,1973,19(3):320-326.

    [10]WettschereckD,DietterichTG.Locallyadaptivenearestneighboralgorithms[C]//AdvancesinNeuralInformationProcessingSystems.Colorado:MorganKaufmann,1993:184-191.

    [11]G′oraG,WojnaA.RIONA:Anewclassificationsystemcombiningruleinductionandinstance-basedlearning[J].FundamentaInformaticae,2002,51(4):369-390.

    [12]DavidJHand,VeronicaVinciotti.Choosingkfortwo-classnearestneighbourclassifierswithunbalancedclasses[J].PatternRecognitionLetters,2003,24(9):1555-1562.

    [13]WangJigang,PredragN,LeonNC.Neighborhoodsizeselectioninthek-nearest-neighborruleusingstatisticalconfidence[J].PatternRecognition,2006,39(3):417-423.

    [14]GhoshAK.Onnearestneighborclassificationusingadaptivechoiceofk[J].JofComputationalandGraphicalStatistics,2007,16(2):482-502.

    [15]PeterHall,ByeongUPark,RichardJSamworth.Choiceofneighbororderinnearest-neighborclassification[J].TheAnnalsofStatistics,2008,36(5):2135-2152.

    [16]SunLY,ChenL.Afastandscalablefuzzy-roughnearestneighboralgorithm[C]//ProcoftheWRIGlobalCongressonIntelligentSystems.Washington:IEEEComputerSociety,2009:311-314.

    [17] 杜磊,杜星,宋擒豹.一種KNN分類器K值自動(dòng)選取方法[J].控制與決策,2013,28(7):1073-1077.

    [18]MatthiasReif,FaisalShafait,MarkusGoldstein,etal.Automaticclassifierselectionfornon-experts[J].PatternAnalApplic,2014,17(7):83-96.

    [19]BlakeC,MerzCJ.UCIrepositoryofmachinelearningdatabases[DB/OL].[2011-06-20].http://archive.ics.uci.edu/ml/.

    [20]NúriaMaciàa,EsterBernadóMansillaa,AlbertOrriolsPuiga,etal.Learnerexcellencebiasedbydatasetselection:acasefordatacharacterisationandartificialdatasets[J].PatternRecognition,2013,46(3):1054-1066.

    [21]RobertEngels,ChristianeTheusinger.UsingaDataMetricforPreprocessingAdviceforDataMiningApplications[C]//PradeH.(ed.)Proceedingsofthe13thbiennialEuropeanConferenceonArtificialIntelligence(ECAI1998),1998:430-434.

    [22]SohnSY.Metaanalysisofclassificationalgorithmsforpatternrecognition[J].IEEETransonPatternAnalysisandMachineIntelligence,1999,21(11):1137-1144.

    [23]SaddysSegrera,JoelPinho,MaríaNMoreno.Information-theoreticmeasuresformeta-learning[J].HybridArtificialIntelligenceSystemsLectureNotesinComputerScience,2008,5271(3):458-465.

    [24]NguyenP,HilarioM,KalousisA.UsingMeta-miningtoSupportDataMiningWorkflowPlanningandOptimization[J].JournalofArtificialIntelligenceResearch,2014,51(1):605-644.

    [25]BernhardPfahringer,HilanBensusan,ChristopheGCarrier.Meta-learningbylandmarkingvariouslearningalgorithms[C]//ProceedingsoftheSeventeenthInternationalConferenceonMachineLearning,2000:743-750.

    [26]José-RamónCano.Analysisofdatacomplexitymeasuresforclassification[J].ExpertSystemswithApplications,2014,40(12):4820-4831.

    [27]ChristianMoewes,AndreasNurnberger.ComputationalIntelligenceinIntelligentDataAnalysis[M].Springer-VerlagBerlinandHeidelbergGmbH&Co.K,2013.

    [28]KotthoL,GentIP,MiguelI.Anevaluationofmachinelearninginalgorithmselectionforsearchproblems[J].AICommunications,2012,25(3):257-270.

    [29]EnriqueLeyva,YoelCaises,AntonioGonzález,etal.Ontheuseofmeta-learningforinstanceselection:Anarchitectureandanexperimentalstudy[J].InformationSciences,2014,266(10):16-30.

    PREDICTION METHOD OF OPTIMAL K VALUE IN KNN BASEDONDATASETFEATURES

    Li HongqiYang ZhongguoZhu LipingLiu Qiang

    (Key Lab of Petroleum Data Mining,China University of Petroleum,Beijing 102249,China)(Department of Computer,China University of Petroleum,Beijing 102249,China)

    AbstractMultiple cross validation method is usually used in KNN algorithm to choose parameter K, but it is not applicable when the size of dataset is big. Meanwhile, the most fundamental factor affecting the parameter selection is dataset itself. Therefore, we proposed an optimal K value prediction method by using the featurs of dataset itself. First is the eigenvector construction by extracting the features of historical dataset including the simple feature, statistic feature, information entropy feature, precision feature of simple algorithm, and complexity feature, etc. Then, the method employs the methods of linear regression and neural network to build a prediction model between eigenvector and optimal K value, and uses the model to predict the optimal K of new dataset. It was indicated by the experiment on UCI dataset that the method could quickly predict optimal K value and ensure certain precision.

    KeywordsKNN classification algorithmDataset featureInformation entropyOptimal K

    收稿日期:2015-01-20。中國(guó)石油大學(xué)(北京)基金項(xiàng)目(KYJJ 2012-05-25)。李洪奇,教授,主研領(lǐng)域:石油數(shù)據(jù)挖掘。楊中國(guó),博士生。朱麗萍,副教授。劉薔,碩士生。

    中圖分類號(hào)TP18

    文獻(xiàn)標(biāo)識(shí)碼A

    DOI:10.3969/j.issn.1000-386x.2016.06.014

    猜你喜歡
    信息熵決策樹類別
    基于信息熵可信度的測(cè)試點(diǎn)選擇方法研究
    一種針對(duì)不均衡數(shù)據(jù)集的SVM決策樹算法
    決策樹和隨機(jī)森林方法在管理決策中的應(yīng)用
    電子制作(2018年16期)2018-09-26 03:27:06
    基于信息熵的實(shí)驗(yàn)教學(xué)量化研究
    一種基于信息熵的雷達(dá)動(dòng)態(tài)自適應(yīng)選擇跟蹤方法
    基于決策樹的出租車乘客出行目的識(shí)別
    服務(wù)類別
    基于信息熵的IITFN多屬性決策方法
    基于肺癌CT的決策樹模型在肺癌診斷中的應(yīng)用
    論類別股東會(huì)
    商事法論集(2014年1期)2014-06-27 01:20:42
    97在线人人人人妻| 在线观看人妻少妇| 九九爱精品视频在线观看| www.自偷自拍.com| 女人高潮潮喷娇喘18禁视频| 久久久国产欧美日韩av| 一区福利在线观看| 高清视频免费观看一区二区| 国产精品.久久久| 精品国产露脸久久av麻豆| 天天躁夜夜躁狠狠久久av| 欧美激情高清一区二区三区 | 国产精品一国产av| 黑人欧美特级aaaaaa片| 国产无遮挡羞羞视频在线观看| 在线观看免费视频网站a站| 午夜福利在线观看免费完整高清在| 亚洲国产av影院在线观看| 亚洲精品国产色婷婷电影| 丰满少妇做爰视频| 国产精品久久久久成人av| 色婷婷久久久亚洲欧美| 亚洲欧美一区二区三区久久| 高清欧美精品videossex| 国产精品熟女久久久久浪| 一二三四在线观看免费中文在| 黄网站色视频无遮挡免费观看| 亚洲欧美一区二区三区国产| 少妇人妻精品综合一区二区| 久热久热在线精品观看| 国产一区有黄有色的免费视频| 国产午夜精品一二区理论片| 日韩,欧美,国产一区二区三区| 99国产综合亚洲精品| 伊人亚洲综合成人网| 国产精品成人在线| 少妇人妻 视频| 日韩av免费高清视频| 午夜免费鲁丝| 在线 av 中文字幕| 精品少妇一区二区三区视频日本电影 | 久久女婷五月综合色啪小说| 精品久久久久久电影网| 日日爽夜夜爽网站| 丝瓜视频免费看黄片| 国产精品.久久久| 又大又黄又爽视频免费| 日韩欧美精品免费久久| 青春草视频在线免费观看| 午夜福利在线观看免费完整高清在| 一本—道久久a久久精品蜜桃钙片| 中文精品一卡2卡3卡4更新| 国产欧美日韩综合在线一区二区| 欧美精品人与动牲交sv欧美| 国产精品偷伦视频观看了| 一区二区av电影网| xxx大片免费视频| 两个人看的免费小视频| av片东京热男人的天堂| 中文精品一卡2卡3卡4更新| 日韩大片免费观看网站| 又粗又硬又长又爽又黄的视频| 制服人妻中文乱码| 最近手机中文字幕大全| 久久婷婷青草| 国产成人精品久久久久久| 18在线观看网站| 亚洲欧美一区二区三区黑人 | 人人澡人人妻人| 精品久久久精品久久久| 九色亚洲精品在线播放| 亚洲美女搞黄在线观看| 亚洲在久久综合| 亚洲欧美一区二区三区黑人 | 不卡av一区二区三区| 不卡av一区二区三区| 亚洲三区欧美一区| 十八禁高潮呻吟视频| av视频免费观看在线观看| videosex国产| 国产免费福利视频在线观看| 男女边吃奶边做爰视频| 如何舔出高潮| 肉色欧美久久久久久久蜜桃| 久久久精品94久久精品| 另类精品久久| 人体艺术视频欧美日本| 国产精品欧美亚洲77777| 在线免费观看不下载黄p国产| 午夜福利,免费看| 香蕉国产在线看| 久久99热这里只频精品6学生| 蜜桃国产av成人99| 久久国产精品大桥未久av| 亚洲伊人久久精品综合| 成年人午夜在线观看视频| 久久精品熟女亚洲av麻豆精品| 人成视频在线观看免费观看| 青青草视频在线视频观看| 婷婷成人精品国产| 国产成人精品福利久久| 制服丝袜香蕉在线| 亚洲精品美女久久av网站| 国产1区2区3区精品| 精品一区在线观看国产| 精品少妇久久久久久888优播| 久久韩国三级中文字幕| 成人漫画全彩无遮挡| 亚洲综合精品二区| 天堂俺去俺来也www色官网| 国产欧美日韩一区二区三区在线| 日韩视频在线欧美| 中文字幕人妻丝袜制服| 成人18禁高潮啪啪吃奶动态图| 美女视频免费永久观看网站| 精品国产一区二区三区久久久樱花| 各种免费的搞黄视频| 亚洲精品日本国产第一区| 日韩欧美一区视频在线观看| 街头女战士在线观看网站| 日日爽夜夜爽网站| 久久精品aⅴ一区二区三区四区 | 亚洲色图综合在线观看| 一级爰片在线观看| 亚洲色图 男人天堂 中文字幕| 国产免费视频播放在线视频| h视频一区二区三区| 久久精品亚洲av国产电影网| 美国免费a级毛片| 久久精品熟女亚洲av麻豆精品| 欧美亚洲 丝袜 人妻 在线| 人人妻人人添人人爽欧美一区卜| 一个人免费看片子| a级毛片在线看网站| 久久热在线av| 国产精品麻豆人妻色哟哟久久| 电影成人av| 观看美女的网站| 免费黄网站久久成人精品| 熟女电影av网| 亚洲情色 制服丝袜| 国产欧美日韩一区二区三区在线| 欧美精品人与动牲交sv欧美| 国产av国产精品国产| 久久久a久久爽久久v久久| 边亲边吃奶的免费视频| 青青草视频在线视频观看| 超碰97精品在线观看| 熟女av电影| 91aial.com中文字幕在线观看| 免费观看无遮挡的男女| 美女午夜性视频免费| 日产精品乱码卡一卡2卡三| 精品少妇久久久久久888优播| 日日啪夜夜爽| 男的添女的下面高潮视频| 欧美日韩视频高清一区二区三区二| 国产爽快片一区二区三区| 国产有黄有色有爽视频| 9色porny在线观看| 自线自在国产av| 久久人人97超碰香蕉20202| 日日摸夜夜添夜夜爱| 久久久久久久精品精品| 啦啦啦视频在线资源免费观看| 五月天丁香电影| 美女国产高潮福利片在线看| 亚洲欧美一区二区三区国产| 亚洲第一av免费看| 亚洲成av片中文字幕在线观看 | 一级,二级,三级黄色视频| 极品人妻少妇av视频| 免费久久久久久久精品成人欧美视频| 91精品伊人久久大香线蕉| 亚洲国产最新在线播放| 国产 精品1| 一个人免费看片子| 最近中文字幕2019免费版| 青草久久国产| 久久久久网色| 亚洲中文av在线| 中国三级夫妇交换| 18禁动态无遮挡网站| 欧美日韩综合久久久久久| 一区二区av电影网| 人妻系列 视频| 波野结衣二区三区在线| av一本久久久久| 午夜精品国产一区二区电影| 纵有疾风起免费观看全集完整版| 日韩成人av中文字幕在线观看| 免费黄色在线免费观看| 国产又色又爽无遮挡免| 一级毛片 在线播放| 男人爽女人下面视频在线观看| 91精品三级在线观看| 一本—道久久a久久精品蜜桃钙片| 国产黄色视频一区二区在线观看| 一级毛片黄色毛片免费观看视频| 看免费av毛片| 久久久精品免费免费高清| 日本色播在线视频| 777久久人妻少妇嫩草av网站| 亚洲精品美女久久av网站| 一本色道久久久久久精品综合| 少妇人妻精品综合一区二区| 黄频高清免费视频| 少妇猛男粗大的猛烈进出视频| 国产色婷婷99| 日韩制服骚丝袜av| 免费看av在线观看网站| 边亲边吃奶的免费视频| 精品久久久精品久久久| 不卡视频在线观看欧美| 欧美另类一区| 在线观看一区二区三区激情| 精品久久久久久电影网| 飞空精品影院首页| 18在线观看网站| 午夜91福利影院| 1024香蕉在线观看| 欧美精品国产亚洲| 日日啪夜夜爽| 久久久久精品久久久久真实原创| 三级国产精品片| 国产精品av久久久久免费| 9色porny在线观看| 少妇被粗大的猛进出69影院| 久久久久视频综合| 亚洲国产精品国产精品| 哪个播放器可以免费观看大片| 国产精品熟女久久久久浪| 亚洲国产日韩一区二区| 国产精品一区二区在线不卡| 一区福利在线观看| 成年女人毛片免费观看观看9 | 中国国产av一级| 国产在线一区二区三区精| 欧美亚洲 丝袜 人妻 在线| 春色校园在线视频观看| 国产免费现黄频在线看| 综合色丁香网| 赤兔流量卡办理| 少妇人妻久久综合中文| 中文字幕亚洲精品专区| 黄片无遮挡物在线观看| 亚洲欧美精品综合一区二区三区 | 在线观看美女被高潮喷水网站| 91成人精品电影| 青草久久国产| 国产精品免费视频内射| 亚洲欧美精品自产自拍| 国语对白做爰xxxⅹ性视频网站| 99re6热这里在线精品视频| 777米奇影视久久| 亚洲精品国产av蜜桃| 男女边摸边吃奶| 欧美日韩国产mv在线观看视频| 午夜福利,免费看| 久久久国产一区二区| 韩国精品一区二区三区| 日本午夜av视频| 一级a爱视频在线免费观看| 大陆偷拍与自拍| 精品少妇久久久久久888优播| 一区二区日韩欧美中文字幕| 午夜激情久久久久久久| 亚洲国产毛片av蜜桃av| 桃花免费在线播放| 九九爱精品视频在线观看| 街头女战士在线观看网站| 国产在视频线精品| 久久精品人人爽人人爽视色| 校园人妻丝袜中文字幕| 亚洲男人天堂网一区| 国产精品免费大片| 国产亚洲av片在线观看秒播厂| 观看av在线不卡| 99热全是精品| 亚洲精品日韩在线中文字幕| 97人妻天天添夜夜摸| av.在线天堂| 国产成人a∨麻豆精品| 国产成人一区二区在线| 丰满迷人的少妇在线观看| 男女无遮挡免费网站观看| 亚洲av男天堂| 久久精品国产亚洲av天美| 91aial.com中文字幕在线观看| 国产精品99久久99久久久不卡 | 亚洲精品乱久久久久久| 伊人久久国产一区二区| 国产一区二区在线观看av| 国产成人欧美| 如日韩欧美国产精品一区二区三区| 水蜜桃什么品种好| 午夜福利网站1000一区二区三区| 99久国产av精品国产电影| 性高湖久久久久久久久免费观看| 亚洲色图综合在线观看| 在线天堂中文资源库| 成人漫画全彩无遮挡| 久热这里只有精品99| 一本色道久久久久久精品综合| 伊人久久大香线蕉亚洲五| 大香蕉久久成人网| 一区二区三区激情视频| 18在线观看网站| 下体分泌物呈黄色| 美女大奶头黄色视频| 99久国产av精品国产电影| 亚洲人成77777在线视频| 亚洲精品av麻豆狂野| 高清视频免费观看一区二区| 国产综合精华液| 蜜桃在线观看..| 2018国产大陆天天弄谢| 亚洲三级黄色毛片| 国产成人精品婷婷| 男人添女人高潮全过程视频| 在线观看三级黄色| 男人添女人高潮全过程视频| 一边亲一边摸免费视频| 国产淫语在线视频| 一级片'在线观看视频| 国产一区有黄有色的免费视频| 亚洲伊人久久精品综合| 国产日韩欧美亚洲二区| 99久久中文字幕三级久久日本| 亚洲图色成人| 日本vs欧美在线观看视频| 欧美成人精品欧美一级黄| 中文欧美无线码| 侵犯人妻中文字幕一二三四区| 亚洲精品aⅴ在线观看| 2021少妇久久久久久久久久久| 大陆偷拍与自拍| 嫩草影院入口| 人体艺术视频欧美日本| 婷婷色综合www| 欧美最新免费一区二区三区| 日韩欧美精品免费久久| av.在线天堂| 一本久久精品| 亚洲av日韩在线播放| 2021少妇久久久久久久久久久| 熟女电影av网| 欧美人与性动交α欧美软件| 最近最新中文字幕大全免费视频 | 国产av国产精品国产| 99re6热这里在线精品视频| 两个人看的免费小视频| 国产探花极品一区二区| 啦啦啦视频在线资源免费观看| 国产一区二区三区综合在线观看| 精品少妇久久久久久888优播| 中文字幕人妻丝袜一区二区 | 久热久热在线精品观看| 国产熟女午夜一区二区三区| 成年av动漫网址| 最新中文字幕久久久久| 十八禁高潮呻吟视频| 亚洲综合色惰| 久久久a久久爽久久v久久| 国产极品粉嫩免费观看在线| 三上悠亚av全集在线观看| 久久精品国产自在天天线| 欧美 日韩 精品 国产| 最黄视频免费看| 18禁动态无遮挡网站| 五月伊人婷婷丁香| 自线自在国产av| 亚洲欧美成人综合另类久久久| 国产爽快片一区二区三区| 亚洲av成人精品一二三区| 九九爱精品视频在线观看| 久久久精品国产亚洲av高清涩受| 精品亚洲成国产av| 一区在线观看完整版| 秋霞在线观看毛片| 女人久久www免费人成看片| 最黄视频免费看| 精品亚洲成国产av| 老司机影院毛片| 国产人伦9x9x在线观看 | 1024视频免费在线观看| 91精品伊人久久大香线蕉| 在线精品无人区一区二区三| 日韩av免费高清视频| 丝瓜视频免费看黄片| 成人黄色视频免费在线看| 国产精品熟女久久久久浪| 精品酒店卫生间| 97在线视频观看| 午夜影院在线不卡| 亚洲综合色惰| 高清在线视频一区二区三区| 日韩不卡一区二区三区视频在线| 国产精品蜜桃在线观看| 久久精品亚洲av国产电影网| 日韩一区二区三区影片| 亚洲激情五月婷婷啪啪| 久久久久网色| 国产成人精品久久二区二区91 | 国产日韩一区二区三区精品不卡| 高清在线视频一区二区三区| 免费播放大片免费观看视频在线观看| 欧美日韩亚洲高清精品| 国产精品成人在线| 建设人人有责人人尽责人人享有的| 永久免费av网站大全| 丰满少妇做爰视频| 国产成人精品福利久久| 91在线精品国自产拍蜜月| 久久毛片免费看一区二区三区| 日日撸夜夜添| 飞空精品影院首页| 国产极品天堂在线| 色婷婷久久久亚洲欧美| 在线天堂中文资源库| 人人妻人人添人人爽欧美一区卜| 久久国产精品男人的天堂亚洲| 亚洲成国产人片在线观看| 国产爽快片一区二区三区| 国产黄频视频在线观看| 三级国产精品片| 男的添女的下面高潮视频| 嫩草影院入口| 91精品三级在线观看| 国产男人的电影天堂91| 国产成人欧美| 交换朋友夫妻互换小说| 欧美日韩国产mv在线观看视频| 欧美+日韩+精品| 欧美中文综合在线视频| 男女午夜视频在线观看| 最黄视频免费看| 一区二区三区激情视频| 老鸭窝网址在线观看| 欧美 亚洲 国产 日韩一| 90打野战视频偷拍视频| 久久97久久精品| 亚洲精品一二三| 一边亲一边摸免费视频| 丝袜喷水一区| 日韩制服骚丝袜av| 三上悠亚av全集在线观看| 91国产中文字幕| 精品少妇一区二区三区视频日本电影 | 久久久久久久大尺度免费视频| 又大又黄又爽视频免费| 日本欧美视频一区| 成人影院久久| 久久久久久久久久久免费av| 国产精品嫩草影院av在线观看| 国产精品麻豆人妻色哟哟久久| 又粗又硬又长又爽又黄的视频| 1024香蕉在线观看| 午夜福利视频精品| 成人毛片60女人毛片免费| 免费黄色在线免费观看| 99热国产这里只有精品6| 午夜福利视频在线观看免费| 亚洲欧洲精品一区二区精品久久久 | 亚洲国产看品久久| 国产精品一区二区在线不卡| 久久精品人人爽人人爽视色| 久久久久网色| 成人黄色视频免费在线看| 亚洲精品一区蜜桃| 亚洲精品国产一区二区精华液| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 一区二区日韩欧美中文字幕| 最近中文字幕高清免费大全6| 叶爱在线成人免费视频播放| 国产精品免费视频内射| 国产欧美日韩综合在线一区二区| 欧美在线黄色| 在线观看美女被高潮喷水网站| 久久国产精品大桥未久av| 亚洲国产精品成人久久小说| 国产精品一国产av| tube8黄色片| 中文字幕最新亚洲高清| 国产成人精品在线电影| 曰老女人黄片| 欧美人与性动交α欧美精品济南到 | 午夜福利在线免费观看网站| 日韩 亚洲 欧美在线| 欧美日韩视频精品一区| 欧美av亚洲av综合av国产av | 亚洲精品在线美女| 国产国语露脸激情在线看| 日韩视频在线欧美| 我的亚洲天堂| 欧美激情高清一区二区三区 | 人人妻人人爽人人添夜夜欢视频| 亚洲国产最新在线播放| freevideosex欧美| 久久精品国产亚洲av天美| 国产激情久久老熟女| 亚洲,欧美,日韩| 精品久久久精品久久久| 亚洲人成电影观看| 国产亚洲精品第一综合不卡| 中国国产av一级| 国产男女超爽视频在线观看| 亚洲精品第二区| 久久久精品国产亚洲av高清涩受| 人妻 亚洲 视频| 国产1区2区3区精品| 国产女主播在线喷水免费视频网站| 亚洲精品中文字幕在线视频| 中国三级夫妇交换| 国产毛片在线视频| 高清欧美精品videossex| 免费高清在线观看视频在线观看| 亚洲少妇的诱惑av| 久久影院123| 国产av精品麻豆| 韩国av在线不卡| 亚洲av成人精品一二三区| videos熟女内射| 久久久久视频综合| 亚洲三级黄色毛片| 午夜福利,免费看| 亚洲伊人久久精品综合| av在线app专区| 成人国语在线视频| 午夜福利视频在线观看免费| 成人国语在线视频| 天天躁狠狠躁夜夜躁狠狠躁| 成人国语在线视频| 欧美av亚洲av综合av国产av | 国产成人精品无人区| 免费日韩欧美在线观看| 边亲边吃奶的免费视频| 美女午夜性视频免费| 久久久久久伊人网av| 亚洲少妇的诱惑av| 七月丁香在线播放| 精品亚洲成国产av| 亚洲成国产人片在线观看| 亚洲第一av免费看| 国产男女内射视频| 午夜福利一区二区在线看| 在线观看国产h片| 高清视频免费观看一区二区| 啦啦啦中文免费视频观看日本| 成人免费观看视频高清| 超碰成人久久| 欧美亚洲 丝袜 人妻 在线| 亚洲国产欧美日韩在线播放| 免费在线观看黄色视频的| 日日啪夜夜爽| 亚洲av福利一区| 欧美变态另类bdsm刘玥| 9色porny在线观看| 在线天堂中文资源库| 王馨瑶露胸无遮挡在线观看| 免费观看av网站的网址| 曰老女人黄片| 亚洲av国产av综合av卡| 欧美亚洲日本最大视频资源| 久久久精品国产亚洲av高清涩受| 久久久a久久爽久久v久久| 有码 亚洲区| 日韩在线高清观看一区二区三区| 人人妻人人添人人爽欧美一区卜| 国产白丝娇喘喷水9色精品| 曰老女人黄片| 亚洲伊人久久精品综合| 欧美在线黄色| 国产高清国产精品国产三级| 人妻一区二区av| 校园人妻丝袜中文字幕| videosex国产| 欧美人与性动交α欧美软件| 边亲边吃奶的免费视频| 国产日韩欧美视频二区| 婷婷色综合大香蕉| 亚洲精品一区蜜桃| 午夜激情久久久久久久| 亚洲欧美成人精品一区二区| 久久精品久久精品一区二区三区| 欧美日韩综合久久久久久| 久久久久网色| 久久99蜜桃精品久久| 中文字幕制服av| 性少妇av在线| 国产xxxxx性猛交| av一本久久久久| 十八禁网站网址无遮挡| 亚洲欧美一区二区三区久久| 最近最新中文字幕大全免费视频 | av免费在线看不卡| 精品人妻在线不人妻| 久久久久久久精品精品| 国产成人精品在线电影| 春色校园在线视频观看| 亚洲av欧美aⅴ国产| 国产日韩欧美视频二区| 久久久久精品久久久久真实原创| 国产一区有黄有色的免费视频| 一级毛片电影观看| 亚洲久久久国产精品| 久久精品国产综合久久久| 亚洲精品aⅴ在线观看| 免费看av在线观看网站| 99热国产这里只有精品6| 国产免费又黄又爽又色| 在线观看国产h片| 国产成人精品福利久久| 欧美国产精品va在线观看不卡| 日韩av不卡免费在线播放|