• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    密度峰值優(yōu)化初始中心的K-medoids聚類算法*

    2016-11-30 09:43:52謝娟英屈亞楠
    計算機與生活 2016年2期
    關(guān)鍵詞:集上峰值聚類

    謝娟英,屈亞楠

    陜西師范大學(xué) 計算機科學(xué)學(xué)院,西安 710062

    密度峰值優(yōu)化初始中心的K-medoids聚類算法*

    謝娟英+,屈亞楠

    陜西師范大學(xué) 計算機科學(xué)學(xué)院,西安 710062

    針對快速K-medoids聚類算法和方差優(yōu)化初始中心的K-medoids聚類算法存在需要人為給定類簇數(shù),初始聚類中心可能位于同一類簇,或無法完全確定數(shù)據(jù)集初始類簇中心等缺陷,受密度峰值聚類算法啟發(fā),提出了兩種自適應(yīng)確定類簇數(shù)的K-medoids算法。算法采用樣本xi的t最近鄰距離之和倒數(shù)度量其局部密度ρi,并定義樣本xi的新距離δi,構(gòu)造樣本距離相對于樣本密度的決策圖。局部密度較高且相距較遠的樣本位于決策圖的右上角區(qū)域,且遠離數(shù)據(jù)集的大部分樣本。選擇這些樣本作為初始聚類中心,使得初始聚類中心位于不同類簇,并自動得到數(shù)據(jù)集類簇數(shù)。為進一步優(yōu)化聚類結(jié)果,提出采用類內(nèi)距離與類間距離之比作為聚類準(zhǔn)則函數(shù)。在UCI數(shù)據(jù)集和人工模擬數(shù)據(jù)集上進行了實驗測試,并對初始聚類中心、迭代次數(shù)、聚類時間、Rand指數(shù)、Jaccard系數(shù)、Adjusted Rand index和聚類準(zhǔn)確率等經(jīng)典聚類有效性評價指標(biāo)進行了比較,結(jié)果表明提出的K-medoids算法能有效識別數(shù)據(jù)集的真實類簇數(shù)和合理初始類簇中心,減少聚類迭代次數(shù),縮短聚類時間,提高聚類準(zhǔn)確率,并對噪音數(shù)據(jù)具有很好的魯棒性。

    聚類;K-medoids算法;初始聚類中心;密度峰值;準(zhǔn)則函數(shù)

    1 引言

    聚類基于“物以類聚”原理將一組樣本按照相似性歸成若干類簇,使得屬于同一類簇的樣本之間差別盡可能小,而不同類簇的樣本間差別盡可能大。聚類算法包括基于劃分的方法、基于層次的方法、基于密度的方法、基于網(wǎng)格的方法和基于模型的方法[1]。經(jīng)典的劃分式聚類算法包括K-means算法[2]和K-medoids算法[3]。K-medoids算法克服了K-means算法對孤立點敏感的缺陷,PAM(partitioningaroundmedoids)算法[3-4]是最經(jīng)典的K-medoids算法。然而,K-medoids算法同K-means算法一樣,存在著聚類結(jié)果隨初始聚類中心改變而變化的問題。

    快速K-medoids算法[5]從初始聚類中心選擇和聚類中心更迭兩方面對PAM算法進行改進,取得了遠優(yōu)于PAM算法的聚類效果。然而快速K-medoids算法選擇的初始聚類中心可能位于同一類簇。鄰域K-medoids聚類算法[6]提出鄰域概念,使選擇的初始聚類中心盡可能位于不同樣本分布密集區(qū),得到了優(yōu)于快速K-medoids算法的聚類效果,但該算法的鄰域半徑需要人為設(shè)定。引入粒度概念,定義粒子密度,選擇密度較大的前K個粒子的中心樣本作為K-medoids算法的初始聚類中心,得到了更好的初始聚類中心和聚類結(jié)果,且避免了文獻[6]主觀選擇鄰域半徑的缺陷[7-8]。但是基于粒計算的K-medoids算法[7]構(gòu)造樣本去模糊相似矩陣時需要人為給定閾值。粒計算優(yōu)化初始聚類中心的K-medoids算法將粒計算與最大最小距離法結(jié)合[9],且使用所有樣本的相似度均值作為其構(gòu)造去模糊相似度矩陣的閾值,改進了文獻[7]需要人為設(shè)定閾值進行模糊相似矩陣去模糊操作的缺陷。文獻[10]中算法完全依賴數(shù)據(jù)集自身的分布信息,以方差作為樣本分布密集程度度量,分別以樣本間距離均值和相應(yīng)樣本標(biāo)準(zhǔn)差為鄰域半徑,選取方差值最小且其間距離不低于鄰域半徑的樣本為初始聚類中心,使K-medoids算法的初始聚類中心盡可能完全反應(yīng)數(shù)據(jù)集樣本原始分布信息,得到優(yōu)于快速K-medoids和鄰域K-medoids算法的聚類結(jié)果,且不需要任何主觀參數(shù)選擇。但是該算法當(dāng)鄰域半徑過大時,不能得到數(shù)據(jù)集真實類簇數(shù)。Rodriguez等人[11]基于聚類中心比其近鄰樣本密度高且與其他密度較高樣本的距離相對較遠的特點,提出快速搜索密度峰值聚類算法(clustering by fast search and find of density peaks,DPC),以密度峰值點樣本為類簇中心,自動確定類簇個數(shù),并分配樣本到距離最近的密度較高樣本所在類簇實現(xiàn)聚類。但是該算法需要人為給定截斷距離參數(shù),聚類結(jié)果隨截斷距離參數(shù)改變而波動。

    本文針對快速K-medoids算法[5]和方差優(yōu)化初始中心K-medoids算法[10]的潛在缺陷,受文獻[11]啟發(fā),提出了密度峰值優(yōu)化初始中心的K-medoids聚類算法DP_K-medoids(density peak optimized K-medoids)。DP_K-medoids算法使用樣本xi的t近鄰距離之和的倒數(shù)度量樣本xi的局部密度ρi,并定義樣本xi的距離δi為樣本xi到密度大于它的最近樣本xj的距離的指數(shù)函數(shù),構(gòu)造樣本距離相對于樣本密度的決策圖,選擇決策圖中樣本密度ρ和樣本距離δ都較高,且明顯遠離數(shù)據(jù)集大部分樣本點的決策圖右上角的密度峰值點作為初始聚類中心,使得初始聚類中心位于不同類簇,同時自適應(yīng)地確定類簇個數(shù)。

    劃分式聚類算法的思想是使類內(nèi)距離盡可能小,而類間距離盡可能大,因此本文提出以類內(nèi)距離與類間距離之比作為新聚類準(zhǔn)則函數(shù),得到了改進DP_K-medoids算法DPNM_K-medoids(density peak optimized K-medoids with new measure)。其中類內(nèi)距離度量定義為聚類誤差平方和,類間距離定義為各類簇中心樣本距離之和。

    通過UCI數(shù)據(jù)集和人工模擬數(shù)據(jù)集實驗測試,以及對不同聚類有效性指標(biāo)進行比較,結(jié)果表明本文提出的DP_K-medoids算法和DPNM_K-medoids算法均能識別數(shù)據(jù)集的類簇數(shù),并選擇到數(shù)據(jù)集的合理初始聚類中心,有效減少了聚類迭代次數(shù),縮短了聚類時間,提高了聚類準(zhǔn)確率。

    2 基本概念

    設(shè)給定含n個樣本的數(shù)據(jù)集X={x1,x2,…,xn},每個樣本有p維特征,欲將其劃分為k個類簇Cj,j= 1,2,…,k,k<n,第i個樣本的第 j個屬性值為xij。

    3 本文K-medoids算法

    本文提出密度峰值優(yōu)化初始中心的K-medoids聚類算法,主要針對快速K-medoids算法和方差優(yōu)化初始中心的K-medoids算法的缺陷展開,其主要貢獻是樣本xi的局部密度ρi采用其t最近鄰距離之和的倒數(shù)度量,樣本xi的距離δi定義為樣本xi到密度大于它的最近樣本xj的距離的指數(shù)函數(shù),利用樣本距離相對于樣本密度的決策圖,自適應(yīng)地確定數(shù)據(jù)集類簇數(shù)和K-medoids算法的合理初始類簇中心。

    3.1DP_K-medoids算法思想

    針對快速K-medoids算法和方差優(yōu)化初始中心K-medoids算法需要人為設(shè)定類簇數(shù)k,以及前者初始聚類中心可能位于同一類簇,后者初始聚類中心受到鄰域半徑影響,可能不能得到數(shù)據(jù)集真實類簇數(shù)的缺陷,本文DP_K-medoids算法使用樣本的t最近鄰距離之和的倒數(shù)度量樣本xi的局部密度ρi,采用式(6)定義度量樣本xi的距離δi。以ρ為橫軸,δ為縱軸構(gòu)造樣本距離相對于樣本密度的決策圖,選擇決策圖中樣本密度ρ和樣本距離δ都較高,且明顯遠離大部分樣本點的決策圖右上角區(qū)域的密度峰值點為初始類簇中心,密度峰值點個數(shù)即為類簇數(shù),使選擇的初始聚類中心位于不同類簇。

    步驟1初始化。

    (1)根據(jù)式(7)對樣本進行標(biāo)準(zhǔn)化;

    (2)根據(jù)式(5)計算樣本xi的局部密度ρi,根據(jù)式(6)計算樣本xi的距離δi;

    (3)構(gòu)造以ρ為橫軸,δ為縱軸的決策圖,選擇決策圖中樣本密度ρ和樣本距離δ都較高,且明顯遠離大部分樣本的右上角區(qū)域的密度峰值點為初始聚類中心,密度峰值點個數(shù)為類簇數(shù)k。

    步驟2構(gòu)造初始類簇。

    (1)根據(jù)距離最近原則,將其余樣本點分配到最近初始類簇中心,形成初始劃分;

    (2)計算聚類誤差平方和。

    步驟3更新類簇中心并重新分配樣本。

    (1)為每個類簇找一個新中心,使得簇內(nèi)其余樣本到新中心距離之和最小,用新中心替換原中心;

    (2)重新分配每個樣本到最近類簇中心,獲得新聚類結(jié)果,計算聚類誤差平方和;

    (3)若當(dāng)前聚類誤差平方和與前次迭代聚類誤差平方和相同,則算法停止,否則轉(zhuǎn)步驟3。

    3.2DPNM_K-medoids算法思想

    DPNM_K-medoids使用類內(nèi)距離與類間距離之比作為聚類準(zhǔn)則函數(shù),求聚類表達式(4)的最小優(yōu)化。當(dāng)準(zhǔn)則函數(shù)達到最小值時,得到最優(yōu)聚類結(jié)果。DPNM_K-medoids算法的初始聚類中心選擇與DP_K-medoids的初始聚類中心選擇方法相同,二者的區(qū)別在于聚類準(zhǔn)則函數(shù)不同,也就是聚類的停止條件不同。將DP_K-medoids算法的步驟2和步驟3計算聚類誤差平方和修改為計算聚類結(jié)果的新聚類準(zhǔn)則函數(shù)值,同時將步驟3中的第3小步修改為,若當(dāng)前新聚類準(zhǔn)則函數(shù)值不小于前次迭代的新聚類準(zhǔn)則函數(shù)值,則算法停止,否則轉(zhuǎn)步驟3繼續(xù)執(zhí)行,便得到DPNM_K-medoids算法。

    3.3本文K-medoids算法分析

    K-medoids算法的時間復(fù)雜度由初始聚類中心選擇和聚類中心更迭兩部分組成。密度峰值聚類算法的時間復(fù)雜度由初始聚類中心選擇和樣本分配兩部分組成。

    本文DP_K-medoids和DPNM_K-medoids算法,以及密度峰值聚類算法[11]通過計算樣本局部密度和樣本距離選取初始聚類中心。由式(5)樣本局部密度計算和式(6)樣本距離計算以及密度峰值聚類算法描述[11]可見,該3種算法計算一個樣本局部密度與距離的時間復(fù)雜度均為Ο(n),因此本文DP_K-medoids和DPNM_K-medoids算法,以及密度峰值聚類算法[11]計算所有樣本密度的時間復(fù)雜度為Ο(n2)。

    快速K-medoids算法[5]通過計算樣本全局密度選取初始聚類中心。方差優(yōu)化初始中心的MD_K-medoids和SD_K-medoids算法[10]通過計算樣本方差選取初始聚類中心??焖貹-medoids算法[5]和方差優(yōu)化初始中心的K-medoids算法[10]計算一個樣本密度的時間復(fù)雜度分別為Ο(n2)和Ο(n),因此快速K-medoids算法計算所有樣本密度的時間復(fù)雜度為Ο(n3),方差優(yōu)化初始中心的K-medoids算法計算所有樣本方差的時間復(fù)雜度為Ο(n2)。

    本文兩種K-medoids算法、快速K-medoids算法[5]、方差優(yōu)化初始中心的MD_K-medoids和SD_K-medoids算法[10]聚類中心更迭的時間復(fù)雜度均為Ο(nk×iter),其中iter為算法迭代次數(shù),n為樣本數(shù),k為類簇數(shù)。密度峰值聚類算法[11]在獲得初始聚類中心后,將其余樣本分配給密度比它大的最近鄰樣本所在類簇,因此樣本分配時間復(fù)雜度為Ο(n)。

    因此,本文DP_K-medoids和DPNM_K-medoids算法,以及方差優(yōu)化初始中心的MD_K-medoids和SD_K-medoids算法的時間復(fù)雜度為Ο(n2+nk×iter)。快速K-medoids算法的時間復(fù)雜度為Ο(n3+nk× iter)。密度峰值聚類算法的時間復(fù)雜度為Ο(n2+n)。由此可見,盡管上述6種聚類算法的時間復(fù)雜度可統(tǒng)一表達為O(n2)數(shù)量級,但密度峰值聚類算法是該6種聚類算法中速度最快的聚類算法。

    5種K-medoids算法均先獲得k個初始聚類中心,然后根據(jù)距離最近原則將其余樣本分配到最近初始聚類中心,得到初始類簇劃分。初始劃分通常不是最優(yōu)聚類結(jié)果,當(dāng)前聚類準(zhǔn)則函數(shù)值通常不是最小的。此時,進行聚類中心更迭,當(dāng)一次聚類中心更替發(fā)生,并重新分配樣本得到新類簇分布時,計算當(dāng)前分布的聚類準(zhǔn)則函數(shù)值,若比上次迭代的聚類準(zhǔn)則函數(shù)值小,則繼續(xù)迭代。經(jīng)過若干次迭代后,聚類準(zhǔn)則函數(shù)值達到最小,即聚類結(jié)果不再發(fā)生改變,聚類算法收斂到最優(yōu)解。

    4 實驗結(jié)果與分析

    為了測試本文K-medoids算法的性能,分別在UCI數(shù)據(jù)集和兩種人工模擬數(shù)據(jù)集上進行實驗。實驗環(huán)境是Inter?CoreTMi5-3230M CPU@2.60 GHz,4GB內(nèi)存,400GB硬盤,Matlab應(yīng)用軟件。

    算法聚類結(jié)果采用迭代次數(shù)、聚類時間、聚類準(zhǔn)確率,以及外部有效性評價指標(biāo)Rand指數(shù)[12]、Jaccard系數(shù)[13-15]和Adjusted Rand index[16-17]參數(shù)進行評價。

    4.1UCI數(shù)據(jù)集實驗結(jié)果與分析

    本部分實驗采用UCI機器學(xué)習(xí)數(shù)據(jù)庫[18]的iris等13個聚類算法常用數(shù)據(jù)集對本文算法進行測試。所用數(shù)據(jù)集描述見表1,pid是pima indians diabetes數(shù)據(jù)集的簡寫,waveform40是waveform21增加19個噪音屬性得到的數(shù)據(jù)集。本文DP_K-medoids和DPNM_ K-medoids算法分別與快速K-medoids算法[5]、方差優(yōu)化初始中心的MD_K-medoids和SD_K-medoids算法[10],以及密度峰值聚類算法[11]進行比較,以檢驗本文提出的密度峰值優(yōu)化初始中心的K-medoids算法的有效性。

    Table 1 Datasets from UCI machine learning repository表1 UCI數(shù)據(jù)集描述

    由于各數(shù)據(jù)集樣本空間分布不同,本文K-medoids算法選取的樣本最近鄰數(shù)t值也不盡相同,數(shù)據(jù)集haberman、hayes-roth、sonar、waveform21和 waveform40的樣本最近鄰數(shù)t=6,數(shù)據(jù)集pid的樣本最近鄰數(shù)t=7,其余7個UCI數(shù)據(jù)集的樣本最近鄰數(shù)t=8。密度峰值聚類算法的結(jié)果隨截斷距離參數(shù)值的改變而不同,實驗展示的是在各數(shù)據(jù)集多次實驗得到的最好聚類結(jié)果值。本文K-medoids算法在UCI數(shù)據(jù)集上的決策圖及其初始聚類中心如圖1所示,圖中矩形框內(nèi)的加粗黑圓點為所選初始聚類中心。表2是6種聚類算法對表1 UCI數(shù)據(jù)集選擇的初始聚類中心樣本。表3是6種聚類算法對表1 UCI數(shù)據(jù)集10次運行的平均迭代次數(shù)和平均聚類時間。其中,加粗字體表示相應(yīng)的最好實驗結(jié)果。密度峰值聚類算法不存在聚類中心更迭的過程,因而比較算法平均迭代次數(shù)時不將密度峰值聚類算法作為對比算法。圖2展示了6種聚類算法的Rand指數(shù)、Jaccard系數(shù)、AdjustedRandindex參數(shù)和聚類準(zhǔn)確率的平均值比較。

    圖1所示實驗結(jié)果對比表1的數(shù)據(jù)集描述可以看出,本文兩種K-medoids算法能發(fā)現(xiàn)數(shù)據(jù)集的真實類簇數(shù)和相應(yīng)的初始聚類中心。因此,本文兩種K-medoids算法克服了快速K-medoids算法、MD_K-medoids算法和SD_K-medoids算法需要人為給定類簇數(shù),及其選擇初始類簇中心時的缺陷。

    Fig.1 Decision graphs and initial seeds of the proposed K-medoids algorithms on UCI datasets圖1 本文K-medoids算法對各UCI數(shù)據(jù)集的決策圖及其初始聚類中心

    Table 2 Initial seeds selected by six algorithms on UCI datasets表2 6種算法在UCI數(shù)據(jù)集上選擇的初始聚類中心

    Table 3 Iterations and clustering time of six algorithms on UCI datasets表3 UCI數(shù)據(jù)集上6種算法的迭代次數(shù)和聚類時間

    分析表2實驗結(jié)果與各數(shù)據(jù)集真實分布可知,本文DP_K-medoids和DPNM_K-medoids算法除了在haberman、banknote、hayes-roth和sonar數(shù)據(jù)集選擇的初始聚類中心存在位于同一類簇的現(xiàn)象,在其余9個UCI數(shù)據(jù)集上選擇的初始聚類中心均位于不同類簇。快速K-medoids算法在iris、wine、pid和bupa這4個數(shù)據(jù)集選擇的初始聚類中心位于不同類簇,在其余9個數(shù)據(jù)集的初始聚類中心均存在位于同一類簇的現(xiàn)象。MD_K-medoids算法在7個數(shù)據(jù)集選擇的初始聚類中心位于不同類簇,在haberman、pid、banknote、hayes-roth、bupa和heart數(shù)據(jù)集選擇的初始聚類中心位于同一類簇。SD_K-medoids算法在haberman、banknote、hayes-roth、heart和waveform21數(shù)據(jù)集選擇的初始聚類中心位于同一類簇,在其余8個數(shù)據(jù)集選擇的初始聚類中心均位于不同類簇。密度峰值聚類算法在7個數(shù)據(jù)集選擇的初始聚類中心位于不同類簇,在haberman、pid、hayes-roth、bupa、waveform21和waveform40數(shù)據(jù)集選擇的初始聚類中心均存在位于同一類簇的現(xiàn)象。由此可見,本文提出的DP_K-medoids和DPNM_K-medoids算法選擇的初始聚類中心更好,從而可以得到較好的初始類簇劃分,加快算法收斂速度,并增加算法收斂到全局最優(yōu)解的概率。

    從表3所示實驗結(jié)果可以看出,本文提出的兩種K-medoids算法在除數(shù)據(jù)集pid之外的其他12個UCI數(shù)據(jù)集上的迭代次數(shù)和運行時間都優(yōu)于其他3種K-medoids算法??焖貹-medoids算法在pid數(shù)據(jù)集的迭代次數(shù)和聚類時間都最優(yōu)。表3實驗結(jié)果揭示,本文DPNM_K-medoids算法的迭代次數(shù)優(yōu)于DP_K-medoids算法,在迭代次數(shù)相同的情況下,本文DP_K-medoids算法的運行時間更快。分析原因是,本文DPNM_K-medoids算法采用新聚類準(zhǔn)則作為收斂性判斷依據(jù),而DP_K-medoids算法采用聚類誤差平方和作為聚類準(zhǔn)則判斷算法是否收斂。新聚類準(zhǔn)則函數(shù)值需要更多計算時間,因此當(dāng)?shù)螖?shù)相同時,DP_K-medoids算法的運行時間更快。密度峰值聚類算法在13個UCI數(shù)據(jù)集上的聚類時間是6種聚類算法中最短的,與3.3節(jié)的算法分析結(jié)果一致。密度峰值聚類算法聚類時間最短的原因是:密度峰值聚類算法的樣本分配策略是一步分配,使其時間消耗最少。

    Fig.2 Rand index,Jaccard coefficient,Adjusted Rand index and clustering accuracy of six algorithms on UCI datasets圖2 6種算法在UCI數(shù)據(jù)集上的Rand指數(shù)、Jaccard系數(shù)、Adjusted Rand index參數(shù)和聚類準(zhǔn)確率

    從圖2可以看出,本文DP_K-medoids和DPNM_K-medoids聚類算法在soybean-small數(shù)據(jù)集的4個聚類有效性指標(biāo)Rand指數(shù)、Jaccard系數(shù)、Adjusted Rand index參數(shù)和聚類準(zhǔn)確率均不如方差優(yōu)化初始聚類中心的K-medoids算法和密度峰值聚類算法,但是優(yōu)于快速K-medoids算法。圖2顯示,密度峰值聚類算法在banknote數(shù)據(jù)集的4個聚類有效性指標(biāo)均值高于其余5種K-medoids算法,原因是,5種K-medoids算法對該數(shù)據(jù)集初始聚類中心確定后,均根據(jù)距離最近原則,將數(shù)據(jù)劃分為上下分布的兩個類簇;而密度峰值聚類算法根據(jù)密度較大最近鄰樣本所在類簇將數(shù)據(jù)劃分為左右分布的兩個類簇,符合banknote數(shù)據(jù)集的真實類簇分布。從圖2還可以看出,密度峰值聚類算法在數(shù)據(jù)集haberman的Rand指數(shù)、Jaccard系數(shù)和聚類準(zhǔn)確率高于其余5種K-medoids算法,Adjusted Rand index稍低于其余算法。圖2還顯示,SD_K-medoids在waveform40數(shù)據(jù)集的4個聚類有效性指標(biāo)均優(yōu)于其余算法,而密度峰值聚類算法在該數(shù)據(jù)集的各項指標(biāo)值最差。從圖2(a)可見,本文提出的兩種K-medoids算法在其他10個數(shù)據(jù)集的聚類有效性指標(biāo)都優(yōu)于其他3種K-medoids算法。圖2(b)顯示,本文K-medoids算法在8個UCI數(shù)據(jù)集的聚類有效性指標(biāo)Jaccard系數(shù)值優(yōu)于其他3種K-medoids算法;快速K-medoids算法在banknote數(shù)據(jù)集的聚類有效性指標(biāo)Jaccard系數(shù)最好,方差優(yōu)化初始聚類中心的MD_K-medoids算法在hayes-roth和bupa數(shù)據(jù)集的Jaccard系數(shù)聚類指標(biāo)最優(yōu)。圖2(c)關(guān)于各算法聚類結(jié)果的Adjusted Rand index參數(shù)比較揭示,本文算法在10/13個數(shù)據(jù)集的聚類性能最好,方差優(yōu)化初始聚類中心的MD_K-medoids算法在hayes-roth數(shù)據(jù)集的聚類效果最好。圖2(d)的聚類準(zhǔn)確率比較揭示,本文算法在8/13個數(shù)據(jù)集的聚類準(zhǔn)確率高于其他3種K-medoids算法,快速K-medoids算法在hayes-roth數(shù)據(jù)集聚類準(zhǔn)確率最高,方差優(yōu)化初始聚類中心的K-medoids算法在bupa和soybean-small數(shù)據(jù)集聚類準(zhǔn)確率最高。

    綜合以上分析可知,本文提出的DP_K-medoids和DPNM_K-medoids算法能在較短時間內(nèi)實現(xiàn)對數(shù)據(jù)集的有效聚類,各項聚類有效性指標(biāo)比較揭示本文兩種K-medoids算法整體性能更優(yōu)。

    4.2人工數(shù)據(jù)集實驗結(jié)果與分析

    本實驗分為兩部分,分別測試本文提出的兩種K-medoids算法的魯棒性,以及其對經(jīng)典人工數(shù)據(jù)集的聚類性能。

    4.2.1本文K-medoids算法魯棒性測試實驗

    為測試本文算法的魯棒性,隨機生成分別含有0%、5%、10%、15%、20%、25%、30%、35%、40%、45%不同比例噪音的人工模擬數(shù)據(jù)集。每一組數(shù)據(jù)集含有4個類簇,每一類簇有100個二維樣本,這些樣本符合正態(tài)分布。其中第i類簇的均值為 μi,協(xié)方差矩陣為σi,在第一類簇加入噪音數(shù)據(jù),噪音數(shù)據(jù)的協(xié)方差矩陣為σn,數(shù)據(jù)集的生成參數(shù)如表4所示。第一類簇分布在數(shù)據(jù)集的中間,在中間類簇加入噪音數(shù)據(jù),使其與周圍3個類簇的樣本都有部分交疊,以更好地測試本文算法的魯棒性。

    Table 4 Parameters to generate synthetic datasets表4 人工模擬數(shù)據(jù)集的生成參數(shù)

    在10組含有不同比例噪音的人工模擬數(shù)據(jù)集上分別運行本文DP_K-medoids和DPNM_K-medoids算法、快速K-medoids算法、MD_K-medoids算法和SD_K-medoids算法以及密度峰值聚類算法。每個算法各運行10次,實驗結(jié)果為10次運行的平均值。表5為6種算法在各數(shù)據(jù)集選擇的初始聚類中心,表6為6種算法的迭代次數(shù)和聚類時間,圖3為6種算法對各數(shù)據(jù)集聚類結(jié)果的Rand指數(shù)、Jaccard系數(shù)、Adjusted Rand index參數(shù)和聚類準(zhǔn)確率比較。

    從表5中可以看出,本文算法對該10組含噪人工模擬數(shù)據(jù)集確定的類簇數(shù)與數(shù)據(jù)集真實類簇數(shù)一致,且針對各數(shù)據(jù)集選擇的初始聚類中心分布在不同類簇。對該10組含不同比例噪音的人工模擬數(shù)據(jù)集,MD_K-medoids算法選擇的初始聚類中心均位于不同類簇,快速K-medoids算法選擇的初始聚類中心存在位于同一類簇的現(xiàn)象,SD_K-medoids算法在噪音比例為20%和25%的人工模擬數(shù)據(jù)集上選擇的初始聚類中心存在兩個中心位于同一類簇的現(xiàn)象,密度峰值聚類算法在噪音比例為30%時存在兩個類簇中心位于同一類簇的現(xiàn)象。因此,快速K-medoids算法在該10組含噪音人工模擬數(shù)據(jù)集上選擇的初始聚類中心是5種K-medoids算法中最差的,本文K-medoids算法選擇的初始聚類中心最優(yōu),MD_K-medoids算法和SD_K-medoids算法以及密度峰值聚類算法居中。

    Table 5 Initial seeds selected by six algorithms on synthetic datasets with noises表5 6種算法在帶噪音人工模擬數(shù)據(jù)集上選擇的初始聚類中心

    Table 6 Iterations and clustering time of six algorithms on synthetic datasets with noises表6 帶噪音人工模擬數(shù)據(jù)集上6種算法的迭代次數(shù)和聚類時間

    從表6中可以看出,本文DPNM_K-medoids算法在各噪音數(shù)據(jù)集的迭代次數(shù)最少。從聚類時間來看,本文兩種K-medoids算法優(yōu)于其他3種K-medoids算法。本文兩種K-medoids算法相比,在迭代次數(shù)相同的情況下,DP_K-medoids算法聚類時間更短,因為DPNM_K-medoids算法的聚類準(zhǔn)則函數(shù)計算更費時間。密度峰值聚類算法在帶噪音人工模擬數(shù)據(jù)集上的聚類時間是6種算法中最短的,因為密度峰值聚類算法的一步分配策略使其時間消耗最低。

    從圖3的實驗結(jié)果可以看出,本文K-medoids算法在含噪音的數(shù)據(jù)集上明顯優(yōu)于其他4種聚類算法。本文DPNM_K-medoids算法在含有40%噪音的人工模擬數(shù)據(jù)集上的Rand指數(shù)、Jaccard系數(shù)、Adjusted Rand index參數(shù)和聚類準(zhǔn)確率均優(yōu)于其他5種聚類算法。密度峰值聚類算法在不帶噪音的人工模擬數(shù)據(jù)集的各項聚類指標(biāo)最優(yōu),在噪音比例為20%、25%、35%和45%的人工模擬數(shù)據(jù)集的各項指標(biāo)值最差。由此可見,本文新提出的聚類準(zhǔn)則使得基于密度峰值點優(yōu)化初始聚類中心的K-medoids算法的聚類性能更優(yōu),具有更強的魯棒性。

    綜合表5、表6和圖3的實驗結(jié)果分析可知,本文采用密度峰值點優(yōu)化初始聚類中心的K-medoids算法對噪音具有很好的魯棒性,能發(fā)現(xiàn)數(shù)據(jù)集的真實類簇數(shù)和合理初始類簇中心,實現(xiàn)有效聚類。

    Fig.3 Rand index,Jaccard coefficient,Adjusted Rand index and clustering accuracy of six algorithms on synthetic datasets with different ratio noises圖3 6種算法在不同比例噪音人工模擬數(shù)據(jù)集上的Rand指數(shù)、Jaccard系數(shù)、Adjusted Rand index參數(shù)和聚類準(zhǔn)確率

    4.2.2經(jīng)典人工模擬數(shù)據(jù)集實驗結(jié)果分析

    本小節(jié)采用測試聚類算法性能的經(jīng)典人工模擬數(shù)據(jù)集對本文提出的密度峰值優(yōu)化初始聚類中心的K-medoids算法的聚類性能進行測試。實驗使用的經(jīng)典人工模擬數(shù)據(jù)集原始分布如圖4所示。該經(jīng)典人工模擬數(shù)據(jù)集的共同點是:類簇個數(shù)較多,類簇形狀任意。其中S1、S2、S3和S4數(shù)據(jù)集均各含有5 000個樣本,15個類簇,數(shù)據(jù)集樣本重疊程度依次增加[19]。R15數(shù)據(jù)集也含有15個類簇,樣本數(shù)為600[20],D31數(shù)據(jù)集含有31個類簇,樣本數(shù)為3 100[20]。

    Fig.4 Original distribution of classic synthetic datasets圖4 經(jīng)典人工模擬數(shù)據(jù)集的原始分布

    Fig.5 Decision graphs and initial seeds of two K-medoids algorithms on classic synthetic datasets圖5 兩種K-medoids算法對經(jīng)典人工模擬數(shù)據(jù)集的決策圖和初始聚類中心

    在這些經(jīng)典人工模擬數(shù)據(jù)集上分別運行5種K-medoids聚類算法和密度峰值聚類算法,其中本文兩種K-medoids算法的最近鄰樣本數(shù)t取8。本文K-medoids算法確定初始聚類中心的決策圖如圖5所示,其中矩形框內(nèi)的加粗黑圓點為初始類簇中心。MD_K-medoids算法在S1和R15數(shù)據(jù)集僅能確定出4個初始聚類中心,在S2、S3、S4和D31數(shù)據(jù)集僅能確定出5個初始聚類中心。SD_K-medoids算法在R15數(shù)據(jù)集僅能確定出4個初始聚類中心,在S1、S2、S3和D31數(shù)據(jù)集僅能確定出5個初始聚類中心,在S4數(shù)據(jù)集能確定出6個初始聚類中心。原因是:當(dāng)被選為初始聚類中心的樣本鄰域半徑過大時,使得該樣本鄰域內(nèi)包含的樣本數(shù)過多,導(dǎo)致剩余樣本集合為空,因而無法確定足夠的初始聚類中心。因此,下面將僅比較本文DP_K-medoids、DPNM_K-medoids算法、快速K-medoids算法和密度峰值聚類算法在經(jīng)典人工模擬數(shù)據(jù)集上的聚類結(jié)果。4種聚類算法在S1、S2、S3、S4數(shù)據(jù)集的聚類結(jié)果分別如圖6、圖7、圖8和圖9所示。4種聚類算法在R15、D31數(shù)據(jù)集上的聚類結(jié)果分別如圖10和圖11所示。4種聚類算法在經(jīng)典人工模擬數(shù)據(jù)集聚類結(jié)果的Rand指數(shù)、Jaccard系數(shù)、Adjusted Rand index參數(shù)和聚類準(zhǔn)確率比較如圖12所示。

    從圖5的實驗結(jié)果可以看出,本文兩種K-medoids算法在經(jīng)典人工模擬數(shù)據(jù)集上識別的類簇個數(shù)與對應(yīng)數(shù)據(jù)集的真實類簇數(shù)完全一致,而且決策圖中的密度峰值點和非密度峰值點可以清晰分離,因此當(dāng)類簇個數(shù)較多時,采用本文新定義的樣本局部密度ρ和樣本距離δ能準(zhǔn)確選擇密度峰值點,從而準(zhǔn)確地確定初始聚類中心。因此,本文兩種K-medoids算法在經(jīng)典人工模擬數(shù)據(jù)集上能克服快速K-medoids、MD_K-medoids和SD_K-medoids算法需要人為給定初始類簇數(shù),以及MD_K-medoids和SD_K-medoids算法當(dāng)類簇個數(shù)較多時不能完全確定初始聚類中心的缺陷。

    從圖6至圖9的實驗結(jié)果可以看出,本文兩種K-medoids算法和密度峰值聚類算法在S1和S2數(shù)據(jù)集的聚類結(jié)果和原始分布幾乎一樣,只將個別邊界樣本錯分。本文兩種K-medoids算法和密度峰值聚類算法會將S3和S4數(shù)據(jù)集中重疊區(qū)域的樣本誤分,非重疊區(qū)域樣本能夠?qū)崿F(xiàn)正確分類??焖貹-medoids算法對S1、S2、S3和S4數(shù)據(jù)集不僅將重疊區(qū)域樣本分錯,而且將原本屬于兩個類簇但是距離較近的樣本聚為一類,同時還將一個類簇誤分為兩個類簇。由此可見,本文兩種K-medoids算法和密度峰值聚類算法對S1、S2、S3和S4數(shù)據(jù)集的聚類效果優(yōu)于快速K-medoids算法。

    從圖10和圖11實驗結(jié)果可知,本文K-medoids算法和密度峰值聚類算法能將R15數(shù)據(jù)集完全正確分類,將D31數(shù)據(jù)集個別重疊樣本誤分??焖貹-medoids算法將R15數(shù)據(jù)集最中間一個類簇分為兩類;將D31數(shù)據(jù)集最中間那個類簇分為3類,同時快速K-medoids算法將D31數(shù)據(jù)集原本屬于多個類簇,但是距離較近的樣本聚為一個類簇。因此,本文DP_K-medoids和DPNM_K-medoids算法與密度峰值聚類算法對經(jīng)典人工數(shù)據(jù)集R15和D31的聚類效果遠優(yōu)于快速K-medoids算法對該兩數(shù)據(jù)集的聚類效果。

    從圖12實驗結(jié)果可以看出,本文DP_K-meoids和DPNM_K-medoids算法以及密度峰值聚類算法對S1、S2、S3、R15和D31數(shù)據(jù)集聚類結(jié)果的各項聚類有效性指標(biāo)值均比快速K-medoids算法的相應(yīng)指標(biāo)值高很多,說明本文新提出的密度峰值選取初始聚類中心的K-medoids聚類方法能獲得非常好的聚類結(jié)果。本文兩種K-medoids算法、快速K-medoids算法和密度峰值聚類算法在S4數(shù)據(jù)集的各項聚類有效性指標(biāo)值幾乎相等,原因是S4數(shù)據(jù)集各類簇間樣本重疊度非常高,各類簇間樣本不易區(qū)分,這也是本文DP_K-meoids、DPNM_K-medoids算法和密度峰值聚類算法在S4數(shù)據(jù)集各項聚類有效性指標(biāo)值偏低的原因。

    綜合圖5~圖12的實驗結(jié)果分析可知,本文提出的密度峰值優(yōu)化初始聚類中心的DP_K-medoids和DPNM_K-medoids算法以及密度峰值聚類算法能準(zhǔn)確識別S1~S4、R15和D31這些經(jīng)典人工模擬數(shù)據(jù)集的類簇數(shù)和合理初始聚類中心,并對這些數(shù)據(jù)集實現(xiàn)有效聚類。

    5 結(jié)束語

    本文提出了采用密度峰值優(yōu)化初始聚類中心的K-medoids算法,采用樣本t近鄰距離之和的倒數(shù)度量樣本局部密度,并定義了新的樣本距離,構(gòu)造樣本距離相對于樣本密度的決策圖,選擇決策圖中局部密度較高且距離相對較遠的樣本作為初始聚類中心,自適應(yīng)地識別數(shù)據(jù)集的類簇數(shù)和合理初始類簇中心,并提出新的聚類準(zhǔn)則函數(shù)。UCI數(shù)據(jù)集實驗結(jié)果揭示,本文提出的兩種K-medoids聚類算法DP_K-medoids和DPNM_K-medoids在UCI真實數(shù)據(jù)集的各項聚類有效性指標(biāo)優(yōu)于快速K-medoids算法、MD_K-medoids算法、SD_K-medoids算法以及密度峰值聚類算法。人工模擬數(shù)據(jù)集實驗結(jié)果揭示,本文兩種K-medoids算法能準(zhǔn)確發(fā)現(xiàn)數(shù)據(jù)集的真實類簇數(shù)和合理初始類簇中心,實現(xiàn)有效聚類,有效減少聚類迭代次數(shù),縮短聚類時間,加快算法收斂速度,并對噪音有很好的魯棒性。

    Fig.6 Clustering results of four algorithms on S1圖6 4種算法在S1數(shù)據(jù)集上的聚類結(jié)果

    Fig.7 Clustering results of four algorithms on S2圖7 4種算法在S2數(shù)據(jù)集上的聚類結(jié)果

    Fig.8 Clustering results of four algorithms on S3圖8 4種算法在S3數(shù)據(jù)集上的聚類結(jié)果

    Fig.9 Clustering results of four algorithms on S4圖9 4種算法在S4數(shù)據(jù)集上的聚類結(jié)果

    Fig.10 Clustering results of four algorithms on R15圖10 4種算法在R15數(shù)據(jù)集上的聚類結(jié)果

    Fig.11 Clustering results of four algorithms on D31圖11 4種算法在D31數(shù)據(jù)集上的聚類結(jié)果

    Fig.12 Rand index,Jaccard coefficient,Adjusted Rand index and clustering accuracy of four algorithms on classic synthetic datasets圖12 4種算法在經(jīng)典人工模擬數(shù)據(jù)集上的Rand指數(shù)、Jaccard系數(shù)、Adjusted Rand index參數(shù)和聚類準(zhǔn)確率

    References:

    [1]Han Jiawei,Kamber M,Pei Jian.Data mining concepts and techniques[M].Beijing:China Machine Press,2012:398-400.

    [2]MacQueen J.Some methods for classification and analysis of multivariate observation[C]//Proceedings of the 5th Berkeley Symposium on Mathematical Statistics and Probability, Berkeley,Jun 21-Jul 18,1965.Berkeley,USA:University of California Press,1967:281-297.

    [3]Kaufman L,Rousseeuw P J.Finding groups in data:an introduction to cluster analysis[M].New York,USA:John Wiley&Sons,1990:126-163.

    [4]Theodoridis S,Koutroumbas K.Pattern recognition[M].Boston,USA:Academic Press,2009:745-748.

    [5]Park H S,Jun C H.A simple and fast algorithm for k-medoids clustering[J].Expert Systems with Applications,2009,36 (2):3336-3341.

    [6]Xie Juanying,Guo Wenjuan,Xie Weixin,et al.Aneighborhoodbased K-medoids clustering algorithm[J].Journal of Shaanxi Normal University:Natural Science Edition,2012,40(4): 1672-4291.

    [7]Ma Qing,Xie Juanying.New K-medoids clustering algorithm based on granular computing[J].Journal of Computer Applications,2012,32(7):1973-1977.

    [8]Pan Chu,Luo Ke.Improved K-medoids clustering algorithm based on improved granular computing[J].Journal of Com-puterApplications,2014,34(7):1997-2000.

    [9]Xie Juanying,Lu Xiaoxiao,Qu Yanan,et al.K-medoids clustering algorithms with optimized initial seeds by granular computing[J].Journal of Frontiers of Computer Science and Technology,2015,9(5):611-620.

    [10]Xie Juanying,Gao Rui.K-medoids clustering algorithms with optimized initial seeds by variance[J].Journal of Frontiers of Computer Science and Technology,2015,9(8):973-984.

    [11]Rodriguez A,Laio A.Clustering by fast search and find of density peaks[J].Science,2014,344(6191):1492-1496.

    [12]Rand W M.Objective criteria for the evaluation of clustering methods[J].Journal of the American Statistical Association, 1971,66(336):846-850.

    [13]Zhang Weijiao,Liu Chunhuang,Li Fangyu.Method of quality evaluation for clustering[J].Computer Engineering,2005, 31(20):10-12.

    [14]Yu Jian,Cheng Qiansheng.The search scope of optimal cluster number in the fuzzy clustering method[J].Science in China:Series E,2002,32(2):274-280.

    [15]Yang Yan,Jin Fan,Kamel M.Survey of clustering validity evaluation[J].Application Research of Computers,2008,25 (6):1631-1632.

    [16]Hubert L,Arabie P.Comparing partitions[J].Journal of Classification,1985,2(1):193-218.

    [17]Vinh N X,Epps J,Bailey J.Information theoretic measures for clustering comparison:is a correction for chance necessary?[C]//Proceedings of the 26thAnnual International Conference on Machine Learning,Montreal,Canada,Jun 14-18,2009.New York,USA:ACM,2009:1073-1080.

    [18]Frank A,Asuncion A.UCI machine learning repository[EB/ OL].Irvine,USA:University of California,School of Information and Computer Science(2010)[2015-03-19].http:// archive.ics.uci.edu/ml.

    [19]Franti P,Virmajoki O.Iterative shrinking method for clustering problems[J].The Journal of the Pattern Recognition Society,2006,39(5):761-765.

    [20]Veenman C J,Reinders M J T,Backer E.A maximum variance cluster algorithm[J].IEEE Transactions on PatternAnalysis and Machine Intelligence,2002,24(9):1273-1280.

    附中文參考文獻:

    [6]謝娟英,郭文娟,謝維信.基于鄰域的K中心點聚類算法[J].陜西師范大學(xué)學(xué)報:自然科學(xué)版,2012,40(4):1672-4291.

    [7]馬箐,謝娟英.基于粒計算的K-medoids聚類算法[J].計算機應(yīng)用,2012,32(7):1973-1977.

    [8]潘楚,羅可.基于改進粒計算的K-medoids聚類算法[J].計算機應(yīng)用,2014,34(7):1997-2000.

    [9]謝娟英,魯肖肖,屈亞楠,等.粒計算優(yōu)化初始聚類中心的K-medoids聚類算法[J].計算機科學(xué)與探索,2015,9(5): 611-620.

    [10]謝娟英,高瑞.方差優(yōu)化初始中心的K-medoids聚類算法[J].計算機科學(xué)與探索,2015,9(8):973-984.

    [13]張惟皎,劉春煌,李芳玉.聚類質(zhì)量的評價方法[J].計算機工程,2005,31(20):10-12.

    [14]于劍,程乾生.模糊聚類方法中的最佳聚類數(shù)的搜索范圍[J].中國科學(xué):E輯,2002,32(2):274-280.

    [15]楊燕,靳蕃,Kamel M.聚類有效性評價綜述[J].計算機應(yīng)用研究,2008,25(6):1631-1632.

    XIE Juanying was born in 1971.She is an associate professor at School of Computer Science,Shaanxi Normal University,and the senior member of CCF.Her research interests include machine learning and data mining.

    謝娟英(1971—),女,陜西西安人,博士,陜西師范大學(xué)計算機科學(xué)學(xué)院副教授,CCF高級會員,主要研究領(lǐng)域為機器學(xué)習(xí),數(shù)據(jù)挖掘。

    QU Yanan was born in 1991.She is an M.S.candidate at School of Computer Science,Shaanxi Normal University. Her research interest is data mining.

    屈亞楠(1991—),女,陜西渭南人,陜西師范大學(xué)計算機科學(xué)學(xué)院碩士研究生,主要研究領(lǐng)域為數(shù)據(jù)挖掘。

    K-medoids ClusteringAlgorithms with Optimized Initial Seeds by Density Peaks*

    XIE Juanying+,QU Yanan
    School of Computer Science,Shaanxi Normal University,Xi’an 710062,China
    +Corresponding author:E-mail:xiejuany@snnu.edu.cn

    XIE Juanying,QU Yanan.K-medoids clustering algorithms with optimized initial seeds by density peaks. Journal of Frontiers of Computer Science and Technology,2016,10(2):230-247.

    To overcome the deficiencies of the fast K-medoids and the variance based K-medoids clustering algorithms whose number of clusters of a dataset must be provided manually and their initial seeds may locate in a same cluster or cannot be totally found etc.Stimulated by the density peak clustering algorithm,this paper proposes two new K-medoids clustering algorithms.The new algorithms define the local densityρiof pointxias the reciprocal of the sum of the distance betweenxiand itstnearest neighbors,and new distanceδiof pointxiis defined as well,then the decision graph of a point distance relative to its local density is plotted.The points with higher local density and apart from each other located at the upper right corner of the decision graph,which are far away from the rest points in the same dataset,are chosen as the initial seeds for K-medoids,so that the seeds will be in different clusters and the number of clusters of the dataset is automatically determined as the number of initial seeds.In order to get a better clustering,a new measure function is proposed as the ratio of the intra-distance of clusters to the interdistance between clusters.The proposed two new K-medoids algorithms are tested on the real datasets from UCI machine learning repository and on the synthetic datasets.The clustering results of the proposed algorithms are evaluated in terms of the initial seeds selected,iterations,clustering time,Rand index,Jaccard coefficient,Adjusted Randindex and the clustering accuracy.The experimental results demonstrate that the proposed new K-medoids clustering algorithms can recognize the number of clusters of a dataset,find its proper initial seeds,reduce the clustering iterations and the clustering time,improve the clustering accuracy,and are robust to noises as well.

    2015-05,Accepted 2015-07.

    clustering;K-medoids algorithm;initial seeds;density peak;measure function

    10.3778/j.issn.1673-9418.1506072

    *The National Natural Science Foundation of China under Grant No.31372250(國家自然科學(xué)基金);the Key Science and Technology Program of Shaanxi Province under Grant No.2013K12-03-24(陜西省科技攻關(guān)項目);the Fundamental Research Funds for the Central Universities of China under Grant No.GK201503067(中央高校基本科研業(yè)務(wù)費專項資金).

    CNKI網(wǎng)絡(luò)優(yōu)先出版:2015-07-14,http://www.cnki.net/kcms/detail/11.5602.TP.20150714.1609.002.html

    A

    TP181.1

    猜你喜歡
    集上峰值聚類
    “四單”聯(lián)動打造適齡兒童隊前教育峰值體驗
    少先隊活動(2022年9期)2022-11-23 06:55:52
    Cookie-Cutter集上的Gibbs測度
    鏈完備偏序集上廣義向量均衡問題解映射的保序性
    基于DBSACN聚類算法的XML文檔聚類
    電子測試(2017年15期)2017-12-18 07:19:27
    復(fù)扇形指標(biāo)集上的分布混沌
    寬占空比峰值電流型準(zhǔn)PWM/PFM混合控制
    基于峰值反饋的電流型PFM控制方法
    基于改進的遺傳算法的模糊聚類算法
    一種層次初始的聚類個數(shù)自適應(yīng)的聚類方法研究
    自適應(yīng)確定K-means算法的聚類數(shù):以遙感圖像聚類為例
    久久这里只有精品中国| 亚洲精华国产精华液的使用体验 | 亚洲精品在线观看二区| 真实男女啪啪啪动态图| 色播亚洲综合网| 香蕉av资源在线| 日本免费一区二区三区高清不卡| 亚洲不卡免费看| 夜夜爽天天搞| 一a级毛片在线观看| 麻豆成人av在线观看| 中文字幕久久专区| 禁无遮挡网站| 少妇的逼好多水| 人人妻,人人澡人人爽秒播| 亚洲,欧美,日韩| 能在线免费观看的黄片| 亚州av有码| 国产熟女欧美一区二区| av在线老鸭窝| 两人在一起打扑克的视频| av在线天堂中文字幕| 婷婷六月久久综合丁香| 国产高清不卡午夜福利| 久久久久久久亚洲中文字幕| 综合色av麻豆| 91av网一区二区| 一个人看的www免费观看视频| 午夜精品一区二区三区免费看| x7x7x7水蜜桃| 69av精品久久久久久| 五月玫瑰六月丁香| 22中文网久久字幕| 欧美激情国产日韩精品一区| 亚洲欧美精品综合久久99| 91久久精品国产一区二区成人| 精品一区二区免费观看| 熟女电影av网| 麻豆一二三区av精品| 亚洲欧美激情综合另类| 国产伦人伦偷精品视频| 婷婷六月久久综合丁香| 日韩欧美国产一区二区入口| 国产精品一区二区性色av| 人人妻人人看人人澡| 成熟少妇高潮喷水视频| 最近最新免费中文字幕在线| 麻豆国产97在线/欧美| 午夜福利18| 熟女电影av网| 91在线观看av| 一级av片app| 俺也久久电影网| 淫秽高清视频在线观看| 在线观看一区二区三区| 亚洲人成网站在线播放欧美日韩| 久久精品国产亚洲av天美| 国产一区二区激情短视频| 国产男靠女视频免费网站| 内射极品少妇av片p| 亚洲av电影不卡..在线观看| 日韩亚洲欧美综合| 亚洲狠狠婷婷综合久久图片| 婷婷精品国产亚洲av在线| 两性午夜刺激爽爽歪歪视频在线观看| 国产又黄又爽又无遮挡在线| 简卡轻食公司| 国产不卡一卡二| 又紧又爽又黄一区二区| 国产色婷婷99| 蜜桃亚洲精品一区二区三区| 在现免费观看毛片| 一区二区三区四区激情视频 | 99国产精品一区二区蜜桃av| 91久久精品电影网| 少妇高潮的动态图| 亚洲精华国产精华液的使用体验 | 黄色欧美视频在线观看| 一边摸一边抽搐一进一小说| 亚洲狠狠婷婷综合久久图片| 在线免费观看的www视频| 亚洲精品一区av在线观看| 看十八女毛片水多多多| 中文字幕高清在线视频| 老女人水多毛片| 欧美色欧美亚洲另类二区| 桃红色精品国产亚洲av| 男女边吃奶边做爰视频| 亚洲一级一片aⅴ在线观看| 97人妻精品一区二区三区麻豆| 一进一出抽搐gif免费好疼| 在线观看免费视频日本深夜| 女人被狂操c到高潮| 麻豆国产av国片精品| 99国产精品一区二区蜜桃av| 国产免费av片在线观看野外av| 亚洲精品一区av在线观看| 特级一级黄色大片| 人妻丰满熟妇av一区二区三区| 欧美3d第一页| 国产精品久久视频播放| 老熟妇乱子伦视频在线观看| 婷婷精品国产亚洲av| 中文字幕av成人在线电影| 婷婷色综合大香蕉| 亚洲自偷自拍三级| 最近中文字幕高清免费大全6 | 一区二区三区免费毛片| 久久天躁狠狠躁夜夜2o2o| 简卡轻食公司| 亚洲av不卡在线观看| 免费黄网站久久成人精品| 国产又黄又爽又无遮挡在线| 99热精品在线国产| 极品教师在线视频| 一进一出抽搐动态| 亚洲四区av| 毛片一级片免费看久久久久 | 一级a爱片免费观看的视频| 国产一区二区三区av在线 | 美女黄网站色视频| 搡女人真爽免费视频火全软件 | 久久久久久久精品吃奶| 欧美黑人欧美精品刺激| 高清日韩中文字幕在线| 在线观看一区二区三区| 国产精品av视频在线免费观看| 亚洲一区二区三区色噜噜| 成年版毛片免费区| 欧美人与善性xxx| 亚洲三级黄色毛片| 狂野欧美白嫩少妇大欣赏| 午夜福利视频1000在线观看| 夜夜爽天天搞| 91久久精品国产一区二区成人| 国产精品av视频在线免费观看| 久久热精品热| 国产精品98久久久久久宅男小说| 少妇高潮的动态图| 色5月婷婷丁香| 国产成人a区在线观看| 最近最新免费中文字幕在线| 亚洲精品影视一区二区三区av| 舔av片在线| 久久久久久久久久黄片| 草草在线视频免费看| 国产免费av片在线观看野外av| 热99在线观看视频| 久久这里只有精品中国| 午夜影院日韩av| 欧美日韩综合久久久久久 | 国产aⅴ精品一区二区三区波| 非洲黑人性xxxx精品又粗又长| 99在线视频只有这里精品首页| 一边摸一边抽搐一进一小说| 久久6这里有精品| 18禁在线播放成人免费| 久久久久久国产a免费观看| 国产欧美日韩精品亚洲av| 久久婷婷人人爽人人干人人爱| 草草在线视频免费看| 一a级毛片在线观看| 午夜福利欧美成人| 又紧又爽又黄一区二区| 欧美最新免费一区二区三区| 最近最新中文字幕大全电影3| 精品人妻一区二区三区麻豆 | 精品国内亚洲2022精品成人| 色尼玛亚洲综合影院| 在线看三级毛片| 人妻少妇偷人精品九色| 日本欧美国产在线视频| 最后的刺客免费高清国语| а√天堂www在线а√下载| 露出奶头的视频| 亚洲18禁久久av| 亚洲精品色激情综合| 亚洲内射少妇av| 国产精品av视频在线免费观看| 热99在线观看视频| 久久国产乱子免费精品| 男女啪啪激烈高潮av片| 日韩人妻高清精品专区| 欧美+亚洲+日韩+国产| 22中文网久久字幕| 成人毛片a级毛片在线播放| ponron亚洲| 成人毛片a级毛片在线播放| 12—13女人毛片做爰片一| 一区二区三区高清视频在线| av在线蜜桃| 久久精品人妻少妇| 三级男女做爰猛烈吃奶摸视频| 国产精品国产高清国产av| 欧美人与善性xxx| 国产伦在线观看视频一区| 欧美人与善性xxx| h日本视频在线播放| 小说图片视频综合网站| 色综合色国产| 亚洲色图av天堂| 欧美激情久久久久久爽电影| 国产精品1区2区在线观看.| 国产黄片美女视频| 成人永久免费在线观看视频| 亚洲在线自拍视频| 99精品久久久久人妻精品| 午夜精品久久久久久毛片777| 国产真实乱freesex| 午夜精品在线福利| 亚洲最大成人手机在线| 亚洲国产色片| 欧美色欧美亚洲另类二区| 亚洲最大成人手机在线| 久久久久性生活片| 中文字幕精品亚洲无线码一区| 性欧美人与动物交配| 成人亚洲精品av一区二区| 亚洲第一电影网av| 又爽又黄a免费视频| 日韩大尺度精品在线看网址| av专区在线播放| 中文字幕高清在线视频| 国产欧美日韩精品一区二区| 日韩欧美在线乱码| 中文资源天堂在线| 国产伦在线观看视频一区| 伊人久久精品亚洲午夜| 全区人妻精品视频| 国产一区二区在线观看日韩| 免费在线观看影片大全网站| 国产精品乱码一区二三区的特点| 国产午夜福利久久久久久| 久久精品国产自在天天线| 欧美性猛交黑人性爽| 春色校园在线视频观看| 高清在线国产一区| 免费看光身美女| 午夜福利在线在线| 国产一区二区亚洲精品在线观看| 一区二区三区免费毛片| 老司机午夜福利在线观看视频| 国产亚洲精品综合一区在线观看| 黄色日韩在线| 国产精品无大码| 深爱激情五月婷婷| 久久久久性生活片| 99久久精品一区二区三区| 国产精品一区二区性色av| 久久精品国产清高在天天线| 女人十人毛片免费观看3o分钟| 久久精品国产99精品国产亚洲性色| 国产精品人妻久久久久久| 亚洲成人久久性| 天堂√8在线中文| 久久国内精品自在自线图片| 久久久久精品国产欧美久久久| 成人高潮视频无遮挡免费网站| 国产一区二区三区av在线 | 亚洲美女搞黄在线观看 | 内射极品少妇av片p| 精品人妻1区二区| 中文字幕熟女人妻在线| 成人av在线播放网站| 久久国产精品人妻蜜桃| 精品福利观看| 日韩精品有码人妻一区| 嫩草影院新地址| 啦啦啦啦在线视频资源| 欧美日本视频| 午夜福利高清视频| 亚洲国产欧洲综合997久久,| 1024手机看黄色片| 国产高清三级在线| 亚洲人成网站在线播放欧美日韩| 国产蜜桃级精品一区二区三区| 亚洲精华国产精华精| 国产精品久久电影中文字幕| 在线观看舔阴道视频| 1000部很黄的大片| 精品午夜福利在线看| 日本欧美国产在线视频| 老师上课跳d突然被开到最大视频| 麻豆成人av在线观看| 婷婷六月久久综合丁香| 69人妻影院| 无人区码免费观看不卡| 亚洲av成人精品一区久久| 国产精品1区2区在线观看.| 日本色播在线视频| 俄罗斯特黄特色一大片| 国产视频内射| 色5月婷婷丁香| 男人舔奶头视频| 国国产精品蜜臀av免费| 麻豆成人午夜福利视频| 免费观看精品视频网站| 欧美日韩黄片免| 床上黄色一级片| 国产成人av教育| 真人做人爱边吃奶动态| 精品一区二区三区人妻视频| 十八禁网站免费在线| 99精品久久久久人妻精品| 99热这里只有是精品50| 免费观看在线日韩| 十八禁网站免费在线| 禁无遮挡网站| 欧美一级a爱片免费观看看| 夜夜看夜夜爽夜夜摸| 国产精品无大码| 两个人视频免费观看高清| 特大巨黑吊av在线直播| 日本熟妇午夜| avwww免费| 一个人免费在线观看电影| 97超级碰碰碰精品色视频在线观看| 看片在线看免费视频| 国产爱豆传媒在线观看| 嫩草影院精品99| 欧美丝袜亚洲另类 | 国产高清视频在线观看网站| 97热精品久久久久久| 久久精品国产亚洲av天美| 波野结衣二区三区在线| 国产精品久久久久久精品电影| 欧美黑人巨大hd| 国产大屁股一区二区在线视频| 婷婷精品国产亚洲av| 亚洲av.av天堂| 国产成人影院久久av| 男女那种视频在线观看| 永久网站在线| 日韩强制内射视频| 欧美3d第一页| 一个人看视频在线观看www免费| 深夜a级毛片| 亚洲黑人精品在线| 老师上课跳d突然被开到最大视频| 亚洲专区国产一区二区| avwww免费| 久久久久国内视频| 国产精品电影一区二区三区| 国产三级中文精品| 他把我摸到了高潮在线观看| 性色avwww在线观看| 黄色欧美视频在线观看| 一进一出抽搐gif免费好疼| 在线免费观看的www视频| 99在线人妻在线中文字幕| 国产精品98久久久久久宅男小说| 蜜桃久久精品国产亚洲av| 在现免费观看毛片| 可以在线观看的亚洲视频| or卡值多少钱| 桃红色精品国产亚洲av| 人妻久久中文字幕网| 国产乱人伦免费视频| 国产私拍福利视频在线观看| 99久久精品国产国产毛片| 大又大粗又爽又黄少妇毛片口| 国产av在哪里看| 丝袜美腿在线中文| 真实男女啪啪啪动态图| 久久欧美精品欧美久久欧美| 免费大片18禁| 国内久久婷婷六月综合欲色啪| 91久久精品电影网| 日本a在线网址| 亚洲欧美日韩高清在线视频| 2021天堂中文幕一二区在线观| 免费人成视频x8x8入口观看| 国产精品一区二区免费欧美| 身体一侧抽搐| 美女xxoo啪啪120秒动态图| 国产精品久久电影中文字幕| 国产女主播在线喷水免费视频网站 | 人人妻人人澡欧美一区二区| 69人妻影院| 99热这里只有是精品50| 国产精品福利在线免费观看| 成人无遮挡网站| 看片在线看免费视频| 午夜福利18| 一本久久中文字幕| 麻豆一二三区av精品| 国产一区二区在线观看日韩| 禁无遮挡网站| 色5月婷婷丁香| 久久久久久伊人网av| 国产成人av教育| 日本熟妇午夜| 久久久久久久久久黄片| 97超级碰碰碰精品色视频在线观看| 免费无遮挡裸体视频| 美女黄网站色视频| 麻豆精品久久久久久蜜桃| .国产精品久久| 女生性感内裤真人,穿戴方法视频| 91精品国产九色| 免费在线观看影片大全网站| 最近视频中文字幕2019在线8| 在线播放国产精品三级| 欧美一区二区精品小视频在线| 观看美女的网站| 久久久久久久亚洲中文字幕| 亚洲乱码一区二区免费版| 午夜福利在线观看吧| 免费观看精品视频网站| 色噜噜av男人的天堂激情| 午夜精品久久久久久毛片777| 亚洲精华国产精华液的使用体验 | 一级黄片播放器| 欧美日韩瑟瑟在线播放| 亚洲一级一片aⅴ在线观看| 在线免费十八禁| 免费无遮挡裸体视频| 香蕉av资源在线| 国产亚洲欧美98| 亚洲成人免费电影在线观看| 深爱激情五月婷婷| av在线老鸭窝| 午夜影院日韩av| 给我免费播放毛片高清在线观看| 亚洲国产日韩欧美精品在线观看| 香蕉av资源在线| 欧美中文日本在线观看视频| 亚洲第一区二区三区不卡| 亚洲av一区综合| 免费观看精品视频网站| 久久精品久久久久久噜噜老黄 | 久久精品国产99精品国产亚洲性色| 亚洲专区国产一区二区| a级毛片a级免费在线| 国产v大片淫在线免费观看| 特级一级黄色大片| 99久久精品热视频| 中国美女看黄片| 高清在线国产一区| 国产男靠女视频免费网站| 午夜老司机福利剧场| 91在线观看av| 日韩欧美一区二区三区在线观看| 国产亚洲欧美98| 麻豆久久精品国产亚洲av| 性插视频无遮挡在线免费观看| 色5月婷婷丁香| 97超视频在线观看视频| 久久精品国产亚洲网站| 动漫黄色视频在线观看| 亚洲av熟女| 中文字幕高清在线视频| 精品一区二区免费观看| 国产美女午夜福利| 免费av不卡在线播放| 极品教师在线免费播放| 久久久久久久亚洲中文字幕| 色噜噜av男人的天堂激情| 毛片女人毛片| 免费无遮挡裸体视频| 乱人视频在线观看| 啦啦啦韩国在线观看视频| 草草在线视频免费看| 免费在线观看成人毛片| 日本黄色视频三级网站网址| 99九九线精品视频在线观看视频| 黄色欧美视频在线观看| 成人国产麻豆网| 麻豆av噜噜一区二区三区| 久久人人爽人人爽人人片va| 欧美黑人巨大hd| 伦精品一区二区三区| 亚洲熟妇熟女久久| 91麻豆av在线| 久久欧美精品欧美久久欧美| 亚洲av免费高清在线观看| 国产精品一区二区三区四区免费观看 | 国产一级毛片七仙女欲春2| 亚洲精华国产精华精| 免费看光身美女| 色综合站精品国产| 中文字幕人妻熟人妻熟丝袜美| 国产精品福利在线免费观看| av女优亚洲男人天堂| 免费无遮挡裸体视频| 99九九线精品视频在线观看视频| 淫妇啪啪啪对白视频| 麻豆久久精品国产亚洲av| 国产一区二区激情短视频| 亚洲第一电影网av| 午夜福利在线观看免费完整高清在 | 欧美色视频一区免费| 婷婷亚洲欧美| 欧美性感艳星| 美女被艹到高潮喷水动态| 婷婷色综合大香蕉| 国产成人av教育| 国产老妇女一区| av视频在线观看入口| 18+在线观看网站| 亚洲精品色激情综合| 内地一区二区视频在线| 大型黄色视频在线免费观看| 男女视频在线观看网站免费| 国产亚洲精品综合一区在线观看| 欧美精品国产亚洲| 免费看日本二区| 成人av一区二区三区在线看| 在线观看午夜福利视频| 久久人妻av系列| 色在线成人网| 99精品久久久久人妻精品| 亚洲经典国产精华液单| 亚洲精品国产成人久久av| 国产精品一区二区免费欧美| 亚洲av.av天堂| 亚洲图色成人| 3wmmmm亚洲av在线观看| 97热精品久久久久久| 老熟妇乱子伦视频在线观看| 欧美性感艳星| 赤兔流量卡办理| 国产一区二区在线av高清观看| 国产色爽女视频免费观看| 国产高清激情床上av| 99热这里只有精品一区| 日韩欧美精品v在线| 亚洲成a人片在线一区二区| 国产高潮美女av| 好男人在线观看高清免费视频| 免费av不卡在线播放| 国产伦人伦偷精品视频| 两性午夜刺激爽爽歪歪视频在线观看| 精品久久国产蜜桃| 欧美最黄视频在线播放免费| 高清日韩中文字幕在线| 国产在视频线在精品| 国产不卡一卡二| 欧美丝袜亚洲另类 | 国内精品宾馆在线| 又紧又爽又黄一区二区| 色精品久久人妻99蜜桃| 欧美激情久久久久久爽电影| 一夜夜www| 久久久久免费精品人妻一区二区| or卡值多少钱| 真人做人爱边吃奶动态| 国产精品三级大全| 最近最新中文字幕大全电影3| 国产精品,欧美在线| 色av中文字幕| 波多野结衣高清无吗| 国产精品一区www在线观看 | av视频在线观看入口| 国产午夜精品论理片| 女生性感内裤真人,穿戴方法视频| 久久久久精品国产欧美久久久| 一a级毛片在线观看| 成人鲁丝片一二三区免费| 欧美又色又爽又黄视频| 亚洲欧美日韩高清专用| 国产白丝娇喘喷水9色精品| 制服丝袜大香蕉在线| 国产亚洲精品综合一区在线观看| 哪里可以看免费的av片| 国产在线精品亚洲第一网站| 搡女人真爽免费视频火全软件 | 琪琪午夜伦伦电影理论片6080| 中文字幕人妻熟人妻熟丝袜美| 久久这里只有精品中国| 欧美另类亚洲清纯唯美| 亚洲国产精品sss在线观看| 国产中年淑女户外野战色| 精品人妻偷拍中文字幕| 精品人妻熟女av久视频| 久久热精品热| 亚洲国产色片| 一区二区三区激情视频| 毛片女人毛片| 精品一区二区三区视频在线观看免费| 国产成人影院久久av| 国产老妇女一区| 一个人观看的视频www高清免费观看| 波野结衣二区三区在线| 成人午夜高清在线视频| 亚洲,欧美,日韩| 国产黄a三级三级三级人| 日本三级黄在线观看| 国内揄拍国产精品人妻在线| 国产单亲对白刺激| www日本黄色视频网| 校园春色视频在线观看| 日本色播在线视频| 又爽又黄无遮挡网站| 2021天堂中文幕一二区在线观| 欧美3d第一页| 亚洲精品日韩av片在线观看| 欧美日韩亚洲国产一区二区在线观看| 国产av在哪里看| 国产麻豆成人av免费视频| 日本免费一区二区三区高清不卡| 日韩亚洲欧美综合| 又黄又爽又免费观看的视频| 欧美精品国产亚洲| 亚洲三级黄色毛片| 亚洲熟妇熟女久久| 国产探花在线观看一区二区| 国产精品爽爽va在线观看网站| netflix在线观看网站| av在线天堂中文字幕| 亚洲性久久影院| 免费看美女性在线毛片视频| 18+在线观看网站| 国产精品日韩av在线免费观看| av专区在线播放|