• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合局部結(jié)構(gòu)學(xué)習(xí)的大規(guī)模子空間聚類算法

    2024-01-09 03:06:18任奇澤賈洪杰陳東宇
    計算機應(yīng)用 2023年12期
    關(guān)鍵詞:錨點集上特征向量

    任奇澤,賈洪杰,陳東宇

    融合局部結(jié)構(gòu)學(xué)習(xí)的大規(guī)模子空間聚類算法

    任奇澤,賈洪杰*,陳東宇

    (江蘇大學(xué) 計算機科學(xué)與通信工程學(xué)院,江蘇 鎮(zhèn)江 212013)(?通信作者電子郵箱jiahj@ujs.edu.cn)

    常規(guī)的大規(guī)模子空間聚類算法在計算錨點親和矩陣時忽略了數(shù)據(jù)之間普遍存在的局部結(jié)構(gòu),且在計算拉普拉斯(Laplacian)矩陣的近似特征向量時存在較大誤差,不利于數(shù)據(jù)聚類。針對上述問題,提出一種融合局部結(jié)構(gòu)學(xué)習(xí)的大規(guī)模子空間聚類算法(LLSC)。所提算法將局部結(jié)構(gòu)學(xué)習(xí)嵌入錨點親和矩陣的學(xué)習(xí),從而能夠綜合利用全局和局部信息挖掘數(shù)據(jù)的子空間結(jié)構(gòu);此外,受非負矩陣分解(NMF)的啟發(fā),設(shè)計一種迭代優(yōu)化方法以簡化錨點親和矩陣的求解過程;其次,根據(jù)Nystr?m近似方法建立錨點親和矩陣與Laplacian矩陣的數(shù)學(xué)聯(lián)系,并改進Laplacian矩陣特征向量的計算方法以提升聚類性能。相較于LMVSC(Large-scale Multi-View Subspace Clustering)、SLSR(Scalable Least Square Regression)、LSC-k(Landmark-based Spectral Clustering using k-means)和k-FSC(k-Factorization Subspace Clustering),LLSC在4個廣泛使用的大規(guī)模數(shù)據(jù)集上顯示出明顯的提升,其中,在Pokerhand數(shù)據(jù)集上,LLSC的準確率比k-FSC高28.18個百分點,驗證了LLSC的有效性。

    子空間聚類;局部結(jié)構(gòu)學(xué)習(xí);非負矩陣分解;大規(guī)模聚類;低秩近似

    0 引言

    聚類作為一種無監(jiān)督數(shù)據(jù)分析工具,一直是機器學(xué)習(xí)和數(shù)據(jù)挖掘領(lǐng)域中非常重要的研究課題。隨著信息技術(shù)的不斷發(fā)展,高維數(shù)據(jù)無處不在。高維數(shù)據(jù)具有低維的子空間結(jié)構(gòu),因此傳統(tǒng)聚類算法在處理高維數(shù)據(jù)時性能較差,使用相似性度量方法的效率低下,可視化和理解輸入變得困難。為解決上述問題,通常使用降維技術(shù),但該技術(shù)會引發(fā)“維度詛咒”,即隨著維度增加,所有子空間的完整枚舉變得難以處理;其次,數(shù)據(jù)的多個維度之間可能不相關(guān),在有噪聲的數(shù)據(jù)中可能屏蔽現(xiàn)有的聚類。因此,子空間聚類作為一個基本的問題,已經(jīng)成為了熱門話題。近些年,很多經(jīng)典的子空間聚類算法被提出,在這些算法中基于稀疏自表示模型的算法[1]、基于低秩近似的算法[2]都取得了成就。稀疏自表示模型發(fā)現(xiàn)了數(shù)據(jù)的稀疏表示,低秩近似發(fā)現(xiàn)了子空間低秩的結(jié)構(gòu)。這些子空間算法在各大領(lǐng)域中被廣泛應(yīng)用,如信息安全[3]、圖像聚類[4]、大數(shù)據(jù)分析和圖像檢測[5]等。研究人員在這些領(lǐng)域利用子空間聚類實現(xiàn)檢測數(shù)據(jù)、識別圖片和過濾噪聲樣本等功能。

    現(xiàn)有的子空間聚類算法需要精確估計底層子空間的維度,會提高子空間聚類計算復(fù)雜度,多種情況下無法使用;此外,相關(guān)的優(yōu)化問題都是非凸的,良好的初始化對找到最優(yōu)解非常重要[6]?,F(xiàn)有的子空間聚類通常使用譜聚類算法解決問題:通過觀測樣本得到一個相似矩陣,然后對這個矩陣進行譜聚類獲得最終的聚類結(jié)果。譜聚類是一種基于圖劃分的聚類算法,能夠處理具有復(fù)雜非線性結(jié)構(gòu)的真實數(shù)據(jù),在非凸模式和線性不可分簇中表現(xiàn)良好;但是譜聚類需要計算拉普拉斯(Laplacian)矩陣的特征向量,內(nèi)存需求非常大,計算復(fù)雜度也很高,面對大規(guī)模數(shù)據(jù)時適用性受限。He等[7]設(shè)計一種大規(guī)模的譜聚類,通過使用隨機傅里葉特征顯式地表示核空間中的數(shù)據(jù)。Kang等[8]提出一種具有線性復(fù)雜度的大規(guī)模子空間聚類(Large-Scale Subspace Clustering,LS2C)算法處理大規(guī)模數(shù)據(jù)。這些算法通過計算并使用較小的錨點親和矩陣的特征向量逼近Laplacian矩陣的特征向量,不僅規(guī)避了大規(guī)模構(gòu)圖的問題,而且在避免計算復(fù)雜度過高的同時降低了聚類復(fù)雜度。

    雖然現(xiàn)有的LS2C已經(jīng)取得較大成果,但它通常忽略局部相似性的重要性。在變換后的低維空間中,保持高維數(shù)據(jù)的內(nèi)在信息非常重要,使用單一的特征無法完全表示數(shù)據(jù)底層結(jié)構(gòu),而全局和局部的特征都是重要的。局部的特征對近鄰大小敏感,不同子空間交點周邊的點也具有較強的捕獲能力,因為它依賴成對距離的相似矩陣;而且數(shù)據(jù)的局部幾何結(jié)構(gòu)可被視作數(shù)據(jù)相關(guān)的正則化,有助于避免過擬合[9]。

    此外,已有的LS2C算法將錨點親和矩陣優(yōu)化問題視作凸二次規(guī)劃問題,但很多凸二次規(guī)劃求解方法不能始終滿足錨點親和矩陣的非負限制。非負矩陣分解(Nonnegative Matrix Factorization, NMF)中使用的迭代優(yōu)化方法可以幫助解決錨點親和矩陣的優(yōu)化問題[10]。NMF將原始的非負數(shù)據(jù)矩陣分解為非負基矩陣和非負系數(shù)矩陣,使它們的乘積能夠最接近原始非負數(shù)據(jù)矩陣。而非負拉格朗日松弛[11]作為一種受NMF啟發(fā)產(chǎn)生的非負松弛方法,通過將非負約束吸收到目標函數(shù),保證錨點親和矩陣的計算過程是非負的。

    LS2C獲得錨點親和矩陣后,通常需要計算Laplacian矩陣的特征向量,用于聚類分析。已有的LS2C使用學(xué)習(xí)的錨點親和矩陣構(gòu)造了一個矩陣逼近Laplacian矩陣;但該方法無法保證最佳的低秩近似,也難以有效地捕獲子空間結(jié)構(gòu)。Fowlkes等[12]采用Nystr?m近似方法[13],用較小的樣本子矩陣的特征向量逼近較大的原Laplacian矩陣的特征向量。Nystr?m近似方法可以保證最佳的低秩近似,且計算復(fù)雜度較低。

    綜上,已有的LS2C算法的缺點包括:1)只考慮全局性的結(jié)構(gòu),忽略數(shù)據(jù)之間的普遍存在的局部結(jié)構(gòu);2)錨點矩陣的優(yōu)化過于昂貴;3)使用親和矩陣構(gòu)造的一個矩陣逼近Laplacian矩陣,無法保證最佳的低秩近似,難以有效地捕獲子空間結(jié)構(gòu)。針對以上缺點,本文提出一種融合局部結(jié)構(gòu)學(xué)習(xí)的LS2C算法(LS2C algorithm with Local structure learning, LLSC)。

    本文的主要工作如下:

    1)在LS2C的目標函數(shù)中加入局部結(jié)構(gòu)項,使學(xué)習(xí)的錨點親和矩陣能同時保留數(shù)據(jù)的局部特征和全局特征。

    2)利用非負拉格朗日松弛[11]的特性,設(shè)計了一種類似于NMF的迭代更新規(guī)則優(yōu)化目標函數(shù)。利用非負拉格朗日松弛計算錨點親和矩陣,可以更有效地捕獲子空間結(jié)構(gòu),從而反映數(shù)據(jù)之間的真實聯(lián)系。

    3)引入Nystr?m近似方法求解Laplacian矩陣的特征向量,保證最佳的低秩近似,改善聚類結(jié)果。

    4)通過在有挑戰(zhàn)的數(shù)據(jù)集上進行實驗,驗證了所提算法的有效性。

    1 相關(guān)工作

    1.1 LS2C

    子空間聚類因良好的性能而得到了廣泛的研究[14],被眾多的領(lǐng)域關(guān)注。子空間聚類的重點是計算表示系數(shù)矩陣。從高維數(shù)據(jù)中搜尋一個最具有代表性的低維子空間一直都是機器學(xué)習(xí)和計算機視覺領(lǐng)域的一個重要課題。子空間聚類作為一種在不同子空間發(fā)現(xiàn)聚類的技術(shù),在信息采集和數(shù)據(jù)處理技術(shù)中得到廣泛應(yīng)用。隨著大數(shù)據(jù)時代的發(fā)展,研究人員從不同的角度提高聚類精度和降低處理相似性矩陣的時間復(fù)雜度,許多LS2C算法被相繼提出。Li等[15]開發(fā)了一個可學(xué)習(xí)的子空間聚類,有效地解決LS2C問題,該算法選擇學(xué)習(xí)一個參數(shù)函數(shù)將高維子空間劃分為它底層的低維子空間。Huang等[16]提出一種基于大規(guī)模稀疏子空間聚類(Sparse Subspace Clustering, SSC)的聚類算法,在不犧牲聚類精度的前提下高效地處理大規(guī)模高光譜圖像集。Zhou等[17]提出一種基于克羅內(nèi)克(Kronecker)積的子空間聚類算法,根據(jù)塊對角矩陣與其他矩陣的Kronecker乘積仍然是塊對角矩陣的性質(zhì),有效地學(xué)習(xí)由個更小矩陣的Kronecker乘積構(gòu)成的表示矩陣(為簇類個數(shù))。Li等[18]通過考慮一個LS2C問題,即用百萬維度劃分百萬數(shù)據(jù)點,通過劃分大數(shù)據(jù)變量矩陣和正規(guī)化的列和行,設(shè)計一個獨立的分布式并行的框架。Fan等[19]提出一種LS2C的k因子分解子空間聚類算法k-FSC(k-Factorization Subspace Clustering)。k-FSC通過在矩陣分解模型中追求結(jié)構(gòu)化稀疏性,將數(shù)據(jù)直接分解為個,并學(xué)習(xí)親和矩陣和特征值分解,在大數(shù)據(jù)集上具有較低的(線性)時間和空間復(fù)雜度。Feng等[20]提出一種使用SSC挖掘鑒別特征的算法,解決大規(guī)模圖像集分類問題,并使用兩兩線性回歸分類完成最終的分類任務(wù)。Si等[21]提出一種新的具有結(jié)構(gòu)約束的一致且多樣性多視圖子空間聚類算法(Consistent and Diverse Multi-view Subspace Clustering algorithm with structure constraint, CDMSC)。CDMSC首先使用排他性約束項增強不同視圖之間特定表示的多樣性,其次通過將學(xué)習(xí)的子空間自表示分解為聚類質(zhì)心和聚類分配,將聚類結(jié)構(gòu)約束施加到子空間自表達,獲得面向聚類的子空間自我表示。對于無法準確描述樣本之間的線性關(guān)系與難找到理想的相似性矩陣的問題,Xu等[22]提出一種線性感知子空間聚類算法(Linearity-Aware Subspace Clustering algorithm, LASC),通過使用線性感知度量學(xué)習(xí)相似性矩陣。LASC將度量學(xué)習(xí)和子空間聚類結(jié)合到一個聯(lián)合學(xué)習(xí)框架,并用自表達策略獲得初始子空間結(jié)構(gòu)以探索原始數(shù)據(jù)的低維表示。

    1.2 大規(guī)模譜聚類

    譜聚類是最流行的聚類算法之一,具有良好的性能,但計算復(fù)雜度高,對大規(guī)模問題的適用性一直受限。為了將譜聚類算法擴展到大規(guī)模的數(shù)據(jù),近年來,研究者們提出了許多加速譜聚類的算法。Wang等[23]提出結(jié)構(gòu)化低秩表示描述不同數(shù)據(jù)視圖的聚類結(jié)構(gòu),并使用多視圖共識結(jié)構(gòu)提高聚類性能。崔藝馨等[24]提出一種大規(guī)模譜聚類的并行化算法處理大規(guī)模數(shù)據(jù)。Zhu等[25]提出了一種低秩SSC算法,將原始數(shù)據(jù)投影到低維空間,并從新空間動態(tài)學(xué)習(xí)相似矩陣。Hu等[26]設(shè)計一種結(jié)合非負嵌入和譜嵌入的無參數(shù)聚類算法,降低多視圖譜聚類的高計算成本。為了加速大規(guī)模問題的譜聚類,Wang等[27]提出了一種基于隨機游走Laplacian方法的快速譜聚類算法,利用隨機游走Laplacian算子明確地平衡錨的普及性和數(shù)據(jù)點的獨立性。Yang等[28]提出了一種大規(guī)模譜聚類算法,該算法將超圖擴展成一種通用格式,以捕獲復(fù)雜的高階關(guān)系,并解決大規(guī)模超圖譜聚類中的可擴展性問題。Zhao等[29]提出了一種可擴展的多級算法用于大型無向圖的譜嵌入,該算法使用一種接近線性時間的譜圖粗化方法計算一個更小的稀疏圖,同時保留原始圖的關(guān)鍵譜(結(jié)構(gòu))特性。El Hajjar等[30]提出了一種基于一步圖的多視圖聚類算法,使用與數(shù)據(jù)空間關(guān)聯(lián)的圖的聚類標簽相關(guān)性構(gòu)建額外的圖,并對聚類標簽矩陣施加平滑約束,使它與原始數(shù)據(jù)圖和標簽圖更一致。Inoubli等[31]提出了一種基于結(jié)構(gòu)圖聚類的分布式圖聚類算法。針對大規(guī)模多視圖總是遇到高復(fù)雜性和昂貴的時間開銷的問題,Wang等[32]提出一種基于二部圖框架的靈活高效的不完全大規(guī)模多視圖聚類算法,通過將多視圖錨學(xué)習(xí)和不完全二分圖形式轉(zhuǎn)化為一個相互協(xié)調(diào)統(tǒng)一的框架以提高聚類算法的性能。He等[33]提出了一種新的結(jié)構(gòu)化錨推斷圖學(xué)習(xí)算法(Structured Anchor-inferred Graph Learning algorithm, SAGL)。SAGL不僅可以解決具有挑戰(zhàn)性的不完全多視圖譜聚類問題,還能處理任意視圖缺失情況;此外,SAGL能夠捕獲多視圖數(shù)據(jù)之間的隱藏連接信息,從而提高聚類性能。

    1.3 NMF

    NMF作為流行且重要的矩陣分解之一,是一種分析非負數(shù)據(jù)的線性降維技術(shù)。NMF起源于Paatero等[34]提出的正矩陣分解,此后Lee等[35]為NMF開發(fā)了一種簡單有效的乘法更新算法。Lu等[36]提出了一種子空間聚類約束稀疏的NMF算法(Subspace Clustering constrained sparse NMF, SC-NMF)用于高光譜分解,以更準確地提取端元和相應(yīng)的豐度。但是一些NMF算法嚴重受到噪聲數(shù)據(jù)的影響,既無法保留數(shù)據(jù)的幾何信息,也無法保證稀疏部分的表示。針對上述問題,Peng等[37]提出了一種基于相關(guān)熵的雙圖正則化局部坐標約束NMF算法(correntropy based Dual graph regularized NMF algorithm with Local Coordinate constraint, LCDNMF),將數(shù)據(jù)流形和特征流形的幾何信息和局部坐標約束合并到基于相關(guān)熵的目標函數(shù)。Zhang等[38]提出了一種具有自適應(yīng)權(quán)重的多圖正則化半監(jiān)督NMF算法,以捕獲判別數(shù)據(jù)表示。Peng等[39]提出了一種新的NMF算法,以相互增強的方式學(xué)習(xí)局部相似性和聚類。Gillis等[40]設(shè)計了一個基于乘法更新的簡單算法,解決多目標NMF問題。Leplat等[41]針對任意散度的多分辨率NMF問題提出了一種基于乘法更新的新算法。Liu等[42]提出了一種魯棒多視圖NMF聚類算法,可以解決大多數(shù)多視圖聚類難以充分探索鄰域信息等問題。Fan等[43]提出一種水印算法,將經(jīng)過加密的二維碼版權(quán)水印嵌入NMF基矩陣,以提高水印在不可見條件下的抗攻擊能力。

    2 本文算法

    表1是本文所用符號的描述。

    表1 符號及其描述

    2.1 問題定義

    本文將式(1)中的正則化函數(shù)修改為局部學(xué)習(xí)項,引入局部學(xué)習(xí)可以更有效地捕獲子空間結(jié)構(gòu),借用錨的思想,將視為字典。最后利用式(3)學(xué)習(xí)錨點親和矩陣:

    2.2 迭代求解矩陣Z

    通過非負拉格朗日松弛的方法優(yōu)化目標函數(shù)。使用式(5)更新式(4)并求解式(4),元素更新如下:

    更新的正確性和收斂性證明如下。對于式(5)的更新規(guī)則,本文給出了以下兩個主要結(jié)論:1)收斂時,式(5)極限解滿足KKT(Karush-Kuhn-Tucker)條件,KKT條件是非線性規(guī)劃最優(yōu)解的必要條件;2)式(5)迭代收斂。本文將在定理1中正式建立上述結(jié)果。

    定理1 在更新矩陣時,式(5)中更新規(guī)則的極限解滿足KKT條件。

    由式(6)的轉(zhuǎn)換,得到式(7):

    式(10)提供了極限解應(yīng)滿足的不動點條件。可以看到,式(5)的極限解滿足式(9),描述如下:

    式(10)被簡化為式(11):

    2.3 Nystr?m近似

    為了構(gòu)造Laplacian矩陣,需要計算度矩陣,為×的對角矩陣,由式(15)計算:

    算法1是的本文算法LLSC的總體流程。

    算法1 LLSC。

    輸出 聚類結(jié)果。

    3 實驗與結(jié)果分析

    3.1 評估指標

    實驗使用4個聚類指標評估聚類性能,包括聚類準確率(Accuracy,Acc)、歸一化互信息(Normalized Mutual Information, NMI)、純度(Purity)和運行時間(Time)[46]。Acc衡量每個類簇包含來自同一類的數(shù)據(jù)點的準確率;NMI使用信息熵衡量類簇標簽與真實標簽的相符程度;Purity衡量每個簇中的數(shù)據(jù)點來自同一類樣本的程度。以上指標的值越高,表明聚類質(zhì)量越好。運行時間(Time)衡量聚類的速率,運行時間越少,表明聚類效率越高。

    給定一個聚類結(jié)果標簽和對應(yīng)的真實標簽,Acc的計算公式如下:

    NMI的計算方式如下:

    Purity的計算方式如下所示:

    實驗過程中,需要根據(jù)不同的數(shù)據(jù)集調(diào)整聚類算法的參數(shù),以獲得最佳性能。很多LS2C算法的聚類性能取決于采樣的結(jié)果。因此,每次參數(shù)運行20次,每次使用不同的采樣率,并記錄最佳聚類結(jié)果。所有實驗都在一臺4.6 GHz Intel CPU和64 GB RAM、Matlab R2019b的惠普工作站上實現(xiàn)。為了公平比較,實驗過程中嚴格遵循相關(guān)論文中描述的實驗設(shè)置,調(diào)整參數(shù)以獲得最佳性能。

    3.2 小規(guī)模數(shù)據(jù)集上的實驗和結(jié)果分析

    首先在幾個小型數(shù)據(jù)集上進行測試:RCV1_4和Tr45是文本語料庫,USPS是手寫數(shù)據(jù)。表2總結(jié)了這些數(shù)據(jù)集的具體信息。

    表2 小規(guī)模數(shù)據(jù)集的具體信息

    將LLSC與以下聚類算法進行比較:

    1)LMVSC(Large-scale Multi-View Subspace Clustering)[8]。最先進的大規(guī)模聚類算法之一。

    2)SGL (Structured Graph Learning)[47]。一種結(jié)構(gòu)化圖學(xué)習(xí)可伸縮的子空間聚類算法。

    3)FNC (Fast Normalized Cut)[48]。一種直接求解歸一化切割算法,具有較低的計算復(fù)雜度。

    4)KMM (K-Multiple-Means)[49]?;诙謭D劃分的K-多重均值算法。

    LLSC中一共有和兩個參數(shù)。首先,在小規(guī)模數(shù)據(jù)的采樣上,對比算法統(tǒng)一在[100,1 000]搜索最優(yōu)平均解進行對比;但由于Tr45過小,采樣區(qū)間設(shè)置在[100,300]。的參數(shù)在[0.001,100]選擇。

    不同的數(shù)據(jù)集的樣本分布有很大差異,不同算法在不同的數(shù)據(jù)集上運行時間和聚類結(jié)果也有差異。針對小規(guī)模數(shù)據(jù)集進行實驗和結(jié)果分析。表3展示了LLSC和對比算法在不同小規(guī)模數(shù)據(jù)集上的聚類結(jié)果。

    表3 小規(guī)模數(shù)據(jù)集上的聚類結(jié)果

    注:粗體表示最佳性能值。

    在Acc和Time上,LLSC明顯優(yōu)于對比算法。在Tr45數(shù)據(jù)集上,LLSC的NMI和Purity比LMVSC高4.91和11.74個百分點。在Tr45數(shù)據(jù)集上,LLSC的Acc結(jié)果是77.24%,SGL和KMM的Acc分別是74.41%和73.8%,數(shù)值上LLSC的提升較低,這是因為LLSC主要針對大規(guī)模數(shù)據(jù)集,在具有挑戰(zhàn)的小規(guī)模的數(shù)據(jù)集上的聚類優(yōu)勢不明顯。在Acc、Purity和NMI方面,LLSC在USPS數(shù)據(jù)集上都高于對比算法。例如:LLSC在USPS上Acc、NMI和Purity比LMVSC高12.25、14.97和8.04個百分點。此外,LLSC在USPS上的Time也是所有算法中最少的,僅使用了1.00 s。在RCV1_4數(shù)據(jù)集上,LLSC用時0.17 s,遠低于LMVSC的585.00 s。KMM雖然效率高,但是聚類結(jié)果較差。在RCV1_4上,SGL的NMI和Purity最優(yōu),但是它的Time較差,LLSC僅用0.17 s,而SGL則需要98.86 s。因此,在小規(guī)模的數(shù)據(jù)集上LLSC優(yōu)于對比算法。

    3.3 大規(guī)模數(shù)據(jù)集上的實驗和結(jié)果分析

    表4總結(jié)了大規(guī)模數(shù)據(jù)集的具體信息。MNIST和EMNIST(digits)是圖像數(shù)據(jù),Postures是手寫數(shù)據(jù),Pokerhand是牌手數(shù)據(jù)。

    LLSC將與以下大規(guī)模的聚類算法進行比較:

    1)LMVSC[8]。最先進的大規(guī)模聚類算法之一。

    2)LSC-k(Landmark-based Spectral Clustering using k-means)[50]。最傳統(tǒng)的大規(guī)模譜聚類算法之一。

    3)SLSR(Scalable Least Square Regression)[51]。最傳統(tǒng)的大規(guī)模數(shù)據(jù)子空間聚類之一。

    4)k-FSC[19]。一種最新的LS2C。

    在這些數(shù)據(jù)集中,LLSC和對比算法的采樣數(shù)都在[500,3 000]搜索最優(yōu)解。參數(shù)在[0.001,100]選擇最優(yōu)值。

    表4 大規(guī)模數(shù)據(jù)集的具體信息

    表5顯示了各種算法在MNIST和Postures數(shù)據(jù)集上的聚類結(jié)果,由表5可以看出,在Acc和Time上,LLSC在大多數(shù)情況下明顯優(yōu)于其他對比算法。在MNIST上,LLSC用時最少,表明LLSC聚類效率高于其他對比算法,例如:LMVSC用了73.33 s,而LLSC只用了3.71 s。在MNIST上,LLSC的Acc比LMVSC僅提高了2.39個百分點。雖然LSC-k的Acc高于LLSC,但是LLSC的Time遠低于LSC-k。在Postures上,LLSC表現(xiàn)出來的效果要比所對比的算法好許多,在Acc和NMI這兩個指標上,LLSC比LMVSC和SLSR高28.10、31.11個百分點和11.01、3.06個百分點。且LLSC的聚類效率也得到了很大的提升。k-FSC在Postures上的聚類效果次優(yōu)。LLSC的Time也是所對比中最少的。雖然SLSR的Time次優(yōu),但是聚類效果比LLSC和k-FSC差。

    表5 MNIST和Postures數(shù)據(jù)集上的聚類結(jié)果

    表6展示了LLSC和對比算法在Pokerhand和EMNIST(digits)數(shù)據(jù)集上的聚類結(jié)果。此外,LLSC的Acc比LMVSC、LSC-k分別高出36.32、37.68個百分點。在Pokerhand數(shù)據(jù)集上,雖然LLSC和k-FSC的Time相差較小,但LLSC的Acc比k-FSC高28.18個百分點,在Pokerhand上面LLSC具有一個比較好的提升。盡管SLSR在Pokerhand數(shù)據(jù)集上的Time最優(yōu),但是它的Acc并不理想。在EMNIST(digits)上,LMVSC由于采樣數(shù)為300時聚類需要消耗7 867 s,因此放棄對LMVSC采樣1 000,LLSC比LMVSC和SLSR在Acc和NMI上分別高15.26、17.4個百分點和8.7、22.68個百分點。此外,LLSC的Time非常低,如:LLSC用時12.54 s,SLSR用時182.52 s。對比算法都基于錨圖,這些算法在近似求解Laplacian矩陣的特征向量時使用奇異值分解(Singular Value Decomposition, SVD)方法,這種方法計算復(fù)雜度過高,聚類的Time將提高,而LLSC使用的Nystr?m可以解決這個問題。雖然SLSR在Pokerhand上的效率高于LLSC,但是SLSR的聚類精度要遠低于LLSC??梢缘贸鯨LSC在大規(guī)模數(shù)據(jù)集上實現(xiàn)了較好的性能。

    表6 Pokerhand和EMNIST(digits)數(shù)據(jù)集上的聚類結(jié)果

    3.4 參數(shù)分析

    對于無監(jiān)督學(xué)習(xí)算法,確定最優(yōu)參數(shù)仍然是一個有待解決的問題。為了研究參數(shù)對LLSC最終聚類性能的影響,在實驗中記錄了參數(shù)變化帶來的不同聚類結(jié)果,以分析LLSC對不同參數(shù)值的敏感性。從實驗結(jié)果中發(fā)現(xiàn)LLSC對輸入?yún)?shù)非常敏感。圖1為根據(jù)LLSC在不同數(shù)據(jù)集上參數(shù)變化而得到實驗結(jié)果,設(shè)置了不同的橫坐標刻度,能夠更加清晰且直觀地分析參數(shù)變化對算法的影響。如圖1所示,在Tr45數(shù)據(jù)集上,最優(yōu)解的α值為0.8;在MNIST數(shù)據(jù)集上,最優(yōu)解的值為0.5。

    圖1 不同數(shù)據(jù)集上不同錨點數(shù)時α取值在[0.001 100]的實驗結(jié)果

    從圖1可見,在Tr45數(shù)據(jù)集和MNIST數(shù)據(jù)上,當>10時,越大,性能指標的數(shù)值越小且具有明顯的降低趨勢;當取值太小時,得到的結(jié)果略遜于最優(yōu)結(jié)果,這可能是取值太小時迭代的作用變小了。因此,可以得出LLSC不僅對輸入?yún)?shù)敏感,也對數(shù)據(jù)集的復(fù)雜度具有極高的依賴性。在一般情況下,的取值應(yīng)在[0.01,10]區(qū)間,尋找不同的數(shù)據(jù)集的最優(yōu)值。由圖1可知,如果采樣錨點數(shù)太小,則所選樣本可能不具有代表性。理論上,更具代表性的錨定將有助于得到更精確的矩陣近似;但是從圖中分析可知,增加參數(shù)并不一定會獲得代表性的錨點,得到更好聚類結(jié)果。這是因為當增加時,集群性能有時會降低;此外,錨點數(shù)越大,算法所需要的Time會越長,為了使矩陣迭代收斂,迭代過程會消耗大量的時間。

    4 結(jié)語

    本文提出一種融合局部結(jié)構(gòu)學(xué)習(xí)的大規(guī)模子空間聚類算法(LLSC),LLSC可以保持較高的聚類精度和較低的Time。LLSC首先修改LS2C的目標函數(shù),同時學(xué)習(xí)全局和局部結(jié)構(gòu)信息;其次通過非負拉格朗日松弛方法優(yōu)化目標函數(shù),使用迭代的方法得到最優(yōu)的錨點親和矩陣;最后使用Nystr?m近似方法,通過較小的樣本子矩陣的特征向量近似Laplacian矩陣的特征向量。在真實數(shù)據(jù)集上的大量實驗結(jié)果驗證了該算法的有效性和效率。未來,將考慮將LLSC應(yīng)用到圖像檢測、語音識別等領(lǐng)域。

    [1] ELHAMIFAR E, VIDAL R. Sparse subspace clustering: algorithm, theory, and applications[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(11): 2765-2781.

    [2] XUE X, ZHANG X, FENG X, et al. Robust subspace clustering based on non-convex low-rank approximation and adaptive kernel[J]. Information Sciences, 2020, 513: 190-205.

    [3] ZHAO D, LIU J. Study on network security situation awareness based on particle swarm optimization algorithm[J]. Computers and Industrial Engineering, 2018, 125: 764-775.

    [4] LI J, KONG Y, FU Y. Sparse subspace clustering by learning approximation ?0codes[C]// Proceedings of the 31st AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2017: 2189-2195.

    [5] ZHENG M, GAO P, ZHANG R, et al. End-to-end object detection with adaptive clustering transformer[C]// Proceedings of the 2021 British Machine Vision Conference. Durham: BMVA Press, 2021: No.709.

    [6] LIPOR J, HONG D, TAN Y S, et al. Subspace clustering using ensembles of K-subspaces[J]. Information and Inference: A Journal of the IMA, 2021, 10(1): 73-107.

    [7] HE L, RAY N, GUAN Y, et al. Fast large-scale spectral clustering via explicit feature mapping [J]. IEEE Transactions on Cybernetics, 2019, 49(3): 1058-1071.

    [8] KANG Z, ZHOU W, ZHAO Z, et al. Large-scale multi-view subspace clustering in linear time[C]// Proceedings of the 34th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2020: 4412-4419.

    [9] LIU X, WANG L, ZHANG J, et al. Global and local structure preservation for feature selection [J]. IEEE Transactions on Neural Networks and Learning Systems, 2014, 25(6): 1083-1095.

    [10] PENG C, ZHANG Z, KANG Z, et al. Nonnegative matrix factorization with local similarity learning[J]. Information Sciences, 2021, 562:325-346.

    [11] DING C, HE X, SIMON H D. Nonnegative Lagrangian relaxation of K-means and spectral clustering [C]// Proceedings of the 2005 European Conference on Machine Learning, LNCS 3720. Berlin: Springer, 2005: 530-538.

    [12] FOWLKES C, BELONGIE S, CHUNG F, et al. Spectral grouping using the Nystr?m method[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004, 26(2): 214-225.

    [13] FRANGELLA Z, TROPP J A, UDELL M. Randomized Nystr?m preconditioning[J]. SIAM Journal on Matrix Analysis and Applications, 2023, 44(2): 718-752.

    [14] HUANG W, YIN M, LI J, et al. Deep clustering via weighted k-subspace network[J]. IEEE Signal Processing Letters, 2019, 26(11): 1628-1632.

    [15] LI J, LIU H, TAO Z, et al. Learnable subspace clustering [J]. IEEE Transactions on Neural Networks and Learning Systems, 2022, 33(3):1119-1133.

    [16] HUANG S, ZHANG H, PI?URICA A. Sketched sparse subspace clustering for large-scale hyperspectral images [C]// Proceedings of the 2020 IEEE International Conference on Image Processing. Piscataway: IEEE, 2020: 1766-1770.

    [17] ZHOU L, BAI X, ZHANG L, et al. Fast subspace clustering based on the Kronecker product[C]// Proceedings of the 25th International Conference on Pattern Recognition. Piscataway: IEEE, 2021: 1558-1565.

    [18] LI J, TAO Z, WU Y, et al. Large-scale subspace clustering by independent distributed and parallel coding[J]. IEEE Transactions on Cybernetics, 2022, 52(9):9090-9100.

    [19] FAN J. Large-scale subspace clustering via k-factorization [C]// Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery and Data Mining. New York: ACM, 2021: 342-352.

    [20] FENG Z, DONG J, GAO X, et al. Subspace representation based on pairwise linear regression for large scale image set classification[C]// Proceedings of the SPIE 12083, 13th International Conference on Graphics and Image Processing. Bellingham, WA: SPIE, 2022: No.1208318.

    [21] SI X, YIN Q, ZHAO X, et al. Consistent and diverse multi-view subspace clustering with structure constraint[J]. Pattern Recognition, 2022, 121: No.108196.

    [22] XU Y, CHEN S, LI J, et al. Linearity-aware subspace clustering[C]// Proceedings of the 36th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2022: 8770-8778.

    [23] WANG Y, WU L, LIN X, et al. Multiview spectral clustering via structured low-rank matrix factorization [J]. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(10): 4833-4843.

    [24] 崔藝馨,陳曉東.Spark框架優(yōu)化的大規(guī)模譜聚類并行算法[J]. 計算機應(yīng)用, 2020, 40(1): 168-172.(CUI Y X, CHEN X D. Spark framework based optimized large-scale spectral clustering parallel algorithm [J]. Journal of Computer Applications, 2020, 40(1): 168-172.)

    [25] ZHU X, ZHANG S, LI Y, et al. Low-rank sparse subspace for spectral clustering [J]. IEEE Transactions on Knowledge and Data Engineering, 2019, 31(8): 1532-1543.

    [26] HU Z, NIE F, WANG R, et al. Multi-view spectral clustering via integrating nonnegative embedding and spectral embedding [J]. Information Fusion, 2020, 55: 251-259.

    [27] WANG C L, NIE F, WANG R, et al. Revisiting fast spectral clustering with anchor graph [C]// Proceedings of the 2020 IEEE International Conference on Acoustics, Speech, and Signal Processing. Piscataway: IEEE, 2020: 3902-3906.

    [28] YANG Y, DENG S, LU J, et al. GraphLSHC: towards large scale spectral hypergraph clustering [J]. Information Sciences, 2021, 544: 117-134.

    [29] ZHAO Z, ZHANG Y, FENG Z. Towards scalable spectral embedding and data visualization via spectral coarsening[C]// Proceedings of the 14th ACM International Conference on Web Search and Data Mining. New York: ACM, 2021: 869-877.

    [30] EL HAJJAR S, DORNAIKA F, ABDALLAH F. One-step multi-view spectral clustering with cluster label correlation graph [J]. Information Sciences, 2022, 592: 97-111.

    [31] INOUBLI W, ARIDHI S, MEZNI H, et al. A distributed and incremental algorithm for large-scale graph clustering [J]. Future Generation Computer Systems, 2022, 134: 334-347.

    [32] WANG S, LIU X, LIU L, et al. Highly-efficient incomplete large-scale multi-view clustering with consensus bipartite graph [C]// Proceedings of the 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2022: 9766-9775.

    [33] HE W, ZHANG Z, CHEN Y, et al. Structured anchor-inferred graph learning for universal incomplete multi-view clustering [J]. World Wide Web, 2023, 26(1): 375-399.

    [34] PAATERO P, TAPPER U. Positive matrix factorization: a non-negative factor model with optimal utilization of error estimates of data values [J]. Environmetrics, 1994, 5(2): 111-126.

    [35] LEE D D, SEUNG H S. Learning the parts of objects by non-negative matrix factorization[J]. Nature, 1999, 401(6755): 788-791.

    [36] LU X, DONG L, YUAN Y. Subspace clustering constrained sparse NMF for hyperspectral unmixing [J]. IEEE Transactions on Geoscience and Remote Sensing, 2020, 58(5): 3007-3019.

    [37] PENG S, SER W, CHEN B, et al. Robust nonnegative matrix factorization with local coordinate constraint for image clustering[J]. Engineering Applications of Artificial Intelligence, 2020, 88: No.103354.

    [38] ZHANG K, ZHAO X, PENG S. Multiple graph regularized semi-supervised nonnegative matrix factorization with adaptive weights for clustering[J]. Engineering Applications of Artificial Intelligence, 2021, 106: No.104499.

    [39] PENG C, ZHANG Z, KANG Z, et al. Nonnegative matrix factorization with local similarity learning[J]. Information Sciences, 2021, 562: 325-346.

    [40] GILLIS N, HIEN L T K, LEPLAT V, et al. Distributionally robust and multi-objective nonnegative matrix factorization[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 44(8): 4052-4064.

    [41] LEPLAT V, GILLIS N, FéVOTTE C. Multi-resolution beta-divergence NMF for blind spectral unmixing[J]. Signal Processing, 2022, 193: No.108428.

    [42] LIU X, SONG P, SHENG C, et al. Robust multi-view non-negative matrix factorization for clustering [J]. Digital Signal Processing, 2022, 123: No.103447.

    [43] FAN D, ZHANG X, KANG W, et al. Video watermarking algorithm based on NSCT, pseudo 3D-DCT and NMF[J]. Sensors, 2022, 22(13): No.4752.

    [44] KANG Z, PENG C, CHENG Q. Twin learning for similarity and clustering: a unified kernel approach [C]// Proceedings of the 31st AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2017: 2080-2086.

    [45] PENG R, SUN H, ZANETTI L. Partitioning well-clustered graphs: spectral clustering works![C]// Proceedings of the 28th Conference on Learning Theory. New York: JMLR.org, 2015: 1423-1455.

    [46] CHEN X, CAI D. Large scale spectral clustering with landmark-based representation [C]// Proceedings of the 25th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2011: 313-318.

    [47] KANG Z, LIN Z, ZHU X, et al. Structured graph learning for scalable subspace clustering: from single view to multiview [J]. IEEE Transactions on Cybernetics, 2022, 52(9): 8976-8986.

    [48] CHEN X, HONG W, NIE F, et al. Spectral clustering of large-scale data by directly solving normalized cut [C]// Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2018: 1206-1215.

    [49] NIE F, WANG C L, LI X. K-multiple-means: a multiple-means clustering method with specified k clusters [C]// Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2019: 959-967.

    [50] CAI D, CHEN X. Large scale spectral clustering via landmark-based sparse representation[J]. IEEE Transactions on Cybernetics, 2015, 45(8): 1669-1680.

    [51] PENG X, TANG H, ZHANG L, et al. A unified framework for representation-based subspace clustering of out-of-sample and large-scale data [J]. IEEE Transactions on Neural Networks and Learning Systems, 2016, 27(12): 2499-2512.

    Large-scale subspace clustering algorithm with Local structure learning

    REN Qize, JIA Hongjie*, CHEN Dongyu

    (,,212013,)

    The conventional large-scale subspace clustering methods ignore the local structure that prevails among the data when computing the anchor affinity matrix, and have large error when calculating the approximate eigenvectors of the Laplacian matrix, which is not conducive to data clustering. Aiming at the above problems, a Large-scale Subspace Clustering algorithm with Local structure learning (LLSC) was proposed. In the proposed algorithm, the local structure learning was embedded into the learning of anchor affinity matrix, which was able to comprehensively use global and local information to mine the subspace structure of data. In addition, inspired by Nonnegative Matrix Factorization (NMF), an iterative optimization method was designed to simplify the solution of anchor affinity matrix. Then, the mathematical relationship between the anchor affinity matrix and the Laplacian matrix was established according to the Nystr?m approximation method, and the calculation method of the eigenvectors of the Laplacian matrix was modified to improve the clustering performance. Compared to LMVSC (Large-scale Multi-View Subspace Clustering), SLSR (Scalable Least Square Regression), LSC-k (Landmark-based Spectral Clustering using k-means), and k-FSC(k-Factorization Subspace Clustering), LLSC demonstrates significant improvements on four widely used large-scale datasets. Specifically, on the Pokerhand dataset, the accuracy of LLSC is 28.18 points percentage higher than that of k-FSC. These results confirm the effectiveness of LLSC.

    subspace clustering; local structure learning; Nonnegative Matrix Factorization (NMF); large-scale clustering; low-rank approximation

    This work is partially supported by National Natural Science Foundation of China (61906077).

    REN Qize, born in 1997, M. S. candidate. His research interests include large-scale subspace clustering.

    JIA Hongjie, born in 1988, Ph. D., associate professor. His research interests include clustering, machine learning.

    CHEN Dongyu, born in 2000. His research interests include subspace clustering.

    TP181; TP311.13

    A

    1001-9081(2023)12-3747-08

    10.11772/j.issn.1001-9081.2022111750

    2022?11?24;

    2023?04?30;

    2023?05?12。

    國家自然科學(xué)基金資助項目(61906077)。

    任奇澤(1997—),男,河南許昌人,碩士研究生,主要研究方向:大規(guī)模子空間聚類;賈洪杰(1988—),男,河北衡水人,副教授,博士,CCF會員,主要研究方向:聚類、機器學(xué)習(xí);陳東宇(2000—),男,廣西柳州人,主要研究方向:子空間聚類。

    猜你喜歡
    錨點集上特征向量
    二年制職教本科線性代數(shù)課程的幾何化教學(xué)設(shè)計——以特征值和特征向量為例
    克羅內(nèi)克積的特征向量
    基于NR覆蓋的NSA錨點優(yōu)選策略研究
    5G手機無法在室分NSA站點駐留案例分析
    5G NSA錨點的選擇策略
    Cookie-Cutter集上的Gibbs測度
    5G NSA組網(wǎng)下錨點站的選擇策略優(yōu)化
    移動通信(2020年5期)2020-06-08 15:39:51
    鏈完備偏序集上廣義向量均衡問題解映射的保序性
    一類特殊矩陣特征向量的求法
    復(fù)扇形指標集上的分布混沌
    免费在线观看亚洲国产| 精品久久久久久久人妻蜜臀av| 国产毛片a区久久久久| 久久久久亚洲av毛片大全| 99热只有精品国产| 国模一区二区三区四区视频| 欧美黄色淫秽网站| 一本综合久久免费| 亚洲精品一区av在线观看| 五月玫瑰六月丁香| 久久久色成人| 又黄又爽又刺激的免费视频.| 精品福利观看| 精品一区二区免费观看| 久久久久国内视频| 一本精品99久久精品77| 麻豆成人av在线观看| 免费看a级黄色片| 九九热线精品视视频播放| av女优亚洲男人天堂| 午夜久久久久精精品| 网址你懂的国产日韩在线| 亚洲精品成人久久久久久| 99国产综合亚洲精品| 国产中年淑女户外野战色| 日日夜夜操网爽| 身体一侧抽搐| 久久久久久久午夜电影| 国产成人av教育| 欧美最黄视频在线播放免费| 不卡一级毛片| 国产亚洲欧美在线一区二区| 久久久国产成人免费| 亚洲av成人精品一区久久| 黄色日韩在线| 美女高潮喷水抽搐中文字幕| 亚洲性夜色夜夜综合| 亚洲精品影视一区二区三区av| 亚洲美女视频黄频| 亚洲专区中文字幕在线| 久久人人精品亚洲av| 午夜福利欧美成人| 国产精品,欧美在线| 亚洲狠狠婷婷综合久久图片| 亚洲黑人精品在线| 国产美女午夜福利| 国产精品久久电影中文字幕| 亚洲欧美日韩高清在线视频| 亚洲,欧美,日韩| 欧美三级亚洲精品| 午夜福利18| 国产精品免费一区二区三区在线| 久久久久久久午夜电影| 成人无遮挡网站| aaaaa片日本免费| 午夜久久久久精精品| 九九在线视频观看精品| 国产欧美日韩精品亚洲av| 在现免费观看毛片| 日韩欧美在线乱码| 少妇人妻一区二区三区视频| 免费看美女性在线毛片视频| 亚洲成a人片在线一区二区| 韩国av一区二区三区四区| 日本五十路高清| 99国产综合亚洲精品| 又爽又黄无遮挡网站| 亚洲不卡免费看| 亚洲午夜理论影院| 亚洲成人中文字幕在线播放| 欧美成人性av电影在线观看| 老司机福利观看| 国产精品一区二区三区四区免费观看 | 欧美激情在线99| xxxwww97欧美| 国产白丝娇喘喷水9色精品| 热99在线观看视频| 久久久久九九精品影院| a级一级毛片免费在线观看| 国内少妇人妻偷人精品xxx网站| 麻豆国产97在线/欧美| 亚洲av免费高清在线观看| 男人的好看免费观看在线视频| 男人舔女人下体高潮全视频| 久久久久久久久久黄片| 亚洲18禁久久av| 日本免费a在线| 久久午夜亚洲精品久久| 特大巨黑吊av在线直播| 免费观看精品视频网站| 成年版毛片免费区| 国产精品影院久久| 亚洲av.av天堂| 偷拍熟女少妇极品色| 国产欧美日韩一区二区精品| 亚洲男人的天堂狠狠| 日日摸夜夜添夜夜添av毛片 | 日日摸夜夜添夜夜添av毛片 | or卡值多少钱| 老司机午夜福利在线观看视频| 91九色精品人成在线观看| 国语自产精品视频在线第100页| 国产蜜桃级精品一区二区三区| 色哟哟·www| 欧美色视频一区免费| 天堂av国产一区二区熟女人妻| 97碰自拍视频| 老鸭窝网址在线观看| 天堂影院成人在线观看| 亚洲人成网站在线播放欧美日韩| 日本免费一区二区三区高清不卡| 香蕉av资源在线| 日韩av在线大香蕉| 国产又黄又爽又无遮挡在线| 国产一级毛片七仙女欲春2| 色哟哟·www| 桃色一区二区三区在线观看| 国内精品一区二区在线观看| 丰满的人妻完整版| 国产麻豆成人av免费视频| 欧美日韩国产亚洲二区| 亚洲av.av天堂| 亚洲国产色片| 天天一区二区日本电影三级| 九九久久精品国产亚洲av麻豆| 男人的好看免费观看在线视频| 日日夜夜操网爽| 亚洲精品一区av在线观看| 女人十人毛片免费观看3o分钟| 高清在线国产一区| 人人妻,人人澡人人爽秒播| 91在线精品国自产拍蜜月| 日本三级黄在线观看| 中文亚洲av片在线观看爽| АⅤ资源中文在线天堂| 桃色一区二区三区在线观看| 国产黄片美女视频| 亚洲av日韩精品久久久久久密| 国产单亲对白刺激| 我的老师免费观看完整版| or卡值多少钱| 内地一区二区视频在线| 亚洲中文字幕一区二区三区有码在线看| 亚洲国产欧美人成| 亚洲美女搞黄在线观看 | 亚洲av二区三区四区| 亚洲18禁久久av| 在线看三级毛片| 99久久九九国产精品国产免费| 国产私拍福利视频在线观看| av女优亚洲男人天堂| 国产精品亚洲美女久久久| 婷婷六月久久综合丁香| 亚洲欧美激情综合另类| 成人特级黄色片久久久久久久| 色哟哟·www| 蜜桃亚洲精品一区二区三区| 久久国产精品影院| 欧美性感艳星| 国产av一区在线观看免费| 91久久精品电影网| 两个人视频免费观看高清| 中文字幕免费在线视频6| 欧美乱色亚洲激情| 国产亚洲精品综合一区在线观看| 国产大屁股一区二区在线视频| 色5月婷婷丁香| 身体一侧抽搐| 日韩欧美一区二区三区在线观看| 国产精品女同一区二区软件 | 美女cb高潮喷水在线观看| 日本撒尿小便嘘嘘汇集6| 看片在线看免费视频| 人妻夜夜爽99麻豆av| 国产精品一及| 日本 欧美在线| 亚洲美女搞黄在线观看 | 99国产精品一区二区蜜桃av| 日韩亚洲欧美综合| 精品久久久久久久人妻蜜臀av| 午夜福利欧美成人| 亚洲欧美清纯卡通| 国产亚洲精品av在线| 日本 av在线| 一级作爱视频免费观看| 黄色配什么色好看| 一个人免费在线观看的高清视频| 国产成人啪精品午夜网站| 欧美区成人在线视频| 长腿黑丝高跟| 亚洲第一电影网av| 亚洲成人精品中文字幕电影| 国产成人影院久久av| 日韩欧美在线乱码| 国产精品,欧美在线| 悠悠久久av| 亚洲国产精品合色在线| 亚洲乱码一区二区免费版| 中文字幕精品亚洲无线码一区| 欧美黄色片欧美黄色片| 亚洲国产精品成人综合色| 国产视频内射| 免费一级毛片在线播放高清视频| 亚洲中文字幕一区二区三区有码在线看| 波多野结衣高清无吗| 国产国拍精品亚洲av在线观看| 啪啪无遮挡十八禁网站| 免费电影在线观看免费观看| 国产欧美日韩一区二区三| 久久6这里有精品| 国产成人aa在线观看| 欧美高清成人免费视频www| 丁香欧美五月| 久久亚洲真实| 精品午夜福利视频在线观看一区| 欧美日韩国产亚洲二区| 我的老师免费观看完整版| 丰满人妻一区二区三区视频av| 成人午夜高清在线视频| 亚洲精品456在线播放app | 免费人成在线观看视频色| 两个人的视频大全免费| 亚洲七黄色美女视频| 亚洲av一区综合| 欧美黄色淫秽网站| 亚洲最大成人中文| 久久国产乱子免费精品| 69av精品久久久久久| 久久精品国产亚洲av天美| 亚洲第一区二区三区不卡| 免费高清视频大片| 国产亚洲欧美98| 欧美最新免费一区二区三区 | 很黄的视频免费| 欧美最新免费一区二区三区 | 不卡一级毛片| 日韩欧美精品免费久久 | 性色avwww在线观看| 色5月婷婷丁香| 国产精品一区二区三区四区久久| 91麻豆av在线| 欧美又色又爽又黄视频| av女优亚洲男人天堂| 成年版毛片免费区| 日本a在线网址| 99精品在免费线老司机午夜| 婷婷六月久久综合丁香| 91麻豆av在线| 日韩欧美精品v在线| 欧美色视频一区免费| 国产乱人伦免费视频| 一个人免费在线观看的高清视频| 男女那种视频在线观看| 久久精品夜夜夜夜夜久久蜜豆| 久久久国产成人免费| 免费无遮挡裸体视频| 亚洲成av人片免费观看| 精品国内亚洲2022精品成人| 国产主播在线观看一区二区| 老司机午夜十八禁免费视频| 日本黄大片高清| 免费搜索国产男女视频| 国产探花极品一区二区| 亚洲国产欧美人成| 99精品在免费线老司机午夜| 国产欧美日韩一区二区三| 国产精品伦人一区二区| 亚洲乱码一区二区免费版| 美女cb高潮喷水在线观看| 又黄又爽又免费观看的视频| 国产一区二区激情短视频| 精品99又大又爽又粗少妇毛片 | 久久精品夜色国产| 大陆偷拍与自拍| 亚洲av电影在线观看一区二区三区 | 91午夜精品亚洲一区二区三区| 91久久精品国产一区二区成人| 亚洲欧美成人精品一区二区| 最近最新中文字幕免费大全7| 特大巨黑吊av在线直播| 精品人妻视频免费看| 国产美女午夜福利| 国产高潮美女av| 亚洲va在线va天堂va国产| 18+在线观看网站| xxx大片免费视频| 免费观看av网站的网址| 国产伦精品一区二区三区视频9| 欧美激情在线99| 99热这里只有是精品50| 深夜a级毛片| 国产精品熟女久久久久浪| 人妻 亚洲 视频| 国产黄频视频在线观看| 好男人视频免费观看在线| 99热这里只有是精品50| 亚洲精品乱码久久久久久按摩| 少妇裸体淫交视频免费看高清| 99热这里只有精品一区| 国产熟女欧美一区二区| 国产精品久久久久久久电影| 日韩中字成人| 国模一区二区三区四区视频| 国产探花在线观看一区二区| 日本与韩国留学比较| 国产精品久久久久久av不卡| 丝袜喷水一区| 日日啪夜夜撸| 69av精品久久久久久| 一级爰片在线观看| 成人毛片60女人毛片免费| 五月伊人婷婷丁香| 日韩伦理黄色片| 国产黄片视频在线免费观看| 成人无遮挡网站| 欧美成人精品欧美一级黄| 全区人妻精品视频| 狂野欧美激情性xxxx在线观看| 成年av动漫网址| 22中文网久久字幕| 精品少妇久久久久久888优播| 最近最新中文字幕大全电影3| 婷婷色麻豆天堂久久| 色播亚洲综合网| 亚洲三级黄色毛片| av免费观看日本| 精品久久久精品久久久| 美女被艹到高潮喷水动态| 精华霜和精华液先用哪个| 高清欧美精品videossex| 在线播放无遮挡| 国产精品秋霞免费鲁丝片| 国产片特级美女逼逼视频| kizo精华| 亚洲内射少妇av| 久久久久久久亚洲中文字幕| 成人国产av品久久久| 久久精品国产a三级三级三级| 只有这里有精品99| 免费看av在线观看网站| 国产一区二区三区av在线| 建设人人有责人人尽责人人享有的 | 成年版毛片免费区| 精品久久久久久久末码| 国产老妇女一区| 好男人视频免费观看在线| 看十八女毛片水多多多| 亚洲高清免费不卡视频| 色网站视频免费| 在线观看免费高清a一片| 国产欧美亚洲国产| 欧美成人a在线观看| 男人狂女人下面高潮的视频| 精品亚洲乱码少妇综合久久| 99热国产这里只有精品6| 久久久久久久大尺度免费视频| 欧美日韩在线观看h| 51国产日韩欧美| 18禁裸乳无遮挡动漫免费视频 | 大码成人一级视频| 国产淫语在线视频| 亚洲精品国产成人久久av| 人妻 亚洲 视频| 男女边吃奶边做爰视频| 看黄色毛片网站| 精品一区在线观看国产| 日韩成人伦理影院| 精品少妇久久久久久888优播| 搞女人的毛片| 亚洲,一卡二卡三卡| www.av在线官网国产| 国产av国产精品国产| 国产成人freesex在线| 国产综合精华液| 欧美人与善性xxx| 午夜亚洲福利在线播放| 国产精品.久久久| 亚洲国产精品成人综合色| 五月开心婷婷网| 免费观看无遮挡的男女| 欧美日韩综合久久久久久| 一级毛片我不卡| 免费观看av网站的网址| 人妻少妇偷人精品九色| 2022亚洲国产成人精品| 男人狂女人下面高潮的视频| 婷婷色综合大香蕉| 丝瓜视频免费看黄片| 精品国产三级普通话版| 观看免费一级毛片| 一二三四中文在线观看免费高清| 十八禁网站网址无遮挡 | 97在线视频观看| 午夜免费观看性视频| 亚洲欧洲日产国产| 色5月婷婷丁香| 精品少妇久久久久久888优播| 国产一区二区三区综合在线观看 | 亚洲欧美成人综合另类久久久| 久久精品国产亚洲网站| 亚洲自拍偷在线| 国产精品蜜桃在线观看| www.色视频.com| 中文字幕人妻熟人妻熟丝袜美| 一本色道久久久久久精品综合| 一级爰片在线观看| 丰满乱子伦码专区| 特级一级黄色大片| 六月丁香七月| 国产免费福利视频在线观看| 国产精品99久久99久久久不卡 | 免费大片黄手机在线观看| 亚洲色图综合在线观看| 人体艺术视频欧美日本| 国产片特级美女逼逼视频| 日韩av不卡免费在线播放| 日韩一区二区三区影片| 精品国产乱码久久久久久小说| 欧美高清性xxxxhd video| 日日撸夜夜添| 久久精品熟女亚洲av麻豆精品| 精品一区在线观看国产| 成人高潮视频无遮挡免费网站| 成人黄色视频免费在线看| 一级毛片电影观看| 人人妻人人爽人人添夜夜欢视频 | 欧美激情国产日韩精品一区| 日本猛色少妇xxxxx猛交久久| 亚洲久久久久久中文字幕| 亚洲真实伦在线观看| 中文乱码字字幕精品一区二区三区| 国产毛片a区久久久久| 在线观看国产h片| 免费人成在线观看视频色| 久久99热这里只有精品18| 干丝袜人妻中文字幕| 日韩一本色道免费dvd| 在现免费观看毛片| 人体艺术视频欧美日本| 色播亚洲综合网| 亚洲精品国产av蜜桃| 欧美精品人与动牲交sv欧美| 欧美xxxx黑人xx丫x性爽| 国产伦在线观看视频一区| 激情五月婷婷亚洲| 国产淫语在线视频| 日韩三级伦理在线观看| 内地一区二区视频在线| 久久99精品国语久久久| 亚洲四区av| 色网站视频免费| 一个人观看的视频www高清免费观看| 日韩国内少妇激情av| 中国国产av一级| 日韩一区二区视频免费看| 精品久久久久久久久av| tube8黄色片| 久久精品国产自在天天线| av女优亚洲男人天堂| 老司机影院毛片| 亚洲最大成人av| 联通29元200g的流量卡| 少妇人妻 视频| 久久精品国产亚洲网站| 青春草国产在线视频| 高清欧美精品videossex| 成人午夜精彩视频在线观看| 亚洲av福利一区| 中文字幕人妻熟人妻熟丝袜美| 亚洲av成人精品一二三区| 亚洲av不卡在线观看| 亚洲欧美精品专区久久| 亚洲精品第二区| 天天躁夜夜躁狠狠久久av| 日韩成人av中文字幕在线观看| 国产色爽女视频免费观看| 七月丁香在线播放| 精品99又大又爽又粗少妇毛片| av国产免费在线观看| 美女高潮的动态| 婷婷色麻豆天堂久久| 最近2019中文字幕mv第一页| 人妻夜夜爽99麻豆av| 极品少妇高潮喷水抽搐| 寂寞人妻少妇视频99o| 最后的刺客免费高清国语| .国产精品久久| 美女内射精品一级片tv| 国产精品一区二区在线观看99| 性插视频无遮挡在线免费观看| 欧美+日韩+精品| 欧美日韩视频高清一区二区三区二| 国产午夜精品一二区理论片| 国精品久久久久久国模美| 亚洲国产高清在线一区二区三| 少妇 在线观看| 国产一区二区在线观看日韩| 国产免费又黄又爽又色| 日韩成人av中文字幕在线观看| 久久久久久久久久成人| 色哟哟·www| 黄色欧美视频在线观看| 久久久国产一区二区| tube8黄色片| 一本色道久久久久久精品综合| 老女人水多毛片| 日本wwww免费看| 看黄色毛片网站| 国产高清国产精品国产三级 | 99久久精品一区二区三区| 日本午夜av视频| 久久久久久久午夜电影| 少妇猛男粗大的猛烈进出视频 | 亚洲国产欧美在线一区| 尤物成人国产欧美一区二区三区| 亚洲av成人精品一二三区| 精品人妻一区二区三区麻豆| 各种免费的搞黄视频| 久久这里有精品视频免费| 舔av片在线| av在线亚洲专区| 国产黄片视频在线免费观看| 伦理电影大哥的女人| 亚洲综合精品二区| 成年女人看的毛片在线观看| 狂野欧美激情性bbbbbb| 国产高潮美女av| 日本黄色片子视频| 亚洲人成网站在线观看播放| 婷婷色麻豆天堂久久| 一级黄片播放器| 亚洲精品乱码久久久久久按摩| 少妇 在线观看| 久久久亚洲精品成人影院| 激情 狠狠 欧美| 国产精品不卡视频一区二区| 亚洲国产欧美人成| 一级毛片aaaaaa免费看小| 亚洲欧洲日产国产| 欧美变态另类bdsm刘玥| 综合色av麻豆| 亚洲国产精品999| 欧美一区二区亚洲| 国产成人一区二区在线| 久久6这里有精品| 老司机影院毛片| 日本一二三区视频观看| 永久网站在线| 国产老妇伦熟女老妇高清| 男的添女的下面高潮视频| 免费黄色在线免费观看| 日韩一本色道免费dvd| 久久精品夜色国产| 黄片无遮挡物在线观看| 久久精品国产a三级三级三级| 亚洲欧美日韩无卡精品| 国产精品伦人一区二区| 又大又黄又爽视频免费| 中文字幕人妻熟人妻熟丝袜美| 黑人高潮一二区| 精品视频人人做人人爽| 欧美激情在线99| 久久久亚洲精品成人影院| 亚洲精品一区蜜桃| 一级毛片久久久久久久久女| 国内精品美女久久久久久| 成人亚洲精品av一区二区| 欧美国产精品一级二级三级 | 日韩电影二区| 国产精品久久久久久av不卡| 国产极品天堂在线| 久久久久久久亚洲中文字幕| 久久6这里有精品| 男女啪啪激烈高潮av片| av在线app专区| 天美传媒精品一区二区| 人妻夜夜爽99麻豆av| 熟妇人妻不卡中文字幕| 久久久精品欧美日韩精品| 一级毛片黄色毛片免费观看视频| 国产一级毛片在线| 精品久久国产蜜桃| 精品国产一区二区三区久久久樱花 | 成人漫画全彩无遮挡| 搞女人的毛片| 一区二区三区免费毛片| 日本色播在线视频| 国产久久久一区二区三区| 各种免费的搞黄视频| 秋霞伦理黄片| 一本色道久久久久久精品综合| 成人美女网站在线观看视频| 麻豆国产97在线/欧美| 国产伦在线观看视频一区| 午夜福利视频精品| 你懂的网址亚洲精品在线观看| 国产人妻一区二区三区在| 日韩欧美精品v在线| 伊人久久国产一区二区| 九色成人免费人妻av| 麻豆成人av视频| 好男人视频免费观看在线| 永久免费av网站大全| 国产精品一二三区在线看| 成人黄色视频免费在线看| 自拍欧美九色日韩亚洲蝌蚪91 | 欧美老熟妇乱子伦牲交| 一级毛片久久久久久久久女| 国产成人午夜福利电影在线观看| 国产精品久久久久久久电影| 综合色丁香网| 人妻一区二区av| 天天躁日日操中文字幕| 亚洲第一区二区三区不卡| 亚洲精品第二区|