• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    面向無監(jiān)督特征提取的結(jié)構(gòu)化圖嵌入

    2024-12-31 00:00:00袁鳳燕尹學(xué)松王毅剛
    計算機應(yīng)用研究 2024年11期
    關(guān)鍵詞:特征提取

    摘 要:特征提取是處理高維數(shù)據(jù)的最有效工具之一。然而,當(dāng)前特征提取方法存在兩個問題:一是它們沒有同時捕捉數(shù)據(jù)的局部和全局結(jié)構(gòu);二是構(gòu)建的圖脫離數(shù)據(jù)的聚類數(shù),沒有與聚類相同的連通分量。為了解決這些問題,提出了面向無監(jiān)督特征提取的結(jié)構(gòu)化圖嵌入方法(structured graph embedding,SGE)。通過構(gòu)建數(shù)據(jù)表征的K近鄰和使用最小二乘回歸,SGE能夠同時保持數(shù)據(jù)的局部與全局相關(guān)結(jié)構(gòu)。而且,SGE對表征圖的拉普拉斯矩陣施加秩約束,使構(gòu)建的最優(yōu)圖具有與c個聚類一致的c個連通分量,從而能揭示數(shù)據(jù)的聚類結(jié)構(gòu)。因此,SGE能夠找到更有判別力的投影。在多個真實數(shù)據(jù)集的實驗表明,SGE優(yōu)于其他主流降維方法。特別是在PIE數(shù)據(jù)集上,SGE的聚類精度比LRPP_GRR的聚類精度高出18.7%。這些結(jié)果表明SGE方法可以有效降低數(shù)據(jù)維數(shù)。

    關(guān)鍵詞:特征提??;局部結(jié)構(gòu);秩約束;最小二乘回歸

    中圖分類號:TP181 文獻標(biāo)志碼:A 文章編號:1001-3695(2024)11-020-3343-07

    doi:10.19734/j.issn.1001-3695.2024.03.0072

    Structured graph embedding for unsupervised feature extraction

    Yuan Fengyan1, 2, Yin Xuesong2?, Wang Yigang2

    (1.Pinghu School, Zhejiang Open University, Pinghu Zhejiang 314200, China; 2. Dept. of Digital Media Technology, Hangzhou Dianzi University, Hangzhou 310018, China)

    Abstract:Feature extraction is one of the most effective tools for processing high-dimensional data. However, existing feature extraction methods suffer from two problems: they do not capture both the local and global structures of the data simultaneously, the constructed graph is disconnected from the number of data cluster and does not have an exact connected component. To address these issues, this paper proposed a SGE for unsupervised feature extraction. By constructing K-nearest neighbor graph for data representation and using least squares regression, SGE can simultaneously respect the local and global correlation structures of the data. Moreover, by enforcing rank constraints on the Laplacian matrix of the representation, SGE constructed the optimal graph of c connected components with c clusters, and thus revealed the clustering structure of the data. Therefore, the proposed SGE can find more discriminative projections. Experiments on real-world datasets show that SGE outperforms other mainstream dimensionality reduction methods. Especially on the PIE dataset, the clustering accuracy of SGE is 18.7% higher than that of LRPP_GRR. These results indicate that the proposed SGE algorithm can effectively reduce the dimensionality of the data.

    Key words:feature extraction; local structure; rank constraint; least squares regression

    0 引言

    由于信息技術(shù)和硬件設(shè)備的快速發(fā)展,人們獲取的數(shù)據(jù)大多數(shù)都是高維數(shù)據(jù)。在計算機視覺、圖像處理、數(shù)據(jù)挖掘和機器學(xué)習(xí)等眾多應(yīng)用領(lǐng)域,處理這樣的高維數(shù)據(jù)是一個挑戰(zhàn)性的問題。事實上,高維數(shù)據(jù)的特征一般包括一些噪聲和冗余特征。這些噪聲和冗余特征不僅會影響算法的性能,還極大地增加了算法的計算量。維數(shù)約簡,也稱降維(dimensionality reduction,DR),通過有效地減少高維數(shù)據(jù)的特征數(shù),將高維數(shù)據(jù)變成低維數(shù)據(jù),是緩解這一問題的有效工具[1。因此,它受到越來越多的研究人員關(guān)注。在大多數(shù)情況下,通過降維方法從原始特征空間中選擇或提取一小部分特征得到低維數(shù)據(jù),達到降維目的。顯然,有效的降維方法獲得的特征既可以保留有價值的信息,又可以丟棄噪聲和冗余信息2

    根據(jù)獲取數(shù)據(jù)特征的方式不同,降維方法可以分成特征選擇和特征提取。特征選擇是從原高維特征集中選擇一小部分特征子集;特征提取是從原高維特征集中生成新的一小部分特征子集。與前者相比,特征提取的優(yōu)勢在于能夠得到更有判別力的特征[3,4。根據(jù)是否使用數(shù)據(jù)的類信息,特征提取方法可以分成監(jiān)督5、半監(jiān)督6和無監(jiān)督7,8三類方法。由于在實際應(yīng)用中獲取類標(biāo)號費時費力,但獲取大量的無標(biāo)號數(shù)據(jù)非常容易,所以無監(jiān)督降維方法比另外兩類有更廣泛的應(yīng)用。無監(jiān)督降維方法需要構(gòu)建一個無向圖來揭示原高維空間中樣本之間的內(nèi)在幾何結(jié)構(gòu),借助于內(nèi)在的數(shù)據(jù)結(jié)構(gòu)尋找投影方向。顯然,構(gòu)建一個好的圖能很好地揭示數(shù)據(jù)之間的內(nèi)在幾何關(guān)系,從而可以獲取具有判別力的投影。三種假設(shè)通常用于無監(jiān)督降維方法構(gòu)圖中,它們分別是基于距離假設(shè)、基于稀疏假設(shè)和基于低秩假設(shè)。

    基于距離假設(shè)方法認為在投影空間里有更小距離的樣本屬于同一個聚類。這類方法中代表的算法有局部保持投影(LPP)[9、局部線性嵌入(LLE)[10、近鄰保持嵌入(NPE)[11、魯棒非負矩陣分解12、魯棒潛在非負矩陣分解13和魯棒結(jié)構(gòu)正則化非負矩陣分解[14等。LLE為每個樣本找到k個最近鄰居,然后計算這k個最近近鄰的線性表示系數(shù),通過獲取的樣本之間的重構(gòu)關(guān)系來尋找投影方向;其他方法通過構(gòu)建k近鄰圖來表達數(shù)據(jù)之間內(nèi)在結(jié)構(gòu)學(xué)習(xí)投影方向。基于稀疏假設(shè)方法通過L1范數(shù)稀疏性約束為每個樣本找到自適應(yīng)的、靈活的選擇少量樣本的線性表示。稀疏保持投影(SPP)[15和低秩稀疏保持嵌入16是這類構(gòu)圖的代表算法。基于低秩假設(shè)的方法使用核范數(shù)獲取數(shù)據(jù)之間親和關(guān)系,并使用學(xué)到的親和關(guān)系構(gòu)建投影矩陣。與前兩種假設(shè)相比,這類構(gòu)圖方法是在低秩表征子空間分割方法[17的基礎(chǔ)上拓展得到,因而研究成果較新。低秩保持投影18、低秩保持嵌入19、低秩嵌入20、低秩自適應(yīng)圖嵌入21、魯棒低秩表征22與低秩局部保持投影23等方法借助于求解系數(shù)矩陣的核范數(shù),得到低秩表征并被用于學(xué)習(xí)投影方向。

    上述這些方法雖然在不同程度上提升了經(jīng)典降維算法的性能,但它們?nèi)匀幻媾R如下兩個問題。一是它們沒有同時保持數(shù)據(jù)的局部和全局結(jié)構(gòu)?;诰嚯x假設(shè)的方法使用K近鄰圖來刻畫數(shù)據(jù)的局部結(jié)構(gòu),忽略了全局結(jié)構(gòu),或者使用最大方差建模全局結(jié)構(gòu),忽略了局部結(jié)構(gòu)。由于稀疏的特性,基于稀疏假設(shè)的方法只能找到與目標(biāo)樣本最近樣本來線性表達,因此這類方法事實上并不能很好地保持數(shù)據(jù)的內(nèi)在結(jié)構(gòu)?;诘椭燃僭O(shè)的方法使用核范數(shù)替代矩陣的最低秩解,以此保持數(shù)據(jù)的全局結(jié)構(gòu)。然而,核范數(shù)只是求解矩陣的低秩解一個替代,并不能很好地揭示數(shù)據(jù)的全局結(jié)構(gòu)[24,25。二是上述方法構(gòu)建的圖脫離數(shù)據(jù)的聚類數(shù),沒有與聚類一致的連通分量,因而不利于后續(xù)的聚類工作。

    為了更具體、更清晰地界定問題和闡述動機,以醫(yī)院采集的乳腺癌數(shù)據(jù)集BreaKHis為例,該數(shù)據(jù)集有2 500個3 072維CT圖像組成,包括陰性和陽性兩類。圖1顯示四個代表性方法將BreaKHis數(shù)據(jù)集投影到二維平面的結(jié)果。從圖1可以看到,主成分分析方法(PCA)[7只關(guān)注全局結(jié)構(gòu),忽略了局部結(jié)構(gòu),因此,它在投影BreaKHis數(shù)據(jù)集時,將兩類圖像投影到一起,這樣后續(xù)分類或聚類工作很難能將它們分開,因此得到的聚類精度較低;低秩自適應(yīng)圖嵌入方法(LRAGE)[21使用核范數(shù)替代矩陣的最低秩解,以此保持數(shù)據(jù)的全局結(jié)構(gòu),但它不能很好地揭示數(shù)據(jù)的全局結(jié)構(gòu),在它的投影中,兩類中的很多樣本重疊在一起;圖優(yōu)化的無監(jiān)督投影(GOSUP)[4考慮了數(shù)據(jù)的局部結(jié)構(gòu)和投影矩陣的稀疏性,但忽略了全局結(jié)構(gòu),因而將兩類中很多圖像投影在一起,很難分開,而且這些方法構(gòu)圖時沒有考慮數(shù)據(jù)的聚類數(shù);文中提出的結(jié)構(gòu)化圖嵌入方法(SGE)兼顧全局和局部結(jié)構(gòu),又在構(gòu)圖時使用了數(shù)據(jù)的聚類數(shù),因此將BreaKHis數(shù)據(jù)集投影到二維平面時,如圖1(d)所示,兩類樣本被很好地分開。

    為了解決上述兩個問題,提出面向無監(jiān)督特征提取的結(jié)構(gòu)化圖嵌入方法。SGE通過使用表征的K近鄰和最小二乘回歸同時捕捉數(shù)據(jù)的局部與全局相關(guān)結(jié)構(gòu),并對表征圖的拉普拉斯矩陣施加秩約束,以強制學(xué)習(xí)的圖具有精確的c個連通分量,從而找到到具有判別力的投影方向。具體地說,所提出結(jié)構(gòu)化圖嵌入的貢獻如下:

    a)SGE構(gòu)建一個K近鄰圖建模數(shù)據(jù)的流形結(jié)構(gòu),這使得該模型能夠選擇少數(shù)最近鄰樣本進行表示;另外,使用最小二乘回歸約束揭示全局相關(guān)結(jié)構(gòu),因此,所提方法可以同時學(xué)習(xí)一個能保持數(shù)據(jù)的局部與全局相關(guān)結(jié)構(gòu)的圖。

    b)通過對表征圖的拉普拉斯矩陣施加秩約束,SGE強制學(xué)習(xí)的圖具有精確的c個連通分量,因而所構(gòu)建的表征圖和聚類有效結(jié)合,從而有可能獲得用于聚類的全局最優(yōu)圖。

    c)通過對表征施加非負約束,SGE學(xué)到的表征可以更加準(zhǔn)確地描述樣本之間的相似性,也使得學(xué)到的表征具有更清晰的物理意義,所以新方法有潛力學(xué)到更有判別力的投影。

    1 基礎(chǔ)理論

    1.1 基于距離假設(shè)的投影方法

    Yu等人[26提出一個靈活鄰域的無監(jiān)督降維算法(USFNO)。該方法通過使用自適應(yīng)鄰域?qū)W習(xí)過程來構(gòu)建相似圖,以保持高維數(shù)據(jù)的流形結(jié)構(gòu),并且利用靈活的鄰域來學(xué)習(xí)高維數(shù)據(jù)的流形結(jié)構(gòu)的投影和潛在表示,以消除噪聲的影響;通過將自適應(yīng)概率鄰域?qū)W習(xí)和流形殘差項集成到統(tǒng)一的目標(biāo)函數(shù)中,USFNO聯(lián)合學(xué)習(xí)自適應(yīng)相似圖和潛在投影。這個方法的目標(biāo)函數(shù)被定義如下:

    minA,F(xiàn),sij12∑ni=1 ∑nj=1‖fi-fj‖22sij+α∑ni=1 ∑nj=1s2ij+β‖XTA-F‖22

    s.t. ATA=I,0≤sij≤1,sTi1=1(1)

    這個算法需要迭代求解三個變量:投影矩陣A、潛在表征F和相似度矩陣S,因此只能得到局部最優(yōu)解。Qu等人[27使用動態(tài)圖正則化保持數(shù)據(jù)之間的局部固有結(jié)構(gòu),提出動態(tài)圖正則化的魯棒判別投影,它集成判別分析、重構(gòu)數(shù)據(jù)和流形學(xué)習(xí)的統(tǒng)一框架來學(xué)習(xí)可靠的投影。

    1.2 基于稀疏假設(shè)的投影方法

    Wan等人[13提出了一種新的模型魯棒潛在非負矩陣分解與稀疏重構(gòu)(RLNMF-SR)來執(zhí)行降維工作。RLNMF-SR利用稀疏節(jié)點自動重建基于全局的親和圖,而無須手動定義圖結(jié)構(gòu),這保證了模型獲取數(shù)據(jù)的基本分布。一方面,通過用低秩結(jié)構(gòu)分解主成分,不僅可以去除冗余特征并降低計算成本,還可以獲得判別性和可解釋性的低秩表征;另一方面,應(yīng)用L2,1范數(shù)進行基于部分的非負分解獲得數(shù)據(jù)的局部屬性信息。它的目標(biāo)函數(shù)如下:

    minU≥0,V≥0,Z≥0‖XZ-UVT2,1+α(‖Z‖*+‖L‖*)+βTr(VTLSV)+‖E‖1

    s.t. X=LXZ+E(2)

    1.3 基于低秩假設(shè)的投影方法

    Zhang等人[19通過利用數(shù)據(jù)的自表達屬性提取數(shù)據(jù)的全局結(jié)構(gòu),從而提出低秩保持嵌入(LRPE)。LRPE在稀疏矩陣上施加低秩約束,將其強制為塊對角形式,使得有可能來自同一聚類具有相似內(nèi)在結(jié)構(gòu)的樣本由相似的基集來描述。LRPE首先優(yōu)化下面的方程得到稀疏矩陣Z:

    minZ‖Z‖*+λ‖E‖2,1

    s.t. ‖X-XZ-E‖2F≤ε,eTzi=1(3)

    在得到系數(shù)矩陣Z后,LRPE定義如下的目標(biāo)函數(shù):

    minATr(ATX(I-Z)(I-Z)TXTA)

    s.t. aTiXXTai=1(4)

    Lu等人[21提出了一種新的無監(jiān)督特征提取方法,稱為低秩自適應(yīng)圖嵌入(LRAGE),該方法可以在重構(gòu)誤差最小化的基礎(chǔ)上同時執(zhí)行子空間學(xué)習(xí)和自適應(yīng)鄰域圖嵌入。

    1.4 現(xiàn)有方法與SGE方法比較

    為了清楚展示現(xiàn)有代表性方法和SGE方法的優(yōu)劣,將各個方法的特點概括如表1所示。

    2 結(jié)構(gòu)化圖嵌入

    上述這些無監(jiān)督方法雖然降低數(shù)據(jù)維數(shù),為后續(xù)的分類或者聚類工作提供了便利,但它們在尋找投影方向時只關(guān)注全局結(jié)構(gòu)或局部結(jié)構(gòu),因而難以找到一個更有判別力的投影,難以有效提升分類或聚類的性能。為了解決這個問題,本文提出一個新的基于無監(jiān)督特征提取的結(jié)構(gòu)化圖嵌入方法同時捕捉全局和局部結(jié)構(gòu)尋找更有判別力的投影方向,新方法由求解親和矩陣和投影矩陣兩步組成。

    2.1 結(jié)構(gòu)感知表征模型

    最近研究表明[24,25,當(dāng)最小二乘回歸與數(shù)據(jù)自表達特性相結(jié)合時,能夠有效地揭示數(shù)據(jù)的全局相關(guān)結(jié)構(gòu),可以將具有相關(guān)結(jié)構(gòu)的數(shù)據(jù)分組到同一個聚類中。顯然,這種尊重全局相關(guān)結(jié)構(gòu)的方法自然能夠得到一個相對精確的表征。另一個方面,最小二乘回歸技術(shù)只捕捉了數(shù)據(jù)的全局相關(guān)結(jié)構(gòu),忽略了數(shù)據(jù)的局部結(jié)構(gòu)。因此需要引入一個簡單距離約束和非負約束到自表達模型中,就可以在保持數(shù)據(jù)全局結(jié)構(gòu)的同時捕捉數(shù)據(jù)的局部結(jié)構(gòu)。這個新模型被定義如下:

    minZ∑ni, j=1‖xi-xj‖22zij12‖Z‖2F

    s.t. X=XZ,diag(Z)=0,Z≥0,1Tzi=1(5)

    其中:X∈?m×n是給定數(shù)據(jù)矩陣;m是樣本的維數(shù);n是樣本數(shù);Z∈?n×n是需要學(xué)習(xí)的表征,它的任一個元素Zij描述兩個樣本xi與xj之間的重構(gòu)關(guān)系,Z≥0表示它的每一個元素都是非負的;λ1是非負的懲罰參數(shù)。通過引入兩個距離約束,式(5)有如下優(yōu)秀特性:

    a)由于Z為非負矩陣,第一項∑ni, j=1‖xi-xj‖22zij可以看做是加權(quán)稀疏正則化,這使得該模型能夠自適應(yīng)地選擇少數(shù)最近鄰樣本進行表示,因此引入這個距離約束既可以捕捉數(shù)據(jù)的局部結(jié)構(gòu),又可以保持表征的稀疏性。

    b)第二項使用最小二乘回歸技術(shù)保持數(shù)據(jù)的全局相關(guān)結(jié)構(gòu),有助于學(xué)習(xí)到表征能有效找到結(jié)構(gòu)相關(guān)的樣本。結(jié)合第一項,式(5)同時利用數(shù)據(jù)的全局和局部信息來構(gòu)建圖,這有助于新方法學(xué)習(xí)一個捕捉數(shù)據(jù)內(nèi)在結(jié)構(gòu)的最優(yōu)圖。

    c)表征Z的非負性使得模型揭示數(shù)據(jù)內(nèi)在幾何關(guān)系時有更清楚的物理意義,一方面避免了樣本之間有負數(shù)的權(quán)重,使得構(gòu)建的圖能有效地揭示樣本之間的相似度,另一方面保證構(gòu)建的圖是一個非負的,這讓新方法有潛力學(xué)到更有判別力的投影。

    d)通過施加約束1Tzi= 1,既避免表征Z的任一行元素的值為0,又讓它自然地保持了數(shù)據(jù)的判別信息。在無監(jiān)督場景中,這種判別信息有助于在從學(xué)習(xí)到投影的過程中,將同一聚類樣本映射到同一組中。具體地說,對于任一個來自第j聚類的第i個樣本xji,可以被表達為

    xji=0·x11+…+zi,i-2·xji-2+zi,i-1·xji-1+

    zi,i+1·xji+1+zi,i+2·xji+2+…+0·xcn(6)

    其中: j=1, …,c表示聚類標(biāo)號;表征zi=[0, …, zi,i-2, zi,i-1,0, zi,i+1, zi,i+2,…,0]是稀疏的,這表明它能將第j個聚類樣本的權(quán)重賦非零值,不同聚類中樣本的權(quán)重賦零值,因而自然地包含判別信息。

    在眾多真實應(yīng)用場景中,獲得的數(shù)據(jù)通常包含噪聲。為了解決噪聲干擾問題,引入一個稀疏的殘差項,損失函數(shù)被修改為

    minZ,E ∑ni, j=1‖xi-xj‖22zij12‖Z‖2F+λ2‖E‖1

    s.t. X=XZ+E,diag(Z)=0,Z≥0,1Tzi=1(7)

    其中:E表示殘差;λ2是一個非負的懲罰參數(shù)。

    盡管式(7)構(gòu)建的圖同時保持數(shù)據(jù)的全局和局部結(jié)構(gòu),但在某種程度上對噪聲不敏感,這種圖割離了與聚類的聯(lián)系,即對于具有c個聚類的數(shù)據(jù),式(7)不能確保所獲得的圖有精確的c個連通分量,因此不是最優(yōu)圖。研究表明[29,30,構(gòu)建有c個連通分量的圖有助于揭示聚類結(jié)構(gòu),從而學(xué)習(xí)到一個最優(yōu)的圖。為此,引入定理1。

    定理1[31 設(shè)Z為非負親和矩陣,度矩陣D為對角矩陣,其對角元素的值為Z相應(yīng)的行或者列的所有元素和,拉普拉斯矩陣LZ被定義為LZ=D-(Z+ZT)/2,則LZ的特征值為0的個數(shù)與親和矩陣Z的連通分量數(shù)相等。

    定理1表明如果rank(LZ)=n-c, 則構(gòu)建的圖有c個連通分量,從而得到一個最優(yōu)的圖。增加約束rank(LZ)=n-c到式(7)中,得到表征Z包括清晰的聚類結(jié)構(gòu)。因此,新的結(jié)構(gòu)感知表征定義如下:

    minZ,E ∑ni, j=1‖xi-xj‖22zij12‖Z‖2F+λ2‖E‖1

    s.t. X=XZ+E,diag(Z)=0,Z≥0

    1Tzi=1,rank(LZ)=n-c(8)

    2.2 表征模型優(yōu)化

    由于約束rank(LZ)=n-c涉及到度矩陣和親和矩陣,式(8)不宜求解。既然LZ是半正定,那么它的特征值為非負,式(8)可以改寫為

    minZ,E∑ni, j=1‖xi-xj‖22zij12‖Z‖2F+λ2‖E‖1+2λ3∑ci=1δi(LZ

    s.t. X=XZ+E,diag(Z)=0,Z≥0,1Tzi=1(9)

    其中:δi(LZ)代表LZ第i個最小特征值,且δi(LZ)≥0;λ3是一個非負的懲罰參數(shù),當(dāng)它足夠大時,強迫式(9)的第四項為0,LZ的c個最小特征值的和為0,因此,秩約束rank(LZ)=n-c被滿足[29,32。根據(jù)Fan[33提出的定理,有如下等式:

    ∑ci=1δi(LZ)=minFTF=ITr(FTLZF)(10)

    其中:F∈?n×c是聚類指示器矩陣。式(9)等價于以下優(yōu)化問題:

    minZ,E,F(xiàn)∑ni, j=1‖xi-xj‖22zij12‖Z‖2F+λ2‖E‖1+2λ3Tr(FTLZF)

    s.t. X=XZ+E,diag(Z)=0,Z≥0,1Tzi=1,F(xiàn)TF=I(11)

    其中:n與c分別是樣本數(shù)和聚類數(shù);Tr(·)表示矩陣的跡;I代表單位陣。

    式(11)包含三個變量,是一個非凸函數(shù)。最近提出很多方法解上述優(yōu)化問題,由于LADM[34方法簡單有效,本文使用它來解式(11)。根據(jù)LADM,引入兩個變量S和Q替代式(11)中的Z,得到如下模型:

    minZ,S,Q,E,F(xiàn) ∑ni, j=1‖xi-xj‖22Sij12‖Q‖2F+λ2‖E‖1+2λ3Tr(FTLZF)

    s.t. X=XZ+E,Z=S,Z=Q,F(xiàn)TF=I,

    diag(S)=0,S≥0,1Tsi=1(12)

    式(12)變換為以下的增廣拉格朗日乘子函數(shù):

    L(Z,S,Q,F(xiàn),E)=∑ni, j=1‖xi-xj‖22Sij12‖Q‖2F+λ2‖E‖1+

    3Tr(FTLSF)+〈P1,X-XZ-E〉+〈P2,Z-S〉+〈P3,

    Z-Q〉+μ2(‖X-XZ-E‖2F+‖Z-S‖2F+‖Z-Q‖2F)(13)

    其中:P1、P2和P3是拉格朗日乘子; μ是一個非負的懲罰參數(shù)。進一步化簡式(13),得到下面的式子:

    L(Z,S,Q,F(xiàn),E)=∑ni, j=1‖xi-xj‖22Sij12‖Q‖2F+

    λ2‖E‖2,1+2λ3Tr(FTLSF)+

    μ2(‖X-XZ-E+P1μ‖2F+‖Z-S+P2μ‖2F+‖Z-Q+P3μ‖2F)(14)

    通過在其他變量固定的情況下交替求解式(14)的每個變量,可以得到五個變量Z、S、Q、E和F的解,具體求解步驟如下:

    a)求解Z的更新規(guī)則。當(dāng)固定S、Q、E和F時,最小化下面的式子可得到Z的更新規(guī)則:

    L(Z)=‖X-XZ-E+P1μ‖2F+‖Z-S+P2μ‖2F+

    ‖Z-Q+P3μ‖2F(15)

    通過求函數(shù)L(Z)關(guān)于Z的偏導(dǎo)數(shù),得到

    ?L?Z=μ(XTXZ-XTJ1+Z-J2+Z-J3)(16)

    其中:J1=X-E+P1/μ,J2=S-P2/μ和J3=Q-P3/μ。因此,通過設(shè)置?L/?Z=0,Z的解為

    Z=(XTX+2I)-1(XTJ1+J2+J3)(17)

    b)求解S的更新規(guī)則。當(dāng)固定Z、Q、E和F時,最小化下面的式子可得到S的更新規(guī)則:

    minS∑ni, j=1‖xi-xj‖22Sij+2λ3Tr(FTLSF)+μ2‖Z-S+P2μ‖2F

    s.t. S≥0,1Tsi=1(18)

    進一步化簡式(18),得到

    ∑ni, j=1‖xi-xj‖22Sij3∑ni, j=1‖fi-fj‖22Sij+μ2‖Z-S+P2μ‖2F=

    ∑ni, j=1(‖xi-xj‖22+λ3‖fi-fj‖22)Sij+μ2‖Z-S+P2μ‖2F=

    ∑ni, j=1HijSij+μ2‖S-V‖2F=Tr(HTS)+μ2‖S-V‖2F(19)

    其中:Hij=‖xi-xj223‖fi-fj22和V=Z+P2/μ。設(shè)hi、si和vi分別為矩陣H、S、V的行向量,式(18)等價于解下列問題:

    minsi≥0,1Tsi=1‖si-(vi-h(huán)i/μ)‖22(20)

    式(20)有解析解,使用文獻[29]可以快速解S的最優(yōu)值。

    c)求解F的更新規(guī)則。當(dāng)固定Z、Q、E和S時,最小化下面的式子可得到F的更新規(guī)則:

    minFTr(FTLSF)

    s.t. FTF=I,F(xiàn)∈?n×c(21)

    其中:LS=D-S是一個拉普拉斯矩陣;D是一個對角矩陣,它的對角元素值為Dii=∑jSij。通過特征分解可以得到式(21)的解。顯然,F(xiàn)是由LS的c個最小特征值對應(yīng)的特征向量組成的矩陣。

    d)求解Q的更新規(guī)則。當(dāng)固定Z、E、S和F時,最小化下面的式子可得到Q的更新規(guī)則:

    minQλ12‖Q‖2F+μ2‖Z-Q+P3μ‖2F(22)

    通過簡單解式(22),Q的最優(yōu)值為

    Q=μZ+P3μ+λ1(23)

    e)求解E的更新規(guī)則。當(dāng)固定Z、Q、S和F時,最小化下面的式子可得到S的更新規(guī)則:

    minEλ2‖E‖1+μ2‖X-XZ-E+P1μ‖2F(24)

    E的解析解為

    E=Φλ2/μ(X-XZ+P1/μ)(25)

    其中:Ф是shrinkage算子[35

    f)更新參數(shù)P1、P2、P3、μ。拉格朗日參數(shù)P1、P2、P3和懲罰系數(shù)μ分別使用如下的更新規(guī)則:

    P1=P1+μ(X-XZ-E)(26)

    P2=P2+μ(Z-S)(27)

    P3=P3+μ(Z-Q)(28)

    μ=min(ρμ,μmax)(29)

    其中:ρ和μmax是固定的常數(shù)。

    根據(jù)上述分析,求解親和矩陣Z可以概括在算法1中。

    算法1 求解親和矩陣Z

    輸入:數(shù)據(jù)矩陣X,正則化參數(shù)λ1、λ2、λ3,聚類數(shù)c。

    輸出:Z、S、Q、F和E。

    初始化:近鄰數(shù)k,P1=P2= P3=0, E=0, μ=0.01,ρ=1.2, μmax=108

    while (不收斂)

    1.使用式(17)更新Z;

    2.解式(20)更新S;

    3.解式(21)更新F;

    4.使用式(23)更新Q;

    5.使用式(25)更新E;

    6.使用式(26)~(29)分別更新P1、P2、P3、μ;

    end while

    2.3 結(jié)構(gòu)化圖嵌入算法(SGE)

    通過算法1得到的數(shù)據(jù)之間最優(yōu)的重構(gòu)權(quán)重Z,保持數(shù)據(jù)全局結(jié)構(gòu)的同時捕捉數(shù)據(jù)的局部結(jié)構(gòu),而且非負約束使得它有更清楚的物理意義。顯然,在高維空間中的這些特性希望在數(shù)據(jù)映射到低維空間時,也自然保持這些特性。為此,本文定義如下目標(biāo)函數(shù)尋找一個更有判別力的投影來保持這些特性:

    mina∑ni=1‖aTxi-aTXzi‖22(30)

    通過簡化式(30),得到

    ∑ni=1‖aTxi-aTXzi‖22=aT(∑ni=1(xi-Xzi)(xi-XziT)a=

    aTX(∑ni=1(ei-zi)(ei-ziT)XTa=

    aTX(∑ni=1(eieTi-zieTi-eizTi-zizTi))XTa=

    aTX(I-Z-ZT+ZZT)XTa(31)

    根據(jù)式(31),最小化式(30)等價于最大化下面的式子:

    maxa aTXSZXTa(32)

    其中:SZ=Z+ZT-ZZT。為了避免最后的解退化,SGE增加約束aTX St XTa=1,St=I-11T/n。因此,聯(lián)合這個約束,求解式(32)可以得到最優(yōu)的投影矩陣。這個投影矩陣是由下列廣義特征問題的d個最大特征值對應(yīng)的特征向量組成:

    XSZXTa=λXStXTa(33)

    基于上面的討論,SGE被概括在算法2中。

    算法2 結(jié)構(gòu)化圖嵌入算法(SGE)

    輸入:數(shù)據(jù)矩陣X。

    輸出:投影矩陣A。

    1.使用算法1計算親和矩陣Z;

    2.使用式(33)計算投影向量,d個最大特征值對應(yīng)的特征向量組成最優(yōu)投影矩陣;

    2.4 收斂性分析

    SGE在求解親和矩陣時涉及到5個變量Z、S、Q、E和F,如式(12)所示,使用LADM[32可以得到一個局部最優(yōu)解。顯然,式(12)是一個非凸函數(shù)。LADM已經(jīng)給出兩個變量的收斂證明,而SGE包含5個變量Z、S、Q、E和F。因此,在計算某一個變量時,固定其他變量,這樣式(12)成為一個凸函數(shù)。可以證明SGE的解是不遞增的,從而保證所提方法的收斂性[36。為此,給出如下的定理。

    定理2 SGE的目標(biāo)函數(shù)式(12)在更新規(guī)則1~6步中得到的解是不遞增的。

    證明 根據(jù)文獻[34,36],SGE的目標(biāo)函數(shù)式(12)轉(zhuǎn)換為如式(13)的增廣拉格朗日函數(shù)。

    根據(jù)式(13),所有變量的迭代規(guī)則如下:

    Zt+1=arg minZ L(Zt,St,Qt,F(xiàn)t,Et)(34)

    St+1=arg minS L(Zt,St,Qt,F(xiàn)t,Et)(35)

    Qt+1=arg minQ L(Zt,St,Qt,F(xiàn)t,Et)(36)

    Ft+1=arg minF L(Zt,St,Qt,F(xiàn)t,Et)(37)

    Et+1=arg minE L(Zt,St,Qt,F(xiàn)t,Et)(38)

    Pt+11=Pt1+μ(X-XZt-E)(39)

    Pt+12=Pt2+μ(Zt-St)(40)

    Pt+13=Pt3+μ(Zt-Qt)(41)

    從算法1看到,SGE優(yōu)化式(13)與典型方法LADM的優(yōu)化問題非常相似。當(dāng)其他變量固定時,Z和E的優(yōu)化問題等價于LADM的Z和E的優(yōu)化問題,根據(jù)LADM方法,Z和E的優(yōu)化問題是收斂的。設(shè)Фt= (Zt, St, Qt, Et, Ft, Pt1, Pt2, Pt3)是SGE的第t次迭代的解,則Z和E的優(yōu)化問題可以表示為

    Φ(Zt+1,Et+1)≤Φ(Zt,Et)(42)

    當(dāng)Z和E固定時,根據(jù)文獻[34],可以得到如下不等式:

    Φ (St+1,Qt+1,F(xiàn)t+1,Pt+11,Pt+12,Pt+13)≤

    Φ (St,Qt,F(xiàn)t,Pt1,Pt2,Pt3)(43)

    聯(lián)合式(42)和(43)得到

    Φ (Zt+1,St+1,Qt+1,F(xiàn)t+1,Et+1,Pt+11,Pt+12,Pt+13)≤

    Φ (Zt,St,Qt,F(xiàn)t,Et,Pt1,Pt2,Pt3)(44)

    完成定理2的證明,即算法1是收斂的。

    SGE方法使用ORL和UMIST數(shù)據(jù)集來驗證算法的收斂性。目標(biāo)函數(shù)值定義為

    V=∑ni, j=1‖xi-xj‖22Sij12‖Q‖2F+λ2‖E‖1+

    3Tr(FTLZF)‖X‖2F(45)

    實驗結(jié)果如圖2所示,其中x軸表示迭代次數(shù),y軸代表目標(biāo)函數(shù)值。通過圖2可以發(fā)現(xiàn),SGE很快就可以收斂到一個局部最優(yōu)值。相似的現(xiàn)象也可以在其他數(shù)據(jù)集上觀察到,因而省略。

    2.5 復(fù)雜度分析

    SGE方法是由計算親和矩陣Z和投影矩陣A兩步組成,涉及到矩陣逆操作、奇異值閾值(SVT)和特征分解。在算法1中,時間開銷大的計算分別是計算Z和E。(XTX+2I)-1操作和奇異值閾值(SVT)的時間復(fù)雜度均為O(n3),其中n是樣本數(shù)。因此,算法1的時間復(fù)雜度為O(Tn3),其中T是迭代次數(shù)。算法2主要是通過特征分解計算投影矩陣,其時間復(fù)雜度為O(n3)。因此,SGE方法的時間復(fù)雜度為O(Tn3)。

    3 實驗結(jié)果

    3.1 實驗設(shè)置

    本文使用基線和SGE算法在實例應(yīng)用中來驗證它們的性能。 這些實例應(yīng)用是使用算法將不同應(yīng)用場景中采集到的高維數(shù)據(jù)投影到低維空間中。在低維空間中,如果算法將不同類樣本投影得更遠、相同類樣本投影得更近,則它的性能自然就高,否則它的性能較差。這些實例應(yīng)用的數(shù)據(jù)來自不同的應(yīng)用領(lǐng)域,包括人臉圖像數(shù)據(jù)集、醫(yī)學(xué)圖像數(shù)據(jù)集和對象圖像數(shù)據(jù)集,共有8個數(shù)據(jù)集。其中PIE、UMIST、ORL、Grimace、Faces94是人臉圖像數(shù)據(jù)集;Palm和MFD是對象圖像數(shù)據(jù)集;BreaKHis是乳腺癌圖像數(shù)據(jù)集。這些數(shù)據(jù)集的特征如表2所示。

    本文使用7個流行的具有代表性的無監(jiān)督特征提取方法作為基線來驗證所提算法的效能。7個方法中PCA[7 、LPP[9 和SPP[15是三個經(jīng)典降維算法;LRAGE[21、LRPP_GRR[28、RLNMF-SR[13和GOSUP[4是最新提出的降維算法。為了全面比較基線方法和SGE的有效性,本文使用聚類精度(ACC)[4,13,21,28和歸一化互信息(NMI)[4,13,21,28來度量它們的聚類性能。ACC和NMI取值在0~1,它們的值越大,意味著該算法的性能越好。事實上,ACC和NMI也是這些無監(jiān)督特征提取方法中常用的評估指標(biāo)。為了公平對比,每個算法都運行20次,報告為最終的聚類結(jié)果的均值和標(biāo)準(zhǔn)差。

    3.2 可視化實驗

    為了直觀看到各個算法的投影結(jié)果,本文將所有算法在BreaKHis數(shù)據(jù)集上的實驗結(jié)果用二維平面展示,即將該數(shù)據(jù)集投影到二維平面上,如圖3所示,小圓代表一類,小正方形代表另一類。從圖3(h)觀察到,SGE似乎可以將兩類樣本很好地投影開來。小圓與小正方形很少有重疊,也就是說,SGE將不同類之間的樣本盡可能分開,而相同類的樣本盡可能投影到一起。這表明兼顧局部和全局結(jié)構(gòu)并考慮數(shù)據(jù)聚類結(jié)果的SGE方法能找到一個更有判別力的投影,因此能得到讓人滿意的聚類結(jié)果。與SGE相比,其他方法的投影結(jié)果顯示出兩類樣本都有不同程度的重疊,因此,不能給出令人滿意的結(jié)果。例如,PCA幾乎將兩類樣本投影到一起,造成這種結(jié)果的原因是它只是關(guān)注方差變化最大的方向,而忽略了數(shù)據(jù)的內(nèi)在幾何結(jié)構(gòu)。RLNMF-SR方法不僅將兩類部分樣本投影到一起,還分散各類內(nèi)的樣本,不利于聚類。顯然,它不能給出好的結(jié)果。雖然GOSUP方法將類內(nèi)的樣本投影得更近,但兩類中有很多樣本重疊在一起。相似的結(jié)果也在LRPP_GRR、LRAGE和SPP等方法上觀察到。

    3.3 實驗結(jié)果與分析

    所有算法在8個數(shù)據(jù)集上的聚類結(jié)果如表3和4所示(加粗數(shù)字代表最好的結(jié)果)。從表3和4可以得到如下有趣的觀察:

    a)本文算法SGE在8個數(shù)據(jù)集上總是得到最好的ACC 和NMI值,也就是說SGE在這些數(shù)據(jù)集上聚類結(jié)果要優(yōu)于其他方法的聚類結(jié)果。例如,在PIE數(shù)據(jù)集上,SGE的ACC值比排名第二的LRPP_GRR的ACC值高出大約18%;在BreaKHis數(shù)據(jù)集上,SGE的NMI值比排名第二的LPP的NMI值高出大約13%。這表明通過保持數(shù)據(jù)全局和局部結(jié)構(gòu),SGE找到的投影方向具有更強的判別力,它能將高維空間中的同一聚類的樣本投影得更近,并將高維空間中的不同聚類的樣本投影得更遠,從而得到較好的聚類結(jié)果。

    b)雖然最新提出的RLNMF-SR和GOSUP比本文SGE要差,但與其他方法相比,它們可以得到相對較好的聚類性能。在PIE數(shù)據(jù)集上,這兩個算法的聚類結(jié)果要優(yōu)于剩余方法;相似的結(jié)果也可以在ORL數(shù)據(jù)集上觀察到,只是它們優(yōu)勢并不明顯。與上述兩個方法有相同之處的SPP也是通過保持重構(gòu)權(quán)值的稀疏來尋找投影方向,但它的性能相對較差,這表明通過使用稀疏保持找到的投影方向并不是最優(yōu)的。

    c)LRAGE性能相對較差,原因是該方法使用核范數(shù)近似求解親和矩陣的低秩并不能很好地保持數(shù)據(jù)的全局結(jié)構(gòu)。相比之下,LPP可以得到較好的性能,如在BreaKHis數(shù)據(jù)集上,它的ACC值要高于除SGE外的其他算法,這表明在無監(jiān)督學(xué)習(xí)中數(shù)據(jù)的局部結(jié)構(gòu)在聚類或者分類任務(wù)中扮演非常重要的作用。遺憾的是,在Faces94數(shù)據(jù)集上,LPP的性能很差,原因是它忽略了數(shù)據(jù)的全局結(jié)構(gòu)。

    d)不同的方法在不同的數(shù)據(jù)集上表現(xiàn)不同。如LPP在UMIST數(shù)據(jù)集上得到僅次于SGE的性能,在Faces94數(shù)據(jù)集上表現(xiàn)較差;SPP在Palm數(shù)據(jù)集上得到次優(yōu)的性能,在ORL數(shù)據(jù)集上表現(xiàn)較差;GOSUP方法在Faces94數(shù)據(jù)集上得到較好的性能,在MFD數(shù)據(jù)集上表現(xiàn)相對較差;RLNMF-SR方法在PIE數(shù)據(jù)集上得到次優(yōu)的性能;LRPP_GRR在BreaKHis數(shù)據(jù)集上得到次優(yōu)的性能,在Faces94數(shù)據(jù)集上表現(xiàn)較差。 總體上,RLNMF-SR方法在本文使用的數(shù)據(jù)集上得到了較好的性能,僅次于SGE;PCA表現(xiàn)較差。SGE在本文使用的數(shù)據(jù)集上得到了最好的性能,這證明了SGE的有效性。

    4 結(jié)束語

    本文提出一個新的面向無監(jiān)督特征提取的結(jié)構(gòu)化圖嵌入方法(SGE),該方法構(gòu)建表征的K近鄰圖來尊重數(shù)據(jù)的局部結(jié)構(gòu),使用最小二乘回歸建模全局結(jié)構(gòu),從而能同時捕捉數(shù)據(jù)的全局和局部結(jié)構(gòu)。此外,SGE引入表征圖的拉普拉斯矩陣秩約束和非負約束,使構(gòu)建的圖既可以很好地揭示數(shù)據(jù)的聚類結(jié)構(gòu),又使表征圖具有良好的可解釋性。因此,SGE能學(xué)習(xí)到更有判別力的投影。大量的實驗結(jié)果證實了所提方法的有效性。

    參考文獻:

    [1]Wang Quan, Wang Fei, Li Zhongheng, et al. Coordinate descent optimized trace difference model for joint clustering and feature extraction [J]. Pattern Recognition, 2024, 146: 110062.

    [2]Hu Wenjun, Zhang Ke, Wang Shitong, et al. Joint group and pairwise localities embedding for feature extraction [J]. Information Sciences, 2024, 657: 119960.

    [3]Ruan Weiyong, Sun Lei. Robust latent discriminative adaptive graph preserving learning for image feature extraction [J]. Knowledge-Based Systems, 2023, 268: 110487.

    [4]Wang Jingyu, Wang Lin, Nie Feiping, et al. Joint feature selection and extraction with sparse unsupervised projection [J]. IEEE Trans on Neural Networks and Learning Systems, 2023, 34(6): 3071-3081.

    [5]Wen Jie, Fang Xiaozhao, Cui Jinrong, et al. Robust sparse linear discriminant analysis [J]. IEEE Trans on Circuits and Systems for Video Technology, 2019, 29(2): 390-403.

    [6]Nie Feiping, Wang Zheng, Wang Rong, et al. Adaptive local embedding learning for semi-supervised dimensionality reduction [J]. IEEE Trans on Knowledge and Data Engineering, 2021, 34(10): 4609-4621.

    [7]Seghouane A K, Shokouhi N, Koch I. Sparse principal component analysis with preserved sparsity pattern [J]. IEEE Trans on Image Processing, 2019, 28(7): 3274-3285.

    [8]Nie Feiping, Wu Danyang, Wang Rong, et al. Truncated robust principle component analysis with a general optimization framework [J], IEEE Trans on Pattern Analysis and Machine Intelligence, 2021, 44(2): 1081-1097.

    [9]He Xiaofei, Niyogi P. Locality preserving projections [C]// Proc of the 16th International Conference on Neural Information Processing Systems. Cambridge, MA: MIT Press, 2003: 153-160.

    [10]Roweis, S T, Saul, L K. Nonlinear dimensionality reduction by locally linear embedding [J]. Science, 2000, 290(5500): 2323-2326.

    [11]He Xiaofei, Cai Deng, Yan Shuicheng, et al. Neighborhood preserving embedding [C]// Proc of IEEE International Conference on Computer Vision. Piscataway,NJ: IEEE Press, 2005: 1208-1213.

    [12]Huang Qi, Yin Xuesong, Chen Songcan, et al. Robust nonnegative matrix factorization with structure regularization [J]. Neurocompu-ting, 2020, 412: 72-90.

    [13]Wan Minghua, Cai Mingxiu, Yang Zhangjing, et al. Robust latent nonnegative matrix factorization with automatic sparse reconstruction for unsupervised feature extraction [J]. Information Sciences, 2023, 648: 119517.

    [14]董文婷, 尹學(xué)松, 余節(jié)約, 等. 魯棒結(jié)構(gòu)正則化非負矩陣分解 [J]. 計算機應(yīng)用研究, 2023, 40(3): 794-799. (Dong Wenting, Yin Xuesong, Yu Jieyue, et al. Robust structure regularized nonnegative matrix factorization [J]. Application Research of Computers, 2023, 40(3): 794-799.)

    [15]Qiao Lishan, Chen Songcan, Tan Xiaoyang. Sparsity preserving projections with applications to face recognition [J]. Pattern Recognition, 2010, 43(1): 331-341.

    [16]Zhan Shanhua, Wu Jigang, Han Na, et al. Unsupervised feature extraction by low-rank and sparsity preserving embedding [J]. Neural Networks, 2019, 109: 56-66.

    [17]Liu Guangcan, Lin Zhouchen, Yan Shuicheng, et al. Robust recovery of subspace structures by low-rank representation [J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2013, 35(1): 171-184.

    [18]Lu Yuwu, Lai Zhihui, Xu Yong, et al. Low-rank preserving projections [J]. IEEE Trans on Cybernetics, 2016, 46(8): 1900-1913.

    [19]Zhang Yupei, Xiang Ming, Yang Bo. Low-rank preserving embedding [J]. Pattern Recognition, 2017, 70: 112-125.

    [20]Wong W K, Lai Zhihui, Wen Jiajun, et al. Low-rank embedding for robust image feature extraction [J]. IEEE Trans on Image Processing, 2017, 26(6): 2905-2917.

    [21]Lu Jianglin, Wang Hailing, Zhou Jie, et al. Low-rank adaptive graph embedding for unsupervised feature extraction [J]. Pattern Recognition, 2021, 113: 107758.

    [22]Hui Kaifa, Shen Xiangjun, Abhadiornhen S E, et al. Robust low-rank representation via residual projection for image classification [J]. Knowledge-Based Systems, 2022, 241: 108230.

    [23]Yin Shuai, Sun Yanfeng, Gao Junbin, et al. Robust image representation via low rank locality preserving projection [J]. ACM Trans on Knowledge Discovery from Data, 2021, 15(4): 1-22.

    [24]Kou Simin, Yin Xuesong, Wang Yigang, et al. Structure-aware subspace clustering [J]. IEEE Trans on Knowledge and Data Engineering, 2023, 35(10): 10569-10582.

    [25]Lu Canyi, Min Hai, Zhao Zhongqiu, et al. Robust and efficient subspace segmentation via least squares regression [C]// Proc of European Conference on Computer Vision. Berlin: Springer, 2012: 347-360.

    [26]Yu Weizhong, Bian Jintang, Nie Feiping, et al. Unsupervised subspace learning with flexible neighboring [J]. IEEE Trans on Neural Networks and Learning Systems, 2023, 34(4): 2043-2056.

    [27]Qu Hongchun, Li Lin, Li Zhaoni, et al. Robust discriminative projection with dynamic graph regularization for feature extraction and classification [J]. Knowledge-Based Systems, 2022, 253: 109563.

    [28]Wen Jie, Han Na, Fang Xiaozhao, et al. Low-rank preserving projection via graph regularized reconstruction [J]. IEEE Trans on Cybernetics, 2018, 49(4): 1279-1291.

    [29]Nie Feiping, Zhu Wei, Li Xuelong. Structured graph optimization for unsupervised feature selection [J]. IEEE Trans on Knowledge and Data Engineering, 2021, 33(3): 1210-1222.

    [30]Zhao Xiaowei, Nie Feiping, Yu Weizhong, et al. Fast neighborhood reconstruction with adaptive weights learning [J]. Knowledge-Based Systems, 2023, 259: 110082.

    [31]Von Luxburg. A tutorial on spectral clustering [J]. Statistics and Computing, 2007, 17(4): 395-416.

    [32]Nie Feiping, Zhu Wei, Li Xuelong. Unsupervised feature selection with structured graph optimization [C]// Proc of the 30th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press,2016: 1302-1308.

    [33]Fan K. On a theorem of Weyl concerning eigenvalues of linear transformations [J]. Proc of the National Academy of Sciences, 1949, 35(11): 652-655.

    [34]Yang Junfeng, Yuan Xiaoming. Linearized augmented Lagrangian and alternating direction methods for nuclear norm minimization [J]. Mathematics of Computation, 2013, 82(281): 301-329.

    [35]Wen Jie, Fang Xiaozhao, Xu Yong, et al. Low-rank representation with adaptive graph regularization [J]. Neural Networks, 2018, 108: 83-96.

    [36]Boyd S, Parikh N, Chu E, et al. Distributed optimization and statistical learning via the alternating direction method of multipliers [J]. Foundations and Trends in Machine Learning, 2011, 3(1): 1-222.

    猜你喜歡
    特征提取
    特征提取和最小二乘支持向量機的水下目標(biāo)識別
    基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
    電子制作(2019年15期)2019-08-27 01:12:00
    基于Daubechies(dbN)的飛行器音頻特征提取
    電子制作(2018年19期)2018-11-14 02:37:08
    基于DNN的低資源語音識別特征提取技術(shù)
    Bagging RCSP腦電特征提取算法
    一種基于LBP 特征提取和稀疏表示的肝病識別算法
    基于DSP的直線特征提取算法
    基于改進WLD的紋理特征提取方法
    計算機工程(2015年4期)2015-07-05 08:28:02
    淺析零件圖像的特征提取和識別方法
    機電信息(2015年3期)2015-02-27 15:54:46
    基于CATIA的橡皮囊成形零件的特征提取
    最近的中文字幕免费完整| 搡老岳熟女国产| 丰满饥渴人妻一区二区三| 日本欧美视频一区| 男女下面插进去视频免费观看| 操美女的视频在线观看| 国产精品 欧美亚洲| 久久午夜综合久久蜜桃| 久久精品久久久久久久性| avwww免费| 国产淫语在线视频| 母亲3免费完整高清在线观看| 老鸭窝网址在线观看| 可以免费在线观看a视频的电影网站 | 亚洲一区二区三区欧美精品| 欧美少妇被猛烈插入视频| 激情五月婷婷亚洲| 精品卡一卡二卡四卡免费| 亚洲精品国产av蜜桃| 欧美黑人欧美精品刺激| 亚洲精品日韩在线中文字幕| 国产亚洲最大av| 亚洲欧美中文字幕日韩二区| 999久久久国产精品视频| 欧美在线黄色| 热99久久久久精品小说推荐| 亚洲第一区二区三区不卡| 日韩制服骚丝袜av| 黑人欧美特级aaaaaa片| 国产精品久久久久久久久免| 久久久国产精品麻豆| 看非洲黑人一级黄片| 校园人妻丝袜中文字幕| 国产欧美日韩一区二区三区在线| 老司机影院毛片| 日韩不卡一区二区三区视频在线| 男男h啪啪无遮挡| 精品国产超薄肉色丝袜足j| 亚洲人成网站在线观看播放| 亚洲精品自拍成人| 久久人人爽av亚洲精品天堂| 亚洲三区欧美一区| 在线天堂中文资源库| 波多野结衣一区麻豆| 青青草视频在线视频观看| 麻豆精品久久久久久蜜桃| 久久天堂一区二区三区四区| 日本色播在线视频| 色播在线永久视频| 日韩 欧美 亚洲 中文字幕| 国产成人精品久久久久久| 亚洲精品乱久久久久久| 久久精品亚洲熟妇少妇任你| 国产av一区二区精品久久| 电影成人av| www.精华液| 亚洲国产精品成人久久小说| 国产一卡二卡三卡精品 | 一本久久精品| 亚洲精品久久成人aⅴ小说| 国产精品久久久久久人妻精品电影 | 国产 精品1| 久久精品熟女亚洲av麻豆精品| 男女免费视频国产| 日韩av免费高清视频| 成年人午夜在线观看视频| 久久狼人影院| 色精品久久人妻99蜜桃| 青春草亚洲视频在线观看| 韩国av在线不卡| 国产一卡二卡三卡精品 | 午夜激情av网站| 国产精品久久久人人做人人爽| 男女边摸边吃奶| 久久久久精品国产欧美久久久 | 精品第一国产精品| 亚洲熟女毛片儿| av在线app专区| 亚洲第一av免费看| 9191精品国产免费久久| 秋霞在线观看毛片| 久久久欧美国产精品| 国产av精品麻豆| 亚洲欧美一区二区三区黑人| 亚洲色图 男人天堂 中文字幕| 啦啦啦在线观看免费高清www| 久久99热这里只频精品6学生| 曰老女人黄片| 日韩制服丝袜自拍偷拍| 天天影视国产精品| 黄频高清免费视频| 免费人妻精品一区二区三区视频| 欧美精品av麻豆av| av女优亚洲男人天堂| videos熟女内射| 在线精品无人区一区二区三| 久久久亚洲精品成人影院| 少妇人妻 视频| 色视频在线一区二区三区| 91精品伊人久久大香线蕉| 国产精品国产三级国产专区5o| 男女午夜视频在线观看| 人人妻人人爽人人添夜夜欢视频| 狠狠婷婷综合久久久久久88av| 最新在线观看一区二区三区 | 国产精品女同一区二区软件| e午夜精品久久久久久久| 色综合欧美亚洲国产小说| 搡老乐熟女国产| 日日爽夜夜爽网站| 久久久久精品性色| 欧美国产精品va在线观看不卡| 国产 精品1| 国产日韩欧美亚洲二区| 精品一品国产午夜福利视频| 久久鲁丝午夜福利片| 男女免费视频国产| 久久性视频一级片| 高清av免费在线| 亚洲国产精品一区三区| 久久青草综合色| 欧美乱码精品一区二区三区| 老司机深夜福利视频在线观看 | 操美女的视频在线观看| 精品第一国产精品| 亚洲一区中文字幕在线| 国产日韩欧美亚洲二区| 啦啦啦 在线观看视频| 久久99精品国语久久久| 免费久久久久久久精品成人欧美视频| 亚洲欧美一区二区三区久久| 欧美日韩亚洲高清精品| 亚洲成人国产一区在线观看 | 色精品久久人妻99蜜桃| 国产1区2区3区精品| 精品人妻一区二区三区麻豆| 欧美亚洲 丝袜 人妻 在线| 久久青草综合色| 女人高潮潮喷娇喘18禁视频| 亚洲人成电影观看| 国语对白做爰xxxⅹ性视频网站| 巨乳人妻的诱惑在线观看| 男女边摸边吃奶| 日本爱情动作片www.在线观看| 十八禁高潮呻吟视频| 亚洲成色77777| 十八禁人妻一区二区| 免费观看性生交大片5| 亚洲欧美精品综合一区二区三区| 两个人免费观看高清视频| 国产精品偷伦视频观看了| 91精品国产国语对白视频| 午夜福利视频在线观看免费| 久久久久久久久久久久大奶| 嫩草影院入口| 精品视频人人做人人爽| bbb黄色大片| 欧美国产精品va在线观看不卡| 国产不卡av网站在线观看| 99香蕉大伊视频| 欧美人与性动交α欧美软件| 国产成人系列免费观看| 国产探花极品一区二区| 丝袜美腿诱惑在线| 老熟女久久久| 大香蕉久久网| 成人国产av品久久久| 七月丁香在线播放| 王馨瑶露胸无遮挡在线观看| 另类精品久久| 久久亚洲国产成人精品v| 母亲3免费完整高清在线观看| 成人国产av品久久久| 免费黄频网站在线观看国产| 亚洲欧美一区二区三区黑人| 精品一区二区免费观看| 中文字幕精品免费在线观看视频| 天天影视国产精品| 欧美xxⅹ黑人| 2018国产大陆天天弄谢| 一二三四在线观看免费中文在| 国产精品二区激情视频| 亚洲美女黄色视频免费看| 最近中文字幕高清免费大全6| 亚洲熟女毛片儿| 亚洲,欧美,日韩| 看非洲黑人一级黄片| 国产1区2区3区精品| 女人被躁到高潮嗷嗷叫费观| 性高湖久久久久久久久免费观看| av福利片在线| 国产成人a∨麻豆精品| 亚洲精品国产区一区二| 亚洲成人国产一区在线观看 | 国产高清不卡午夜福利| 国产麻豆69| 久久 成人 亚洲| 久久久久久人人人人人| 成年人免费黄色播放视频| 免费观看a级毛片全部| 人人澡人人妻人| 亚洲精品在线美女| 精品少妇黑人巨大在线播放| 国产精品偷伦视频观看了| 在线观看国产h片| 久久人人爽人人片av| 亚洲精华国产精华液的使用体验| 天天躁夜夜躁狠狠久久av| 欧美国产精品一级二级三级| 无遮挡黄片免费观看| 亚洲精品,欧美精品| 亚洲精品国产av成人精品| 熟女av电影| 女人精品久久久久毛片| 热re99久久精品国产66热6| 香蕉丝袜av| 国产精品女同一区二区软件| 欧美精品高潮呻吟av久久| 欧美精品一区二区免费开放| 日韩 亚洲 欧美在线| 国产成人精品在线电影| 久久99热这里只频精品6学生| 国产色婷婷99| 狠狠婷婷综合久久久久久88av| 男女国产视频网站| 国产又爽黄色视频| 亚洲国产av新网站| 久久精品久久久久久久性| 免费女性裸体啪啪无遮挡网站| 国产一区二区 视频在线| 一个人免费看片子| 午夜av观看不卡| 热99国产精品久久久久久7| 老汉色av国产亚洲站长工具| 午夜激情久久久久久久| 日韩制服丝袜自拍偷拍| 亚洲一卡2卡3卡4卡5卡精品中文| 国产乱来视频区| 国产男女超爽视频在线观看| av国产精品久久久久影院| 日韩一区二区视频免费看| 精品一区二区三区四区五区乱码 | 久久久久久久大尺度免费视频| 黄频高清免费视频| 久久精品国产综合久久久| 一本一本久久a久久精品综合妖精| 亚洲精品乱久久久久久| 97在线人人人人妻| 91国产中文字幕| 久久久久网色| 你懂的网址亚洲精品在线观看| 欧美日韩视频高清一区二区三区二| 亚洲欧美色中文字幕在线| 婷婷色综合大香蕉| 国产精品一二三区在线看| 亚洲欧美精品自产自拍| 欧美乱码精品一区二区三区| 久久精品人人爽人人爽视色| 久久97久久精品| 热99久久久久精品小说推荐| 国产精品三级大全| 国产乱人偷精品视频| 91aial.com中文字幕在线观看| 久久久久精品性色| 在线看a的网站| av卡一久久| 久久亚洲国产成人精品v| 自拍欧美九色日韩亚洲蝌蚪91| 久久人人97超碰香蕉20202| 国产精品国产三级专区第一集| 亚洲自偷自拍图片 自拍| 国产在线免费精品| 看免费av毛片| 国产精品二区激情视频| 一级毛片电影观看| 在线观看免费视频网站a站| 日日撸夜夜添| 亚洲少妇的诱惑av| 一区二区av电影网| 国产精品一二三区在线看| 欧美精品一区二区大全| 超碰成人久久| 亚洲第一区二区三区不卡| 91精品国产国语对白视频| 久久av网站| 国产亚洲午夜精品一区二区久久| 巨乳人妻的诱惑在线观看| 久久这里只有精品19| 欧美亚洲日本最大视频资源| 91国产中文字幕| 日韩 亚洲 欧美在线| 精品免费久久久久久久清纯 | 免费黄频网站在线观看国产| 性少妇av在线| 九九爱精品视频在线观看| 黄片无遮挡物在线观看| 超碰成人久久| 久久人妻熟女aⅴ| 亚洲国产欧美网| 91精品三级在线观看| 亚洲精品国产色婷婷电影| 日本欧美视频一区| 可以免费在线观看a视频的电影网站 | 母亲3免费完整高清在线观看| 一本大道久久a久久精品| 看十八女毛片水多多多| 久久 成人 亚洲| 亚洲在久久综合| 国产片内射在线| 久久精品熟女亚洲av麻豆精品| 日韩大片免费观看网站| 丝袜喷水一区| 亚洲精品乱久久久久久| 国产精品久久久av美女十八| 精品午夜福利在线看| 97在线人人人人妻| 最新在线观看一区二区三区 | 一区二区日韩欧美中文字幕| 日本猛色少妇xxxxx猛交久久| 国产成人系列免费观看| 日本vs欧美在线观看视频| 亚洲国产成人一精品久久久| 少妇被粗大猛烈的视频| 飞空精品影院首页| 亚洲色图 男人天堂 中文字幕| 亚洲熟女毛片儿| 麻豆av在线久日| 亚洲国产精品成人久久小说| 伊人亚洲综合成人网| www日本在线高清视频| 免费观看人在逋| 一级毛片我不卡| 久久精品人人爽人人爽视色| 热re99久久国产66热| 在线天堂中文资源库| 人人妻人人添人人爽欧美一区卜| 精品人妻熟女毛片av久久网站| 久久热在线av| 精品少妇黑人巨大在线播放| 亚洲色图综合在线观看| 美女高潮到喷水免费观看| 我的亚洲天堂| 日韩,欧美,国产一区二区三区| 丰满迷人的少妇在线观看| 国产成人午夜福利电影在线观看| 国产精品一区二区在线不卡| 赤兔流量卡办理| √禁漫天堂资源中文www| 日本欧美视频一区| 亚洲国产中文字幕在线视频| 两个人免费观看高清视频| 亚洲国产中文字幕在线视频| 亚洲人成网站在线观看播放| 成人漫画全彩无遮挡| 亚洲精华国产精华液的使用体验| 亚洲精品国产色婷婷电影| 两个人免费观看高清视频| 国产亚洲午夜精品一区二区久久| 国产又色又爽无遮挡免| 国产日韩一区二区三区精品不卡| 亚洲男人天堂网一区| 久久热在线av| 亚洲国产日韩一区二区| 啦啦啦视频在线资源免费观看| 国产一区二区三区综合在线观看| 一二三四中文在线观看免费高清| 九草在线视频观看| 99久久综合免费| 国产免费现黄频在线看| 日韩免费高清中文字幕av| 丝袜美腿诱惑在线| 亚洲精品日本国产第一区| 在线看a的网站| a级毛片黄视频| 男的添女的下面高潮视频| 亚洲欧美中文字幕日韩二区| 麻豆av在线久日| 久久人人爽人人片av| 国产精品国产三级专区第一集| 黄网站色视频无遮挡免费观看| 免费人妻精品一区二区三区视频| 悠悠久久av| 少妇被粗大猛烈的视频| 日日啪夜夜爽| 亚洲成国产人片在线观看| 国产一区有黄有色的免费视频| av又黄又爽大尺度在线免费看| 欧美97在线视频| 国产亚洲欧美精品永久| 久久天堂一区二区三区四区| 精品一区二区三区av网在线观看 | 多毛熟女@视频| h视频一区二区三区| 欧美另类一区| 人人妻人人爽人人添夜夜欢视频| 丁香六月欧美| 国产有黄有色有爽视频| 下体分泌物呈黄色| 亚洲人成电影观看| 中文字幕制服av| 日本午夜av视频| 熟妇人妻不卡中文字幕| 男女高潮啪啪啪动态图| av视频免费观看在线观看| 亚洲精品国产色婷婷电影| 国产伦理片在线播放av一区| 国产av国产精品国产| 九草在线视频观看| av电影中文网址| 在线看a的网站| 亚洲欧美一区二区三区国产| 欧美精品一区二区免费开放| 伊人久久大香线蕉亚洲五| 少妇人妻久久综合中文| 日本欧美视频一区| 亚洲欧洲精品一区二区精品久久久 | 国产极品天堂在线| 久久久久久久大尺度免费视频| 国产麻豆69| 少妇精品久久久久久久| 国产成人啪精品午夜网站| 1024香蕉在线观看| 国产av国产精品国产| 天天添夜夜摸| 在线 av 中文字幕| 又大又爽又粗| 晚上一个人看的免费电影| bbb黄色大片| 国产野战对白在线观看| 男女边吃奶边做爰视频| 在线精品无人区一区二区三| av国产久精品久网站免费入址| 人体艺术视频欧美日本| 欧美日韩精品网址| 国产精品一国产av| 亚洲少妇的诱惑av| 国产成人啪精品午夜网站| 欧美黄色片欧美黄色片| 毛片一级片免费看久久久久| 久久精品国产亚洲av高清一级| 午夜福利影视在线免费观看| 天天躁夜夜躁狠狠久久av| 在线观看www视频免费| 久久精品久久久久久噜噜老黄| 高清在线视频一区二区三区| 大片电影免费在线观看免费| 免费在线观看完整版高清| 黄色毛片三级朝国网站| 狠狠婷婷综合久久久久久88av| 黄色视频在线播放观看不卡| 最近中文字幕高清免费大全6| 1024香蕉在线观看| 少妇猛男粗大的猛烈进出视频| 一级毛片黄色毛片免费观看视频| 最近2019中文字幕mv第一页| 别揉我奶头~嗯~啊~动态视频 | 亚洲熟女毛片儿| 少妇被粗大猛烈的视频| videos熟女内射| 国产欧美日韩综合在线一区二区| 青春草国产在线视频| 日本一区二区免费在线视频| 女人高潮潮喷娇喘18禁视频| 极品人妻少妇av视频| 纯流量卡能插随身wifi吗| 一本色道久久久久久精品综合| 精品人妻在线不人妻| 亚洲精品久久午夜乱码| 国产熟女欧美一区二区| 一二三四在线观看免费中文在| 男人操女人黄网站| av在线老鸭窝| 久久热在线av| 大陆偷拍与自拍| 777久久人妻少妇嫩草av网站| 亚洲av欧美aⅴ国产| 亚洲熟女毛片儿| 日本色播在线视频| 一级爰片在线观看| 9色porny在线观看| 丝袜美腿诱惑在线| 日韩一区二区三区影片| 人人妻人人澡人人看| 欧美在线黄色| 久久综合国产亚洲精品| 美女脱内裤让男人舔精品视频| 亚洲欧美一区二区三区国产| 操出白浆在线播放| 精品视频人人做人人爽| 久久99热这里只频精品6学生| 国产精品av久久久久免费| 国产精品免费视频内射| 日韩精品有码人妻一区| 精品视频人人做人人爽| 国精品久久久久久国模美| 欧美xxⅹ黑人| 另类精品久久| 精品久久久久久电影网| 另类亚洲欧美激情| 亚洲国产欧美网| 老鸭窝网址在线观看| 女人被躁到高潮嗷嗷叫费观| 成人三级做爰电影| 成年人免费黄色播放视频| 免费在线观看视频国产中文字幕亚洲 | 国产成人午夜福利电影在线观看| 毛片一级片免费看久久久久| a级毛片在线看网站| 狠狠精品人妻久久久久久综合| 久久久久视频综合| 中文字幕人妻丝袜一区二区 | 最新的欧美精品一区二区| 天天躁夜夜躁狠狠躁躁| 国产精品三级大全| 亚洲精品美女久久久久99蜜臀 | 久久狼人影院| av在线播放精品| 久久99一区二区三区| 丝袜在线中文字幕| 一级片'在线观看视频| 国产探花极品一区二区| 女性被躁到高潮视频| 午夜av观看不卡| 国产成人系列免费观看| 亚洲欧洲日产国产| 尾随美女入室| 久久精品久久精品一区二区三区| 老汉色av国产亚洲站长工具| 久久久久人妻精品一区果冻| 人妻一区二区av| 久久99热这里只频精品6学生| 成年美女黄网站色视频大全免费| 婷婷成人精品国产| 又粗又硬又长又爽又黄的视频| 国产一区二区三区综合在线观看| 亚洲一区中文字幕在线| 看非洲黑人一级黄片| 免费少妇av软件| 黄色怎么调成土黄色| 男女免费视频国产| 纯流量卡能插随身wifi吗| 免费久久久久久久精品成人欧美视频| 九草在线视频观看| 欧美精品亚洲一区二区| 亚洲国产av影院在线观看| 国产午夜精品一二区理论片| 咕卡用的链子| 91国产中文字幕| 一级爰片在线观看| 一区二区三区四区激情视频| 交换朋友夫妻互换小说| 韩国精品一区二区三区| av天堂久久9| 成人亚洲欧美一区二区av| 青春草国产在线视频| 少妇的丰满在线观看| 老汉色av国产亚洲站长工具| 9热在线视频观看99| 国产国语露脸激情在线看| 国产精品久久久人人做人人爽| 丝袜美足系列| 免费人妻精品一区二区三区视频| 高清在线视频一区二区三区| 久久久久久久久免费视频了| 免费观看人在逋| 国产精品久久久久久久久免| 2018国产大陆天天弄谢| 成人亚洲精品一区在线观看| 亚洲熟女毛片儿| 国产精品人妻久久久影院| 国产探花极品一区二区| 国产 精品1| 又大又黄又爽视频免费| 亚洲精品一二三| 日韩欧美精品免费久久| 91aial.com中文字幕在线观看| 国产成人系列免费观看| 黄色毛片三级朝国网站| 视频在线观看一区二区三区| 丝袜喷水一区| 国产99久久九九免费精品| 纵有疾风起免费观看全集完整版| 亚洲av成人不卡在线观看播放网 | 国产精品人妻久久久影院| 19禁男女啪啪无遮挡网站| 亚洲国产精品成人久久小说| 精品久久久久久电影网| 国产精品二区激情视频| 黄色视频在线播放观看不卡| 日本wwww免费看| 熟女av电影| 亚洲精品日本国产第一区| 日本wwww免费看| 深夜精品福利| 美女国产高潮福利片在线看| 日韩不卡一区二区三区视频在线| 熟女av电影| 亚洲一区中文字幕在线| 日韩一卡2卡3卡4卡2021年| 99国产精品免费福利视频| 水蜜桃什么品种好| 日韩大片免费观看网站| 国产成人精品福利久久| 亚洲三区欧美一区| 国产亚洲欧美精品永久| 亚洲成人av在线免费| 国产无遮挡羞羞视频在线观看| 2018国产大陆天天弄谢| 最近中文字幕2019免费版| 欧美成人精品欧美一级黄| 丰满乱子伦码专区| 免费女性裸体啪啪无遮挡网站| 天天躁夜夜躁狠狠躁躁| 9色porny在线观看| 欧美精品人与动牲交sv欧美|