摘 要:多視圖聚類方法隨著數(shù)據(jù)獲取途徑日益多樣化成為研究熱點,但大多數(shù)聚類方法低估了噪聲和數(shù)據(jù)多結(jié)構(gòu)互補性信息對聚類結(jié)果的影響,并且忽略了聚類結(jié)果對低秩張量優(yōu)化過程的反向引導(dǎo)作用。為解決這些問題,提出了基于結(jié)構(gòu)化張量學(xué)習(xí)的多視圖聚類(multi-view clustering based on structured tensor learning,MCSTL)。首先,對初始表示張量進行再次去噪使其更具準(zhǔn)確性和魯棒性;同時,互補地學(xué)習(xí)局部結(jié)構(gòu)、全局結(jié)構(gòu)和各視圖間的高階相關(guān)性,提高表示張量與原始數(shù)據(jù)本質(zhì)簇結(jié)構(gòu)的一致性;然后,從跨視圖信息融合的親和矩陣中學(xué)習(xí)到統(tǒng)一的特征矩陣,利用其隱含的聚類結(jié)構(gòu)信息反向引導(dǎo)表示張量的優(yōu)化過程;最后,對特征矩陣施加了正交約束,使其提供數(shù)據(jù)的軟標(biāo)簽信息,并對模型進行直接聚類解釋。實驗表明,MCSTL在6種聚類評價指標(biāo)上均表現(xiàn)優(yōu)異,30個指標(biāo)數(shù)據(jù)中有27個達(dá)到最優(yōu),從而充分驗證了MCSTL的有效性和優(yōu)越性。
關(guān)鍵詞: 多視圖聚類; 張量; 結(jié)構(gòu)性約束; 特征矩陣
中圖分類號: TP391
文獻標(biāo)志碼: A
文章編號: 1001-3695(2025)02-017-0448-07
doi: 10.19734/j.issn.1001-3695.2024.07.0278
Multi-view clustering based on structured tensor learning
Li Xinyu1, Kang Kehan1, Peng Chong2’
(1.School of Computer Science amp; Technology, Qingdao University, Qingdao Shandong 266071, China; 2.School of Computer Science amp; Techno-logy, Ocean University of China, Qingdao Shandong 266100, China)
Abstract:Multi view clustering methods have become a research hotspot with the increasing diversity of data acquisition techniques. However, most clustering methods underestimate the impact of noise and complementary structural information of the data. Moreover, they often ignore the reverse guidance of clustering results on the optimization process of low rank tensors. To address these issues, this paper proposed a multi-view clustering method based on structured tensor learning (MCSTL). First, it further denoised the initial representation tensor to enhance its accuracy and robustness. At the same time, it complementarily learnt local structure, global structure, and high-order correlation across different views, which improved the consistency between the representation tensor and the intrinsic cluster structure of the original data. Then, it learnt a unified feature matrix from the affinity matrix of cross-view information fusion, and utilized the implicit clustering structure information within it to inversely guide the optimization process of the representation tensor. Lastly, it imposed an orthogonal constraint on the feature matrix, which provided soft label information of the data and allows for a direct clustering interpretation of the model. The experimental results show the MCSTL performs well in all six clustering evaluation metrics, with 27 out of 30 metrics reaching the optimal level, fully verifying the effectiveness and superiority of the MCSTL method.
Key words:multi-view clustering; tensor; structural constraint; characteristic matrix
0 引言
聚類方法作為機器學(xué)習(xí)的關(guān)鍵技術(shù)之一,在圖像分割[1]、人臉聚類[2]、社區(qū)檢測[3]和文本分類[4]等多個領(lǐng)域都發(fā)揮著不可或缺的作用。在過去的幾十年里,面對日益龐大且復(fù)雜的樣本數(shù)據(jù)集,傳統(tǒng)的聚類算法在處理高維數(shù)據(jù)時逐漸顯得力不從心,研究者們致力于探索新的聚類方法并不斷取得進展。提出的新方法主要包括:a)子空間聚類。通過低維子空間數(shù)據(jù)線性表示高維數(shù)據(jù),將數(shù)據(jù)的原始特征空間分割為不同的特征子集,并在子空間上分別進行聚類。b)圖學(xué)習(xí)聚類。通過捕獲圖中節(jié)點的依賴和交互關(guān)系,從而揭示數(shù)據(jù)的潛在真實結(jié)構(gòu)。c)深度學(xué)習(xí)聚類。利用深度神經(jīng)網(wǎng)絡(luò)的多層非線性表示來挖掘高維數(shù)據(jù)內(nèi)在結(jié)構(gòu)和特征。其中,基于譜聚類的子空間聚類方法備受關(guān)注,近年來成為子空間聚類方法的研究熱點[5,6]。低秩表示子空間聚類(LRR)[6]和稀疏表示子空間聚類(SSC)[7]是兩種最典型的子空間聚類方法,已經(jīng)被廣泛應(yīng)用到單視圖聚類中[8]。但在當(dāng)前的實際應(yīng)用中,數(shù)據(jù)可以從多種來源或角度收集,從而形成多源異構(gòu)的多視圖數(shù)據(jù)[9]。例如,人們可以利用文本、圖像或其他類型特征來描述同一個物體從而產(chǎn)生多視圖數(shù)據(jù),為聚類處理提供多樣化的視角。雖然多視圖數(shù)據(jù)提供的信息更全面,但傳統(tǒng)的單視圖聚類方法無法充分利用多視圖數(shù)據(jù)提供的一致性與互補性信息,因此聚類表現(xiàn)性能欠佳。為了應(yīng)對這一挑戰(zhàn),研究者們對多視圖聚類方法進行了廣泛的研究與討論。目前,多視圖聚類方法可以按照親和矩陣構(gòu)建方式的不同主要分為兩種類型[10]。第一種類型是由相似度矩陣[11~14]構(gòu)建親和矩陣,而第二種類型基本遵循譜聚類子空間聚類方法,簡稱為多視圖子空間聚類[9,15,16],并且已經(jīng)成為多視圖聚類研究的焦點。與單視圖聚類方法一致,多視圖子空間聚類方法也同樣是基于經(jīng)典的LRR或SSC算法開發(fā)。例如,LTMSC[17]通過使用張量核范數(shù)(TNN)約束來學(xué)習(xí)低秩表示張量,從而探索數(shù)據(jù)的跨視圖相關(guān)性和全局結(jié)構(gòu)。CSMSC[18]聯(lián)合利用多視圖的一致性和差異性來捕捉不同視圖之間的共識屬性和固有差異。MLRR[19]擴展了LRR,充分利用多樣性正則化探索各視圖的多樣性和一致性,并使用對稱約束來確保低維表示的行列主方向角信息一致性。盡管現(xiàn)有多視圖子空間聚類方法取得了不錯的進展,但大多數(shù)聚類方法仍在存在一些問題:a)目前的大部分聚類方法只關(guān)注原始數(shù)據(jù)中所存在的噪聲,而忽略了構(gòu)造表示張量的過程也可能引入噪聲,使噪聲對聚類結(jié)果不可避免地產(chǎn)生干擾;b)充分利用樣本數(shù)據(jù)的結(jié)構(gòu)信息可以有效提高聚類性能,其中包括數(shù)據(jù)局部結(jié)構(gòu)、全局結(jié)構(gòu)和不同視圖間的高階相關(guān)性結(jié)構(gòu),現(xiàn)有聚類方法通常對這幾方面結(jié)構(gòu)的互補性信息利用不足;c)大多數(shù)聚類方法采用張量學(xué)習(xí)和特征矩陣學(xué)習(xí)分離的策略,忽略了特征矩陣隱含的聚類結(jié)構(gòu)對張量優(yōu)化過程的反向引導(dǎo)作用,這可能導(dǎo)致聚類結(jié)果的次優(yōu)解。
針對上述問題,本文提出了基于結(jié)構(gòu)化張量學(xué)習(xí)的多視圖聚類算法(multi-view clustering based on structured tensor lear-ning, MCSTL)。該算法將無噪聲低秩張量學(xué)習(xí),局部相似性學(xué)習(xí)以及譜聚類集成到一個框架中進行聯(lián)合優(yōu)化學(xué)習(xí)。a)該算法進一步考慮到構(gòu)造初始表示張量過程中引進的噪聲,對其進行再次去噪聲得到更具準(zhǔn)確性、魯棒性的表示張量,盡可能降低噪聲對聚類結(jié)果的干擾,并在此基礎(chǔ)上探索數(shù)據(jù)不同視圖間的高階相關(guān)性。b)該算法通過計算成對樣本差異性來精確學(xué)習(xí)每個視圖的局部結(jié)構(gòu),與低秩張量學(xué)習(xí)全局結(jié)構(gòu)、三階張量探索不同視圖高階相關(guān)結(jié)構(gòu)相互補充,有效提高表示張量與樣本數(shù)據(jù)的簇結(jié)構(gòu)信息一致性。c)該算法對不同視圖的親和矩陣進行了跨視圖信息融合,從中學(xué)習(xí)統(tǒng)一的聚類特征矩陣,然后利用特征矩陣隱含的聚類結(jié)構(gòu)信息反向引導(dǎo)表示張量的優(yōu)化過程,并將得到的特征矩陣直接應(yīng)用于K-means聚類簡化聚類過程。d)針對該算法開發(fā)了一種量身定制的高效優(yōu)化算法。在真實數(shù)據(jù)集上的應(yīng)用結(jié)果表明,MCSTL具有良好的聚類性能以及表現(xiàn)穩(wěn)定性。
1 相關(guān)工作
1.1 符號定義
1.2 基于張量的多視圖子空間聚類模型
在多視圖聚類算法中,為追求全局一致性并挖掘不同視圖之間的高階相關(guān)性,提出了三階表示張量學(xué)習(xí),經(jīng)典基于張量的多視圖子空間聚類模型[17]的目標(biāo)函數(shù)表述為
2 MCSTL聚類算法
2.1 MCSTL模型
通過對初始表示張量再次去噪,解決了張量構(gòu)造過程中引入噪聲干擾這一問題,確保后續(xù)聚類過程中表示張量的準(zhǔn)確性,低秩約束該張量習(xí)得了全局結(jié)構(gòu)并探索了不同視圖間高階相關(guān)性。
2.2.3 求解E(v)
3 實驗分析
3.1 實驗設(shè)置
3.1.1 實驗數(shù)據(jù)集
為了驗證本文提出的基于結(jié)構(gòu)化張量學(xué)習(xí)的多視圖聚類(MCSTL)方法的有效性與優(yōu)越性,本文在如下五個廣泛使用的真實數(shù)據(jù)集上進行聚類應(yīng)用,并將其聚類表現(xiàn)與其他聚類方法進行對比分析。
a)BBC-4view[23]。BBC-4view數(shù)據(jù)集是一個來自BBC新聞網(wǎng)站的新聞文章的數(shù)據(jù)集,有685個樣本和4種類型特征,包括商業(yè)、政治、娛樂、體育和技術(shù)五個主題類別。
b)BBC-sport[23]。BBC-sport數(shù)據(jù)集是另一個新聞文章數(shù)據(jù)集,有544個樣本和2種類型的特征,包括運動、板球、足球、橄欖球和網(wǎng)球五個主題。
c)UCI-3view[24]。UCI-3view數(shù)據(jù)集是從荷蘭實用地圖中提取的手寫數(shù)字集合,包含2 000個樣本和3種類型特征,分別為240維度傅里葉系數(shù)特征、6維度形態(tài)特征和76維度像素平均值特征。十個類別分別是手寫數(shù)字0~9的圖像。
d)StillDB[25]。StillDB數(shù)據(jù)集是具有467個樣本的靜態(tài)動作圖像集合,三種類型特征包括200維度彩色篩弓特征、200維度篩弓特征和200維度形狀上下文弓特征。六種動作類型圖像分別為:奔跑、走路、抓、扔、蹲、踢。
e)Flowers[26]。Flowers數(shù)據(jù)集包含來自17類花朵的1 360個樣本,包含三種不同的視覺特征,即1 360維度顏色特征、1 360維度紋理特征和1 360維度形狀特征。
3.1.2 實驗對比方法
將MCSTL與14種聚類方法進行了比較,包括SSC[7]、LRR[6]、S0/L0LRSSC[27]、RMSC[12]、LTMSC[17]、ECMSC[15]、MLAN[28]、GMC[11]、LMSC[9]、MCLES[29]、LMVSC[30]、DMFMVC[31]、MvDSCN[32]和CLR-MVP[33],前三種是經(jīng)典的單視圖聚類方法,其他為多視圖聚類方法。
對于14種對比方法,本文按照原文中提出的最優(yōu)參數(shù)與聚類步驟進行設(shè)置并計算各項評價指標(biāo)。對于本文MCSTL,各參數(shù)先在{0.000 1,0.001,0.01,0.1,1,10,100}范圍尋找近似參數(shù)區(qū)間,再在此區(qū)間內(nèi)搜索最優(yōu)參數(shù)。最終迭代收斂的F(*)應(yīng)用于K-means聚類得到數(shù)據(jù)聚類標(biāo)簽,將數(shù)據(jù)聚類標(biāo)簽與數(shù)據(jù)集的真實標(biāo)簽進行對比計算得出各評估指標(biāo)值。為了減少隨機性影響,將每種算法重復(fù)執(zhí)行10次,最終取指標(biāo)值。
3.1.3 實驗評價指標(biāo)
在實驗中,本文計算了6個常用的評價指標(biāo)來評估各算法的聚類性能。分別為:
a)準(zhǔn)確度(ACC)。定義為預(yù)測正確的樣本數(shù)占總樣本數(shù)的比例,一般作為模型的初步評估指標(biāo)。
b)歸一化互信息(NMI)。定義為兩個聚類結(jié)果的相似性值,與聚類的整體質(zhì)量呈正相關(guān)。
c)調(diào)整蘭德系數(shù)(ARI)。計算位于同一類簇和不同類簇的樣本點數(shù)目來度量兩個聚類結(jié)果之間的相似程度。
d)精確率(precision、P值)。定義為聚類中屬于同一類的樣本數(shù)與這一類樣本總數(shù)的比值。精確率越高,模型對負(fù)樣本的區(qū)分能力越強。
e)召回率(recall)。定義為聚類中屬于同一類的樣本數(shù)與真實標(biāo)簽中這一類樣本總數(shù)的比值。召回率越高,模型對正樣本的識別能力越強。
f)F分?jǐn)?shù)(F-score)。綜合精確度和召回率來評估聚類有效性。
在六個評價指標(biāo)中,ARI指標(biāo)的值在[-1,1],而其他指標(biāo)的值均在[0,1],所有指標(biāo)值越高代表方法聚類性能越好。
3.2 實驗結(jié)果分析
表1~5分別報告了在五個數(shù)據(jù)集的具體應(yīng)用中,不同聚類算法得到的六個聚類指標(biāo)結(jié)果。聚類性能排名前三的算法分別加粗、下劃線和斜體表示。
a)實驗結(jié)果顯示,本文MCSTL在30個指標(biāo)結(jié)果中分別有27個和2個取得了最優(yōu)和次優(yōu)的聚類表現(xiàn)結(jié)果。具體來看,MCSTL在BBC-Sport、UCI-3view和StillDB上的所有指標(biāo)中都取得了最優(yōu)聚類結(jié)果。特別是,MCSTL分別在BBC-Sport和UCI-3view上獲得了100%準(zhǔn)確或接近100%準(zhǔn)確的聚類結(jié)果,與次優(yōu)結(jié)果相比,分別大約有4%~16%和4%~8%的提升。同時,在StillDB上與次優(yōu)結(jié)果相比,MCSTL在召回率和其他指標(biāo)上分別有大約8%和36%~46%的改進。即使在比較有挑戰(zhàn)性的Flowers和BBC-4view數(shù)據(jù)集上,MCSTL依舊表現(xiàn)穩(wěn)定,綜合性能達(dá)到最優(yōu)。上述實驗分析表明MCSTL通過對表示張量二次去噪,以及充分利用數(shù)據(jù)多結(jié)構(gòu)信息,獲得了更具準(zhǔn)確性的表示張量,從而提升了聚類性能。
b)在對比方法中,CLR-MVP、MvDSCN、LMSC和MCLES這幾種算法在部分?jǐn)?shù)據(jù)集上表現(xiàn)出良好的聚類效果。其中,CLR-MVP和MvDSCN算法在所有實驗中綜合性能排名前三,前者分別在Flowers、UCI-3view和BBC-Sport數(shù)據(jù)集上排名前三,后者在StillDB和BBC-Sport數(shù)據(jù)集上排名前三。然而,這兩種方法在其他數(shù)據(jù)集上都未能取得令人滿意的性能,這表明與MCSTL相比,它們具有顯著的不穩(wěn)定性。
3.3 收斂性分析
3.4 消融實驗
3.5 聚類應(yīng)用分析
MCSTL聚類算法能夠高效應(yīng)用于多個場景,如文本分類、圖像識別及疾病分型等場景。為方便聚類結(jié)果展示,本節(jié)以手寫數(shù)字圖像識別這一具體應(yīng)用場景為例,闡述并分析了MCSTL在實際應(yīng)用中的聚類性能。圖4表明,面對無明顯分布規(guī)律的2 000個手寫數(shù)字樣本(涵蓋‘0’至‘9’十個類別),MCSTL正確地將這些數(shù)字按照其書寫特性進行分為十類,極少數(shù)樣本(方框標(biāo)記所示)存在劃分錯誤,如個別樣本‘4’和‘8’被錯誤歸類到組七數(shù)字‘6’的所屬類別中,但樣本整體分類準(zhǔn)確率依然可觀。
同時,圖5使用t分布隨機鄰域嵌入(t-SNE)[34]方法將原始數(shù)據(jù)三個視圖和算法輸出特征矩陣F的數(shù)據(jù)點映射到二維空間,原數(shù)據(jù)各視圖中屬于同一真實類別的數(shù)據(jù)點(即顏色相同的數(shù)據(jù)點)分布散亂或類與類之間邊界模糊,但在MCSTL提取的特征矩陣F中,同類數(shù)據(jù)點緊密聚集,形成清晰的分類結(jié)構(gòu)。良好的聚類結(jié)果得益于MCSTL算法在雙重去噪、挖掘數(shù)據(jù)多結(jié)構(gòu)互補信息方面的優(yōu)異能力,精準(zhǔn)捕捉到了數(shù)據(jù)的本質(zhì)簇結(jié)構(gòu),從而在實例分類應(yīng)用中彰顯了MCSTL的有效性和實用性。
4 結(jié)束語
本文提出了一種新的多視圖子空間聚類算法,命名為基于結(jié)構(gòu)化張量學(xué)習(xí)的多視圖聚類算法(MCSTL)。該算法從多視圖數(shù)據(jù)中構(gòu)造了一個再次去除噪聲且增強多結(jié)構(gòu)互補性信息學(xué)習(xí)的表示張量,用于與特征矩陣聯(lián)合學(xué)習(xí)優(yōu)化,將最終的特征矩陣輸入K-means算法得到聚類結(jié)果。該算法消除了張量學(xué)習(xí)過程和特征矩陣學(xué)習(xí)過程相分離的策略,進一步簡化了聚類過程。五個真實數(shù)據(jù)集的應(yīng)用結(jié)果顯示,MCSTL具有出色且穩(wěn)定聚類性能,使本文方法成為多視圖子空間聚類任務(wù)的有效和實用的選擇,對多視圖聚類的應(yīng)用具有重要意義。在接下來的工作中,將考慮如何將MCSTL擴展到更具挑戰(zhàn)性的不完整多視圖聚類領(lǐng)域,并進一步優(yōu)化MCSTL的解決過程以適應(yīng)大規(guī)模數(shù)據(jù)集聚類應(yīng)用。
參考文獻:
[1]Lei Tao, Liu Peng, Jia Xiaohong, et al. Automatic fuzzy clustering framework for image segmentation[J]. IEEE Trans on Fuzzy Systems, 2020, 28(9): 2078-2092.
[2]Peng Chong, Zhang Jing, Chen Yongyong, et al. Preserving bilateral view structural information for subspace clustering[J]. Knowledge-Based Systems, 2022, 258: 109915.
[3]Park N, Rossi R, Koh E, et al. CGC: contrastive graph clustering for community detection and tracking[C]// Proc of ACM Web Conference 2022. New York: ACM Press, 2022: 1115-1126.
[4]Guan Renchu, Zhang Hao, Liang Yanchun, et al. Deep feature-based text clustering and its explanation[J]. IEEE Trans on Know-ledge and Data Engineering, 2022, 34(8): 3669-3680.
[5]Peng Chong, Kang Zhao, Li Huiqing, et al. Subspace clustering using log-determinant rank approximation[C]// Proc of the 21st ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press, 2015: 925-934.
[6]Liu Guangcan, Lin Zhoucen, Yan Shuicheng, et al. Robust recovery of subspace structures by low-rank representation[J]. IEEE Trans on Pattern Analysis amp; Machine Intelligence, 2013, 35(1): 171-184.
[7]Elhamifar E, Vidal R. Sparse subspace clustering[C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2009: 2790-2797.
[8]Wang Fusheng, Chen Chenglizhao, Peng Chong. Essential low-rank sample learning for group-aware subspace clustering[J]. IEEE Signal Processing Letters, 2023, 30: 1537-1541.
[9]Zhang Changqing, Fu Huazhu, Hu Qinghua, et al. Generalized latent multi-view subspace clustering[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2020, 42(1): 86-99.
[10]Wu Jianlong, Lin Zhouchen, Zha Hongbin. Essential tensor learning for multi-view spectral clustering[J]. IEEE Trans on Image Processing, 2019, 28(12): 5910-5922.
[11]Wang Hao, Yang Yan, Liu Bing. GMC: graph-based multi-view clustering[J]. IEEE Trans on Knowledge and Data Enginee-ring, 2020, 32(6): 1116-1129.
[12]Xia Rongkai, Pan Yan, Du Lei, et al. Robust multi-view spectral clustering via low-rank and sparse decomposition[C]// Proc of the 28th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2014: 2149-2155.
[13]Zhan Kun, Zhang Changqing, Guan Junpeng, et al. Graph learning for multiview clustering[J]. IEEE Trans on Cybernetics, 2018, 48(10): 2887-2895.
[14]Kumar A, RAI P, Daumé H. Co-regularized multi-view spectral clustering[C]// Proc of the 24th International Conference on Neural Information Processing Systems. New York: ACM Press, 2011: 1413-1421.
[15]Wang Xiaobo, Guo Xiaojie, Lei Zhen, et al. Exclusivity-consistency regularized multi-view subspace clustering[C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press. 2017: 1-9.
[16]Li Ruihuang, Zhang Changqing, Fu Huazhu, et al. Reciprocal multi-layer subspace learning for multi-view clustering[C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 2019: 8171-8179.
[17]Zhang Changqing, Fu Huazhu, Liu Si, et al. Low-rank tensor constrained multiview subspace clustering[C]// Proc of IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 2015: 1582-1590.
[18]Luo Shirui, Zhang Changqing, Zhang Wei, et al. Consistent and specific multi-view subspace clustering[C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2018: 3730-3737.
[19]Chen Jie, Yang Shengxiang, Mao Hua, et al. Multiview subspace clustering using low-rank representation[J]. IEEE Trans on Cybernetics, 2022, 52(11): 12364-12378.
[20]Xie Yuan, Tao Dacheng, Zhang Wensheng, et al. On unifying multi-view self-representations for clustering by tensor multi-rank minimization[J]. International Journal of Computer Vision, 2016, 126: 1157-1179.
[21]Peng Chong, Chen Yongyong, Kang Zhao, et al. Robust principal component analysis: a factorization-based approach with linear complexity[J]. Information Sciences, 2020, 513: 581-599.
[22]Hu Wenrui, Tao Dacheng, Zhang Wensheng, et al. The twist tensor nuclear norm for video completion[J]. IEEE Trans on Neural Networks and Learning Systems, 2017, 28(12): 2961-2973.
[23]Greene D, Cunninhham P. Practical solutions to the problem of diago-nal dominance in kernel document clustering[C]// Proc of the 23rd International Conference on Machine Learning. New York: ACM Press, 2006: 377-384.
[24]Zhang Zhizhong, Xie Yuan, Zhang Wensheng, et al. Tensor multi-task learning for person re-identification[J]. IEEE Trans on Image Processing, 2020, 29: 2463-2477.
[25]Ikizler N, Cinbis R G, Pehlivan S, et al. Recognizing actions from still images[C]// Proc of the 19th International Conference on Pattern Recognition. Piscataway, NJ: IEEE Press, 2008: 1-4.
[26]Nilsback M E, Zisserman A. A visual vocabulary for flower classification[C]// Proc of IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2006: 1447-1454.
[27]Brbic M, Kopriva I. ?0-motivated low-rank sparse subspace clustering[J]. IEEE Trans on Cybernetics, 2018, 50(4): 1711-1725.
[28]Nie Feipeng, Cai Guohao, Li Jing, et al. Auto-weighted multi-view learning for image clustering and semi-supervised classification[J]. IEEE Trans on Image Processing, 2018, 27(3): 1501-1511.
[29]Chen Mansheng, Huang Ling, Wang Changdong, et al. Multi-view clustering in latent embedding space[C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2020: 3513-3520.
[30]Kang Zhao, Zhou Wangtao, Zhao Zhitong, et al. Large-scale multi-view subspace clustering in linear time[C]// Proc of AAAI Confe-rence on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2020: 4412-4419.
[31]Zhao Handong, Ding Zhengming, Fu Yun. Multi-view clustering via deep matrix factorization[C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2022: 2921-2927.
[32]Zhu Pengfei, Hui Binyuan, Zhang Changqing, et al. Multi-view deep subspace clustering networks[J]. IEEE Trans on Cybernetics, 2024, 54(7): 4280-4293.
[33]Kang Kehan, Chen Chenglizhao, Peng Chong. Consensus low-rank multi-view subspace clustering with cross-view diversity preserving[J]. IEEE Signal Processing Letters, 2023, 30: 1512-1516.
[34]Maaten L, Hinton G. Visualizing data using t-SNE [J]. Journal of Machine Learning Research, 2008, 9(2605): 2579-2605.