何子儀,楊 燕,張熠玲
(西南交通大學(xué) 計算機(jī)與人工智能學(xué)院,成都 611756)
聚類分析作為機(jī)器學(xué)習(xí)、模式識別、計算機(jī)視覺和數(shù)據(jù)挖掘等領(lǐng)域的一項重要的基本任務(wù),學(xué)者們在這一課題上已經(jīng)做了大量的研究工作[1]。但是隨著大數(shù)據(jù)和科學(xué)技術(shù)的發(fā)展,獲取到的數(shù)據(jù)不只存在一個方面的描述,例如,對于一張圖片,可以采用SIFT(Scale-Invariant Feature Transform)、HOG(Histogram of Oriented Gradient)、LBP(Local Binary Patterns)等不同方法進(jìn)行描述;同理,對于一個人,不同的人也會對他作出不同的評價,這種來自不同角度的描述被視為多視圖數(shù)據(jù)。針對多視圖數(shù)據(jù)進(jìn)行的多視圖聚類(Multiview Clustering)[2]也成為了目前學(xué)者們研究的重要領(lǐng)域,其關(guān)鍵之處在于如何利用不同視圖數(shù)據(jù)之間的共識信息和互補(bǔ)信息提高聚類的性能。
共識原則和互補(bǔ)原則是多視圖聚類的兩個基本概念:一方面,由于多個視圖恰好是同一對象的多個映射,共識原則尋求在多個視圖中對同一對象的多個預(yù)測保持一致;另一方面,由于不同視圖的多樣性,互補(bǔ)原則旨在綜合利用各視圖的互補(bǔ)信息,作出更好更全面的預(yù)測。傳統(tǒng)的多視圖聚類方法大多以機(jī)器學(xué)習(xí)為基礎(chǔ),利用淺層線性嵌入函數(shù)來獲得數(shù)據(jù)的內(nèi)在結(jié)構(gòu),忽略了數(shù)據(jù)的非線性特征[3]。
隨著深度神經(jīng)網(wǎng)絡(luò)的發(fā)展,學(xué)者們從中受到啟發(fā),將深度學(xué)習(xí)應(yīng)用于多視圖聚類,目前的多視圖聚類方法可以分為四類:1)基于典型相關(guān)性分析的多視圖聚類[4-5],關(guān)聯(lián)兩個相關(guān)視圖,探索有利于聚類的信息;2)子空間聚類[6-9],找到一個公共的低維潛在子空間,該子空間捕獲了不同視圖之間最可能的一致性,從而獲得譜聚類的相似度矩陣;3)基于矩陣分解的多視圖聚類[10-11],此類方法在非負(fù)矩陣分解(non-Negative Matrix Factorization,NMF)框架中結(jié)合多視圖信息,學(xué)習(xí)了聚類常用的指標(biāo)矩陣;4)基于圖的多視圖聚類方法[12-13],利用多個視圖的信息構(gòu)造用于聚類的圖。
在這些多視圖聚類方法中,多視圖子空間聚類憑借良好的聚類性能和出色的計算效率受到了廣泛關(guān)注,學(xué)者們提出了許多出色的方法,例如基于統(tǒng)一判別學(xué)習(xí)的深度多視圖子空間聚類[14]、基于自表達(dá)的深度多視圖子空間聚類[15]與基于典型相關(guān)性分析的深度多視圖子空間聚類[16]。
盡管這些深度多視圖子空間聚類取得了令人印象深刻的結(jié)果,但仍然面臨著兩個問題:1)在對單一視圖進(jìn)行特征提取時,只考慮了數(shù)據(jù)本身的特性,即樣本的屬性信息,很少考慮數(shù)據(jù)的潛在結(jié)構(gòu),而樣本之間的關(guān)系,即樣本的結(jié)構(gòu)信息往往能夠揭示樣本之間潛在的相似性,為表示學(xué)習(xí)提供有價值的指導(dǎo);2)整個模型包含特征提取和聚類兩個獨(dú)立的過程,而這兩個過程之間沒有設(shè)計聯(lián)系,即聚類任務(wù)無法為特征提取過程提供監(jiān)督信息,導(dǎo)致特征提取的結(jié)果不能朝有利于聚類過程的方向優(yōu)化。
本文提出了一種深度融合多視圖聚類網(wǎng)絡(luò)(Deep Fusion based Multi-view Clustering Network,DFMCN)來解決上述問題。主要工作如下:
1)針對每個單一視圖的特征提取過程,結(jié)合自編碼器和圖卷積自編碼器的優(yōu)點,將樣本的結(jié)構(gòu)信息和屬性信息都應(yīng)用到自表示學(xué)習(xí)過程中,有助于獲取更好的自表示結(jié)果。
2)有效融合多視圖信息并設(shè)計雙層自監(jiān)督模塊,既考慮每個樣本之間的互補(bǔ)信息,對每個視圖獨(dú)立監(jiān)督,又考慮樣本之間的共識信息進(jìn)行整體監(jiān)督,從而利用聚類過程優(yōu)化特征提取過程和視圖融合過程。
傳統(tǒng)的聚類方法核心是計算數(shù)據(jù)之間的距離或者相似性,如K-Means 通過計算給定特征空間中點之間的歐幾里得距離進(jìn)行聚類,這些方法沒有利用聚類過程優(yōu)化特征空間的提取過程。因此,深度嵌入聚類(Deep Embedded Clustering,DEC)[17]被提出,它利用軟分配的思想,將KL 散度(Kullback-Leibler divergence)作為發(fā)散損失,使自動編碼器學(xué)習(xí)到的表示更靠近聚類中心,提高聚類的內(nèi)聚性。在此基礎(chǔ)上,改進(jìn)的深度嵌入聚類(Improved DEC,IDEC)[18]將重建損失添加到DEC 的目標(biāo)中,幫助自動編碼器(Auto-Encoder,AE)學(xué)習(xí)更好的數(shù)據(jù)表示的約束;結(jié)構(gòu)化深層聚類網(wǎng)絡(luò)(Structural Deep Clustering Network,SDCN)[19]首次將自動編碼器和圖卷積網(wǎng)絡(luò)(Graph Convolutional Network,GCN)模塊相結(jié)合,在特征提取時融合樣本的屬性信息和結(jié)構(gòu)信息,以提高聚類性能;深度融合聚類網(wǎng)絡(luò)(Deep Fusion Clustering Network,DFCN)[20]在SDCN 的基礎(chǔ)上,提出了更優(yōu)秀的信息融合模塊來集成和細(xì)化AE 和GCN,使來自兩個子網(wǎng)絡(luò)的信息被精細(xì)地合并以達(dá)成一致,并學(xué)習(xí)更多的區(qū)分表示。
基于典型相關(guān)分析(Canonical Correlation Analysis,CCA)的深度多視圖聚類的關(guān)鍵點在于尋找兩個最大相關(guān)隨機(jī)向量的線性投影。Andrew 等[4]首次開發(fā)了深度典型相關(guān)分析(Deep Canonical Correlation Analysis,DCCA)方法,學(xué)習(xí)兩個視圖的非線性變換,探索它們之間的線性相關(guān)表示;Wang 等[5]在DCCA 基礎(chǔ)上進(jìn)行改進(jìn),提出了深正則相關(guān)自編碼器(Deep Canonically Correlated AutoEncoder,DCCAE)。子空間聚類是多視圖聚類方法中關(guān)注度較高的研究方向,它的核心思想是從多個子空間組成的數(shù)據(jù)中發(fā)現(xiàn)固有的聚類結(jié)構(gòu),Abavisani 等[6]將深度學(xué)習(xí)應(yīng)用于多模態(tài)子空間聚類;Brbi? 等[21]提出一種多視圖稀疏子空間聚類方法,結(jié)合了卷積自動編碼器和基于CCA 的自表示模塊;Wang 等[14]提出基于統(tǒng)一判別學(xué)習(xí)的深度多視圖子空間聚類,將全局和局部結(jié)構(gòu)與自表示層相結(jié)合。此外,在深度多視圖聚類領(lǐng)域,學(xué)者們還在探索與其他方法結(jié)合的可能性,Li 等[22]將對抗學(xué)習(xí)引入深度多視圖聚類,提出深度對抗多視圖聚類網(wǎng)絡(luò)(Deep Adversarial Multi-view Clustering Network,DAMCN);Xu 等[23]提出一種協(xié)同訓(xùn)練策略,使所有視圖的特征表示和聚類分配通過協(xié)作進(jìn)行學(xué)習(xí);Pan 等[24]提出基于對比學(xué)習(xí)的深度多視圖聚類。
本文采用深度聚類方法中利用KL 散度作為聚類損失的思想,設(shè)計了一種端到端的深度融合多視圖聚類網(wǎng)絡(luò)(DFMCN),在視圖的融合嵌入空間中進(jìn)行聚類,并在聚類過程中對特征提取過程進(jìn)行監(jiān)督。
給定一個具有v個視圖的數(shù)據(jù)集X={X1,X2,…,Xv},其中:Xv?Rdv×n,n代表樣本數(shù)量,dv表示在第v個視圖中樣本的維度。DFMCN 包含了一個融合特征提取模塊、視圖融合模塊和一個雙層自監(jiān)督模塊,網(wǎng)絡(luò)模型如圖1 所示。其中:EAE、EIGAE分別為自編碼器和改進(jìn)的圖卷積自編碼器;DAE、DIGAE分別為它們的解碼器。
圖1 DFMCN的框架Fig.1 Framework of DFMCN
現(xiàn)有的深度多視圖聚類網(wǎng)絡(luò)在進(jìn)行特征提取時大多都單獨(dú)采用全連接的自編碼器或者圖卷積自編碼器,這樣得到的結(jié)果無法做到既考慮樣本的屬性信息又考慮樣本之間的結(jié)構(gòu)信息,因此在融合特征提取模塊,參考DFCN[20],將自編碼器與圖卷積自編碼器相結(jié)合,做到融合特征提取。
為了獲取樣本的結(jié)構(gòu)信息,利用屬性信息Xv構(gòu)造K-近鄰(K-Nearest Neighbor,KNN)圖。首先計算樣本的相似度矩陣S∈Rn×n,矩陣中的每個元素Sij的計算公式如下:
在計算相似度矩陣S后,選擇每個樣本的前K個相似點作為鄰居,構(gòu)造一個無向K-近鄰圖,從非圖數(shù)據(jù)中得到鄰接矩陣A∈Rn×n代表該樣本的結(jié)構(gòu)信息。這種獲取非圖樣本結(jié)構(gòu)信息的方式在文獻(xiàn)[19-20]中已經(jīng)得到了驗證。鄰接矩陣歸一化為,計算公式為:
其中:D∈Rn×n為A對應(yīng)的度矩陣;I∈Rn×n為單位矩陣。
為了更好地結(jié)合樣本的屬性信息和結(jié)構(gòu)信息,利用一種對稱改進(jìn)的圖形自動編碼器(Improved Graph AutoEncoder,IGAE)同時重構(gòu)樣本的加權(quán)屬性矩陣和鄰接矩陣,編碼器和解碼器公式如下:
其中:W(l)和分別代表編碼器和解碼器的可學(xué)習(xí)參數(shù);σ為非線性激活函數(shù)。為了優(yōu)化IGAE 的性能,將重構(gòu)損失設(shè)置如下:
其中,γ為超參數(shù),用于平衡兩種損失的權(quán)重。Lw和La分別為:
最后利用針對DFCN 中提出的結(jié)構(gòu)與屬性信息融合(Structure and Attribute Information Fusion,SAIF)模塊對每一個視圖中提取到的結(jié)構(gòu)信息和屬性信息進(jìn)行融合,得到了不同視圖的嵌入空間用于后續(xù)多視圖聚類。
由于視圖間存在互補(bǔ)信息,因此設(shè)計一種合理的視圖融合模塊可以有效利用每一個視圖中的信息提高后續(xù)聚類的性能。考慮到視圖之間的數(shù)據(jù)存在著差異,如果選擇簡單的平均法可能無法得到有利于聚類的融合嵌入空間,因此需要權(quán)衡每一個視圖對后續(xù)聚類的貢獻(xiàn),使有利于后續(xù)聚類的視圖獲得更高的權(quán)重,具體融合公式如下:
其中:wv為可優(yōu)化的加權(quán)系數(shù)的初始化依賴于預(yù)訓(xùn)練結(jié)果,通過預(yù)訓(xùn)練結(jié)果可以權(quán)衡不同視圖在融合時可能對融合嵌入空間中進(jìn)行的最終聚類過程提供有效信息的程度,將wv添加進(jìn)優(yōu)化器,隨著聚類過程不斷更新以獲取更有利于聚類的融合嵌入層。
為了使聚類過程與特征提取和視圖融合過程產(chǎn)生聯(lián)系,引入KL 散度作為發(fā)散損失,使特征提取和視圖融合模塊得到的最終嵌入空間能夠向更有利于聚類結(jié)果的方向優(yōu)化。首先計算融合嵌入空間上的目標(biāo)分布,過程如下:
首先,對應(yīng)式(9),運(yùn)用t分布計算融合嵌入空間第i個樣本到第j個預(yù)計算得到的聚類中心uj的相似度,t是t分布的自由度,在實驗中將它設(shè)置為1,qij是將樣本i分配給聚類中心uj的概率,對應(yīng)圖1 中Q,可稱它為軟分配。為了提高聚類純度并規(guī)范化每個質(zhì)心的損失貢獻(xiàn),將目標(biāo)分配定義為pij,對應(yīng)圖1 中P,如式(10),通過這種方式,可以提高數(shù)據(jù)分布的集中度,提升多視圖聚類表示結(jié)果。
在計算得到融合視圖嵌入空間的軟分配qij以及目標(biāo)分布pij后,再計算每個視圖的嵌入空間的軟分配和目標(biāo)分配為了使聚類過程能有效監(jiān)督特征提取和視圖融合過程,引入兩種KL 發(fā)散損失,即雙層自監(jiān)督機(jī)制,其中:第一層為區(qū)別自監(jiān)督層,利用每個視圖的目標(biāo)分布監(jiān)督自身t分布,可以被視為視圖特定聚類損失;第二層為共同自監(jiān)督層,計算融合嵌入空間中的KL 散度,將它視為公共聚類損失,能在反向傳播過程中優(yōu)化融合嵌入空間,提升融合嵌入空間中的聚類效果。最終公式為:
其中,k為預(yù)定義的權(quán)重參數(shù),為了使聚類損失著重優(yōu)化融合嵌入空間的目標(biāo)分配,提高在融合嵌入空間的聚類性能。
在式(11)中,視圖特定聚類損失在反向傳播對每個視圖嵌入表示進(jìn)行優(yōu)化,同時利用公共聚類損失能優(yōu)化融合嵌入空間的聚類效果,并在反向傳播過程中對視圖融合過程進(jìn)行監(jiān)督。由于目標(biāo)分布是在沒有人工引導(dǎo)的情況下生成,因此將損失函數(shù)稱為雙層聚類損失。
整個模型的損失函數(shù)可以總結(jié)為:
其中:前兩項為重構(gòu)損失,最后一項為聚類損失;λ為預(yù)定義的超參數(shù),為了平衡重構(gòu)與聚類之間的重要性。
為了驗證DFMCN 的有效性,分別在3 個多視圖數(shù)據(jù)集上,與8 個現(xiàn)有方法進(jìn)行了對比實驗。采用準(zhǔn)確率(Accuracy,ACC)[17]、標(biāo)準(zhǔn)化互信息(Normalized Mutual Information,NMI)[17]作為評價方法聚類的效果。
為評估DFMCN 的性能,在FM(Fashion-MNIST)[25]、HW(HandWritten numerals)[26]與YTF(YouTube Face)[27]數(shù)據(jù)集上實驗,其中,F(xiàn)M 和YTF 數(shù)據(jù)集參照Wang 等[14]的處理方法,這些數(shù)據(jù)集的詳細(xì)信息如表1 所示。
表1 數(shù)據(jù)集詳細(xì)信息Tab.1 Detailed information of datasets
FM:由各類時尚產(chǎn)品組成。使用原始圖像特征作為一個視圖,提取的時尚產(chǎn)品的邊緣特征作為另一個視圖。
HW:手寫數(shù)據(jù)集,由2 000 個數(shù)據(jù)樣本組成,從0~9 這10個數(shù)字中分為10 個類別,每個類別具有200 個數(shù)據(jù)。本文采用76 維的字符形狀的傅里葉系數(shù)和216 維的輪廓相關(guān)性作為兩個不同的視圖。
YTF:選擇YTF 數(shù)據(jù)集的前41 個主題,裁剪圖像中的面,然后將它的大小調(diào)整為55×55。將原始RGB 圖像作為一個視圖,原始RGB 圖像轉(zhuǎn)換成的灰度圖像作為另一個視圖。
本實驗對比了以下8 種方法。
K-Means:常用的機(jī)器學(xué)習(xí)聚類方法,以樣本之間的歐氏距離為衡量標(biāo)準(zhǔn),距離越近,樣本間相似度越高。
DEC[17]:基于軟分配思想的深度聚類方法,通過自編碼器獲得樣本的嵌入空間進(jìn)行聚類,并將KL 散度作為發(fā)散損失優(yōu)化嵌入空間提取過程。
DFCN[20]:結(jié)合自編碼器與圖卷積自編碼器,在獲取嵌入空間時融合樣本屬性信息和結(jié)構(gòu)信息,提出三重自監(jiān)督機(jī)制,利用KL 散度優(yōu)化自編碼器、圖卷積自編碼器以及融合模塊。
DMJC(Joint framework for Deep Multi-view Clustering)[28]:定義了一個多視圖輔助目標(biāo)分布,進(jìn)行多視圖融合。
DCCA[4]:一種基于典型相關(guān)性分析的深度多視圖聚類方法,學(xué)習(xí)兩個視圖的非線性變換,探索它們之間的線性相關(guān)表示,聯(lián)合學(xué)習(xí)兩種變換的參數(shù),最大化總相關(guān)性。
DCCAE[5]:在DCCA 基礎(chǔ)上提出的一種新模型,由兩個自編碼器組成,并根據(jù)CCA 和基于重建的目標(biāo),優(yōu)化了學(xué)習(xí)的“瓶頸”表示之間的規(guī)范相關(guān)性組合以及自動編碼器重建誤差
DMSC[6]:基于CNN 的無監(jiān)督多模態(tài)子空間聚類。
CMSC-DCCA(Cross-Modal Subspace Clustering via Deep Canonical Correlation Analysis)[16]:將相關(guān)約束與自表達(dá)層相結(jié)合,充分利用模態(tài)間數(shù)據(jù)和模態(tài)內(nèi)數(shù)據(jù)之間的信息。
DFMCN 在PyTorch 1.8 平臺和NVIDIA 3070 GPU 上實現(xiàn),訓(xùn)練包括三個步驟:首先,通過最小化重建損失函數(shù),對每個視圖都利用AE 和IGAE 分別進(jìn)行30 次迭代的預(yù)訓(xùn)練;然后,將兩個子網(wǎng)絡(luò)集成到統(tǒng)一的框架中,對每個視圖分別再進(jìn)行100 次迭代,預(yù)訓(xùn)練完成后,在完整模型中通過K-Means 算法預(yù)計算每個視圖的初始嵌入空間聚類中心以及初始融合視圖嵌入空間的聚類中心,用于計算目標(biāo)分配,并在后續(xù)聚類過程中通過雙層自監(jiān)督模塊的聚類損失優(yōu)化特征提取得到的嵌入空間從而對特征提取過程進(jìn)行優(yōu)化,對整個網(wǎng)絡(luò)進(jìn)行至少200 次迭代訓(xùn)練,直到收斂;聚類的最終結(jié)果在融合嵌入空間中利用K-Means 算法得到,重復(fù)每個實驗10 次,并取平均值作為實驗結(jié)果。參數(shù)設(shè)置方面,式(5)中的γ參照DFCN[20]中的建議設(shè)為0.1;式(11)中的權(quán)重參數(shù)k設(shè)為0.1;式(12)中λ設(shè)為10。所有可訓(xùn)練參數(shù)均采用Adam優(yōu)化器優(yōu)化,對不同數(shù)據(jù)集的學(xué)習(xí)率分別設(shè)置為:FM 數(shù)據(jù)集第1、2 視圖分別為10-3、10-2;HW 數(shù)據(jù)集第1、2 視圖分別為10-3、10-2;YTF 數(shù)據(jù)集中第1、2、3 視圖分別為10-3、10-2、10-2,3 個數(shù)據(jù)集在KNN 算法中的相鄰節(jié)點個數(shù)均為5。
不同方法在3 個數(shù)據(jù)集上的對比結(jié)果如表2 所示,最優(yōu)結(jié)果加粗表示??梢钥闯觯?/p>
表2 不同方法在3個數(shù)據(jù)集上的聚類效果對比 單位:%Tab.2 Comparison of clustering effects of different methods on three datasets unit:%
1)在FM 數(shù)據(jù)集上,與次優(yōu)的CMSC-DCCA 方法相比,DFMCN 的ACC 提高了1.80 個百分點;NMI 取得了較高的結(jié)果,比除DMSC 和CMSC-DCCA 的其他對比方法提高了1.26~14.84個百分點。
2)DFMCN 在HW 數(shù)據(jù)集上的提升最顯著,與次優(yōu)的DMSC 相比,ACC 提升6.11 個百分點。并且DFCN 在該數(shù)據(jù)集上也展現(xiàn)了良好的聚類效果,而DEC 在該數(shù)據(jù)集上表現(xiàn)一般,說明樣本之間的結(jié)構(gòu)信息具有很重要的價值,驗證了在進(jìn)行特征提取時融合樣本屬性信息和結(jié)構(gòu)信息的重要性。
3)DFMCN 在YTF 數(shù)據(jù)集上提升較少,與CMSC-DCCA 相比ACC 只提高了0.10 個百分點。原因在于YTF 數(shù)據(jù)集中數(shù)據(jù)的維度很高,融合特征提取模塊無法很好地將樣本的屬性信息和結(jié)構(gòu)信息融合在一起,導(dǎo)致最終得到的嵌入空間不能充分表達(dá)原始數(shù)據(jù)的特征。
圖2 展示了DFMCN 中ACC 和NMI 在3 個數(shù)據(jù)集上隨迭代次數(shù)變化的趨勢??梢钥吹?,在YTF 數(shù)據(jù)集上ACC 和NMI都具有一定的波動,因為YTF 數(shù)據(jù)集維度較高,特征提取的魯棒性不及前兩個數(shù)據(jù)集,并且數(shù)據(jù)的類數(shù)較多,聚類難度高于前兩個數(shù)據(jù)集。
為了探究DFMCN 各部分對深度融合多視圖聚類任務(wù)的貢獻(xiàn),本文設(shè)計了消融實驗。消融實驗選擇在無融合特征提取模塊和無雙層自監(jiān)督模塊兩種情況下進(jìn)行,并與完整的模型進(jìn)行對比,結(jié)果見表3。可以看出,與完整模型相比,其他缺失模型在聚類效果上均有所衰退,其中,無融合特征提取模塊對結(jié)果的影響最大,驗證了在特征提取過程中融合樣本屬性信息和樣本結(jié)構(gòu)信息的重要性,說明了融合特征提取模塊的有效性。
表3 消融實驗結(jié)果 單位:%Tab.3 Results of ablation experiments unit:%
視圖融合模塊中對于不同視圖權(quán)重的設(shè)計會對融合視圖的聚類性能造成很大的影響,因此本節(jié)針對兩個雙視圖數(shù)據(jù)集展示不同權(quán)重設(shè)計下的聚類結(jié)果,如圖3 所示。
圖3 不同數(shù)據(jù)集上不同權(quán)重設(shè)計下的聚類性能對比Fig.3 Comparison of clustering performance under different weight designs on different datasets
在圖3 中:w1代表第1 視圖的權(quán)重。當(dāng)w1為1 或0 時分別代表只有第1 視圖或只有第2 視圖參與聚類;第1 視圖為兩個視圖中在預(yù)訓(xùn)練過程中展現(xiàn)出更好聚類效果的視圖。從圖3 可以看到:當(dāng)只有第1 視圖時的聚類效果明顯優(yōu)于只有第2 視圖的聚類效果。因此在融合過程中,當(dāng)?shù)? 視圖獲得的權(quán)重越大時聚類效果也越好。值得注意的是,融合視圖的聚類效果優(yōu)于只有單個視圖的情況,因此也驗證了加權(quán)融合策略的有效性。
本文提出一種深度融合多視圖聚類網(wǎng)絡(luò)DFMCN。首先,利用自編碼器與圖卷積自編碼器結(jié)合獲得融合了每個視圖樣本結(jié)構(gòu)信息和屬性信息的嵌入空間;然后,通過加權(quán)融合得到融合嵌入空間進(jìn)行聚類,并在聚類過程中利用雙層自監(jiān)督機(jī)制優(yōu)化特征提取過程;最后,在多個數(shù)據(jù)集上的實驗結(jié)果驗證了DFMCN 的有效性。
本文提出的DFMCN 涉及多方面的理論、方法和技術(shù),還有一些問題需要解決,后續(xù)可以針對視圖融合過程中的權(quán)重更新策略和聚類過程中的自監(jiān)督策略兩個方面作進(jìn)一步的研究。