徐良奎,楊 哲,吳國(guó)榮,趙 雷
1(蘇州大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,江蘇 蘇州 215006)
2(江蘇省計(jì)算機(jī)信息處理技術(shù)重點(diǎn)實(shí)驗(yàn)室,江蘇 蘇州 215006)
3(江蘇省大數(shù)據(jù)智能工程實(shí)驗(yàn)室,江蘇 蘇州 215006)
4(高等計(jì)算醫(yī)學(xué)實(shí)驗(yàn)室 北卡羅來(lái)納大學(xué)教堂山分校,教堂山 美國(guó) NC 27599)
在數(shù)學(xué)上,圖(Graph)是一種重要的非歐幾里得數(shù)據(jù)模型,是表示對(duì)象間關(guān)系的一種方式.許多重要的機(jī)器學(xué)習(xí)問(wèn)題可以用普通圖模型來(lái)求解,如社交網(wǎng)絡(luò)、基因(組)數(shù)據(jù)、網(wǎng)頁(yè)排序等問(wèn)題[1].但現(xiàn)實(shí)世界中對(duì)象之間往往是復(fù)雜的一對(duì)多、多對(duì)多的關(guān)系[2],如文獻(xiàn)引用,一篇論文可以引用多篇論文,也可以被多篇論文引用.用普通圖解決此類問(wèn)題時(shí),會(huì)造成信息的損失.因此出現(xiàn)了普通圖的變體—超圖(Hypergraph)模型[3].超圖的一條邊可以包含多個(gè)頂點(diǎn),稱之為超邊.由于超圖可以更好地描述對(duì)象間的多元信息,具有更強(qiáng)的高階非線性關(guān)系的表示能力,近年來(lái)基于超圖的直推學(xué)習(xí)成為機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)研究熱點(diǎn),在物體分割[4]、基因分類及醫(yī)學(xué)診斷[5]、圖像分類[6]、推薦系統(tǒng)[7]等方面都取得了較好的效果.
目前針對(duì)超圖直推學(xué)習(xí)模型的求解主要有兩種方法.一種方法是將超圖結(jié)構(gòu)擴(kuò)展為普通圖結(jié)構(gòu),然后使用普通圖的方法去求解超圖問(wèn)題,代表性的方法有星擴(kuò)展[9]、團(tuán)擴(kuò)展[10]、線擴(kuò)展[11]等.由于對(duì)普通圖的研究較為成熟,用普通圖求解超圖問(wèn)題可選擇的方法也較多,缺點(diǎn)是超圖擴(kuò)展為普通圖的過(guò)程中會(huì)帶來(lái)信息損失,將頂點(diǎn)間多元關(guān)系變成二元關(guān)系,不利于超圖問(wèn)題求解.另一種方法是直接針對(duì)超圖結(jié)構(gòu)及其Laplacian矩陣,求解最優(yōu)的超圖切,即得到超圖Laplacian矩陣的若干切向量,將超圖分為不同的子集以便分類或者聚類.本質(zhì)上這是一個(gè)組合優(yōu)化問(wèn)題,代表性方法有周氏標(biāo)準(zhǔn)化Laplacian[3]、超圖直推學(xué)習(xí)正則優(yōu)化[6,12,13]、超圖多模態(tài)結(jié)構(gòu)[8]、超圖深度學(xué)習(xí)[15]等.這類方法直接針對(duì)超圖結(jié)構(gòu)進(jìn)行Laplacian矩陣求解和優(yōu)化,避免了結(jié)構(gòu)轉(zhuǎn)換的信息損失,也是本文的研究方法.
本文提出多通道Laplacian矩陣融合的方法,優(yōu)化超圖直推學(xué)習(xí)模型的求解過(guò)程,提高模型分類效果.具體工作和創(chuàng)新包括:
1)在構(gòu)建超圖時(shí),提出一種超圖結(jié)構(gòu)擴(kuò)張的方法.將基于不同特征提取方法構(gòu)造的異構(gòu)超圖的關(guān)聯(lián)矩陣和權(quán)重矩陣進(jìn)行拼接,得到擴(kuò)張的超圖結(jié)構(gòu)后進(jìn)行模型求解,完成數(shù)據(jù)分類.實(shí)驗(yàn)結(jié)果表明,擴(kuò)張后的超圖結(jié)構(gòu),可以有效提高超圖直推學(xué)習(xí)模型的分類性能.
2)為了緩解異構(gòu)超圖結(jié)構(gòu)擴(kuò)張后,矩陣維度過(guò)高所帶來(lái)的計(jì)算開銷問(wèn)題,提出多通道Laplacian矩陣融合的方法.在擴(kuò)張的超圖結(jié)構(gòu)上,先分別計(jì)算出每個(gè)超圖結(jié)構(gòu)對(duì)應(yīng)的Laplacian矩陣,將多個(gè)計(jì)算通道得到的Laplacian矩陣加權(quán)累加后,再進(jìn)行數(shù)據(jù)分類.實(shí)驗(yàn)結(jié)果表明,多通道Laplacian矩陣融合方法,既能減少超圖結(jié)構(gòu)擴(kuò)張后的計(jì)算開銷,又進(jìn)一步提高了模型分類的性能.
3)在圖像分類和文本分類數(shù)據(jù)集上,將本文2種方法與3種傳統(tǒng)分類模型,1種普通圖模型和3種超圖模型進(jìn)行對(duì)比.實(shí)驗(yàn)結(jié)果表明,本文提出的兩種方法均能取得較好的分類性能.
自從Zhou等人首次提出了超圖直推學(xué)習(xí)模型[3],并使用“Markov隨機(jī)游走”的思想對(duì)模型進(jìn)行解釋后,近幾年對(duì)超圖問(wèn)題的求解主要有兩種方法:超圖擴(kuò)展和超圖分割.
超圖擴(kuò)展的方法,一般是將超圖結(jié)構(gòu)擴(kuò)展為普通圖結(jié)構(gòu),然后使用普通圖的方法去解決超圖問(wèn)題.Hu首先提出星擴(kuò)展的方式[9],對(duì)超圖的每條超邊引入一個(gè)新節(jié)點(diǎn),新節(jié)點(diǎn)與超邊內(nèi)每個(gè)頂點(diǎn)都有一條邊相連.這種方式?jīng)]有考慮到同一超邊內(nèi)頂點(diǎn)間的連接關(guān)系.后來(lái)Agarwal提出團(tuán)擴(kuò)展的方式[10],把每條超邊視為一個(gè)全連通子圖,雖然建立了同一條超邊內(nèi)頂點(diǎn)間的聯(lián)系,但仍不能全面表達(dá)超邊間頂點(diǎn)的連接信息[11].為了進(jìn)一步減少擴(kuò)展過(guò)程中的信息損失,Xia于2020年提出了線擴(kuò)展的方式[15,17],將超邊與每條超邊內(nèi)部的節(jié)點(diǎn)看作一個(gè)新的頂點(diǎn).這種方式最大程度上保留了頂點(diǎn)和超邊間的連接信息,但是在處理某些問(wèn)題上仍會(huì)造成信息損失,如法諾平面問(wèn)題[18].為了避免上述結(jié)構(gòu)轉(zhuǎn)換帶來(lái)的信息損失問(wèn)題,Gao引入了超圖多模態(tài)模型[8],將不同的模態(tài)對(duì)應(yīng)一個(gè)帶權(quán)子超圖,然后將所有的子超圖一起訓(xùn)練參數(shù).這種方式待優(yōu)化的參數(shù)過(guò)多,給訓(xùn)練帶來(lái)了很大的時(shí)間開銷.因此,Feng于2019提出多模態(tài)超圖關(guān)聯(lián)矩陣擴(kuò)展的方式,在優(yōu)化超圖結(jié)構(gòu)的同時(shí)降低了機(jī)器學(xué)習(xí)的時(shí)間開銷[16].但這種擴(kuò)展方式僅僅將超圖關(guān)聯(lián)矩陣進(jìn)行拼接,沒有考慮超邊權(quán)重矩陣對(duì)超圖模型的影響.
超圖分割的方法,主要是基于超圖Laplacian矩陣去求解最優(yōu)的超圖切.為了優(yōu)化超圖Laplacian權(quán)重矩陣,Chen等人將L2正則化用于優(yōu)化超圖直推學(xué)習(xí)模型的權(quán)重參數(shù)[6,12].Chen和Luo分別使用交替最小二乘法[12]和坐標(biāo)下降[13]的方法去優(yōu)化權(quán)重參數(shù),希望得到的更高質(zhì)量的Laplacian矩陣,雖然一定程度上提高了模型的性能,但是受限于超圖結(jié)構(gòu)的質(zhì)量.Guo利用隨機(jī)矩陣擴(kuò)散的思想去優(yōu)化超圖Laplacian最優(yōu)切,但受制于單一超圖結(jié)構(gòu),且需要優(yōu)化額外的目標(biāo)函數(shù),時(shí)間成本過(guò)高[19].后來(lái)在超圖直推學(xué)習(xí)模型的基礎(chǔ)上,Zhang等人提出超圖歸納學(xué)習(xí)模型,利用類別投影矩陣得到樣本的類別標(biāo)簽[20].雖然降低了一定的時(shí)間復(fù)雜度,但是模型訓(xùn)練時(shí)沒有使用所有數(shù)據(jù)集的信息,分類性能不如超圖直推學(xué)習(xí)模型.
綜上所述,現(xiàn)有超圖模型求解方法都存在一定的局限性,有些方法丟失了超圖結(jié)構(gòu)中蘊(yùn)含的重要信息,有些方法僅僅是對(duì)Laplacian矩陣參數(shù)求解過(guò)程的優(yōu)化,并沒有打破單一超圖結(jié)構(gòu)的限制,并且容易帶來(lái)較大的時(shí)間開銷.本文提出的超圖擴(kuò)張和多通道Laplacian矩陣融合的方法,不僅了融合了多種異構(gòu)的超圖結(jié)構(gòu),提升了超圖直推學(xué)習(xí)模型的分類效果,還降低了模型的時(shí)間開銷.
超圖模型(圖1(a))一般表示為三元組G=(V,E,W),其中V={v1,v2,…vn,}為超圖頂點(diǎn)集,每一個(gè)樣本對(duì)應(yīng)V中的一個(gè)頂點(diǎn),E={e1,e2,…em,}為超邊集.超圖的每條超邊ej(1≤j≤m)能連接多個(gè)頂點(diǎn)vi(1≤i≤n),因此超邊與頂點(diǎn)的連接關(guān)系可以用關(guān)聯(lián)矩陣H∈Rn×m來(lái)表示,見圖1(b).H中每個(gè)元素h(vi,ej)的定義為:
圖1 超圖與超圖關(guān)聯(lián)矩陣Fig.1 Hypergraph and incidence matrix
(1)
每條超邊ej被賦予一個(gè)權(quán)重w(ej),w(ej)由高斯核方法計(jì)算得到[14],如式(2)所示.其中dis(vi,vk)(1≤i,k≤n)表示頂點(diǎn)vi,vk間的歐式距離,σ表示所有頂點(diǎn)間距離的均值.
(2)
定義權(quán)重矩陣W∈Rm×m,W是一個(gè)對(duì)角陣,對(duì)角線上的元素為每條超邊的權(quán)重w(ej)(1≤j≤m),如式(3)所示:
(3)
在超圖中,每個(gè)頂點(diǎn)vi的度d(vi)定義如式(4)所示:
(4)
定義超邊ej的度δ(ej)為這條超邊包含的頂點(diǎn)個(gè)數(shù),如式(5)所示:
(5)
定義兩個(gè)對(duì)角陣Dv∈Rn×n、De∈Rm×m,類似公式(3)它們的對(duì)角元素分別是超圖中每個(gè)頂點(diǎn)的度d(vi),每條超邊的度δ(ej),算法1總結(jié)了上述超圖構(gòu)建算法的流程描述.
算法1.超圖構(gòu)建過(guò)程描述
Step1.數(shù)據(jù)預(yù)處理,得到樣本特征X={x1,x2…xn}
Step2.樣本點(diǎn)對(duì)應(yīng)頂點(diǎn),得到頂點(diǎn)集V={v1,v2,…vn,}
Step3.設(shè)置超邊頂點(diǎn)個(gè)數(shù)K(K值不宜過(guò)大,可使用網(wǎng)格搜索算法等)
Step4.使用歐式距離計(jì)算頂點(diǎn)間相似度Eud(vi,vj)
Step5.根據(jù)Step 3得到超邊集E={e1,e2…em}
ei={j|TopK-Eud(vi,vj)}(j≠i)
Step6.計(jì)算頂點(diǎn)的度、超邊的度等
超圖直推學(xué)習(xí)模型問(wèn)題的正則優(yōu)化目標(biāo)函數(shù)如式(6)[6,12]:
(6)
其中λ和μ是兩個(gè)正則化參數(shù),用來(lái)平衡(6)中各項(xiàng).對(duì)于一個(gè)c分類問(wèn)題,F∈Rn×c是最終求解的切向量矩陣,包含預(yù)測(cè)的樣本類別信息.模型學(xué)習(xí)階段同時(shí)使用標(biāo)記數(shù)據(jù)和未標(biāo)記數(shù)據(jù),Y∈Rn×c是含有真實(shí)樣本標(biāo)簽的向量,若頂點(diǎn)vi屬于第k(0≤k≤c)類,則Y(vi)[k]=1,Y(vi)[p]=0(0≤p≤c且p≠k).θ(F)是經(jīng)驗(yàn)損失函數(shù),Ω(F)是標(biāo)準(zhǔn)化損失函數(shù),定義分別如式(7)和式(8)所示:
(7)
(8)
公式(8)中,L為超圖標(biāo)準(zhǔn)化Laplacian矩陣:
(9)
(10)
由于超邊權(quán)重W可以反映超邊的重要程度,因此訓(xùn)練階段求解F的同時(shí)迭代優(yōu)化W.由于目標(biāo)函數(shù)(6)單獨(dú)相對(duì)于W或F是凸函數(shù),可采用兩種交替優(yōu)化的方法去優(yōu)化W和F,分別是交替最小二乘法和坐標(biāo)下降法.
(11)
第2步,固定F優(yōu)化W,關(guān)于W的損失函數(shù)為:
(12)
(13)
第3步,重復(fù)前兩步,直至W和F趨于穩(wěn)定.
(14)
(15)
得到的F即為最終的標(biāo)簽向量,頂點(diǎn)vi的類別對(duì)應(yīng)index(max(F(vi))),即F(vi)最大值的下標(biāo).
超圖直推學(xué)習(xí)模型的N分類問(wèn)題,本質(zhì)上是N路超圖切問(wèn)題,再加上一個(gè)分類器將樣本分類.而N路超圖切的解,就是超圖Laplacian矩陣的N個(gè)特征向量[3].這是由于超圖Laplacian矩陣揭示了超圖的譜屬性[3,21],即Laplacian矩陣的特征值和特征向量屬性.因此,若Laplacian矩陣能描述更全局、深層次的超圖結(jié)構(gòu)信息,超圖切的準(zhǔn)確度就會(huì)提高,相應(yīng)的分類性能也會(huì)提高.Zhou等人首次提出超圖直推學(xué)習(xí)模型[1],并使用Markov隨機(jī)游走的思想,從概率的角度對(duì)超圖Laplacian矩陣的譜屬性進(jìn)行了分析.結(jié)果表明,超圖直推學(xué)習(xí)模型的目標(biāo)函數(shù)式(6),是經(jīng)過(guò)Markov隨機(jī)游走過(guò)程推導(dǎo)而來(lái)的[1].超圖上每個(gè)頂點(diǎn)Markov隨機(jī)游走的概率滿足如下規(guī)則:給定當(dāng)前的位置vi∈V,首先在所有與頂點(diǎn)vi以一定概率相關(guān)的超邊中選擇一個(gè)超邊ej,然后均勻隨機(jī)選擇一個(gè)頂點(diǎn)vk∈ej(k≠i).公式(15)給出了超圖頂點(diǎn)Markov隨機(jī)游走的概率,公式(16)是對(duì)公式(15)運(yùn)算過(guò)程的矩陣化表達(dá).
(16)
(17)
令S表示超圖頂點(diǎn)集V的一個(gè)子集,Sc是S的補(bǔ)集,超圖G的一個(gè)切就是將超圖分為S和Sc兩部分.VolS表示集合S的體積,?S是被切割超邊的集合,?S={ej∈E|ej∩S≠φ,ej∩Sc≠φ}.公式(17)和公式(18)定義了VolS和Vol?S的計(jì)算方式:
(18)
(19)
公式(19)、公式(20)證明了Markov隨機(jī)游走的平穩(wěn)分布為π(vk)[1].
(20)
(21)
由公式(15)、公式(16)可以看出Markov隨機(jī)游走的過(guò)程,與公式(9)超圖標(biāo)準(zhǔn)Laplacian算子L是一致,若V是P的特征向量,那么V也是L的特征向量.Laplacian矩陣可以看作超圖結(jié)構(gòu)經(jīng)過(guò)隨機(jī)游走后的表達(dá).超圖切的目標(biāo)函數(shù)為式(21),公式(19)~公式(23)證明了Markov隨機(jī)游走的最小切,就是使得連接不同聚簇的邊的相似度最小(頂點(diǎn)轉(zhuǎn)移概率最小),而同一聚簇內(nèi)部頂點(diǎn)轉(zhuǎn)移概率最大,并逐漸趨向于一個(gè)穩(wěn)態(tài)分布的分區(qū).由于直接求解式(21)比較困難,因此將其轉(zhuǎn)換為式(6)對(duì)應(yīng)的基本損失函數(shù)式(8),即argminΩ(F).argminΩ(F)的解為超圖Laplacian矩陣N個(gè)最小非零特征值對(duì)應(yīng)的特征向量,即為超圖Laplacian矩陣的譜屬性.因此Laplacian矩陣對(duì)求解超圖問(wèn)題非常關(guān)鍵.
(22)
(23)
(24)
3.3.1 超圖結(jié)構(gòu)擴(kuò)張
根據(jù)公式(9)可知,超圖Laplacian矩陣與超圖關(guān)聯(lián)矩陣H和權(quán)重矩陣W有關(guān),本節(jié)主要討論如何優(yōu)化超圖結(jié)構(gòu)以得到高質(zhì)量的超圖Laplacian矩陣.一般在構(gòu)造超圖結(jié)構(gòu),先提取對(duì)象的向量化特征,然后根據(jù)頂點(diǎn)相似度,將相似的頂點(diǎn)連接在一條超邊上,最后用點(diǎn)-邊關(guān)聯(lián)矩陣H和權(quán)重矩陣W表示超圖模型的基本結(jié)構(gòu).超圖之所以能比普通圖刻畫更多的信息,主要是關(guān)聯(lián)矩陣H和W表達(dá)了更多的頂點(diǎn)-頂點(diǎn)間、頂點(diǎn)-超邊之間的關(guān)系.
根據(jù)公式(15),超圖中每個(gè)頂點(diǎn)隨機(jī)游走的概率是以超圖關(guān)聯(lián)矩陣為基礎(chǔ)進(jìn)行計(jì)算的,在這個(gè)過(guò)程中超圖頂點(diǎn)可以融合到更多鄰域信息,以此來(lái)提高頂點(diǎn)分類的準(zhǔn)確性.Markov隨機(jī)游走具有傳導(dǎo)性,合理的關(guān)聯(lián)矩陣擴(kuò)張能使Markov隨機(jī)游走的過(guò)程中,不僅包含頂點(diǎn)的鄰域信息,還有機(jī)會(huì)接觸更遠(yuǎn)的頂點(diǎn)以探索全局信息,因而有利于超圖結(jié)構(gòu)全局特征的表達(dá),最終得到融合更多全局信息的超圖Laplacian矩陣.本文采用拼接的方式去擴(kuò)張超圖結(jié)構(gòu),將不同的關(guān)聯(lián)矩陣H拼接在一起后,使得原來(lái)沒有連接的兩個(gè)頂點(diǎn),經(jīng)過(guò)不同的短路組合又連接在一起,這可以達(dá)到隨機(jī)矩陣P“擴(kuò)散映射”的效果[19].同時(shí)能夠在異構(gòu)的超圖空間中發(fā)現(xiàn)不同尺度的幾何結(jié)構(gòu),相比原始空間更能夠保持超圖幾何結(jié)構(gòu)的全局性.
由于不同的特征提取方式得到的特征空間不同,對(duì)應(yīng)的超圖結(jié)構(gòu)也不同,所以關(guān)聯(lián)矩陣拼接可以看作是一種異構(gòu)超圖結(jié)構(gòu)的擴(kuò)張.見圖2,不同的特征提取方法會(huì)得到對(duì)應(yīng)的超圖關(guān)聯(lián)矩陣Hi∈Rn×m,之后將關(guān)聯(lián)矩陣H1,H2,…,Hk拼接,則新的關(guān)聯(lián)矩陣H′=[H1‖H2…‖Hn]∈Rk×(n×m).因此超圖頂點(diǎn)概率轉(zhuǎn)移公式可以改寫為式(24),其矩陣表達(dá)方式見式(25):
圖2 異構(gòu)超圖結(jié)構(gòu)擴(kuò)張(‖表示拼接操作)Fig.2 Structural extension of heterogeneous hypergraph
(25)
(26)
3.3.2 多通道Laplacian矩陣融合
圖3描述了多通道Laplacian矩陣融合的主要過(guò)程.由于不同的超圖結(jié)構(gòu)對(duì)應(yīng)的Laplacian屬性不同,本文在構(gòu)造出不同超圖結(jié)構(gòu)關(guān)聯(lián)矩陣Hi的基礎(chǔ)上,直接計(jì)算每個(gè)Hi對(duì)應(yīng)的Laplacian矩陣Li,Hi計(jì)算得到Li的過(guò)程看作一個(gè)計(jì)算通道,多個(gè)Hi即對(duì)應(yīng)多個(gè)通道,之后進(jìn)行加權(quán)求和作為全局超圖Laplacian幾何結(jié)構(gòu)的表征矩陣,記為L(zhǎng)″.本文假設(shè)每個(gè)Li對(duì)全局超圖結(jié)構(gòu)的表達(dá)是相同的,即:
圖3 多通道Laplacian矩陣融合Fig.3 Multi-channel Laplacian matrix fusion
(27)
K代表融合Laplacian矩陣的通道個(gè)數(shù),之后基本的損失函數(shù)Ω(F)就可以重寫為如下:
(28)
圖3中,每個(gè)通道計(jì)算出的Laplacian矩陣包含了這個(gè)超圖結(jié)構(gòu)所對(duì)應(yīng)的深度信息,而多通道在廣度上將這些深度信息融合起來(lái),使最終的Laplacian矩陣包含的信息更全面,質(zhì)量更高.同時(shí)相比3.3.1提出的異構(gòu)超圖結(jié)構(gòu)擴(kuò)張方法,多通道Laplacian矩陣融合方式并沒有增加矩陣的維度,僅僅是多了每個(gè)通道計(jì)算Laplacian矩陣的時(shí)間,解決了關(guān)聯(lián)矩陣拼接的高維度問(wèn)題.和3.3.1相同,得到高質(zhì)量的Laplacian矩陣后,使用交替最小二乘法去求解目標(biāo)函數(shù).根據(jù)表6的實(shí)驗(yàn)數(shù)據(jù),多通道融合方式的時(shí)間成本要遠(yuǎn)小于異構(gòu)超圖結(jié)構(gòu)擴(kuò)張方式,并且多通道Laplacian矩陣融合方式的分類性能更高.
本文的實(shí)驗(yàn)主要針對(duì)超圖直推學(xué)習(xí)模型的分類問(wèn)題,并與一些經(jīng)典分類算法、普通圖和超圖模型做了對(duì)比,實(shí)驗(yàn)環(huán)境如下:
1)硬件配置
使用GPU集群,可用資源為CPU 96Core,GPU 2Core GeForce_RTX_2080_Ti /2Core Tesla_v100_ sxM2_32GB,內(nèi)存512GB,存儲(chǔ)空間500GB.編程語(yǔ)言:Python.
2)實(shí)驗(yàn)參數(shù)
使用KNN的方式構(gòu)造超邊[22,28],即超邊包含的頂點(diǎn)是中心頂點(diǎn)和離它最近的K個(gè)頂點(diǎn).除了表2 SIFT和表3 Jaccard直接計(jì)算樣本間的相似度外,其余實(shí)驗(yàn)均是得到樣本特征后,統(tǒng)一使用歐式距離衡量樣本間相似度,之后基于樣本間相似度構(gòu)造超圖結(jié)構(gòu).
3)數(shù)據(jù)集
表1記錄了數(shù)據(jù)集的詳細(xì)信息,為了更好的驗(yàn)證本文提出的模型性能,選取4個(gè)不同領(lǐng)域的數(shù)據(jù)集來(lái)進(jìn)行實(shí)驗(yàn).所有的樣本數(shù)都含有標(biāo)簽信息,將每個(gè)數(shù)據(jù)集劃分為訓(xùn)練集和測(cè)試集兩部分,訓(xùn)練集使用標(biāo)簽信息,測(cè)試集不使用標(biāo)簽信息,直推學(xué)習(xí)過(guò)程中測(cè)試集和訓(xùn)練集同時(shí)參與訓(xùn)練.訓(xùn)練結(jié)束后模型會(huì)輸出測(cè)試集的預(yù)測(cè)類別,之后使用評(píng)價(jià)指標(biāo)衡量模型預(yù)測(cè)的性能Cat&Dog:圖像數(shù)據(jù)集,來(lái)源于Kaggle官網(wǎng)[23],包含了貓和狗兩部分圖像,常用于分類任務(wù).
表1 實(shí)驗(yàn)數(shù)據(jù)集Table 1 Data set
Cifar10:圖像數(shù)據(jù)集,是一個(gè)用于物體識(shí)別和分類的經(jīng)典計(jì)算機(jī)視覺數(shù)據(jù)集[24],所包含的圖像是RGB彩色圖,共有10個(gè)類別.
Ctrip:文本數(shù)據(jù)集,使用的是2018年攜程網(wǎng)國(guó)內(nèi)酒店的評(píng)論數(shù)據(jù)[25],每條評(píng)論都已經(jīng)標(biāo)注好情感方向,如好評(píng)或者差評(píng).
Spambase:數(shù)值型數(shù)據(jù),由UCI官網(wǎng)[26]提供的處理后的垃圾郵件數(shù)據(jù)集,主要用于垃圾郵件的識(shí)別分類.
4)評(píng)價(jià)指標(biāo):
本文使用的分類評(píng)價(jià)指標(biāo)有準(zhǔn)確率(Accuracy),精確率(Precision),召回率(Recall)和F1,計(jì)算公式如公式(28)~公式(31)所示.其中TP表示實(shí)際為正被預(yù)測(cè)為正的樣本數(shù)量,FP表示實(shí)際為負(fù)但被預(yù)測(cè)為正的樣本數(shù)量,FN表示實(shí)際為正但被預(yù)測(cè)為負(fù)的樣本的數(shù)量,TN表示實(shí)際為負(fù)被預(yù)測(cè)為負(fù)的樣本的數(shù)量.
準(zhǔn)確率:預(yù)測(cè)樣本中分類正確的樣本占總樣本個(gè)數(shù).
(29)
精確率:預(yù)測(cè)為正的樣本中實(shí)際也為正的樣本占被預(yù)測(cè)為正樣本的比例.
(30)
召回率:實(shí)際為正的樣本中被預(yù)測(cè)為正的樣本所占實(shí)際為正樣本的比例.
(31)
F1:精確率和召回率的調(diào)和平均值,衡量分類模型的穩(wěn)健性.
(32)
5)實(shí)驗(yàn)設(shè)置
4.2節(jié)在圖像和文本數(shù)據(jù)集上通過(guò)不同的特征處理方式構(gòu)造異構(gòu)超圖結(jié)構(gòu),根據(jù)超圖直推學(xué)習(xí)模型分類的結(jié)果考察異構(gòu)超圖結(jié)構(gòu)的質(zhì)量.
4.3節(jié)在4.2基礎(chǔ)上研究不同超圖結(jié)構(gòu)組合對(duì)超圖結(jié)構(gòu)擴(kuò)張法的影響.
4.4節(jié)首先在文本和圖像數(shù)據(jù)集上研究不同超圖結(jié)構(gòu)組合對(duì)多通道Laplacian矩陣融合法的影響,之后在4個(gè)數(shù)據(jù)集上比較兩種優(yōu)化方法,驗(yàn)證多通道Laplacian矩陣融合法的分類性能優(yōu)于超圖結(jié)構(gòu)擴(kuò)張法和正則優(yōu)化后的超圖直推學(xué)習(xí)模型.
4.5節(jié)進(jìn)一步在文本和圖像數(shù)據(jù)集上將兩種優(yōu)化方法與其余一些模型做對(duì)比,證明本文提出的多通道Laplacian矩陣融合法有較好的分類能力.
不同的特征處理方式得到的數(shù)據(jù)特征空間不同,對(duì)應(yīng)的超圖結(jié)構(gòu)包含的信息也不同,因而對(duì)應(yīng)的超圖結(jié)構(gòu)質(zhì)量也不同.本節(jié)主要針對(duì)圖像和文本數(shù)據(jù)考察基于不同特征提取方式構(gòu)造的超圖結(jié)構(gòu),對(duì)超圖直推學(xué)習(xí)模型分類精度的影響,并為4.3和4.4節(jié)實(shí)驗(yàn)提供數(shù)據(jù)參考.在處理超圖模型分類任務(wù)前,對(duì)于圖像和文本數(shù)據(jù),首先要提取數(shù)據(jù)樣本的特征,之后在此基礎(chǔ)上計(jì)算樣本間的相似度去構(gòu)造超邊及超圖關(guān)聯(lián)矩陣.
表2中PHA、VGG、ResNet分別指使用感知哈希[27]、VGG[29]和ResNet[30]方法提取圖像特征.SIFT指SIFT提取圖像關(guān)鍵點(diǎn)后用關(guān)鍵點(diǎn)匹配數(shù)目表示樣本之間的相似度.HSIFT、HVGG指圖像經(jīng)過(guò)色差直方圖預(yù)處理之后分別使用SIFT[31]和VGG方法提取圖像特征.RVGG指將圖像Soble銳化增強(qiáng)邊緣信息后[32],使用VGG提取圖像特征.
表2 異構(gòu)超圖結(jié)構(gòu)分類實(shí)驗(yàn)-Cat&DogTable 2 Heterogeneous hypergraph structure classification experiment-Cat&Dog
表3中TF-IDF、LSI、Word2Vec[33]、Doc2vec[34]指使用這些方法提取文本數(shù)據(jù)的特征.在提取完數(shù)據(jù)樣本特征之后,使用歐式距離計(jì)算樣本間相似度,Jaccard表示使用Jaccard計(jì)算方法去衡量文本樣本之間的相似度.在得到樣本間相似度之后,根據(jù)KNN的方式去構(gòu)造超邊及超圖結(jié)構(gòu).
表3 異構(gòu)超圖結(jié)構(gòu)分類實(shí)驗(yàn)-CtripTable 3 Heterogeneous hypergraph structure classification experiment-Ctrip
由表2可知,Cat&Dog數(shù)據(jù)集中RVGG對(duì)應(yīng)的分類性能最高,說(shuō)明基于RVGG提取的特征構(gòu)造的超圖結(jié)構(gòu)質(zhì)量最好,PHA對(duì)應(yīng)的分類性能最低,說(shuō)明基于PHA提取的特征構(gòu)造的超圖結(jié)構(gòu)質(zhì)量最差.由表3可知,Ctrip數(shù)據(jù)集中Doc2vec對(duì)應(yīng)的分類性能最高,說(shuō)明基于Doc2vec提取的特征構(gòu)建的超圖結(jié)構(gòu)質(zhì)量最好.Jaccard對(duì)應(yīng)的分類性能最低,說(shuō)明基于Jaccard處理方式得到的超圖結(jié)構(gòu)質(zhì)量最差.表2和表3反映了不同特征提取方式對(duì)應(yīng)的超圖結(jié)構(gòu)質(zhì)量,對(duì)于圖像數(shù)據(jù)集使用RVGG方法可得到高質(zhì)量的超圖結(jié)構(gòu),對(duì)于文本數(shù)據(jù)集使用Doc2vec方法可到高質(zhì)量的超圖結(jié)構(gòu),由于異構(gòu)超圖結(jié)構(gòu)間的質(zhì)量有差異,因此需要找到一個(gè)最優(yōu)的方式去進(jìn)行異構(gòu)超圖結(jié)構(gòu)擴(kuò)張,使得擴(kuò)張后的超圖結(jié)構(gòu)質(zhì)量高于單一超圖結(jié)構(gòu).
表4所示為在文本和圖像數(shù)據(jù)集上,不同超圖結(jié)構(gòu)擴(kuò)張的組合對(duì)分類性能的影響.第1列表示選取的數(shù)據(jù)集,第2列表示不同的超圖結(jié)構(gòu)組合方式及名稱,如“差+差PHA+SIFT”指將基于PHA和和SIFT特征提取方法構(gòu)造的超圖結(jié)構(gòu)擴(kuò)張為一個(gè)新的超圖結(jié)構(gòu).根據(jù)表2的結(jié)果,這兩種方法單獨(dú)構(gòu)造的超圖質(zhì)量最差,屬于“差+差”組合方式.結(jié)合表2和表3,每類數(shù)據(jù)集的第2種擴(kuò)張組合是一個(gè)質(zhì)量最優(yōu)和一個(gè)質(zhì)量最差的超圖結(jié)構(gòu),第3種擴(kuò)張組合是兩種質(zhì)量最優(yōu)的超圖結(jié)構(gòu).表4中3~6列為每種擴(kuò)張結(jié)構(gòu)在4個(gè)指標(biāo)上的結(jié)果.
表4 超圖結(jié)構(gòu)擴(kuò)張組合分類實(shí)驗(yàn)結(jié)果Table 4 Experimental results of extended combinatorial classification of hypergraph structure
將表4擴(kuò)張超圖結(jié)構(gòu)的分類結(jié)果與表2和表3單一超圖結(jié)構(gòu)分類結(jié)果可知,當(dāng)兩個(gè)超圖結(jié)構(gòu)質(zhì)量相當(dāng)?shù)臅r(shí)候,使用異構(gòu)超圖結(jié)構(gòu)擴(kuò)張方法有利于提高分類性能.如Cat&Dog數(shù)據(jù)集上,根據(jù)表2,PHA和SIFT對(duì)應(yīng)的超圖結(jié)構(gòu)質(zhì)量最差,表4中超圖擴(kuò)張結(jié)構(gòu)PHA+SIFT在4個(gè)分類指標(biāo)上,要優(yōu)于表2中的PHA和SIFT單超圖結(jié)構(gòu).同樣由表2可知RVGG和HVGG對(duì)應(yīng)的超圖結(jié)構(gòu)質(zhì)量最優(yōu),表4中RVGG+HVGG擴(kuò)張結(jié)構(gòu)在4個(gè)分類指標(biāo)上都高于RVGG和HVGG單超圖結(jié)構(gòu),說(shuō)明擴(kuò)張后的超圖結(jié)構(gòu)質(zhì)量變高,因而得到了高質(zhì)量的Laplacian矩陣.
當(dāng)兩個(gè)超圖結(jié)構(gòu)質(zhì)量相差過(guò)大的時(shí)候,異構(gòu)超圖結(jié)構(gòu)擴(kuò)張反而不利于提高分類性能,如表4中,RVGG+PHA擴(kuò)張結(jié)構(gòu)中RVGG單一超圖結(jié)構(gòu)質(zhì)量最優(yōu),PHA單一超圖結(jié)構(gòu)質(zhì)量最差,RVGG+PHA對(duì)應(yīng)的4個(gè)分類指標(biāo)都低于RVGG,說(shuō)明擴(kuò)張后的超圖結(jié)構(gòu)質(zhì)量低于RVGG單超圖結(jié)構(gòu)的質(zhì)量.因此本文的超圖結(jié)構(gòu)擴(kuò)張方法要選取質(zhì)量相當(dāng)?shù)某瑘D結(jié)構(gòu)組合.為了得到最好的分類結(jié)果,應(yīng)當(dāng)將質(zhì)量高的超圖結(jié)構(gòu)擴(kuò)張為一個(gè)新的結(jié)構(gòu).
圖4和圖5反映了超圖結(jié)構(gòu)的擴(kuò)展性,即超圖結(jié)構(gòu)擴(kuò)張個(gè)數(shù)對(duì)分類效果的影響.圖4和圖5的橫軸表示通道數(shù),圖下方對(duì)應(yīng)了不同擴(kuò)張個(gè)數(shù)得到的分類指標(biāo),4個(gè)分類指標(biāo)的曲線反映了分類指標(biāo)隨著擴(kuò)張數(shù)增加的變化趨勢(shì).根據(jù)表4,高質(zhì)量的超圖結(jié)構(gòu)擴(kuò)張能得到更好的效果,因此圖4和圖5實(shí)驗(yàn)選擇高質(zhì)量的超圖結(jié)構(gòu)擴(kuò)張.其中Cat&Dog數(shù)據(jù)集的橫軸1-4分別對(duì)應(yīng)RVGG、RVGG+HVGG、RVGG+HVGG+VGG、RVGG+HVGG+VGG+Resnt這4種超圖結(jié)構(gòu)擴(kuò)張組合.Ctrip-數(shù)據(jù)集的橫軸1-4分別對(duì)應(yīng)Doc2vec、Doc2vec+Word2vec、Doc2vec+Word2vec+LSI、Doc2vec+Word2vec+LSI+TF-IDF這4種超圖結(jié)構(gòu)擴(kuò)張組合.根據(jù)圖4和圖5實(shí)驗(yàn)結(jié)果,通道數(shù)大于等于2之后,分類指標(biāo)曲線基本趨于穩(wěn)定,因此不需要擴(kuò)張過(guò)多的超圖結(jié)構(gòu).
圖4 Cat&Dog—擴(kuò)展數(shù)影響Fig.4 Cat &Dog-influence of expansion number
圖5 Ctrip—擴(kuò)展數(shù)影響Fig.5 Ctrip-influence of expansion number
表5所示為不同超圖結(jié)構(gòu)組合對(duì)多通道Laplacian矩陣融合方法的影響,單一超圖結(jié)構(gòu)則對(duì)應(yīng)單通道.第1列表示選取的數(shù)據(jù)集,第2列表示不同通道Laplacian矩陣組合,如PHA+SIFT指首先得到PHA和SIFT對(duì)應(yīng)的超圖結(jié)構(gòu),之后計(jì)算兩個(gè)超圖結(jié)構(gòu)對(duì)應(yīng)的Laplacian矩陣,再加權(quán)累加.第3~6列表示每種組合方式在4個(gè)指標(biāo)上的結(jié)果.結(jié)合表2和表3的結(jié)果可知,質(zhì)量相當(dāng)?shù)某瑘D結(jié)構(gòu)對(duì)應(yīng)的Laplacian矩陣融合有利于提升分類精度.如Ctrip數(shù)據(jù)集上,根據(jù)表3,Jaccard和TF-IDF對(duì)應(yīng)的超圖結(jié)構(gòu)質(zhì)量最差,表5多通道Laplacian矩陣融合Jaccard+TF-IDF分類指標(biāo)高于表3中Jaccard和TF-IDF的單通道結(jié)果.Doc2vec和Word2vec對(duì)應(yīng)的超圖質(zhì)量最優(yōu),則表5中Doc2vec+Word2vec矩陣融合后的分類指標(biāo)同樣高于表3中Doc2vec和Word2vec的單通道結(jié)果,說(shuō)明融合后的Laplacian矩陣質(zhì)量變高.然而當(dāng)兩個(gè)超圖結(jié)構(gòu)質(zhì)量之間相差過(guò)大的時(shí)候,Laplacian矩陣融合后的效果反而會(huì)降低.表3中,Doc2vec對(duì)應(yīng)的超圖結(jié)構(gòu)質(zhì)量最優(yōu),TF-IDF對(duì)應(yīng)的超圖結(jié)構(gòu)質(zhì)量最差,表5中Doc2vec+TF-IDF矩陣融合后的4個(gè)分類指標(biāo)低于表3中Doc2vec單通道結(jié)果.因此在使用本文提出的兩個(gè)優(yōu)化Laplacian矩陣方法之前,考察超圖結(jié)構(gòu)的質(zhì)量是一個(gè)必要的步驟,將質(zhì)量高且相差不大的超圖結(jié)構(gòu)對(duì)應(yīng)的Laplacian矩陣融合能夠得到最好的結(jié)果.
表5 Laplacian矩陣通道組合分類實(shí)驗(yàn)結(jié)果Table 5 Experimental results of Laplacian matrix channel combination classification
下面考慮多通道Laplacian矩陣融合方法的擴(kuò)展性,即通道數(shù)對(duì)Laplacian矩陣融合效果的影響,如圖6和圖7所示.圖中的橫軸表示通道數(shù),圖下方的數(shù)據(jù)表反映了不同的通道數(shù)對(duì)應(yīng)的分類指標(biāo),4條曲線反映分類指標(biāo)隨著通道數(shù)增加的變化趨勢(shì).根據(jù)前述表4和表5的實(shí)驗(yàn)結(jié)果都證明質(zhì)量高且相差不大的超圖結(jié)構(gòu)組合,可以獲取更高的分類性能,因此圖6和圖7實(shí)驗(yàn)選擇高質(zhì)量的超圖結(jié)構(gòu)實(shí)現(xiàn)多通道Laplacian矩陣融合.其中Cat&Dog數(shù)據(jù)集的橫軸1-4分別對(duì)應(yīng)RVGG、RVGG+HVGG、RVGG+HVGG+VGG、RVGG+HVGG+VGG+Resnet這4種通道組合.Ctrip-數(shù)據(jù)集的橫軸1-4分別對(duì)應(yīng)Doc2vec、Doc2vec+Word2vec、Doc2vec+Word2vec+LSI、Doc2vec+Word2vec+LSI+TF-IDF這4種通道組合.圖6和圖7的4個(gè)指標(biāo)曲線增長(zhǎng)趨勢(shì)說(shuō)明,通道數(shù)大于等于2之后,分類性能基本趨于穩(wěn)定,多通道Laplacian矩陣融合不需要太多的計(jì)算通道.因此在表6的對(duì)比實(shí)驗(yàn)中兩種優(yōu)化方法都是基于兩種最優(yōu)的超圖結(jié)構(gòu)進(jìn)行組合實(shí)驗(yàn).
表6 兩種優(yōu)化方法對(duì)比實(shí)驗(yàn)Table 6 Comparative experiment of two optimization methods
圖6 Cat&Dog-通道數(shù)影響Fig.6 Cat &Dog-influence of channel number
圖7 Ctrip-通道數(shù)影響Fig.7 Ctrip-influence of channel number
上述實(shí)驗(yàn)在部分?jǐn)?shù)據(jù)集上探究本文兩種方法的適用場(chǎng)景,表6在4個(gè)數(shù)據(jù)集上對(duì)比兩種方法的分類性能,第1列表示4個(gè)數(shù)據(jù)集,第2列表示組合方式,第3~6列表示4個(gè)分類的值,最后一列是不同組合方式的時(shí)間開銷.每個(gè)數(shù)據(jù)集對(duì)應(yīng)的第1行表示這個(gè)數(shù)據(jù)集上最優(yōu)單一超圖結(jié)構(gòu)的分類結(jié)果.第2行表示超圖結(jié)構(gòu)擴(kuò)張法,拼接兩個(gè)質(zhì)量最優(yōu)的超圖結(jié)構(gòu),超圖結(jié)構(gòu)質(zhì)量可參考表2和表3的實(shí)驗(yàn)結(jié)果.第3行表示多通道Laplacian矩陣融合法,融合兩個(gè)質(zhì)量最優(yōu)的超圖結(jié)構(gòu)對(duì)應(yīng)的Laplacian矩陣.由于Spmbase數(shù)據(jù)集是數(shù)值型數(shù)據(jù)不涉及特征提取操作,本文分別使用歐式距離和余弦距離計(jì)算樣本間相似度得到兩種不同的超圖結(jié)構(gòu),之后基于這兩個(gè)超圖結(jié)構(gòu)分別使用超圖結(jié)構(gòu)擴(kuò)張法和多通道Laplacian矩陣融合法,與單超圖結(jié)構(gòu)的分類性能做對(duì)比.表6對(duì)比的實(shí)驗(yàn)結(jié)果證明異構(gòu)超圖結(jié)構(gòu)擴(kuò)張法有利于提高超圖模型對(duì)樣本分類的效果,而多通道Laplacian矩陣融合法相比超圖結(jié)構(gòu)擴(kuò)張法可進(jìn)一步提高模型分類的效果,如Spambase數(shù)據(jù)集,單個(gè)超圖結(jié)構(gòu)對(duì)應(yīng)的4個(gè)分類指標(biāo)分別為0.646、0.701、0.646、0.672,超圖結(jié)構(gòu)擴(kuò)張法對(duì)應(yīng)的4個(gè)分類指標(biāo)分別為0.654、0.729、0.654、0.689,多通道Laplacian矩陣融合法對(duì)應(yīng)的4個(gè)分類指標(biāo)分別為0.712、0.734、0.696、0.714.此外由表6中Time列的實(shí)驗(yàn)結(jié)果可知,多通道Laplacian矩陣融合法相對(duì)異構(gòu)超圖結(jié)構(gòu)擴(kuò)張法可降低大量的時(shí)間開銷,4個(gè)數(shù)據(jù)集上可分別降低44.2%、44.6%、30.3%和40.7%的時(shí)間成本,平均降低40%左右.
4.4節(jié)超圖Laplacian矩陣融合實(shí)驗(yàn)基于的假設(shè)是,每個(gè)Laplacian矩陣的貢獻(xiàn)是相同的,因?yàn)樗鼈兙哂邢嗤南禂?shù).然而每個(gè)Laplacian矩陣所描述的視圖不同,因而應(yīng)該討論不同通道Laplacian矩陣的重要程度,4.5小節(jié)實(shí)驗(yàn)通過(guò)設(shè)置不同的權(quán)重參數(shù)來(lái)衡量不同通道Laplacian矩陣的重要性.根據(jù)表5和表6的實(shí)驗(yàn)結(jié)果,多通道Laplacian矩陣融合相比超圖結(jié)構(gòu)擴(kuò)張有更好的分類效果,且時(shí)間成本更低.由圖6和圖7可知Laplacian矩陣融合在兩個(gè)通道后分類效果基本趨于穩(wěn)定,因此4.5小節(jié)討論兩種質(zhì)量最高的加權(quán)通道融合結(jié)果.對(duì)于Cat&Dog數(shù)據(jù)集選擇RVGG+HVGG通道加權(quán)融合,Ctrip選擇Doc2vec+word2vec通道加權(quán)融合.
即公式(9)Laplacian矩陣的計(jì)算變?yōu)長(zhǎng)=a1×L1+a2×L2,其中L1和L2分別對(duì)應(yīng)兩個(gè)通道的Laplacian矩陣,a1和a2分別表示兩個(gè)Laplacian矩陣的權(quán)重.由于a1、a2是非凸優(yōu)化的,在更新F和超邊權(quán)重矩陣W之后,使用Tree-structured Parzen Estimator(TPE)算法求解a1和a2.如圖8所示,Orginal loss表示a1,a2=1的損失值,由于此時(shí)的損失值是F和W優(yōu)化之后的損失,因此是個(gè)定值.TPE loss表示使用TPE算法搜索參數(shù)a1,a2后的損失變化,根據(jù)實(shí)驗(yàn)結(jié)果可以發(fā)現(xiàn),TPE算法迭代100次的損失最小值基本趨于為穩(wěn)定,有效的降低了損失值.最終的參數(shù)取值對(duì)應(yīng)TPE loss曲線的最低點(diǎn).
圖8 TPE算法-優(yōu)化參數(shù)Fig.8 TPE algorithm-optimizing parameters
4.6節(jié)主要使用了4.4節(jié)的實(shí)驗(yàn)結(jié)果與其它一些經(jīng)典機(jī)器學(xué)習(xí)模型分類效果的對(duì)比,對(duì)比的分類模型包括經(jīng)典的KNN、SVM、SVM+進(jìn)化算法、圖直推學(xué)習(xí)模型[34]、超圖直推學(xué)習(xí)-CD、超圖直推學(xué)習(xí)-GD,超圖直推學(xué)習(xí)-Feng.SVM+進(jìn)化算法指得是使用進(jìn)化算法來(lái)搜尋SVM的變量取值.超圖直推學(xué)習(xí)-CD指得是使用坐標(biāo)下降的方式來(lái)解決超圖分類問(wèn)題,對(duì)應(yīng)公式(13)和公式(14).超圖直推學(xué)習(xí)-GD指得是使用交替最小二乘法來(lái)解決超圖分類問(wèn)題,對(duì)應(yīng)公式(11)和公式(12).超圖直推學(xué)習(xí)-Feng指得是Feng提出的關(guān)聯(lián)矩陣優(yōu)化的方式[16].在兩個(gè)不同類型數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),對(duì)于文本數(shù)據(jù)集(Ctrip)和圖像數(shù)據(jù)集(Cat&Dog)首先使用Word2vec特征處理方式和RVGG的方式提取特征,輸入前6種不同的機(jī)器學(xué)習(xí)分類模型進(jìn)行分類,之后對(duì)比兩種優(yōu)化超圖直推學(xué)習(xí)模型的實(shí)驗(yàn)結(jié)果.
如圖9和圖10,本文提出的兩種優(yōu)化超圖直推學(xué)習(xí)模型的方法,超過(guò)了經(jīng)典的SVM算法及其改進(jìn)算法,由于普通圖表達(dá)的頂點(diǎn)間關(guān)系不如超圖豐富,因此普通圖直推學(xué)習(xí)模型的效果不如超圖直推學(xué)習(xí)模型.而且本文提出的優(yōu)化方法分類性能高于超圖直推學(xué)習(xí)-CD和超圖直推學(xué)習(xí)-GD兩種直推學(xué)習(xí)模型的優(yōu)化方法,是由于改進(jìn)后的超圖擴(kuò)張結(jié)構(gòu)以及多通道Laplacian融合矩陣,相比原來(lái)單一的超圖結(jié)構(gòu)表達(dá)了更多的頂點(diǎn)間、頂點(diǎn)超邊間的復(fù)雜關(guān)系信息.超圖直推學(xué)習(xí)-Feng忽略了超邊權(quán)重的信息,因此效果也不如本文提出的兩種優(yōu)化方法.
圖9 Ctrip數(shù)據(jù)集分類結(jié)果對(duì)比Fig.9 Comparison of classification results of Ctrip data set
圖10 Cat &Dog數(shù)據(jù)集分類結(jié)果對(duì)比Fig.10 Comparison of Cat &Dog dataset classification results
本文針對(duì)超圖直推學(xué)習(xí)模型的求解和優(yōu)化問(wèn)題,采用了兩種方法.首先提出了超圖結(jié)構(gòu)擴(kuò)張法,將超圖關(guān)聯(lián)矩陣拼接.同時(shí)引入權(quán)重信息,將不同關(guān)聯(lián)矩陣對(duì)應(yīng)的權(quán)重矩陣也進(jìn)行拼接,以增加Markov隨機(jī)游走的擴(kuò)散范圍.實(shí)驗(yàn)結(jié)果表明這種方式可以有效提高超圖直推學(xué)習(xí)模型的分類性能,但矩陣拼接也帶來(lái)了矩陣維度高,時(shí)間開銷大的問(wèn)題.因此本文進(jìn)一步提出了多通道Laplacian矩陣融法,在多種特征提取方式構(gòu)造的異構(gòu)關(guān)聯(lián)矩陣的基礎(chǔ)上,將多個(gè)計(jì)算通道得到的Laplacian矩陣加權(quán)求和,再進(jìn)行超圖分割,不僅降低了時(shí)間開銷,且進(jìn)一步提高了模型的分類性能.最后通過(guò)與SVM等經(jīng)典模型以一些改進(jìn)的超圖直推學(xué)習(xí)模型進(jìn)行比較,驗(yàn)證了本文提出的兩種方法的效果.現(xiàn)階段隨著超圖神經(jīng)網(wǎng)絡(luò)的提出,超圖在深度學(xué)習(xí)領(lǐng)域逐漸顯示出了其高效的性能,因此未來(lái)研究的重點(diǎn)將放在超圖深度學(xué)習(xí)模型及其優(yōu)化方面.