劉彥北,周敬濤
(天津工業(yè)大學(xué)電子與信息工程學(xué)院,天津 300387)
圖的應(yīng)用是非常廣泛的,現(xiàn)實生活中處處是圖的場景。近些年,圖神經(jīng)網(wǎng)絡(luò)的方法得到了廣泛的關(guān)注,以傳統(tǒng)圖結(jié)構(gòu)為基礎(chǔ),在圖表示學(xué)習(xí)方面取得了很大的成果。然而隨著圖神經(jīng)網(wǎng)絡(luò)應(yīng)用的不斷擴(kuò)展,傳統(tǒng)圖結(jié)構(gòu)定義的點(diǎn)與點(diǎn)成對關(guān)系已經(jīng)無法滿足描述現(xiàn)實情況中數(shù)據(jù)之間高階復(fù)雜關(guān)系的要求,傳統(tǒng)圖表示學(xué)習(xí)在消息傳遞方面也面臨挑戰(zhàn)。
相對于普通圖而言,超圖可以更加準(zhǔn)確地描述存在多元關(guān)聯(lián)的對象之間的關(guān)系。超邊構(gòu)建非成對關(guān)系,因此,超圖很適合用于描述高階數(shù)據(jù)相關(guān)性,同時在學(xué)習(xí)多模態(tài)和異構(gòu)數(shù)據(jù)上都有建樹。超圖學(xué)習(xí)最早由Sch?lkopf 等[1]提出,用于處理超圖結(jié)構(gòu),減小超圖上連接性緊密點(diǎn)的標(biāo)簽的差異。Metaxas 等[2]提出超圖學(xué)習(xí)被應(yīng)用于視頻對象分割任務(wù)。Huang 等[3]利用超圖結(jié)構(gòu)對圖像關(guān)系進(jìn)行建模,并且對圖像排序進(jìn)行轉(zhuǎn)導(dǎo)推理。Gao 等[4]引入l2 正則化來學(xué)習(xí)最優(yōu)超邊權(quán)值。Hwang 等[5]通過假設(shè)高度相關(guān)的超邊緣應(yīng)該具有相似的權(quán)重,進(jìn)一步探討了超邊緣之間的相關(guān)性。之后Gao等[6]引入了多超圖結(jié)構(gòu),并且為不同的子超圖分配不同的權(quán)重,以此在處理多模態(tài)數(shù)據(jù)的基礎(chǔ)上應(yīng)對不同的模式。Jiang 等[7]提出了動態(tài)超圖神經(jīng)網(wǎng)絡(luò)DHGNN,由動態(tài)超圖構(gòu)造(DHG)和超圖卷(HGC)2 個模塊構(gòu)成,通過不斷更新超圖結(jié)構(gòu)來最終達(dá)到最貼切數(shù)據(jù)的學(xué)習(xí)表示。Bai[8]在圖神經(jīng)網(wǎng)絡(luò)中引入了2 個端到端的可訓(xùn)練操作內(nèi)容,即超圖卷積和超圖注意,用于有效學(xué)習(xí)高階圖結(jié)構(gòu)數(shù)據(jù)上的深度嵌入。Feng 等[9]設(shè)計了一種超邊緣卷積,在超圖神經(jīng)網(wǎng)絡(luò)HGNN 中學(xué)習(xí)高階數(shù)據(jù)相關(guān)性。Zhang 等[10]開發(fā)了一種新的基于自注意的圖神經(jīng)網(wǎng)絡(luò),稱為Hyper-SAGNN,適用于具有可變超邊大小的同質(zhì)和異質(zhì)超圖。Xia 等[11]將超圖網(wǎng)絡(luò)與自監(jiān)督學(xué)習(xí)相結(jié)合并應(yīng)用于會話推薦任務(wù)。Lee 等[12]采用個性化的重加權(quán)方案進(jìn)行節(jié)點(diǎn)跳躍,通過概率的形式重新解釋超圖上的隨機(jī)游走概念。
傳統(tǒng)的消息傳遞算法是在圖神經(jīng)網(wǎng)絡(luò)上展開的。文獻(xiàn)[13-14]提出了譜圖卷積神經(jīng)網(wǎng)絡(luò);文獻(xiàn)[15-16]提出了消息傳遞算法;Dai 等[17]通過遞歸神經(jīng)網(wǎng)絡(luò)進(jìn)行鄰居聚合;Veliˇckovic'等[18]在圖神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上引入了注意機(jī)制;AbuElHaija 等[19]提出了隨機(jī)游走;Gilmer 等[20]使用了邊緣特征;文獻(xiàn)[21-24]試圖增加跳躍的連接步數(shù)來改進(jìn)傳統(tǒng)的消息傳遞算法;Xu 等[25]將消息傳遞與聚合方案相結(jié)合。然而,上述工作的消息傳遞層數(shù)依然是有限的。Li 等[26]通過合作訓(xùn)練和自我訓(xùn)練相結(jié)合的方式來促進(jìn)模型訓(xùn)練。Eliav 等[27]也有類似的表現(xiàn),取得的改進(jìn)效果接近于其他的半監(jiān)督分類模型。文獻(xiàn)[28-29] 通過結(jié)合殘差連接和批量歸一化避免了過擬合問題。Gaseiger[30]使用圖像卷積的關(guān)系網(wǎng)絡(luò)(GCN)和網(wǎng)頁排名得出一種改進(jìn)的傳播方案即基于個性化的網(wǎng)頁排名。Sun 等[31]利用將AdaBoost 與網(wǎng)絡(luò)合并的方法,構(gòu)建新圖卷積網(wǎng)絡(luò)AdaGCN,從根節(jié)點(diǎn)的高階鄰居中提取信息。綜上所述,超圖學(xué)習(xí)需要在增大學(xué)習(xí)領(lǐng)域范圍的同時,保持對根節(jié)點(diǎn)的適當(dāng)關(guān)注。
本文提出了一種使用個性化網(wǎng)頁排名PageRank代替?zhèn)鹘y(tǒng)鄰居聚合的傳播方案,該算法增加了傳播過程傳回根節(jié)點(diǎn)的概率,PageRank 算法在對根節(jié)點(diǎn)的局部領(lǐng)域進(jìn)行編碼時,能夠在擴(kuò)大學(xué)習(xí)領(lǐng)域的同時保持對根節(jié)點(diǎn)信息的關(guān)注。模型的傳播方案允許網(wǎng)絡(luò)層數(shù)逐漸增多,理論上可以接近無限多層,而且不會導(dǎo)致過平滑。除該優(yōu)勢之外,本算法當(dāng)中的傳播算法與神經(jīng)網(wǎng)絡(luò)獨(dú)立存在,因此,可以在不改變原有神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上來實現(xiàn)更廣的傳播范圍,使模型具有一定的推廣性。與前人所述PageRank 與傳統(tǒng)圖卷積網(wǎng)絡(luò)方法相結(jié)合的算法PPNP[30]相比,本文提出的算法是將PageRank與超圖卷積網(wǎng)絡(luò)相結(jié)合克服各自局限性的模型HGNNP,優(yōu)勢在于:利用超圖適合處理數(shù)據(jù)之間高階關(guān)系的特點(diǎn),有效學(xué)習(xí)根節(jié)點(diǎn)周圍更多類型的連接信息;使用PageRank 思想在根節(jié)點(diǎn)周圍實現(xiàn)更廣的學(xué)習(xí)領(lǐng)域,同時不丟失根節(jié)點(diǎn)本身的信息。為驗證所提出的HGNNP 算法的有效性,本文進(jìn)行了視覺對象分類任務(wù)實驗,并與目前流行的方法相比較,以期能夠在較深的卷積網(wǎng)絡(luò)層數(shù)下較好地處理多模態(tài)數(shù)據(jù)的高階關(guān)系。
本文模型HGNNP 將超圖神經(jīng)網(wǎng)絡(luò)與個性網(wǎng)頁排名相結(jié)合,包含超圖構(gòu)建、超圖卷積網(wǎng)絡(luò)、個性化網(wǎng)頁排名機(jī)制等內(nèi)容。
超圖學(xué)習(xí)是一個很寬泛的概念,其中最基礎(chǔ)的是超圖構(gòu)造。通常情況下,超圖被定義為G=(V,E,W)。其中:節(jié)點(diǎn)集為V,包含了超圖上所有的頂點(diǎn);超邊集為E,包含由任意個關(guān)聯(lián)頂點(diǎn)構(gòu)成的邊;W 則是由每條超邊的權(quán)重構(gòu)成的權(quán)重集,是由超邊權(quán)重構(gòu)成的對角矩陣;而超圖的關(guān)聯(lián)矩陣H 可以由|V|×|E|來表示;對于任何一個屬于V 的節(jié)點(diǎn)v 而言,節(jié)點(diǎn)的度被定義為d(v)=h(v,e);對于一個屬于E 的超邊e而言,邊的度被定義為δ(e)=;那么很顯然,De和Dv表示超邊度和節(jié)點(diǎn)度的對角線矩陣。
普通圖描述的是邊和成對節(jié)點(diǎn)之間的關(guān)系,超圖的關(guān)聯(lián)矩陣描述的是超邊與節(jié)點(diǎn)之間的關(guān)系。特殊情況下,當(dāng)超圖中所有的超邊包含的節(jié)點(diǎn)個數(shù)都為K 個時,稱該超圖為K 均勻超圖。還應(yīng)當(dāng)注意的點(diǎn)是,在超圖構(gòu)建的過程中,即使超邊所包含的點(diǎn)個數(shù)是相同的,超邊的類型也會因為所包含節(jié)點(diǎn)類型的不同而不同,從這里也能看出超圖適用于處理多模態(tài)數(shù)據(jù)。
超圖卷積網(wǎng)絡(luò)(HGNN)是在構(gòu)建超圖的基礎(chǔ)上捕捉節(jié)點(diǎn)之間的高階關(guān)系,是由傳統(tǒng)圖卷積網(wǎng)絡(luò)發(fā)展而來的。
首先回顧下普通圖的卷積網(wǎng)絡(luò)(GCN),傳統(tǒng)的GCN網(wǎng)絡(luò)如式(1)所示:
對于超圖卷積網(wǎng)絡(luò)而言,輸入網(wǎng)絡(luò)數(shù)據(jù)集通常分為訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集。在輸入網(wǎng)絡(luò)時,與傳統(tǒng)圖相同的地方是都使用了最初始的數(shù)據(jù)特征,不同的地方在于關(guān)聯(lián)矩陣的形成。超圖利用多模態(tài)數(shù)據(jù)集的復(fù)雜相關(guān)性構(gòu)造了很多超邊緣結(jié)構(gòu)群,通過超邊生成的方式(hyperedge generation)將其連接起來,進(jìn)而生成鄰接矩陣H,然后將新生成的鄰接矩陣與節(jié)點(diǎn)特征輸入超圖神經(jīng)網(wǎng)絡(luò),得到最后的標(biāo)簽特征。由此可知,一個超邊卷積層的公式為:
式中:X(l+1)代表第l+1 層節(jié)點(diǎn)的特征;σ 代表非線性激活函數(shù)。超圖神經(jīng)網(wǎng)絡(luò)基于超圖上的譜卷積,在式(2)中實現(xiàn)了節(jié)點(diǎn)—邊—節(jié)點(diǎn)特征的轉(zhuǎn)換,利用超邊特征聚合和鄰居節(jié)點(diǎn)特征融合,捕捉節(jié)點(diǎn)數(shù)據(jù)之間的高階相關(guān)性。其中,濾波器矩陣θ(l)與初始的節(jié)點(diǎn)特征X(l)相乘進(jìn)行濾波處理,改變特征的維度;然后根據(jù)超邊的特性,將節(jié)點(diǎn)特征匯聚成超邊特征,這一步驟通過與的乘法實現(xiàn);然后以乘以關(guān)聯(lián)矩陣He的方式,將與根節(jié)點(diǎn)相關(guān)的超邊特征重新匯聚成節(jié)點(diǎn)特征,Dv和De起到歸一化的作用;最后通過非線性激活輸出最終結(jié)果。
在超圖神經(jīng)網(wǎng)絡(luò)中,超圖構(gòu)造首先要考慮超邊的構(gòu)建,如圖1 所示,網(wǎng)絡(luò)模型根據(jù)節(jié)點(diǎn)之間的距離來構(gòu)造關(guān)聯(lián)矩陣,進(jìn)而形成超邊。普通圖中,邊只考慮兩點(diǎn)之間的聯(lián)系,而超邊衡量了多個節(jié)點(diǎn)之間的關(guān)系。
圖1 超邊生成Fig.1 Hyperedge generation
PageRank 來源于網(wǎng)頁鏈接之間的隨機(jī)游走機(jī)制,使用戶可以點(diǎn)擊鏈接跳轉(zhuǎn)到新的頁面,不至于一直在本網(wǎng)頁停留,也不至于鏈接不到新的網(wǎng)頁,使用戶可以一直瀏覽自己所感興趣的網(wǎng)頁內(nèi)容,類似于學(xué)習(xí)到了用戶的興趣范圍,其傳播機(jī)制如圖2 所示。
圖2 PageRank 傳播機(jī)制Fig.2 Propagation mechanism of PageRank
由圖2 可知,對于根節(jié)點(diǎn)x1來說,信息的傳播在相連的節(jié)點(diǎn)之間進(jìn)行,從一個頂點(diǎn)到下一個頂點(diǎn)游走的過程中,有α 的概率回歸它本身,有1-α 的概率傳遞給x2、x3、x4,同時下一次傳遞時,這3 個頂點(diǎn)也是有α 的概率傳回x1。這個傳播過程是以x1為重心的,即以它作為本次傳播的根節(jié)點(diǎn),最終學(xué)習(xí)到的信息為該節(jié)點(diǎn)的信息表示。
如前文提到的,可以利用網(wǎng)頁排名機(jī)制PageRank來避免根節(jié)點(diǎn)信息的丟失。為了更方便快速地實現(xiàn)本模型的設(shè)計目的,引入一個PageRank 的變體,即將根節(jié)點(diǎn)考慮在內(nèi)的個性化PageRank。與普通的網(wǎng)頁排名機(jī)制不同,個性化PageRank 是針對個人而言的PageRank,每次重新游走的時候,都是從根節(jié)點(diǎn)用戶節(jié)點(diǎn)u 開始,在學(xué)習(xí)節(jié)點(diǎn)u 的信息時,該節(jié)點(diǎn)初始化為1,其他節(jié)點(diǎn)初始化為0。
個性化PageRank 的進(jìn)階公式為:
式中:ix為根結(jié)點(diǎn)特征向量;為加上歸一化以及自循環(huán)的鄰接矩陣;πppr(ix)為傳播之后的特征;α 為傳播概率。在這里,先將網(wǎng)頁排名機(jī)制與圖網(wǎng)絡(luò)的傳播過程聯(lián)合在一起,得到的公式為:
式中:X 為特征矩陣;fθ(x)為參數(shù)為θ 的對數(shù)據(jù)特征進(jìn)行預(yù)處理的神經(jīng)網(wǎng)絡(luò)。由式(5)可知,對節(jié)點(diǎn)標(biāo)簽進(jìn)行預(yù)測的神經(jīng)網(wǎng)絡(luò)與傳播機(jī)制是分割開來的,神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)以及層數(shù)深度是獨(dú)立于傳播算法存在的。由此可以靈活地改變模型中神經(jīng)網(wǎng)絡(luò)的模型,可以用任意的傳播矩陣來替換式(5)的。本文對式(5)使用了簡便的形式以降低模型的計算復(fù)雜度。此外HGNNP模型訓(xùn)練是端到端的。
HGNNP 模型如圖3 所示。
圖3 HGNNP 模型示意圖Fig.3 Schematic diagram of HGNNP model
由圖3 可知,初始數(shù)據(jù)經(jīng)過超邊聚集(hyperedge generation)生成超圖的關(guān)聯(lián)矩陣H,該關(guān)聯(lián)矩陣描述的是超邊與它包含的多個節(jié)點(diǎn)之間的連接信息,通過該方法生成了不同于傳統(tǒng)圖的“連接信息”。神經(jīng)網(wǎng)絡(luò)的輸入不僅需要連接信息,還需要節(jié)點(diǎn)的屬性信息。因此,將生成的關(guān)聯(lián)矩陣H 與原始的節(jié)點(diǎn)特征共同輸入超圖神經(jīng)網(wǎng)絡(luò)。該網(wǎng)絡(luò)的作用就是利用超圖以及超邊的特性來對原始的節(jié)點(diǎn)特征進(jìn)行重新表示學(xué)習(xí)。
具體步驟為輸入的節(jié)點(diǎn)特征利用關(guān)聯(lián)矩陣中超邊與節(jié)點(diǎn)的關(guān)聯(lián)信息,依據(jù)超圖神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)模型(hypergraph neural networks),經(jīng)過一層點(diǎn)—邊—點(diǎn)的特征變化過程,不斷迭代更新以得到最終的學(xué)習(xí)表示,其中“邊”指的是超邊特征。節(jié)點(diǎn)特征經(jīng)過節(jié)點(diǎn)特征轉(zhuǎn)換、超邊特征聚合、節(jié)點(diǎn)特征聚合過程得到新的節(jié)點(diǎn)學(xué)習(xí)表示,再經(jīng)過非線性激活函數(shù),最終得到初始嵌入節(jié)點(diǎn)特征hi。在初始嵌入節(jié)點(diǎn)特征基礎(chǔ)之上,使用個性化PageRank 機(jī)制進(jìn)行信息傳播,吸收周圍鄰居節(jié)點(diǎn)的信息;同時以一定的概率回到根節(jié)點(diǎn)本身,每經(jīng)歷一層的信息傳播之后,再進(jìn)入超圖神經(jīng)網(wǎng)絡(luò)進(jìn)行下一次特征學(xué)習(xí),直到得到最終學(xué)習(xí)表示。
具體來講,處理之后的節(jié)點(diǎn)特征結(jié)合PageRank進(jìn)行信息傳播,該傳播機(jī)制使得節(jié)點(diǎn)信息有α 的概率傳回本身,有1-α 的概率再次進(jìn)入超圖神經(jīng)網(wǎng)絡(luò)中,正是這個概率保證了一定程度上可以再次匯聚根節(jié)點(diǎn)本身的信息,防止在吸收周圍的鄰居節(jié)點(diǎn)信息時學(xué)習(xí)范圍過廣或?qū)訑?shù)過深使得根節(jié)點(diǎn)的信息被丟失掉。因此,使得模型能夠在有效吸收周圍鄰居節(jié)點(diǎn)信息的同時,一定程度上保留根節(jié)點(diǎn)的信息。
上述過程有效地防止了模型層數(shù)過深時過擬合、節(jié)點(diǎn)學(xué)習(xí)表示趨近于穩(wěn)定值和模型泛化能力弱的情況。具體表現(xiàn)為,當(dāng)學(xué)習(xí)層數(shù)過深時,節(jié)點(diǎn)的學(xué)習(xí)表示會趨向該圖的極限分布,節(jié)點(diǎn)表示不再取決于根節(jié)點(diǎn)和其周圍的鄰居信息,而取決于整個圖本身,而模型使用的網(wǎng)頁排名機(jī)制解決了這個問題。
本文模型結(jié)合超圖神經(jīng)網(wǎng)絡(luò)和網(wǎng)頁排名機(jī)制,得到HGNNP 的整體公式:
式中:X(l+1)為下一層的節(jié)點(diǎn)特征;α 為傳播概率;Dv和De為節(jié)點(diǎn)和超邊的度矩陣,起到了歸一化的作用;X(0)不是初始的節(jié)點(diǎn)特征,而是經(jīng)過超圖神經(jīng)網(wǎng)絡(luò)預(yù)處理之后的節(jié)點(diǎn)特征hi;其余字符含義不變。
對比超圖神經(jīng)網(wǎng)絡(luò),HGNNP 每一次傳播不是直接傳播到相鄰節(jié)點(diǎn),而是有α 的概率回歸到本身,本質(zhì)上傳播機(jī)制發(fā)生了改變。對比PageRank 算法和傳統(tǒng)圖網(wǎng)絡(luò)結(jié)合的方法,神經(jīng)網(wǎng)絡(luò)模型引入了超圖和超邊的概念,根本區(qū)別是卷積網(wǎng)絡(luò)中的連接信息發(fā)生改變,多個節(jié)點(diǎn)相連的超邊的存在使得節(jié)點(diǎn)表示學(xué)習(xí)中節(jié)點(diǎn)信息學(xué)習(xí)得更為全面準(zhǔn)確。
綜上所述,HGNNP 將超圖神經(jīng)網(wǎng)絡(luò)與PageRank算法相結(jié)合,不僅解決了傳統(tǒng)圖學(xué)習(xí)算法無法處理的高階數(shù)據(jù)相關(guān)性的問題,而且可以利用特定的傳播機(jī)制加深模型的網(wǎng)絡(luò)層數(shù),以使網(wǎng)絡(luò)模型更全面更準(zhǔn)確地學(xué)習(xí)節(jié)點(diǎn)的信息,在處理分類問題和預(yù)測問題時,實驗效果會更好。
為了驗證本文所提出的HGNNP 模型,實驗利用了2 個視覺對象分類的數(shù)據(jù)集,包括普林斯頓大學(xué)的ModelNet40 數(shù)據(jù)集以及臺灣大學(xué)的NTU 3D 模型數(shù)據(jù)集。表1 為2 個數(shù)據(jù)集的節(jié)點(diǎn)種類個數(shù)、訓(xùn)練和測試的節(jié)點(diǎn)個數(shù)以及總共的節(jié)點(diǎn)個數(shù)。需要注意的是,ModelNet40 數(shù)據(jù)集由來自40 個流行類別的12 311 個對象組成,并應(yīng)用了相同的訓(xùn)練/測試分割。其中,9 843 個物體用于訓(xùn)練,2 468 個物體用于測試。NTU數(shù)據(jù)集由來自67 個類別的2 012 個3D 形狀組成,包括汽車、椅子、國際象棋、芯片、時鐘、杯子、門、框架、筆、植物葉等。在NTU 數(shù)據(jù)集中,80%的數(shù)據(jù)用于訓(xùn)練,其他20%的數(shù)據(jù)用于測試。本實驗采用2 種提取特征的方法MVCNN(用于3D 形狀識別的多視圖卷積神經(jīng)網(wǎng)絡(luò))和GVCNN(用于3D 形狀識別的群視圖卷積神經(jīng)網(wǎng)絡(luò))在該三維模型數(shù)據(jù)集上提取特征,這2種方法在三維對象表示上有著非常好的性能表現(xiàn)。
表1 ModelNet40 和NTU 數(shù)據(jù)集的詳細(xì)信息Tab.1 Detailed information of ModelNet40 and NTU datasets
為了與傳統(tǒng)圖神經(jīng)網(wǎng)絡(luò)做對比,利用節(jié)點(diǎn)之間的距離來構(gòu)建圖結(jié)構(gòu)。在構(gòu)造超圖步驟時使用2 種方法:一種是依據(jù)KNN(K 最鄰近分類算法)思想選取10個離根節(jié)點(diǎn)最近的點(diǎn)構(gòu)成超邊,進(jìn)而構(gòu)建超圖;另外一種是在數(shù)據(jù)特征呈現(xiàn)多模態(tài)時,構(gòu)建超圖關(guān)聯(lián)矩陣,并將多個不同屬性特征的關(guān)聯(lián)矩陣拼接在一起,構(gòu)成多模態(tài)特征的超圖。
在上述2 個數(shù)據(jù)集完成半監(jiān)督分類實驗的基礎(chǔ)之上,對傳播概率α 和傳播層數(shù)N 進(jìn)行控制變量和消融實驗,以更直觀地判斷出2 個超參數(shù)對模型效果的影響。
在ModelNet40 和NTU 數(shù)據(jù)集上分別實現(xiàn)半監(jiān)督分類實驗,評價標(biāo)準(zhǔn)主要是分類的準(zhǔn)確率。其中,每一個數(shù)據(jù)集在提取特征時都使用MVCNN 和GVCNN 這2 種方法,這2 種方法皆可用于構(gòu)建超圖或者提取特征。實驗針對不同條件進(jìn)行分類討論,將2 種卷積方法分別用于構(gòu)建超圖以及提取特征。
用直方圖直觀地表明本文模型效果的提升,如圖4 所示,并對比不同參數(shù)條件下2 個數(shù)據(jù)集的實驗效果。如不做特殊說明,G+M 表示GVCNN 和MVCNN相結(jié)合;G+M_G 表示在構(gòu)造超圖時使用GVCNN 和MVCNN 提取的特征,在訓(xùn)練網(wǎng)絡(luò)時使用GVCNN 提取的特征這一實驗情況,其他的類比即可。
圖4 不同參數(shù)條件下2 個數(shù)據(jù)集上的分類結(jié)果比較Fig.4 Comparison of classification results on two data sets with different parameters
由圖4 可知,在NTU 數(shù)據(jù)集上,與其他模型相比,HGNNP 多數(shù)實驗條件下分類效果是最好的,提升的程度比較大,最高準(zhǔn)確率達(dá)到85.79%,與HGNN 相比,提高了8.59%;在ModelNet40 數(shù)據(jù)集上,與其他模型相比,HGNNP 模型性能較好,最高準(zhǔn)確率達(dá)到了93.07%,但由于ModelNet40 與NTU 數(shù)據(jù)集相比數(shù)據(jù)樣本偏少,HGNNP 模型的提升效果不明顯,與HGNN 相比,提高了0.47%。綜上所述,與HGNN 相比,HGNNP在多數(shù)情況下提升效果顯著,由此驗證了本文模型的有效性和穩(wěn)定性。個別情況效果比較差,原因是實驗條件中用于構(gòu)建超圖的特征和用于學(xué)習(xí)的特征之間存在差異,深度網(wǎng)絡(luò)使差異明顯化,因此,在準(zhǔn)確率上會有一定的誤差。
為分析傳播概率α 對于模型的影響,本文將所有情況下針對α 在[0.01,0.2]區(qū)間內(nèi)的分類結(jié)果進(jìn)行展示,如圖5 所示,以探求α 取何值時模型效果取得最優(yōu)。
圖5 HGNNP 在ModelNet40 數(shù)據(jù)集上隨α 的變化Fig.5 Changes of HGNNP with α in ModelNet40 dataset
由圖5 可以看出,在ModelNet40 數(shù)據(jù)集上HGNNP隨α 的變化趨勢。一開始在0.1 處準(zhǔn)確率比較低,也就是說當(dāng)接近以往的傳播機(jī)制,沒有概率傳回根節(jié)點(diǎn)本身時,準(zhǔn)確率會比較低;在0.1~0.15 之間,準(zhǔn)確率達(dá)到最高,說明在這一范圍內(nèi)調(diào)節(jié)α 可以得到最優(yōu)模型。這也驗證了對根節(jié)點(diǎn)信息進(jìn)行一定的保留比直接傳播學(xué)習(xí)的信息更全面準(zhǔn)確。在NTU 數(shù)據(jù)集上也可以發(fā)現(xiàn)類似的規(guī)律,本文不再贅述。傳播概率α 對HGNNP模型效果影響顯著,傳播層數(shù)N 在模型中也是重要的影響參數(shù)。HGNNP 在Model-Net40 數(shù)據(jù)集上的分類效果隨N 的變化如圖6 所示。
圖6 HGNNP 在ModelNet40 數(shù)據(jù)集上隨N 的變化Fig.6 Changes of HGNNP with N in ModelNet40 dataset
由圖6 可知,傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)在層數(shù)過深時會出現(xiàn)過擬合的現(xiàn)象,而本文模型在層數(shù)過深時依然可以保持穩(wěn)定的分類準(zhǔn)確率,并且隨著層數(shù)的加深,存在一個臨界值使得模型分類效果最優(yōu)。本文模型在傳播層數(shù)較少時準(zhǔn)確率較低,傳播層數(shù)接近1 時模型上近似于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò);隨著傳播層數(shù)的加深,分類準(zhǔn)確率逐漸上升,在傳播層數(shù)為2~5 之間時逐漸達(dá)到最大值;之后會逐漸地下降。同等意義上,對于本文模型來說,使用網(wǎng)頁排名的傳播機(jī)制傳播5 層左右,可以使HGNNP 達(dá)到最優(yōu)。
更為重要的是,當(dāng)傳播層數(shù)逐漸加深到一定程度時,HGNNP 表現(xiàn)趨于穩(wěn)定,不再出現(xiàn)大幅度的變化,甚至當(dāng)接近無限的網(wǎng)絡(luò)層數(shù)后,模型表現(xiàn)依然不會出現(xiàn)很大的變化,不會因為過平滑的問題而分類錯誤,這正對應(yīng)了前文提到的要解決的挑戰(zhàn)和問題,驗證了本文模型相比傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的優(yōu)越性。
本文針對傳統(tǒng)超圖神經(jīng)網(wǎng)絡(luò)卷積過程中層數(shù)過深過擬合以及傳播范圍小的問題,提出了一種基于PageRank 傳播機(jī)制的深度超圖神經(jīng)網(wǎng)絡(luò)HGNNP。實驗結(jié)果表明:與傳統(tǒng)的深度圖神經(jīng)網(wǎng)絡(luò)相比,HGNNP在各種學(xué)習(xí)任務(wù)中都可以取得較好的性能。其中在ModelNet40 數(shù)據(jù)集上,最高準(zhǔn)確率達(dá)到了93.07%,相比HGNN 提高了0.47%;在NTU 數(shù)據(jù)集上,最高準(zhǔn)確率達(dá)到了85.79%,相比HGNN 提高了8.59%。