摘 要:與傳統(tǒng)網(wǎng)絡(luò)不同,超網(wǎng)絡(luò)具有復(fù)雜的高階元組關(guān)系,而現(xiàn)有大多數(shù)超網(wǎng)絡(luò)表示學(xué)習(xí)方法不能很好地捕獲復(fù)雜的高階元組關(guān)系。針對(duì)上述問(wèn)題,為了更好地捕獲復(fù)雜的高階元組關(guān)系,提出了基于雙端權(quán)重約束的異質(zhì)超網(wǎng)絡(luò)表示學(xué)習(xí)方法。首先,該方法提出一個(gè)超邊多源隨機(jī)游走融合算法,將超邊融入到基于超路徑的隨機(jī)游走節(jié)點(diǎn)序列中;然后,受到知識(shí)表示學(xué)習(xí)模型TransE的啟發(fā),該方法引入超邊感知器模型與hyper-gram模型進(jìn)行加權(quán)融合,以便于捕獲超網(wǎng)絡(luò)中復(fù)雜的高階元組關(guān)系;最后,在四個(gè)真實(shí)超網(wǎng)絡(luò)數(shù)據(jù)集上的實(shí)驗(yàn)表明,對(duì)于鏈接預(yù)測(cè)任務(wù),該方法的性能幾乎優(yōu)于所有基線(xiàn)方法。對(duì)于超網(wǎng)絡(luò)重建任務(wù),在GPS數(shù)據(jù)集上,該方法的性能優(yōu)于所有基線(xiàn)方法;同時(shí),在drug數(shù)據(jù)集上,在超邊重建比例大于0.3時(shí),該方法的性能優(yōu)于所有基線(xiàn)方法??傊?,所提方法能夠有效地捕獲超網(wǎng)絡(luò)中復(fù)雜的高階元組關(guān)系。
關(guān)鍵詞: 超網(wǎng)絡(luò)表示學(xué)習(xí); 雙端權(quán)重約束; 超邊感知器; 鏈接預(yù)測(cè); 超網(wǎng)絡(luò)重建
中圖分類(lèi)號(hào): TP181
文獻(xiàn)標(biāo)志碼: A
文章編號(hào): 1001-3695(2025)02-011-0406-07
doi: 10.19734/j.issn.1001-3695.2024.07.0279
Heterogeneous hypernetwork representation learning with
dual-end weight constraints
Chen Yijiana,b, Zhu Yua,b’, Wang Xiaoyinga,b, Huang Jianqianga,b, Cao Tengfeia,b, Wang Weia,b
(a.School of Computer Technology amp; Application, b.Qinghai Provincial Laboratory for Intelligent Computing amp; Application, Qinghai University, Xining 810016, China)
Abstract:Different from traditional networks, the hypernetworks possess complex higher-order tuple relationships, which fail to be captured by most existing hypernetwork representation learning methods effectively. To address this issue and better capture complex higher-order tuple relationships, this paper proposed a heterogeneous hypernetwork representation learning me-thod with dual-end weight constraints abbreviated as HRDC. Firstly, this method proposed a hyperedge multi-source random walk fusion algorithm that incorporated the hyperedges into random walk node sequences based on the hyperpaths. Secondly, inspired by the knowledge representation learning model TransE, this method introduced hyperedge perceptron model and hyper-gram model to carry out weighted fusion, so as to capture complex higher-order tuple relationships in the hypernetworks. Finally, the experiments on four real-world hypernetwork datasets demonstrate that for link prediction tasks, the performance of this method is almost superior to all baseline methods. As for hypernetwork reconstruction tasks, on the GPS dataset, the performance of this method surpasses all baseline methods. On the drug dataset, when the hyperedge reconstruction ratio exceeds 0.3, the performance of this method outperforms all baseline methods. In summary, the proposed" method can effectively capture complex higher-order tuple relationships in the hypernetworks.
Key words:hypernetwork representation learning; dual-end weight constraint; hyperedge perceptron; link prediction; hypernetwork reconstruction
0 引言
網(wǎng)絡(luò)表示學(xué)習(xí)方法按照網(wǎng)絡(luò)類(lèi)型分為傳統(tǒng)網(wǎng)絡(luò)表示學(xué)習(xí)方法和超網(wǎng)絡(luò)表示學(xué)習(xí)方法。傳統(tǒng)網(wǎng)絡(luò)表示學(xué)習(xí)也被稱(chēng)為網(wǎng)絡(luò)嵌入,其將傳統(tǒng)網(wǎng)絡(luò)的節(jié)點(diǎn)映射到一個(gè)低維表示向量空間中。例如,Deepwalk[1]將自然語(yǔ)言處理思想引入網(wǎng)絡(luò)表示學(xué)習(xí),將網(wǎng)絡(luò)中的節(jié)點(diǎn)序列視為句子,將每一個(gè)節(jié)點(diǎn)視為單詞來(lái)學(xué)習(xí)節(jié)點(diǎn)表示向量,但游走的隨機(jī)性會(huì)導(dǎo)致無(wú)法有效地捕獲網(wǎng)絡(luò)結(jié)構(gòu)。node2vec[2]在Deepwalk的基礎(chǔ)上對(duì)游走策略進(jìn)行了優(yōu)化,利用廣度搜索和深度搜索策略來(lái)更好地捕獲網(wǎng)絡(luò)結(jié)構(gòu)。CoarSAS2hvec[3]旨在解決傳統(tǒng)隨機(jī)游走過(guò)程中樣本不平衡的問(wèn)題,使用自避免短序列采樣策略和網(wǎng)絡(luò)粗化步驟來(lái)更準(zhǔn)確地收集網(wǎng)絡(luò)信息,并結(jié)合優(yōu)化的損失函數(shù)進(jìn)行節(jié)點(diǎn)表示向量的學(xué)習(xí)。但該方法計(jì)算復(fù)雜度較高,對(duì)于大型網(wǎng)絡(luò),采樣和訓(xùn)練過(guò)程會(huì)消耗較長(zhǎng)時(shí)間。
然而傳統(tǒng)網(wǎng)絡(luò)表示學(xué)習(xí)方法并不適用于超網(wǎng)絡(luò),因此,研究者們提出了超網(wǎng)絡(luò)表示學(xué)習(xí)方法。超網(wǎng)絡(luò)表示學(xué)習(xí)也被稱(chēng)為超網(wǎng)絡(luò)嵌入,其為超網(wǎng)絡(luò)中的每個(gè)節(jié)點(diǎn)學(xué)習(xí)一個(gè)表示向量。節(jié)點(diǎn)表示向量可以被用于推薦系統(tǒng)[4]、趨勢(shì)預(yù)測(cè)[5]、節(jié)點(diǎn)分類(lèi)[6]等網(wǎng)絡(luò)分析任務(wù)中。超網(wǎng)絡(luò)表示學(xué)習(xí)方法種類(lèi)眾多,根據(jù)超網(wǎng)絡(luò)學(xué)習(xí)方法自身特點(diǎn),超網(wǎng)絡(luò)表示學(xué)習(xí)方法可分為譜分析超網(wǎng)絡(luò)表示學(xué)習(xí)方法、神經(jīng)網(wǎng)絡(luò)超網(wǎng)絡(luò)表示學(xué)習(xí)方法[7]。
譜分析超網(wǎng)絡(luò)表示學(xué)習(xí)方法是以譜理論為基礎(chǔ)的矩陣分析方法[7]。按照其建模思路,可以將其劃分為展開(kāi)式譜分析方法和非展開(kāi)式譜分析方法。展開(kāi)式譜分析方法一般通過(guò)將超網(wǎng)絡(luò)轉(zhuǎn)換為傳統(tǒng)網(wǎng)絡(luò)的方式,將超網(wǎng)絡(luò)表示學(xué)習(xí)簡(jiǎn)化為傳統(tǒng)網(wǎng)絡(luò)表示學(xué)習(xí)。經(jīng)典的展開(kāi)算法有星展開(kāi)與團(tuán)展開(kāi)[8]等。Yu等人[9]基于類(lèi)內(nèi)散布矩陣的聚類(lèi)算法,提出超網(wǎng)絡(luò)的展開(kāi)矩陣,并利用拉普拉斯矩陣的特征向量作為節(jié)點(diǎn)特征進(jìn)行聚類(lèi),但是上述算法會(huì)丟失超網(wǎng)絡(luò)結(jié)構(gòu)信息。與展開(kāi)式譜分析方法不同,非展開(kāi)式譜分析方法直接在超網(wǎng)絡(luò)上進(jìn)行建模,構(gòu)建超網(wǎng)絡(luò)上的拉普拉斯矩陣,例如,Bolla[10]在無(wú)權(quán)超圖上定義了拉普拉斯矩陣,能夠有效解決無(wú)權(quán)超圖上的最小切割問(wèn)題,但是只可應(yīng)用于無(wú)權(quán)超圖,遷移性較差。Sch?lkopf等人[11]在有權(quán)超圖上定義了拉普拉斯矩陣,解決了有權(quán)超圖上的最小切割問(wèn)題,但是超圖結(jié)構(gòu)中存在孤立節(jié)點(diǎn)時(shí)拉普拉斯算子將失效。hyper2vec[12]在超網(wǎng)絡(luò)中進(jìn)行有偏隨機(jī)游走獲得超網(wǎng)絡(luò)表示,同時(shí)通過(guò)導(dǎo)向函數(shù)使得該方法能夠更好地保留超網(wǎng)絡(luò)的結(jié)構(gòu)和固有屬性,但是導(dǎo)向函數(shù)為分段函數(shù)較為簡(jiǎn)單。
神經(jīng)網(wǎng)絡(luò)超網(wǎng)絡(luò)表示學(xué)習(xí)方法可以分為展開(kāi)式神經(jīng)網(wǎng)絡(luò)方法與非展開(kāi)式神經(jīng)網(wǎng)絡(luò)方法。展開(kāi)式神經(jīng)網(wǎng)絡(luò)方法將超圖拉普拉斯矩陣代入到圖卷積神經(jīng)網(wǎng)絡(luò)中,但是會(huì)丟失超網(wǎng)絡(luò)結(jié)構(gòu)信息。例如,HGNN[13]將超網(wǎng)絡(luò)拉普拉斯矩陣應(yīng)用到傳統(tǒng)圖卷積神經(jīng)網(wǎng)絡(luò)中,進(jìn)行超網(wǎng)絡(luò)卷積運(yùn)算。受到HGNN的啟發(fā),DHCF[14]通過(guò)星展開(kāi)算法,將超圖轉(zhuǎn)換為圖,從而分別對(duì)用戶(hù)和項(xiàng)目的結(jié)構(gòu)信息進(jìn)行提取,并將提取后的兩個(gè)表征矩陣通過(guò)一個(gè)共享權(quán)重矩陣關(guān)聯(lián)起來(lái), 最終獲得項(xiàng)目和用戶(hù)的表征矩陣。但是該方法僅通過(guò)共享權(quán)重的方式來(lái)構(gòu)建不同對(duì)象之間的關(guān)聯(lián)關(guān)系, 使得不同對(duì)象之間的聯(lián)系完全依賴(lài)于數(shù)據(jù)質(zhì)量, 這將難以應(yīng)對(duì)噪聲數(shù)據(jù)。非展開(kāi)式神經(jīng)網(wǎng)絡(luò)超網(wǎng)絡(luò)表示學(xué)習(xí)方法是人工神經(jīng)網(wǎng)絡(luò)及其衍生結(jié)構(gòu)為模型主體結(jié)構(gòu)的超網(wǎng)絡(luò)學(xué)習(xí)方法,沒(méi)有分解超邊,從而較好地保留了超網(wǎng)絡(luò)結(jié)構(gòu)信息。例如,Bai 等人[15]向圖神經(jīng)網(wǎng)絡(luò)家族引入兩個(gè)端到端的可訓(xùn)練算子(超圖卷積和超圖注意力)來(lái)學(xué)習(xí)超圖數(shù)據(jù)上的深度嵌入,其中超圖卷積定義了在超圖上執(zhí)行卷積的基本公式,而超圖注意力則通過(guò)注意力模塊進(jìn)一步增強(qiáng)了表示學(xué)習(xí)的能力。HPSG[16]通過(guò)基于超路徑的隨機(jī)游走來(lái)構(gòu)造節(jié)點(diǎn)的異質(zhì)鄰域,然后通過(guò)skip-gram[17]深度模型學(xué)習(xí)節(jié)點(diǎn)表示向量[18],但HPSG僅僅利用簡(jiǎn)單深度模型來(lái)學(xué)習(xí)節(jié)點(diǎn)表示向量,無(wú)法更好地捕獲復(fù)雜高階元組關(guān)系。HPHG[16]捕獲了節(jié)點(diǎn)之間的元組關(guān)系和成對(duì)關(guān)系,但是受限于固定大小和固定類(lèi)型的超邊。DHNE[19]通過(guò)多層感知器來(lái)捕獲高階元組關(guān)系,但很難拓展到任意規(guī)模的超網(wǎng)絡(luò)。Hyper-SAGNN[20]相比于HPHG和DHNE,對(duì)輸入高階元組關(guān)系節(jié)點(diǎn)數(shù)目大小和類(lèi)型沒(méi)有要求,但是該算法計(jì)算復(fù)雜度較高。HyperS2V[21]通過(guò)引入超度來(lái)捕獲節(jié)點(diǎn)在超網(wǎng)絡(luò)中的結(jié)構(gòu)特性,并提出新的函數(shù)來(lái)衡量不同超度之間的結(jié)構(gòu)相似性,但由于超網(wǎng)絡(luò)的多樣性,導(dǎo)致難以定義一個(gè)通用的距離函數(shù),故該方法對(duì)超網(wǎng)絡(luò)的適應(yīng)性不足。
針對(duì)上述超網(wǎng)絡(luò)表示學(xué)習(xí)方法中出現(xiàn)的問(wèn)題,本文提出一種基于雙端權(quán)重約束的異質(zhì)超網(wǎng)絡(luò)表示學(xué)習(xí)方法。該方法將超邊融入到基于超路徑隨機(jī)游走節(jié)點(diǎn)序列中,并利用超邊感知器模型[22]與hyper-gram模型進(jìn)行加權(quán)融合,以捕獲超網(wǎng)絡(luò)中復(fù)雜的高階元組關(guān)系。實(shí)驗(yàn)結(jié)果表明,本文方法優(yōu)于大部分基線(xiàn)方法。本文的貢獻(xiàn)如下:a)提出超邊多源隨機(jī)游走融合算法,該算法將超邊融入基于超路徑的隨機(jī)游走節(jié)點(diǎn)序列中;b)該方法引入超邊感知器模型與hyper-gram模型進(jìn)行加權(quán)融合, 以便于捕獲超網(wǎng)絡(luò)中復(fù)雜的高階元組關(guān)系,從而獲得高質(zhì)量的節(jié)點(diǎn)表示向量。
1 問(wèn)題定義
超網(wǎng)絡(luò)通常被抽象為超圖H=(V,E),其中,V={vi}|V|i=1={Vt}Tt=1是T種類(lèi)型的節(jié)點(diǎn)集合,其中,Vt代表第t種類(lèi)型的節(jié)點(diǎn)集合,|V|是節(jié)點(diǎn)個(gè)數(shù)。E={ei={v1,v2,…,vm}}|E|i=1(m≥2)是超邊集合,其中,|E|是超邊個(gè)數(shù)。如果對(duì)于任意的ei∈E均有|ei|=k,則稱(chēng)H為k-均勻超網(wǎng)絡(luò),如果k=2,那么超網(wǎng)絡(luò)退化為傳統(tǒng)網(wǎng)絡(luò),如果T≥2,則超網(wǎng)絡(luò)定義為異質(zhì)超網(wǎng)絡(luò)。異質(zhì)超網(wǎng)絡(luò)如圖1所示,其中,E={e1={a1,b2,c1},e2={a2,b1,c2},e3={a1,b1,c1},e4={a2,b2,c2}}, a、b、c分別表示節(jié)點(diǎn)類(lèi)型。
2 預(yù)備知識(shí)
2.1 不可分解因子
與傳統(tǒng)網(wǎng)絡(luò)僅有成對(duì)關(guān)系不同,異質(zhì)超網(wǎng)絡(luò)中最重要的特性是超邊的不可分解性。為了定義超邊的不可分解程度,HPHG提出了不可分解因子[16],不可分解因子公式如式(1)所示。
其中:ξt為該超邊的不可分解程度;random是根據(jù)節(jié)點(diǎn)集合隨機(jī)生成邊的集合;δ1(e)是一個(gè)指示函數(shù),其定義如式(2)所示。
2.2 基于超路徑的隨機(jī)游走
傳統(tǒng)的隨機(jī)游走方法僅僅是在當(dāng)前節(jié)點(diǎn)的鄰居中選擇下一個(gè)節(jié)點(diǎn),或者基于轉(zhuǎn)移概率來(lái)選擇下一個(gè)節(jié)點(diǎn),這些方法無(wú)法捕獲超網(wǎng)絡(luò)中的不可分解性,鑒于此,HPHG提出了基于超路徑的隨機(jī)游走[16]方法。為了解釋超路徑的概念,首先需要了解路徑順序(path order,PO)的概念,路徑順序定義如式(4)所示。
PO(v|P)=max k
其中:P[-k]代表路徑中倒數(shù)第k個(gè)元素。給定一個(gè)節(jié)點(diǎn)和一個(gè)超邊,節(jié)點(diǎn)的路徑順序取決于節(jié)點(diǎn)是否同時(shí)存在于一個(gè)超邊中,該超邊包含節(jié)點(diǎn)和路徑最后k個(gè)不同的節(jié)點(diǎn)。以圖1異質(zhì)超網(wǎng)絡(luò)為例,P=a2→b2→c2,PO(c1|P)=PO(a1|P)=1?;诼窂巾樞虻母拍?,超路徑是根據(jù)以下規(guī)則生成的路徑:從節(jié)點(diǎn)v開(kāi)始,選擇具有最大路徑順序的節(jié)點(diǎn)作為當(dāng)前路徑的下一個(gè)節(jié)點(diǎn),路徑順序越大的節(jié)點(diǎn),表示與當(dāng)前節(jié)點(diǎn)的緊密程度越高,它在超路徑中的位置也越靠前。
鑒于不同超網(wǎng)絡(luò)的不同的不可分解程度,基于超路徑的隨機(jī)游走轉(zhuǎn)移概率計(jì)算如式(5)所示。
π2(υ|P)=π1(υ|P[-1])·exp(α·ξφ(υ)·(PO(υ|P)-1))(5)
其中:α是控制對(duì)超路徑傾向的參數(shù);π1(υ|P[-1])是一階轉(zhuǎn)移概率,其定義如下:
π1(υ|P[-1])=1
v∈NG(P[-1])
0
否則(6)
其中:NG(P[-1])代表P[-1]的鄰居節(jié)點(diǎn)集合。
2.3 TransE模型
作為知識(shí)表示學(xué)習(xí)中的經(jīng)典模型,TransE[23]認(rèn)為,如果存在一個(gè)正確三元組(h,r,t),則頭實(shí)體向量h加上關(guān)系向量r約等于尾實(shí)體向量t,即h+r≈t,否則,該三元組是錯(cuò)誤三元組。TransE模型如圖2所示。
3 HRDC方法
hyper-gram模型通過(guò)神經(jīng)網(wǎng)絡(luò)模型無(wú)法全面地捕獲超網(wǎng)絡(luò)中復(fù)雜的高階元組關(guān)系和成對(duì)關(guān)系,因此,為了解決hyper-gram模型的問(wèn)題,本文提出基于雙端權(quán)重約束的異質(zhì)超網(wǎng)絡(luò)表示學(xué)習(xí)方法HRDC。HRDC方法的整體框架如圖3所示,該框架主要包括超邊多源隨機(jī)游走融合算法、hyper-gram模型、超邊感知器模型和加權(quán)融合模型四個(gè)部分。其中:α和β為加權(quán)融合的平衡因子;E表示由hyper-gram模型生成的節(jié)點(diǎn)表示向量構(gòu)成的嵌入矩陣;eν表示由hyper-gram模型生成的節(jié)點(diǎn)v對(duì)應(yīng)的表示向量;F表示由超邊感知器模型生成的節(jié)點(diǎn)向量構(gòu)成的嵌入矩陣; fv表示由超邊感知器模型生成的節(jié)點(diǎn)v對(duì)應(yīng)的表示向量; fh、fr分別是節(jié)點(diǎn)h和關(guān)系r對(duì)應(yīng)的表示向量,并且fh+r=fh+fr,Sv表示節(jié)點(diǎn)v經(jīng)平衡因子加權(quán)融合后的最終表示向量。θu表示節(jié)點(diǎn)u對(duì)應(yīng)的參數(shù)向量。
HRDC方法的思想有以下考量:受TransE模型啟發(fā),超邊感知器模型將高階元組關(guān)系視作節(jié)點(diǎn),可以更好地捕獲高階元組關(guān)系。因此,通過(guò)超邊感知器模型學(xué)習(xí)到的節(jié)點(diǎn)表示向量富含高階元組關(guān)系。本文將超邊感知器模型學(xué)習(xí)到的節(jié)點(diǎn)表示向量與hyper-gram模型學(xué)習(xí)到的節(jié)點(diǎn)表示向量進(jìn)行加權(quán)融合,能夠較好地彌補(bǔ)hyper-gram模型無(wú)法全面捕獲超網(wǎng)絡(luò)中復(fù)雜的高階元組關(guān)系與成對(duì)關(guān)系這一問(wèn)題。
3.1 超邊多源隨機(jī)游走融合算法
由圖1異質(zhì)超網(wǎng)絡(luò)可知,節(jié)點(diǎn)之間通過(guò)超邊建立語(yǔ)義關(guān)系。為了更好地捕獲超網(wǎng)絡(luò)結(jié)構(gòu)信息,本文提出超邊多源隨機(jī)游走融合算法,該算法將與節(jié)點(diǎn)關(guān)聯(lián)的超邊融入到基于超路徑的隨機(jī)游走節(jié)點(diǎn)序列中[16],以便于加強(qiáng)節(jié)點(diǎn)之間的相關(guān)性。
超邊多源隨機(jī)游走融合算法如下所述,該算法主要由三部分構(gòu)成:首先根據(jù)式(1)計(jì)算超網(wǎng)絡(luò)中超邊的不可分解性;然后根據(jù)式(5)不可分解性以及超路徑計(jì)算節(jié)點(diǎn)轉(zhuǎn)移概率;最后生成超邊多源隨機(jī)游走節(jié)點(diǎn)序列。
算法1 超邊多源隨機(jī)游走融合算法
輸入:超網(wǎng)絡(luò)H=(V,E);節(jié)點(diǎn)隨機(jī)游走長(zhǎng)度l;節(jié)點(diǎn)游走次數(shù)num。
輸出:超邊多源隨機(jī)游走節(jié)點(diǎn)序列paths。
//計(jì)算超網(wǎng)絡(luò)不可分解性
for edge in 超邊集合 do
/*去掉超邊中任意一個(gè)節(jié)點(diǎn),得到超邊的子集,T為超邊節(jié)點(diǎn)類(lèi)型,k′為超邊節(jié)點(diǎn)類(lèi)型個(gè)數(shù)*/
for i in T do
去掉節(jié)點(diǎn)類(lèi)型為i的節(jié)點(diǎn),得到超邊的子集,并統(tǒng)計(jì)子集出現(xiàn)的次數(shù)
end for
end for
for i in k′ do
初始化不可分解因子列表
end for
for edge in 超邊集合 do
for i in k′do
去掉節(jié)點(diǎn)類(lèi)型為i的節(jié)點(diǎn),如果子集出現(xiàn)的次數(shù)大于1,則增加對(duì)應(yīng)節(jié)點(diǎn)類(lèi)型的因子值
end for
end for
//計(jì)算基于超路徑隨機(jī)游走節(jié)點(diǎn)的轉(zhuǎn)移概率
for v in V do
for n in N(v) do // N(v)為v的鄰居節(jié)點(diǎn)集合
根據(jù)式(5)計(jì)算節(jié)點(diǎn)轉(zhuǎn)移概率
end for
end for
//生成超邊多源隨機(jī)游走節(jié)點(diǎn)序列
for i in num do
for v in V do
for j from 2 to l do
節(jié)點(diǎn)v通過(guò)轉(zhuǎn)移概率計(jì)算得出下一個(gè)游走節(jié)點(diǎn)為u
if(v與u同存在于一條超邊或多條超邊)
將v與u添加到節(jié)點(diǎn)序列paths中
將其中一條超邊看作節(jié)點(diǎn)插入到節(jié)點(diǎn)序列中的v與u之間
else do
將v與u添加到節(jié)點(diǎn)序列paths中
end if
end for
end for
end for
return paths
3.2 hyper-gram模型
受skip-gram模型的啟發(fā),hyper-gram模型進(jìn)一步定義了任意兩個(gè)節(jié)點(diǎn)vi、vj∈V之間的成對(duì)相似函數(shù),成對(duì)相似函數(shù)如式(7)所示。
spair(vi,vj)=∏τ∈Vp(τ|vi)p(τ|vj)(7)
為了計(jì)算方便,對(duì)式(7)取對(duì)數(shù)后的式子如式(8)所示。
log spair(vi,vj)=∑τ∈V(log p(τ|vi)+log p(τ|vj))=
∑τ∈V(e(vi)·e′(τ)-log Zvi+e(vj)·e′(τ)-log Zvj)(8)
其中:e(vi)和e(vj)分別表示節(jié)點(diǎn)vi和vj對(duì)應(yīng)的表示向量;e′(τ)表示上下文節(jié)點(diǎn)v對(duì)應(yīng)的表示向量;Zvi=∑τ∈Vexp(e(vi)·e′(τ));Zvj=∑τ∈Vexp(e(vj)·e′(τ))。
式(8)可以使用負(fù)采樣算法并添加一個(gè)激活函數(shù)來(lái)進(jìn)行優(yōu)化,負(fù)采樣優(yōu)化后的最小化的成對(duì)相似度目標(biāo)函數(shù)如式(9)所示。
其中:ψ為正樣本節(jié)點(diǎn)的集合;x=(v,τ)為一個(gè)正樣本對(duì);v是目標(biāo)節(jié)點(diǎn);τ為目標(biāo)節(jié)點(diǎn)的上下文節(jié)點(diǎn)。ψneg為負(fù)樣本節(jié)點(diǎn)的集合,xneg=(v,vneg)是一個(gè)負(fù)樣本對(duì),其中,v為目標(biāo)節(jié)點(diǎn),vneg為負(fù)樣本節(jié)點(diǎn)。
hyper-gram不僅考慮了節(jié)點(diǎn)之間的成對(duì)關(guān)系,還考慮了節(jié)點(diǎn)之間的高階元組關(guān)系。一個(gè)元組的緊密程度可以使用元組相似度來(lái)衡量,其中,元組x=(x1,x2,…,xk)相似度定義如式(10)所示。
stuple(x)=δ2(x)·σ(Wφ+bias)(10)
其中:φ=cnn([e(x1),e(x2),e(x3),…,e(xk)])為一維卷積層的輸出;W和bias分別為全連接層的權(quán)重和偏置值;δ2是一個(gè)指示函數(shù),其定義如式(11)所示。
δ2(x)=1
如果x滿(mǎn)足元組關(guān)系
0
否則(11)
將成對(duì)相似函數(shù)與元組相似度的目標(biāo)函數(shù)相結(jié)合,hyper-gram的目標(biāo)函數(shù)如式(13)所示,其中,超參數(shù)λ用于平衡成對(duì)相似度最小化的目標(biāo)函數(shù)和元組相似度最小化的目標(biāo)函數(shù)。
3.4 加權(quán)融合模型
受TransE模型的啟發(fā),HRDC方法引入超邊感知器模型,該方法將分別通過(guò)hyper-gram模型和超邊感知器模型訓(xùn)練得到的節(jié)點(diǎn)表示向量進(jìn)行加權(quán)融合,以便于使得節(jié)點(diǎn)表示向量全面有效地表征超網(wǎng)絡(luò)結(jié)構(gòu)信息,即提升HRDC方法對(duì)節(jié)點(diǎn)之間的高階元組關(guān)系的理解和表達(dá)能力,從而更好地捕獲超網(wǎng)絡(luò)中的復(fù)雜高階元組關(guān)系,其中,加權(quán)融合如式(16)所示。
Sν=α·eν+β·fν(16)
其中:eν為hyper-gram模型訓(xùn)練得到的節(jié)點(diǎn)表示向量; fν為超邊感知器模型訓(xùn)練得到的節(jié)點(diǎn)表示向量;α和β為平衡因子參數(shù),用于平衡上述兩個(gè)模型,以便于更好地融合節(jié)點(diǎn)表示向量。
4 實(shí)驗(yàn)
4.1 數(shù)據(jù)集
四種不同類(lèi)型的超網(wǎng)絡(luò)數(shù)據(jù)集被用來(lái)評(píng)估HRDC方法的性能,包括GPS數(shù)據(jù)集、drug數(shù)據(jù)集、MovieLens數(shù)據(jù)集以及WordNet數(shù)據(jù)集,數(shù)據(jù)集的統(tǒng)計(jì)信息如表1所示。
表1 數(shù)據(jù)集統(tǒng)計(jì)
Tab.1 Dataset statistics
數(shù)據(jù)集節(jié)點(diǎn)類(lèi)型節(jié)點(diǎn)數(shù)邊數(shù)GPS用戶(hù)位置活動(dòng)1467051 436drug用戶(hù)藥物反應(yīng)121 0716 316166 625MovieLens用戶(hù)電影標(biāo)簽1 8985 5667 95045 475WordNet頭實(shí)體關(guān)系尾實(shí)體15 8391815 87535 723
a)GPS[24]:該數(shù)據(jù)集描述了用戶(hù)在某個(gè)位置參加具體活動(dòng),元組關(guān)系(用戶(hù),位置,活動(dòng))被看作超邊來(lái)構(gòu)建超網(wǎng)絡(luò)。
b)drug(https://www.fda.gov/drugs):drug數(shù)據(jù)集描述了用戶(hù)吃了某個(gè)藥物出現(xiàn)的不良反應(yīng),元組關(guān)系(用戶(hù),藥物,反應(yīng))被看作超邊來(lái)構(gòu)建超網(wǎng)絡(luò)。
c)MovieLens[25]:該數(shù)據(jù)集描述了MovieLens的用戶(hù)標(biāo)記活動(dòng),元組關(guān)系(用戶(hù),電影,標(biāo)簽)被看作超邊來(lái)構(gòu)建超網(wǎng)絡(luò)。
d)WordNet[26]:該數(shù)據(jù)集將三元組(頭實(shí)體,關(guān)系,尾實(shí)體)看作超邊來(lái)構(gòu)建超網(wǎng)絡(luò)。
4.2 基線(xiàn)方法
a)Deepwalk:該方法通過(guò)訓(xùn)練skip-gram模型來(lái)獲得節(jié)點(diǎn)表示向量。
b)node2vec:該方法通過(guò)采用深度優(yōu)先和廣度優(yōu)先來(lái)進(jìn)行有偏隨機(jī)游走,從而獲得節(jié)點(diǎn)表示向量。
c)HPSG:該方法將基于超路徑的隨機(jī)游走節(jié)點(diǎn)序列作為skip-gram模型的輸入來(lái)學(xué)習(xí)節(jié)點(diǎn)表示向量。
d)HPHM:該方法(hyperedge perceiver model with hyperedge multi-source walk abbreviated as HPHM)是HRDC方法的變體,去除了hyper-gram模型,僅將超邊多源隨機(jī)游走節(jié)點(diǎn)序列作為超邊感知器模型的輸入來(lái)學(xué)習(xí)節(jié)點(diǎn)表示向量。
e)hyper2vec:該方法通過(guò)在超網(wǎng)絡(luò)上進(jìn)行有偏二階隨機(jī)游走來(lái)捕獲節(jié)點(diǎn)之間的高階關(guān)系,從而學(xué)習(xí)節(jié)點(diǎn)表示向量。
f)CoarSAS2hvec:該方法通過(guò)HIN粗化和自避免短序列采樣過(guò)程捕獲異質(zhì)網(wǎng)絡(luò)的豐富信息,從而學(xué)習(xí)節(jié)點(diǎn)表示向量。
g)HyperS2V:該方法通過(guò)超度度量不同度之間超網(wǎng)絡(luò)中結(jié)構(gòu)的相似性,來(lái)獲得節(jié)點(diǎn)表示向量。
h)HPHG:該方法將基于超路徑的隨機(jī)游走節(jié)點(diǎn)序列作為hyper-gram模型的輸入來(lái)學(xué)習(xí)節(jié)點(diǎn)表示向量。
i)Hyper-SAGNN:該方法是一個(gè)超網(wǎng)絡(luò)表示學(xué)習(xí)方法,其通過(guò)使用自注意力機(jī)制來(lái)學(xué)習(xí)節(jié)點(diǎn)表示向量。
j)DHNE:該方法是一個(gè)超網(wǎng)絡(luò)表示學(xué)習(xí)方法,其通過(guò)多層感知器來(lái)學(xué)習(xí)節(jié)點(diǎn)表示向量。
針對(duì)上述基線(xiàn)方法,為了使它們具有較好的對(duì)比性,本文將上述基線(xiàn)方法的參數(shù)設(shè)置與原論文保持一致,沒(méi)有對(duì)基線(xiàn)方法作參數(shù)敏感度分析。
4.3 鏈接預(yù)測(cè)
鏈接預(yù)測(cè)被用于預(yù)測(cè)網(wǎng)絡(luò)中未來(lái)可能產(chǎn)生的鏈接或關(guān)系,在現(xiàn)實(shí)生活中擁有廣泛應(yīng)用。例如,在社交網(wǎng)絡(luò)[27]中,鏈接預(yù)測(cè)可以幫助推薦用戶(hù)可能認(rèn)識(shí)的朋友,從而增強(qiáng)社交網(wǎng)絡(luò)平臺(tái)的用戶(hù)體驗(yàn)和互動(dòng);在生物信息學(xué)[28]中,鏈接預(yù)測(cè)有助于發(fā)現(xiàn)潛在的蛋白質(zhì)相互作用,從而推動(dòng)新藥的研發(fā)和疾病機(jī)制的理解;在個(gè)性化推薦中,通過(guò)預(yù)測(cè)用戶(hù)和產(chǎn)品之間可能的關(guān)系,提升個(gè)性化推薦的準(zhǔn)確性,改善用戶(hù)滿(mǎn)意度[29]。
本節(jié)在GPS、drug、MovieLens以及WordNet數(shù)據(jù)集上進(jìn)行了鏈接預(yù)測(cè)實(shí)驗(yàn),四個(gè)數(shù)據(jù)集中80%的超邊被隨機(jī)選取用作訓(xùn)練集,其余20%的超邊作為測(cè)試集。通過(guò)10次實(shí)驗(yàn),依據(jù)L1、L2、COS[16]三個(gè)評(píng)價(jià)指標(biāo),取AUC[30]平均值來(lái)評(píng)估鏈接預(yù)測(cè)性能。鏈接預(yù)測(cè)實(shí)驗(yàn)結(jié)果如表2所示。
a)從表2可知,HRDC在四個(gè)數(shù)據(jù)集上均優(yōu)于HPHG,這表明HRDC能夠更好地捕獲到超網(wǎng)絡(luò)中復(fù)雜的高階元組關(guān)系。
b)HRDC是針對(duì)超網(wǎng)絡(luò)所提出的表示學(xué)習(xí)方法,因此,在四個(gè)數(shù)據(jù)集上的鏈接預(yù)測(cè)性能均優(yōu)于傳統(tǒng)網(wǎng)絡(luò)表示學(xué)習(xí)方法,如Deepwalk、node2vec。
c)在GPS數(shù)據(jù)集中,Hyper-SAGNN優(yōu)于HRDC,原因是Hyper-SAGNN構(gòu)造了節(jié)點(diǎn)之間的注意力系數(shù)作為節(jié)點(diǎn)的動(dòng)態(tài)特征,該方法更適用于不可分解性較大的GPS超網(wǎng)絡(luò)。
d)在MovieLens數(shù)據(jù)集中,作為特定訓(xùn)練節(jié)點(diǎn)之間的成對(duì)關(guān)系的超網(wǎng)絡(luò)表示學(xué)習(xí)方法,HPSG優(yōu)于HRDC,這是因?yàn)镸ovieLens超網(wǎng)絡(luò)的不可分解性較小,節(jié)點(diǎn)之間具有較強(qiáng)的關(guān)聯(lián)性。
e)在WordNet數(shù)據(jù)集中,Hyper-SAGNN優(yōu)于HRDC,原因是Hyper-SAGNN動(dòng)態(tài)構(gòu)建節(jié)點(diǎn)之間的特征,該方法更適用于WordNet數(shù)據(jù)集。
綜上所述,HRDC學(xué)習(xí)到了高質(zhì)量的節(jié)點(diǎn)表示向量,可以較好地預(yù)測(cè)未來(lái)將會(huì)出現(xiàn)的鏈接。
4.4 超網(wǎng)絡(luò)重建
超網(wǎng)絡(luò)重建用于評(píng)估節(jié)點(diǎn)表示向量的質(zhì)量,確保新構(gòu)建的超網(wǎng)絡(luò)能夠保留原始超網(wǎng)絡(luò)的結(jié)構(gòu)信息。本節(jié)在GPS和drug數(shù)據(jù)集上進(jìn)行超網(wǎng)絡(luò)重建,超網(wǎng)絡(luò)重建的評(píng)價(jià)指標(biāo)如式(20)所示。
ACC(ρ)=1ρ|γ|∑ρ|γ|i=1 ni0lt;ρlt;1(20)
其中:ni=1代表第i個(gè)重建超邊存在于原超網(wǎng)絡(luò)中,否則不存在于原超網(wǎng)絡(luò)中;|γ|為重建的總超邊數(shù);ρ為重建超邊的比例。超網(wǎng)絡(luò)重建實(shí)驗(yàn)結(jié)果如圖4所示。
由圖4可知,HRDC在GPS數(shù)據(jù)集上的超網(wǎng)絡(luò)重建效果較好,在任意超邊重建比例下均優(yōu)于其他基線(xiàn)方法。在drug數(shù)據(jù)集上,當(dāng)超邊重建比例大于0.3時(shí),HRDC均優(yōu)于其他基線(xiàn)方法;在超邊重建比例小于0.3時(shí),HRDC與HPHG方法呈現(xiàn)競(jìng)爭(zhēng)趨勢(shì),這是因?yàn)樵谥亟ū壤∮?.3時(shí),重建超邊個(gè)數(shù)較少,HPHG捕獲局部超邊信息的能力更強(qiáng)。上述實(shí)驗(yàn)結(jié)果表明,HRDC較好地捕獲了超網(wǎng)絡(luò)中復(fù)雜的高階元組關(guān)系,在超網(wǎng)絡(luò)重建時(shí)能夠較好地保留超網(wǎng)絡(luò)結(jié)構(gòu)信息。
4.5 參數(shù)敏感度
在式(16)中,α與β的取值不同將會(huì)影響節(jié)點(diǎn)表示向量的質(zhì)量,為了全面地體現(xiàn)α與β的取值對(duì)節(jié)點(diǎn)表示向量質(zhì)量的影響,本文設(shè)置0lt;αlt;1,0lt;βlt;1,α與β均?。?.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,1.0],并對(duì)α與β進(jìn)行參數(shù)敏感度分析。參數(shù)敏感度實(shí)驗(yàn)結(jié)果如圖5所示。
圖5(a)(b)的左側(cè)為數(shù)據(jù),右側(cè)為圖例,由右側(cè)可知,顏色由紅變藍(lán)代表數(shù)值由大變?。▍⒁?jiàn)電子版)。因此,由圖5可知,對(duì)于GPS和drug數(shù)據(jù)集,當(dāng)α=0.1,β=0.1時(shí),超邊感知器模型與hyper-gram模型在融合時(shí)發(fā)生沖突,無(wú)法全面地捕獲高階元組關(guān)系和成對(duì)關(guān)系,此時(shí)HRDC訓(xùn)練得到的節(jié)點(diǎn)表示向量質(zhì)量較低,鏈接預(yù)測(cè)性能較差。在GPS數(shù)據(jù)集中,隨著α和β 的不斷調(diào)整,當(dāng)α=0.9,β=0.1時(shí),使得式(16)達(dá)到平衡最優(yōu)解,原因是HRDC將通過(guò)hyper-gram模型和超邊感知器模型捕獲到的高階元組關(guān)系和成對(duì)關(guān)系較好地融入到了節(jié)點(diǎn)表示向量中,因此鏈接預(yù)測(cè)性能較好。在drug數(shù)據(jù)集中,隨著α和β的不斷調(diào)整,當(dāng)α=1,β=0.1時(shí),使得式(16)達(dá)到平衡最優(yōu)解,此時(shí)HRDC綜合利用了hyper-gram模型和超邊感知器模型在捕獲高階元組關(guān)系和成對(duì)關(guān)系的優(yōu)勢(shì),將高階元組關(guān)系和成對(duì)關(guān)系較好地融入到了節(jié)點(diǎn)表示向量中,因此鏈接預(yù)測(cè)性能較好。
4.6 消融實(shí)驗(yàn)
為了驗(yàn)證本文方法的各個(gè)模塊對(duì)超網(wǎng)絡(luò)表示學(xué)習(xí)效果的影響,本文設(shè)計(jì)了兩種變體,分別命名為HPHG和HPHM。其中,HPHG相對(duì)于HRDC去除了超邊感知器模塊,將基于超路徑的隨機(jī)游走序列輸入到hyper-gram模型來(lái)學(xué)習(xí)節(jié)點(diǎn)表示向量;HPHM相對(duì)于HRDC去除了hyper-gram模型,將超邊多源隨機(jī)游走序列輸入到超邊感知器模型來(lái)學(xué)習(xí)節(jié)點(diǎn)表示向量。HRDC在四個(gè)數(shù)據(jù)集上進(jìn)行鏈接預(yù)測(cè)的消融分析實(shí)驗(yàn),結(jié)果如圖6所示。
由圖6可知,HRDC在四個(gè)數(shù)據(jù)集上均優(yōu)于兩種變體。這是因?yàn)?,HPHM僅僅使用超邊感知器模型訓(xùn)練節(jié)點(diǎn)表示向量,未能很好地考慮節(jié)點(diǎn)之間的成對(duì)關(guān)系,而HPHG僅僅利用簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)模型,不能很好地捕獲復(fù)雜高階元組關(guān)系。而HRDC通過(guò)加權(quán)較好地融合了由HPHG和HPHM訓(xùn)練得到的節(jié)點(diǎn)表示向量,綜合考慮了節(jié)點(diǎn)之間的成對(duì)關(guān)系和高階元組關(guān)系。
5 結(jié)束語(yǔ)
本文提出了基于雙端權(quán)重約束的超網(wǎng)絡(luò)表示學(xué)習(xí)方法,該方法通過(guò)平衡hyper-gram模型和超邊感知器模型來(lái)充分捕獲節(jié)點(diǎn)之間的成對(duì)關(guān)系和高階元組關(guān)系,以便于學(xué)習(xí)高質(zhì)量的節(jié)點(diǎn)表示向量。實(shí)驗(yàn)表明,HRDC在四個(gè)數(shù)據(jù)集上優(yōu)于大部分基線(xiàn)方法。盡管該方法引入了超邊感知器模型并與hyper-gram模型加權(quán)融合,但可能造成超網(wǎng)絡(luò)結(jié)構(gòu)信息的冗余。因此,將來(lái)工作重點(diǎn)是如何更高效、全面、準(zhǔn)確地捕獲超網(wǎng)絡(luò)結(jié)構(gòu)信息。
參考文獻(xiàn):
[1]Perozzi b, Al-Rfou R, Skiena S. Deepwalk: online learning of social representations[C]// Proc of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press, 2014: 701-710.
[2]Grover A, Leskovec J. node2vec: scalable feature learning for networks[C]// Proc of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press, 2016: 855-864.
[3]Zhan Ling, Jia Tao. CoarSAS2hvec: heterogeneous information network embedding with balanced network sampling[J]. Entropy, 2022, 24(2): 276-286.
[4]倪文鍇, 杜彥輝, 馬興幫, 等. 面向個(gè)性化推薦的node2vec-side融合知識(shí)表示[J]. 計(jì)算機(jī)應(yīng)用研究, 2024, 41(2): 361-367, 374. (Ni Wenkai, Du Yanhui, Ma Xingbang, et al. node2vec-side fusion knowledge representation for personalized recommendation[J]. Application Research of Computers, 2024, 41(2): 361-367, 374.)
[5]姚俊萍, 袁聰, 李曉軍, 等. 面向知識(shí)圖譜鏈接預(yù)測(cè)任務(wù)的解釋子圖生成模型[J]. 計(jì)算機(jī)應(yīng)用研究, 2024, 41(2): 375-380. (Yao Junping, Yuan Cong, Li Xiaojun, et al. Interpretive subgraph generation model for knowledge graph link prediction task[J]. Application Research of Computers, 2024, 41(2): 375-380.)
[6]劉淵, 趙紫娟, 楊凱. 基于節(jié)點(diǎn)相似性的圖注意力網(wǎng)絡(luò)表示學(xué)習(xí)模型[J]. 計(jì)算機(jī)應(yīng)用研究, 2023, 40(3): 822-827. (Liu Yuan, Zhao Zijuan, Yang Kai. Graph attention network representation lear-ning with node similarity[J]. Application Research of Compu-ters, 2023, 40(3): 822-827.)
[7]胡秉德, 王新根, 王新宇, 等. 超圖學(xué)習(xí)綜述: 算法分類(lèi)與應(yīng)用分析[J]. 軟件學(xué)報(bào), 2022, 33(2): 498-523. (Hu Bingde, Wang Xingen, Wang Xinyu, et al. Survey on hypergraph learning: algorithm classification and application analysis[J]. Journal of Software, 2022, 33(2): 498-523.)
[8]Agarwal S, Branson K, Belongie S. Higher order learning with graphs[C]// Proc of the 23rd International Conference on Machine Lear-ning. New York: ACM Press, 2006: 17-24.
[9]Yu Limin, Shen Xianjun, Jiang Xingpeng, et al. Hypergraph clustering based on intra-class scatter matrix for mining higher-order microbial module[C]// Proc of IEEE International Conference on Bioinformatics and Biomedicine. Piscataway, NJ: IEEE Press, 2019: 240-243.
[10]Bolla M. Spectra, Euclidean representations and clusterings of hypergraphs[J]. Discrete Mathematics, 1993, 117(1-3): 19-39.
[11]Sch?lkopf B, Platt J, Hofmann T. Learning with hypergraphs: clustering, classification, and embedding[C]// Advances in Neural Information Processing Systems. Piscataway, NJ: IEEE Press, 2007: 1601-1608.
[12]Huang Jie, Chen Chuan, Ye Fanghua, et al. hyper2vec: biased random walk for hyper-network embedding[C]// Proc of International Conference on Database Systems for Advanced Applications. Cham: Springer, 2019: 273-277.
[13]Feng Yifan, You Haoxuan, Zhang Zizhao, et al. Hypergraph neural networks[C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2019: 3558-3565.
[14]Ji Shuyi, Feng Yifan, Ji Rongrong, et al. Dual channel hypergraph collaborative filtering[C]// Proc of the 26th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining. New York: ACM Press, 2020: 2020-2029.
[15]Bai Song, Zhang Feihu, Torr P H S. Hypergraph convolution and hypergraph attention[J]. Pattern Recognition, 2021, 110: 107637.
[16]Huang Jie, Liu Xin, Song Yangqiu. Hyper-path-based representation learning for hyper-networks[C]// Proc of the 28th ACM International Conference on Information and Knowledge Management. New York: ACM Press, 2019: 449-458.
[17]Mikolov T, Sutskever I, Chen Kai, et al. Distributed representations of words and phrases and their compositionality[C]// Proc of International Conference on Neural Information Processing Systems. Berlin: Springer, 2013: 3111-3119.
[18]劉貞國(guó), 朱宇, 劉連照, 等. 基于轉(zhuǎn)化策略的異質(zhì)超網(wǎng)絡(luò)表示學(xué)習(xí)[J]. 計(jì)算機(jī)應(yīng)用研究, 2022, 39(11): 3333-3339. (Liu Zhenguo, Zhu Yu, Liu Lianzhao, et al. Heterogeneous hypernetwork representation learning with transformation strategy[J]. Application Research of Computers, 2022, 39(11): 3333-3339.)
[19]Tu Ke, Cui Peng, Wang Xiao, et al. Structural deep embedding for hypernetworks[C]// Proc of the 32nd AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2018: 426-433.
[20]Zhang Ruochi, Zou Yuesong, Ma Jian. Hyper-SAGNN: a self-attention based graph neural network for hypergraphs[C]// Proc of the 8th International Conference on Learning Representations. 2020: 1-18.
[21]Liu Shu, Lai C, Toriumi F. HyperS2V: a framework for structural representation of nodes in hypernetworks [EB/OL]. (2023-11-07). https://arxiv.org/abs/2311.04149.
[22]劉貞國(guó), 朱宇, 趙海興, 等. 基于平移約束的異質(zhì)超網(wǎng)絡(luò)表示學(xué)習(xí)[J]. 中文信息學(xué)報(bào), 2022, 36(12): 74-84. (Liu Zhenguo, Zhu Yu, Zhao Haixing, et al. Heterogeneous hypernetwork representation learning with the translation constraint[J]. Journal of Chinese Information Processing, 2022, 36(12): 74-84.)
[23]Bordes A, Usunier N, Garciaduran A. Translating embeddings for modeling multi-relational data[C]// Proc of the 26th International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2013: 2787-2795.
[24]Zheng V, Cao Bin, Zheng Yu, et al. Collaborative filtering meets mobile recommendation: a user-centered approach[C]// Proc of the 24th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2010: 236-241.
[25]Harper F M, Konstan J A. The MovieLens datasets: history and context[J]. ACM Trans on Interactive Intelligent Systems, 2016, 5(4): article No. 19.
[26]Miller G A. WordNet: a lexical database for English[J]. Communications of the ACM, 1995, 38(11): 39-41.
[27]宗傳玉, 李箬竹, 夏秀峰. 基于位置社交網(wǎng)絡(luò)的用戶(hù)社區(qū)和屬性位置簇搜索[J]. 計(jì)算機(jī)應(yīng)用研究, 2023, 40(9): 2657-2662. (Zong Chuanyu, Li Ruozhu, Xia Xiufeng. User community and attribute location cluster search in location-based social networks[J]. Application Research of Computers, 2023, 40(9): 2657-2662.)
[28]Yang Xi, Wang Wei, Ma Jinglun, et al. BioNet: a large-scale and heterogeneous biological network model for interaction prediction with graph convolution[J]. Briefings in Bioinformatics, 2022, 23(1): bbab491.
[29]李楊, 代永強(qiáng). 基于客戶(hù)喜好的雙向個(gè)性化推薦算法[J]. 計(jì)算機(jī)應(yīng)用研究, 2021, 38(9): 2701-2704, 2709. (Li Yang, Dai Yongqiang. Bidirectional personalized recommendation algorithm based on customer preference[J]. Application Research of Computers, 2021, 38(9): 2701-2704, 2709.)
[30]姜正申, 劉宏志, 付彬, 等. 集成學(xué)習(xí)的泛化誤差和AUC分解理論及其在權(quán)重優(yōu)化中的應(yīng)用[J]. 計(jì)算機(jī)學(xué)報(bào), 2019, 42(1): 1-15. (Jiang Zhengshen, Liu Hongzhi, Fu Bin, et al. Decomposition theories of generalization error and AUC in ensemble learning with application in weight optimization[J]. Chinese Journal of Compu-ters, 2019, 42(1): 1-15.)