摘" 要: 基于圖神經(jīng)網(wǎng)絡(luò)的協(xié)同過濾算法在許多推薦場(chǎng)景中取得了良好的表現(xiàn),但是現(xiàn)有的圖神經(jīng)網(wǎng)絡(luò)推薦模型在推薦過程中忽略了節(jié)點(diǎn)間協(xié)同效應(yīng)與節(jié)點(diǎn)?層級(jí)的重要性融合表達(dá)以及堆疊多層網(wǎng)絡(luò)容易存在過平滑問題。為解決上述問題,文中提出一種新的融合協(xié)同效應(yīng)的自適應(yīng)圖卷積網(wǎng)絡(luò)推薦算法。首先,構(gòu)建用戶?項(xiàng)目二部圖并計(jì)算節(jié)點(diǎn)間交互率;其次,根據(jù)節(jié)點(diǎn)局部結(jié)構(gòu)自適應(yīng)決定節(jié)點(diǎn)?層級(jí)的融合表達(dá)權(quán)重;然后,利用第[l]層與第[l+1]層嵌入向量的相似度來(lái)緩解圖卷積網(wǎng)絡(luò)的過平滑問題;最后,使用協(xié)同效應(yīng)融合自適應(yīng)圖卷積網(wǎng)絡(luò)學(xué)習(xí)潛在的特征并通過內(nèi)積作為結(jié)果進(jìn)行推薦。在五個(gè)真實(shí)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,所提模型相比基線模型,在召回率和歸一化折損累計(jì)增益兩個(gè)評(píng)價(jià)指標(biāo)上有明顯提高。
關(guān)鍵詞: 圖神經(jīng)網(wǎng)絡(luò); 協(xié)同過濾; 推薦算法; 協(xié)同效應(yīng); 過平滑; 交互率; 自適應(yīng)
中圖分類號(hào): TN911?34; TP391" " " " " " " " " " " 文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " "文章編號(hào): 1004?373X(2024)23?0164?07
Adaptive graph convolutional network recommendation
algorithm incorporating collaborative effects
ZHU Yongkang1, JING Mingli1, JIAO Long2, WANG Fei1
(1. School of Electronic Engineering, Xi’an Shiyou University, Xi’an 710065, China;
2. College of Chemistry and Chemical Engineering, Xi’an Shiyou University, Xi’an 710065, China)
Abstract: The collaborative filtering (CF) algorithms based on graph neural networks (GNNs) have shown promising performance in many recommendation scenarios. However, the existing GNN recommendation models overlook the importance fusion expression of collaborative effects among nodes and the node?hierarchy, as well as the potential over?smoothing inherent in stacking multiple layers of networks. In view of the above, a novel adaptive graph convolutional network (GCN) recommendation algorithm that integrates collaborative effects is proposed. A bipartite graph of users and items is constructed and the interaction rate among nodes is calculated. The fusion expression weight of node?hierarchy is determined adaptively based on the local structure of nodes. The over?smoothing of GCNs is mitigated by measuring the similarity between embedding vectors of the [lth] and [(l+1)]th layers. The collaborative effects fused with adaptive GCNs are used to learn the latent features and make recommendation by taking inner products as the results. The results of experiments on five real datasets demonstrate that the proposed model outperforms the baseline models in terms of the evaluation indexes of recall rate and normalized discounted cumulative gain (NDCG).
Keywords: GNN; collaborative filtering; recommendation algorithm; collaborative effect; over?smoothing; interaction rate; adaptation
0" 引" 言
如今,隨著互聯(lián)網(wǎng)技術(shù)的快速發(fā)展,各種信息層出不窮。雖然這極大地豐富了人們的精神生活,卻也導(dǎo)致了信息過載問題,這一問題使得在海量的信息中很難快速找到需要的關(guān)鍵信息或感興趣的內(nèi)容。為了緩解這一難題,推薦系統(tǒng)[1?3](Recommender System)應(yīng)運(yùn)而生。推薦系統(tǒng)作為實(shí)現(xiàn)信息過濾的重要手段,其本質(zhì)是根據(jù)用戶的興趣偏好或需求建模,以實(shí)現(xiàn)個(gè)性化推薦。
協(xié)同過濾(Collaborative Filtering, CF)是推薦系統(tǒng)中最流行的技術(shù)之一,其核心在于利用用戶同物品之間的相似度去完成推薦。早期的矩陣分解(Matrix Factorisation, MF)模型(如PMF[4]和SVD[5])是基于分解用戶和物品之間的交互構(gòu)建鄰接矩陣,并根據(jù)這些分解的向量預(yù)測(cè)用戶的偏好。上述方法是有效的,但不足以模擬復(fù)雜的用戶行為和大數(shù)據(jù)輸入。與經(jīng)典CF方法類似,基于神經(jīng)網(wǎng)絡(luò)協(xié)同濾波(Neural Collaborative Filtering, NCF)的方法[6?7]以神經(jīng)網(wǎng)絡(luò)協(xié)同濾波的方式擴(kuò)展MF的內(nèi)積以增加容量,但仍然面臨難以學(xué)習(xí)數(shù)據(jù)中高階結(jié)構(gòu)信息的困境。圖卷積網(wǎng)絡(luò)[8](Graph Convolutional Networks, GCNs)在圖結(jié)構(gòu)建模和學(xué)習(xí)表征方面表現(xiàn)突出?;贕CNs的推薦方法[9?14],將用戶?項(xiàng)目建模為二部圖,通過重建用戶和項(xiàng)目之間的歷史行為來(lái)學(xué)習(xí)嵌入向量。當(dāng)數(shù)據(jù)受噪聲污染,推薦系統(tǒng)也遇到了挑戰(zhàn),為此提出了SGL[15],進(jìn)一步利用對(duì)比學(xué)習(xí)[16]和圖增強(qiáng)來(lái)改善模型對(duì)噪聲交互的魯棒性。相比之下,通過將交互項(xiàng)目投影到基于GCNs的模型中以捕獲高階鄰居,可以提高性能。
然而,目前的研究大多基于經(jīng)典圖卷積網(wǎng)絡(luò)框架LightGCN[9]進(jìn)行,使得這些基于GCNs的模型在信息聚合過程中無(wú)法實(shí)現(xiàn)節(jié)點(diǎn)間信息與層級(jí)信息融合表達(dá)。因此,需要深化圖卷積在推薦任務(wù)上的信息聚合效果,優(yōu)化現(xiàn)有模型對(duì)于節(jié)點(diǎn)間信息與層級(jí)信息重要性的融合表達(dá)。另外,圖卷積網(wǎng)絡(luò)不能像傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)一樣,它存在天然的局限性,即圖卷積網(wǎng)絡(luò)不能堆疊多層。過高的圖卷積層數(shù)可能會(huì)導(dǎo)致輸入的圖信號(hào)逐漸被平滑掉,剩下的只有度信息,導(dǎo)致其在實(shí)際應(yīng)用中存在瓶頸。
針對(duì)上述問題,本文提出了融合協(xié)同效應(yīng)的自適應(yīng)圖卷積網(wǎng)絡(luò)推薦算法(Adaptive Graph Convolutional Network Recommendation Algorithm Incorporating Collaborative Effect, AGCE)。
1" 相關(guān)理論
1.1" 通用交互率
由于推薦任務(wù)只考慮有交互的部分,沒有交互的鄰域都將被認(rèn)為是空,下面介紹兩種計(jì)算交互率的方法。
1.1.1" Jaccard相似度
Jaccard(JC)相似度[17]分?jǐn)?shù)是兩個(gè)鄰域集之間相似性的經(jīng)典度量,它被定義為兩個(gè)鄰域集的交集與這兩組并集的比率:
[JC(i,j)=Ni?NjNi?Nj] (1)
式中:[Ni]和[Nj]表示關(guān)于[i]和[j]的鄰域集。
1.1.2" Salton Cosine相似度
Salton Cosine(SC)相似度[18]分?jǐn)?shù)衡量?jī)蓚€(gè)節(jié)點(diǎn)的鄰域集之間的余弦相似度,表達(dá)式為:
[SC(i, j)=Ni?NjNi?Nj] (2)
式中:[Ni]和[Nj]表示關(guān)于[i]和[j]的鄰域集。
1.2" 殘差細(xì)化模塊
殘差細(xì)化模塊(Residual Refinement Module, RRM)的整體設(shè)計(jì)受到ResNet[19]的啟發(fā),其具體框架如圖1所示。
殘差細(xì)化模塊是將第[l]層的嵌入與第[l+1]層的嵌入進(jìn)行相似度計(jì)算,以利用相似度來(lái)細(xì)化提取信息,計(jì)算方法見式(3)。
[αl+1=Sim(hl+1,hl)] (3)
式中:[Sim(?)]是一種被廣泛使用的度量方法,用于描述嵌入向量之間的相似程度,由于它是非參數(shù)的,不會(huì)導(dǎo)致過擬合問題;[h]表示用戶(項(xiàng)目)的嵌入向量,為了簡(jiǎn)化表達(dá),對(duì)于用戶?項(xiàng)目二部圖的嵌入也可用矩陣[H]表示。
殘差細(xì)化模塊有兩個(gè)重要作用:一方面,有助于融合當(dāng)前層與上一層嵌入的特征信息,從而減少節(jié)點(diǎn)過平滑的風(fēng)險(xiǎn);另一方面,它可以加速網(wǎng)絡(luò)的訓(xùn)練過程,促進(jìn)模型更快的收斂,實(shí)現(xiàn)更好的性能表現(xiàn)。
2" AGCE算法實(shí)現(xiàn)
2.1" AGCE框架及其實(shí)現(xiàn)
本節(jié)主要介紹AGCE設(shè)計(jì)框架,AGCE框架主要由預(yù)訓(xùn)練模塊(Pre?training)、殘差細(xì)化模塊(RRM)以及信息聚合模塊三部分組成,整體框架如圖2所示。
AGCE框架具體實(shí)現(xiàn)過程:輸入的圖數(shù)據(jù)根據(jù)LightGCN的原始嵌入將邊權(quán)重傳遞視為兩個(gè)獨(dú)立視圖用來(lái)捕獲不同類型的交互并轉(zhuǎn)換成通用交互率,通過引入的協(xié)同貢獻(xiàn)系數(shù)增強(qiáng)(或削弱)通用交互率高(或低)的鄰居消息。其表示方法如下:
[δij=χi(j),Aijgt;00,Aij=0," "?i, j∈V] (4)
式中:[χi(j)]表示中心節(jié)點(diǎn)[i]與鄰居節(jié)點(diǎn)[j]的通用交互率;用[Aij]判斷鄰接矩陣[A]中節(jié)點(diǎn)[i]與鄰居節(jié)點(diǎn)[j]是否存在邊。然后進(jìn)行完整卷積操作,實(shí)現(xiàn)信息聚合的表達(dá)式見式(5):
[xl+1i=j∈N1iCombγiδijk∈N1iδik,d-0.5id-0.5jxlj," " "?i∈V] (5)
式中[Comb(?)]是用于結(jié)合邊權(quán)重和傳播嵌入的函數(shù),可以通過先驗(yàn)知識(shí)設(shè)置或參數(shù)化應(yīng)用MLP來(lái)保證通用近似。為保證節(jié)點(diǎn)的消息總個(gè)數(shù)不會(huì)被影響,設(shè)置[γi=k∈Nlid-12id-12k]。
為了在圖卷積過程中實(shí)現(xiàn)自適應(yīng)傳播(Adaptive Propagation),充分利用節(jié)點(diǎn)信息隨聚合過程減弱的思想,同時(shí)也保證節(jié)點(diǎn)間的相似特性。因此,自適應(yīng)傳播由式(6)實(shí)現(xiàn):
[θ(t(l))=tle-tl!] (6)
式中:[e-t]表示自適應(yīng)學(xué)習(xí)函數(shù);[l]表示神經(jīng)網(wǎng)絡(luò)的層數(shù);[t]表示第[l]層的參數(shù),包括用戶和項(xiàng)目的不同參數(shù),具體參數(shù)包括[tui]和[tuj]的可學(xué)習(xí)參數(shù)。
在推薦任務(wù)中,輸入初始化用戶ID嵌入[h0u],項(xiàng)目ID嵌入[h0i],把初始嵌入與預(yù)訓(xùn)練得到的邊權(quán)值通過公式(5)卷積操作得到第[l+1]層的嵌入[hl+1u]和[hl+1i];最后通過計(jì)算相似度系數(shù)[αl+1]實(shí)現(xiàn)信息傳播形成下一層嵌入向量,具體計(jì)算方法見式(7):
[h′ul+1=(αl+1u+ω)u?hl+1uh′il+1=(αl+1i+ω)i?hl+1i] (7)
式中:[ω]表示偏置值;[αl+1u]和[αl+1i]分別表示第[l+1]層用戶嵌入和項(xiàng)目嵌入的節(jié)點(diǎn)相似度系數(shù)。
通過在聚合過程中使用增強(qiáng)表示,可以將每個(gè)嵌入層添加到傳播層中,以挖掘高階連接信息。第[l+1]層用戶[ui]和項(xiàng)目[vj]傳播的最終嵌入表示為:
[hl+1u=l=1Lθ(tl+1ui)?hl+1u+θ(t1ui)?h1uhl+1i=l=1Lθ(tl+1vj)?hl+1i+θ(t1vj)?h1i] (8)
式中:[L]表示神經(jīng)網(wǎng)絡(luò)層數(shù);[θ(tl+1ui)]和[θ(tl+1vj)]分別表示用戶和項(xiàng)目的自適應(yīng)傳播系數(shù)(由于在第一層卷積直接輸出,而不需要進(jìn)行節(jié)點(diǎn)相似性考慮,所以只進(jìn)行自適應(yīng)消息傳播);[θ(t1ui)]表示第[1]層的自適應(yīng)傳播系數(shù);[h1u]和[h1i]表示經(jīng)過第一層圖卷積的輸出嵌入向量。
2.2" 采樣方法
AGCE模型使用跳混合負(fù)采樣[20]來(lái)生成計(jì)算BPR損失的負(fù)樣本,跳混合負(fù)采樣的思想是利用圖神經(jīng)網(wǎng)絡(luò)中的分層聚合方法。具體來(lái)說(shuō),利用跳數(shù)混合生成合成負(fù)樣本[v-]和負(fù)嵌入[h-v],對(duì)圖神經(jīng)網(wǎng)絡(luò)的每一層嵌入中采樣一個(gè)候選嵌入[hv],然后通過池化操作將每一層的候選嵌入結(jié)合后形成一個(gè)負(fù)樣本集合,跳混合采樣的數(shù)學(xué)表達(dá)為:
[h-v=l=0Lh(l)vx] (9)
式中[h′(l)vx]表示嵌入向量[vx]在[l]層中的采樣。
2.3" 預(yù)" 測(cè)
為了生成推薦排名來(lái)評(píng)估模型性能,采用用戶與項(xiàng)目最終表示的內(nèi)積來(lái)定義AGCE模型預(yù)測(cè)評(píng)分。
[r(ui,vj)=hTuihvj] (10)
式中:[hui]和[hvj]分別表示用戶[ui]和項(xiàng)目[vj]的嵌入向量。
2.4" 模型訓(xùn)練
AGCE采用貝葉斯個(gè)性化排序(BPR)損失來(lái)實(shí)現(xiàn)模型優(yōu)化,其計(jì)算方法如下:
[?=-(ui,vj,vk)∈Olnσ(rui,vj-rui,vk)+λH(0)2] (11)
式中:[O=ui,vj,vk(ui,vj)∈O+,(ui,vk)∈O-]是成對(duì)訓(xùn)練的數(shù)據(jù),[O-]是沒有觀察到的交互集合,[O+]是有交互的集合;[σ(?)]是sigmoid function;[λ]是[L2]正則化強(qiáng)度,用于控制訓(xùn)練避免過擬合。使用Adam優(yōu)化器并通過小批量方式優(yōu)化網(wǎng)絡(luò)模型。
3" 實(shí)" 驗(yàn)
3.1" 數(shù)據(jù)集
為了評(píng)估AGCE的性能,使用5個(gè)具有不同密度、大小的真實(shí)公開數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),這些數(shù)據(jù)集的具體統(tǒng)計(jì)信息如表1所示。
3.2" 評(píng)估指標(biāo)
1) Recall:表示在Top?[K]個(gè)推薦結(jié)果中真實(shí)物品的覆蓋率,計(jì)算方法如下:
[Recall@K=1Uui∈UT(ui)?R(ui)T(ui)s.t." " "R(ui)=K] (12)
式中:[T(ui)]和[R(ui)]分別是用戶的測(cè)試項(xiàng)目集和推薦項(xiàng)目集。
2) NDCG:用于評(píng)估排名質(zhì)量,計(jì)算由累計(jì)折損增益(DCG)和理想累計(jì)折損增益(IDCG)組成。
累計(jì)折損增益(DCG)的計(jì)算方法如下:
[DCG@K=1Uui∈Uk=1K2(relk,ui)-1log2(2+k)] (13)
式中第[K]個(gè)項(xiàng)目(item)與用戶[ui]有交互,則[relk,ui]為1,否則為0。因此,NDCG最終計(jì)算方法見式(14)。
[NDCG@K=DCG@KIDCG@K] (14)
3.3" 對(duì)比實(shí)驗(yàn)
各代表模型及AGCE模型的平均召回率(Recall)和NDCG的Top?20性能表現(xiàn)具體見表2。使用黑色加粗表示最優(yōu)結(jié)果,下劃線表示排第二的結(jié)果。平均改進(jìn)是基于AGCE所有結(jié)果與先前方法的最優(yōu)結(jié)果進(jìn)行計(jì)算之后對(duì)其求均值。
3.4" 對(duì)比模型
這一節(jié)對(duì)實(shí)驗(yàn)中的基線模型進(jìn)行詳細(xì)介紹。
1) MF[21]:這是最經(jīng)典的協(xié)同過濾方法,它保留了用戶對(duì)交互項(xiàng)目相對(duì)于未交互項(xiàng)目的排名。
2) GF?CF[22]:提出了基于圖濾波的協(xié)同過濾,并通過圖信號(hào)處理的視角證明了在特殊情況下的有效性以及平滑性的重要性。
3) NGCF[10]:這是第一個(gè)基于GCNs的協(xié)同過濾模型,用于合并用戶項(xiàng)目交互的高階連通性進(jìn)行推薦。
4) Mult?VAE[8]:這是一種基于變分自動(dòng)編碼器的項(xiàng)目CF方法。它假設(shè)數(shù)據(jù)是從多項(xiàng)式分布生成的,并使用變分推理進(jìn)行參數(shù)估計(jì)。
5) LightGCN[11]:這是最流行的基于GCN的CF模型,通過去除特征變換和非線性激活來(lái)擴(kuò)展NGCF,實(shí)現(xiàn)了性能和效率之間更好的權(quán)衡。
6) LayerGCN[14]:引入了LayerGCN,是一種在GCN的信息傳播和節(jié)點(diǎn)更新過程中細(xì)化層表示的模型,根據(jù)度敏感概率而非均勻分布來(lái)修剪用戶?物品交互圖的邊。
7) ApeGNN[12]:提出了一種新的圖神經(jīng)網(wǎng)絡(luò)框架,即將圖融合過程引入到GCN模型中,解決了多階鄰居重要性分配。
8) CAGCN[13]:這是目前最新的模型之一,提出一種新的推薦拓?fù)涠攘俊狢IR,幫助偏好預(yù)測(cè)。
3.5" 實(shí)驗(yàn)結(jié)果分析
表2展示了AGCE模型與其他基線模型在五個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果。實(shí)驗(yàn)結(jié)果表明,AGCE模型整體表現(xiàn)優(yōu)于基線模型。具體來(lái)說(shuō),發(fā)現(xiàn)在Amazon、Yelp2018、Aminer和WorldNews四個(gè)數(shù)據(jù)集上,AGCE模型性能表現(xiàn)明顯優(yōu)于所有基線模型,這說(shuō)明了自適應(yīng)權(quán)重融合鄰居間交互率和殘差細(xì)化模塊有助于學(xué)習(xí)更多的節(jié)點(diǎn)信息,使得推薦效果更好,這在實(shí)際中具有重要應(yīng)用價(jià)值。然而,在Gowalla數(shù)據(jù)集上,AGCE表現(xiàn)不如個(gè)別最新的模型,這可能有以下兩種原因:第一,較稀疏的數(shù)據(jù)(Gowalla的稀疏度為0.000 84)使得模型不易訓(xùn)練;第二,模型本身泛化能力存在缺陷。
3.6" 消融實(shí)驗(yàn)
本節(jié)旨在通過消融實(shí)驗(yàn)探究模型中殘差細(xì)化模塊的作用,從而深入理解模型的設(shè)計(jì)和性能表現(xiàn),具體結(jié)果如表3所示。
結(jié)果表明,模型的殘差細(xì)化模塊(RRM)能在一定程度上提升推薦性能。通過實(shí)驗(yàn)進(jìn)一步認(rèn)識(shí)到模型中殘差細(xì)化模塊(RRM)的重要性,這說(shuō)明將第[l]層的嵌入與第[l+1]層的嵌入進(jìn)行相似度計(jì)算來(lái)緩解圖卷積網(wǎng)絡(luò)的過平滑是有效的。
3.7" 超參數(shù)擾動(dòng)分析
3.7.1" 網(wǎng)絡(luò)層數(shù)對(duì)結(jié)果的影響
為了研究網(wǎng)絡(luò)層數(shù)對(duì)AGCE模型的影響,將AGCE和LightGCN進(jìn)行詳細(xì)對(duì)比,表4記錄了不同層數(shù)對(duì)Recall@20和NDCG@20的影響。使用黑色加粗表示AGCE最優(yōu)結(jié)果,下劃線表示經(jīng)典模型LightGCN的最優(yōu)結(jié)果。
在所有情況下,AGCE的性能均優(yōu)于LightGCN。觀察可知,AGCE模型的最優(yōu)結(jié)果通常會(huì)有更高的層數(shù),這也從側(cè)面說(shuō)明殘差細(xì)化模塊可以緩解過平滑。具體來(lái)說(shuō),增加層數(shù)可以提高性能,但達(dá)到一定程度后仍會(huì)下降。在大多數(shù)情況下,將層數(shù)從1增加到4,性能會(huì)逐漸提升,并且在3層或4層往往達(dá)到最佳表現(xiàn)。然而,在Aminer數(shù)據(jù)集上,AGCE模型在一層就取得了最佳表現(xiàn),隨后逐漸下降,這種情況出現(xiàn)的原因是用戶數(shù)(5 340)和項(xiàng)目數(shù)(14 967)差異大導(dǎo)致的單個(gè)用戶平均交互過高。
3.7.2" 正則化系數(shù)對(duì)結(jié)果的影響
正則化系數(shù)是一組重要的超參數(shù),用于防止AGCE模型過擬合。選取兩個(gè)數(shù)據(jù)集來(lái)分析不同正則化系數(shù)對(duì)模型的影響,具體如圖3所示。
在模型訓(xùn)練中,正則化系數(shù)對(duì)于所使用的數(shù)據(jù)集都具有很大影響。AGCE模型選擇不同正則化系數(shù)進(jìn)行實(shí)驗(yàn),結(jié)果表明,通常模型在某一個(gè)值下得到最優(yōu)結(jié)果,達(dá)到最優(yōu)后開始下降,通過實(shí)驗(yàn)證明相同的數(shù)據(jù)集在正則化系數(shù)取值不同的情況下會(huì)產(chǎn)生不同的結(jié)果。
3.8" 效率對(duì)比
在這一部分主要研究?jī)蓚€(gè)問題:一是模型的訓(xùn)練時(shí)間問題;二是看殘差細(xì)化模塊是否加速了模型收斂,提高了訓(xùn)練效率。特別關(guān)注選取數(shù)據(jù)集在訓(xùn)練過程中所需的時(shí)間,為了方便區(qū)分,使用AGCE*表示去掉殘差細(xì)化模塊后的AGCE模型。最后,為了更清晰地展示,實(shí)驗(yàn)中記錄取得最優(yōu)結(jié)果時(shí)的訓(xùn)練時(shí)間,具體結(jié)果如圖4所示。
實(shí)驗(yàn)結(jié)果表明:本文設(shè)計(jì)的模型在所有情況下均表現(xiàn)出更高的效率,訓(xùn)練時(shí)間更短,高效率的同時(shí),性能更優(yōu)。具體而言,對(duì)比其他模型可以證明殘差細(xì)化模塊有助于加快模型訓(xùn)練,提升模型綜合性能。
4" 結(jié)" 語(yǔ)
本文針對(duì)在目前推薦任務(wù)中缺乏考慮節(jié)點(diǎn)間協(xié)同效應(yīng)與節(jié)點(diǎn)和層級(jí)重要性融合表達(dá)、堆疊多層網(wǎng)絡(luò)容易出現(xiàn)過平滑等問題,提出了一種融合協(xié)同效應(yīng)的自適應(yīng)圖卷積網(wǎng)絡(luò)推薦算法。實(shí)驗(yàn)結(jié)果表明,與現(xiàn)有的模型相比,AGCE模型取得了良好的推薦效果。具體來(lái)說(shuō),AGCE模型在Recall@20和NDCG@20上普遍優(yōu)于圖神經(jīng)網(wǎng)絡(luò)推薦算法的基線模型,且AGCE模型的訓(xùn)練時(shí)間更短,這在實(shí)際應(yīng)用場(chǎng)景中更有優(yōu)勢(shì)。然而,在實(shí)際應(yīng)用中數(shù)據(jù)往往是稀疏的,因此在未來(lái)的工作中,可以研究如何提升模型在稀疏數(shù)據(jù)上的泛化能力,例如考慮引入矩陣分解方法、對(duì)比學(xué)習(xí)來(lái)改善數(shù)據(jù)稀疏帶來(lái)的推薦能力下降的問題。
注:本文通訊作者為景明利。
參考文獻(xiàn)
[1] GAO C, ZHENG Y, LI N, et al. Graph neural networks for recommender systems: Challenges, methods, and directions [EB/OL]. [2024?08?03]. https://arxiv.org/abs/2109.12843.
[2] 鐘志峰,周冬平,張艷,等.基于最小二乘法的混合推薦模型研究[J].現(xiàn)代電子技術(shù),2022,45(17):123?128.
[3] 范鈺,范洪博.基于圖神經(jīng)網(wǎng)絡(luò)的推薦系統(tǒng)模型[J].現(xiàn)代電子技術(shù),2024,47(3):85?90.
[4] SALAKHUTDINOV R, MNIH A. Probabilistic matrix factorization [J]. Advances in neural information processing systems, 2007, 20: 1257?1264.
[5] KOREN Y. Factorization meets the neighborhood: A multifaceted collaborative filtering model [C]// Proceedings of the 14th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2008: 426?434.
[6] SEDHAIN S, MENON A K, SANNER S, et al. AutoRec: Autoencoders meet collaborative filtering [C]// Proceedings of the 24th International Conference on World Wide Web. New York: ACM, 2015: 111?112.
[7] HE X N, LIAO L Z, ZHANG H W, et al. Neural collaborative filtering [C]// Proceedings of the 26th International Conference on World Wide Web. [S.l.: s.n.], 2017: 173?182.
[8] LIANG D W, KRISHNAN R G, HOFFMAN M D, et al. Variational autoencoders for collaborative filtering [C]// Proceedings of the 2018 World Wide Web Conference on World Wide Web. New York: ACM, 2018: 689?698.
[9] KIPF T N, WELLING M. Semi?supervised classification with graph convolutional networks [EB/OL]. [2016?09?09]. https://arxiv.org/abs/1609.02907.
[10] WANG X, HE X, WANG M, et al. Neural graph collaborative filtering [C]// Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval. [S.l.: s.n.], 2019: 165?174.
[11] HE X N, DENG K, WANG X, et al. LightGCN: Simplifying and powering graph convolution network for recommendation [C]// Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM, 2020: 639?648.
[12] ZHANG D, ZHU Y F, DONG Y X, et al. ApeGNN: Node?wise adaptive aggregation in GNNs for recommendation [C]// Proceedings of the ACM Web Conference 2023. New York: ACM, 2023: 759?769.
[13] WANG Y, ZHAO Y Y, ZHANG Y, et al. Collaboration?aware graph convolutional networks for recommendation systems [EB/OL]. [2022?12?07]. https://doi.org/10.48550/arXiv.2207.06221.
[14] ZHOU X, LIN D H, LIU Y, et al. Layer?refined graph convolutional networks for recommendation [C]// 2023 IEEE 39th International Conference on Data Engineering (ICDE). New York: IEEE, 2023: 1247?1259.
[15] WU J C, WANG X, FENG F L, et al. Self?supervised graph learning for recommendation [C]// Proceedings of the 44th International ACM SIGIR Conference on Research and Development in Information Retrieval. [S.l.: s.n.], 2021: 726?735.
[16] WANG Y, JIN W, DERR T. Graph neural networks: Self?supervised learning [J]. Graph neural networks: Foundations, frontiers, and applications, 2022(1): 391?420.
[17] LIBEN?NOWELL D, KLEINBERG J M. The link prediction problem for social networks [C]// Proceedings of the 2023 International Conference on Information and Knowledge Management. New York: ACM, 2003: 556?559.
[18] SALTON G. Automatic text processing: The transformation, analysis, and retrieval of information by computer [J]. Reading, Massachusetts: Addison?Wesley, 1989.
[19] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2016: 770?778.
[20] HUANG T L, DONG Y X, DING M, et al. MixGCF: An improved training method for graph neural network?based recommender systems [C]// Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery amp; Data Mining. New York: IEEE, 2021: 665?674.
[21] RENDLE S, FREUDENTHALER C, GANTNER Z, et al. BPR: Bayesian personalized ranking from implicit feedback [EB/OL]. [2018?08?13]. http://arxiv.org/abs/1205.2618.
[22] SHEN Y F, WU Y J, ZHANG Y, et al. How powerful is graph convolution for recommendation? [C]// Proceedings of the 30th ACM International Conference on Information amp; Knowledge Management. New York: ACM, 2021: 1619?1629.
作者簡(jiǎn)介:朱永康(2000—),男,陜西漢中人,碩士研究生,研究方向?yàn)橥扑]系統(tǒng)、圖神經(jīng)網(wǎng)絡(luò)。
景明利(1977—),男,陜西西安人,博士研究生,副教授,研究方向?yàn)閴嚎s感知中的稀疏低秩恢復(fù)、數(shù)值優(yōu)化算法、圖像處理及機(jī)器學(xué)習(xí)。
焦" 龍(1980—),男,陜西西安人,博士研究生,教授,研究方向?yàn)榛瘜W(xué)計(jì)量學(xué)、模式識(shí)別。
王" 飛(1985—),男,陜西寶雞人,博士研究生,講師,研究方向?yàn)閳D像處理、信號(hào)處理、算法優(yōu)化。