王倫康 高茂庭
摘 要:當(dāng)前先進(jìn)的會(huì)話推薦算法主要通過圖神經(jīng)網(wǎng)絡(luò)從全局和目標(biāo)會(huì)話中挖掘項(xiàng)目的成對轉(zhuǎn)換關(guān)系,并將目標(biāo)會(huì)話壓縮成固定的向量表示,忽略了項(xiàng)目間復(fù)雜的高階信息和目標(biāo)項(xiàng)目對用戶偏好多樣性的影響。為此提出了基于超圖卷積網(wǎng)絡(luò)和目標(biāo)多意圖感知的會(huì)話推薦算法HCN-TMP。通過學(xué)習(xí)會(huì)話表示來表達(dá)用戶偏好,首先依據(jù)目標(biāo)會(huì)話構(gòu)建會(huì)話圖,依據(jù)全局會(huì)話構(gòu)建超圖,通過意圖解糾纏技術(shù)將原有反映用戶耦合意圖的項(xiàng)目嵌入表示轉(zhuǎn)換為項(xiàng)目多因素嵌入表示,再經(jīng)圖注意力網(wǎng)絡(luò)和超圖卷積網(wǎng)絡(luò)分別學(xué)習(xí)目標(biāo)會(huì)話節(jié)點(diǎn)的會(huì)話級和全局級項(xiàng)目表示,并使用距離相關(guān)性損失函數(shù)增強(qiáng)多因素嵌入塊間的獨(dú)立性;然后嵌入目標(biāo)會(huì)話中節(jié)點(diǎn)位置信息,加權(quán)每個(gè)節(jié)點(diǎn)的注意力權(quán)重,得到全局級和會(huì)話級會(huì)話表示;利用對比學(xué)習(xí)最大化兩者互信息,經(jīng)目標(biāo)多意圖感知,針對不同的目標(biāo)項(xiàng)目自適應(yīng)地學(xué)習(xí)目標(biāo)會(huì)話中多意圖的用戶偏好,得到目標(biāo)感知級會(huì)話表示,最后線性融合三個(gè)級別的會(huì)話表示得到最終的會(huì)話表示。在Tmall和Nowplaying兩個(gè)公開數(shù)據(jù)集上進(jìn)行大量實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果驗(yàn)證了HCN-TMP算法的有效性。
關(guān)鍵詞:圖神經(jīng)網(wǎng)絡(luò); 會(huì)話推薦; 意圖解糾纏; 注意力機(jī)制; 自監(jiān)督學(xué)習(xí)
中圖分類號:TP301.6?? 文獻(xiàn)標(biāo)志碼:A?? 文章編號:1001-3695(2024)01-005-0032-07
doi:10.19734/j.issn.1001-3695.2023.05.0199
Session-based recommendation algorithm based on hypergraph convolution network and target multi-intention perception
Abstract:The current advanced session recommendation algorithms mainly use graph neural network to mine the pairwise transformation relationships of items from the global and target sessions, and compress the target session into a fixed vector representation, ignoring the complex high-order information between items and the impact of target items on user preference diversity. To this end, this paper proposed a hypergraph convolution network and target multi-intention perception for session-based recommendation algorithm HCN-TMP. This algorithm expressed user preference by learning session representation. Firstly, it constructed a session graph based on the target session, and constructed a hypergraph based on the global session. It transformed the original item embedding representation that reflected the users coupling intention into a multi factor embedding representation of the item through intention disentanglement technology. Then, it learned the item representations of the session level and global level of the target session node through graph attention network and hypergraph convolutional network respectively, and used the distance correlation loss function to enhance the independence between the multi-factor embedded blocks. Next, it embedded the node location information in the target session, weighted the attention weight of each node, and got the session representation of the global level and session level. It used comparative learning to maximize the mutual information of the two. Through the target multi-intention perception, it adaptively learned the multi-intention user preferences in the target session for different target items, obtained the session representation of the target perception level. Finally, it linearly fused the three level session representations to obtain the final session representation. This paper carried out the experiments on two public data sets, Tmall and Nowplaying. The experimental results verify the effectiveness of the HCN-TMP algorithm.
Key words:graph neural network; session-based recommendation; intent disentanglement; attention mechanism; self-supervised learning
0 引言
隨著互聯(lián)網(wǎng)信息量爆炸式增長,大量信息涌現(xiàn)在用戶面前。由于用戶時(shí)間和精力有限,無法查看所有信息,推薦系統(tǒng)作為一個(gè)重要的信息過濾工具,通過幫助用戶推薦其感興趣的物品,發(fā)揮著重要作用。傳統(tǒng)推薦算法學(xué)習(xí)用戶模型[1,2]或依賴用戶長期行為[3,4]進(jìn)行推薦,然而在一些匿名推薦場景中,因?yàn)橛脩粜畔⒉豢芍?,且只能獲取用戶短期行為,無法挖掘其歷史偏好和長期偏好,導(dǎo)致推薦效果不佳?;跁?huì)話的推薦系統(tǒng)(session-based recommendation system,SRS) [5]通過給定用戶匿名的連續(xù)行為序列預(yù)測下一個(gè)可能與之交互的項(xiàng)目,因其高效且高實(shí)用而引起廣泛關(guān)注。
SRS的現(xiàn)有工作主要分為傳統(tǒng)方法[6~8]、基于序列化的方法[9~12]和基于GNN(graph neural network)的方法。傳統(tǒng)方法通過相似性規(guī)則[6]或馬爾可夫鏈[7,8]進(jìn)行建模來預(yù)測下一個(gè)可能交互的項(xiàng)目,前者嚴(yán)重依賴目標(biāo)會(huì)話中的共現(xiàn)信息,忽略了其他有用信息,后者假設(shè)下一個(gè)項(xiàng)目完全基于前一個(gè)項(xiàng)目,無法捕捉長期的順序依賴?;谛蛄谢姆椒ㄖ饕ㄟ^RNN(recurrent neural network)或其變體方法來挖掘會(huì)話的順序特征,盡管已經(jīng)取得了顯著的性能提升,但這些方法忽略了項(xiàng)目的復(fù)雜轉(zhuǎn)換,不足以在會(huì)話中獲得準(zhǔn)確的用戶表示?;贕NN的方法將會(huì)話構(gòu)建成圖結(jié)構(gòu),通過在圖上傳播和更新項(xiàng)目的嵌入表示,經(jīng)注意力機(jī)制融合目標(biāo)會(huì)話中項(xiàng)目的嵌入表示得到最終的會(huì)話表示來表達(dá)用戶偏好,從而捕捉項(xiàng)目復(fù)雜的轉(zhuǎn)換關(guān)系。
近幾年,國內(nèi)外學(xué)者所做SRS的工作結(jié)果表明,基于GNN的方法比傳統(tǒng)方法和基于序列化的方法具有顯著的優(yōu)勢,因此基于GNN的SRS成為主流的研究方向。Wu等人[13]提出了SR-GNN模型,通過門控圖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)會(huì)話圖中項(xiàng)目的嵌入表示,開創(chuàng)了使用GNN解決SRS問題的先例;Xu等人[14]在GNN模塊后應(yīng)用自注意力機(jī)制融合上下文信息去捕捉項(xiàng)目相關(guān)性;Yu等人[15]在SR-GNN的基礎(chǔ)上,將目標(biāo)項(xiàng)目的特征通過注意力機(jī)制集成到會(huì)話表示學(xué)習(xí)中,取得了更好的效果。以上基于GNN的方法僅考慮目標(biāo)會(huì)話的項(xiàng)目轉(zhuǎn)移關(guān)系,忽略來自其他會(huì)話的協(xié)同信息,導(dǎo)致無法充分挖掘用戶偏好。為了解決這個(gè)問題,融合協(xié)同信息[16~19]的方法被提出,Zheng等人[16]同時(shí)考慮目標(biāo)會(huì)話和近鄰協(xié)同會(huì)話,通過雙通道SGCN模塊學(xué)習(xí)項(xiàng)目兩種類型的嵌入表示;文獻(xiàn)[17~19]同時(shí)考慮目標(biāo)會(huì)話和全局協(xié)同會(huì)話,通過構(gòu)建會(huì)話圖和全局圖學(xué)習(xí)會(huì)話內(nèi)和會(huì)話間的信息,用協(xié)同信息增強(qiáng)目標(biāo)會(huì)話,以解決目標(biāo)會(huì)話數(shù)據(jù)稀疏的問題。一般GNN只能挖掘項(xiàng)目的成對轉(zhuǎn)換關(guān)系,忽略了項(xiàng)目的高階轉(zhuǎn)換關(guān)系,文獻(xiàn)[20~22]用超圖神經(jīng)網(wǎng)絡(luò)(hypergraph neural network,HGNN)[23]來學(xué)習(xí)項(xiàng)目的嵌入表示,從而挖掘高階信息。此外,用戶采用某項(xiàng)目的意圖是由該項(xiàng)目多因素決定的,每個(gè)交互項(xiàng)都可以被視為耦合意圖的結(jié)果[24],因此基于意圖解糾纏的方法被應(yīng)用到基于GNN的SRS中[22,25,26]。當(dāng)前基于意圖解糾纏的方法雖然考慮到用戶采用某物品的意圖是由該物品多因素決定的,有較好效果,但依舊存在問題。目標(biāo)會(huì)話被壓縮成固定的會(huì)話表示,忽略了目標(biāo)項(xiàng)目對用戶偏好多樣性的影響。
在網(wǎng)上購物場景中,給定一個(gè)目標(biāo)會(huì)話(A品牌藍(lán)牙耳機(jī)、B品牌手機(jī)、C品牌藍(lán)牙耳機(jī)、C品牌電腦、D品牌手機(jī)),在不考慮目標(biāo)項(xiàng)目的情況下,用戶可能有如下三種意圖:用戶點(diǎn)擊了A品牌藍(lán)牙耳機(jī)和C品牌藍(lán)牙耳機(jī),可能是想購買藍(lán)牙耳機(jī);用戶點(diǎn)擊了B品牌手機(jī)和D品牌手機(jī),可能是想購買一款智能手機(jī);用戶點(diǎn)擊了B品牌藍(lán)牙耳機(jī)和C品牌電腦,可能對C品牌的商品情有獨(dú)鐘。目標(biāo)會(huì)話中所體現(xiàn)的用戶意圖是多樣的,很難達(dá)到精確推薦的目的。當(dāng)引入目標(biāo)項(xiàng)目某品牌手機(jī),就能很好地解決這個(gè)問題,某品牌手機(jī)屬于用戶意圖中某品牌商品和智能手機(jī)的范疇,削弱了用戶購買藍(lán)牙耳機(jī)的意圖,縮小了用戶意圖空間。為此,提出了一種基于超圖卷積網(wǎng)絡(luò)和目標(biāo)多意圖感知的會(huì)話推薦算法(hypergraph convolution network and target multi-intention perception for session-based re-commendation algorithm,HCN-TMP)。首先,由于用戶采用某項(xiàng)目的意圖是由該項(xiàng)目多因素決定的,所以采用基于意圖解糾纏的方法將項(xiàng)目嵌入分為多塊,假設(shè)每塊代表一個(gè)潛在因素。其次,分別從全局和目標(biāo)會(huì)話中學(xué)習(xí)項(xiàng)目兩個(gè)級別的嵌入表示。a)對于全局會(huì)話,為每一個(gè)會(huì)話構(gòu)建一個(gè)超邊,一個(gè)超邊內(nèi)的項(xiàng)目都彼此相互連接,通過共享項(xiàng)目連接的不同超邊構(gòu)成超圖,超圖中蘊(yùn)涵了項(xiàng)目的高階轉(zhuǎn)換關(guān)系,經(jīng)HGNN學(xué)習(xí)全局級項(xiàng)目嵌入表示;b)對于目標(biāo)會(huì)話,構(gòu)建包含目標(biāo)會(huì)話成對轉(zhuǎn)換關(guān)系的會(huì)話圖,通過GNN學(xué)習(xí)會(huì)話級嵌入表示。對于兩個(gè)級別的嵌入表示,同時(shí)使用距離相關(guān)性損失函數(shù)來促使項(xiàng)目多個(gè)嵌入塊間有更強(qiáng)的獨(dú)立性。在得到項(xiàng)目兩個(gè)級別的嵌入之后,考慮到目標(biāo)會(huì)話中出現(xiàn)在不同位置的項(xiàng)目對用戶偏好的影響不同,所以融合項(xiàng)目在目標(biāo)會(huì)話中的位置信息,經(jīng)軟注意力機(jī)制分別得到全局級會(huì)話表示和會(huì)話級會(huì)話表示,利用對比學(xué)習(xí)最大化兩種會(huì)話表示的互信息。經(jīng)目標(biāo)多意圖感知,針對不同的目標(biāo)項(xiàng)目,通過注意力機(jī)制感知目標(biāo)項(xiàng)目與目標(biāo)會(huì)話中項(xiàng)目多因素的相關(guān)性,自適應(yīng)地學(xué)習(xí)目標(biāo)會(huì)話中多意圖的用戶偏好,縮小用戶的意圖空間,得到目標(biāo)感知級會(huì)話表示,以解決上述問題。最后,線性地組合三種類型的會(huì)話表示來表達(dá)用戶最終偏好,進(jìn)而進(jìn)行推薦。
1 相關(guān)工作
1.1 超圖神經(jīng)網(wǎng)絡(luò)
與簡單圖不同,一個(gè)超圖由多個(gè)超邊構(gòu)成,每個(gè)超邊連接多個(gè)節(jié)點(diǎn),用G=(V,E,W)表示,其中,V表示節(jié)點(diǎn)集合,E表示超邊集合,W表示超邊權(quán)重的對角矩陣。HGNN通過“節(jié)點(diǎn)-超邊-節(jié)點(diǎn)”模式有效地提取超圖上的高階相關(guān)性信息,即先從節(jié)點(diǎn)到超邊的信息聚合,再從超邊到節(jié)點(diǎn)的信息傳播。文獻(xiàn)[23]通過構(gòu)建超圖卷積網(wǎng)絡(luò)(hypergraph convolution network,HGCN)完成“節(jié)點(diǎn)-超邊-節(jié)點(diǎn)”模式,如式(1)所示。
X(l+1)=σ(D-1/2vHWD-1eHTD-1/2vX(l)Θ(l))(1)
其中:Dv、De分別表示節(jié)點(diǎn)和超邊度的對角矩陣,起到歸一化的作用;H表示超圖的關(guān)聯(lián)矩陣;X(l)表示第l層節(jié)點(diǎn)的嵌入向量矩陣;Θl表示第l層可訓(xùn)練的參數(shù)矩陣;σ表示非線性激活函數(shù)。
具體來說,首先初始化節(jié)點(diǎn)嵌入表示,記作X(0),并通過參數(shù)矩陣轉(zhuǎn)換特征維度;其次,通過左乘HT聚集節(jié)點(diǎn)到超邊的信息;最后,通過左乘H從超邊向節(jié)點(diǎn)傳播信息。HGNN經(jīng)L層迭代訓(xùn)練得到最佳的節(jié)點(diǎn)嵌入表示X(L)。
1.2 對比學(xué)習(xí)
自監(jiān)督學(xué)習(xí)屬于無監(jiān)督學(xué)習(xí)的一種,即用于訓(xùn)練的標(biāo)簽源于數(shù)據(jù)本身,無須另外人工標(biāo)記。對比學(xué)習(xí)[27]是自監(jiān)督學(xué)習(xí)的一個(gè)分支,核心思想是讓模型學(xué)習(xí)如何將正樣本和其他負(fù)樣本區(qū)別開,抓住樣本的本質(zhì)特征。在表征學(xué)習(xí)中,對比學(xué)習(xí)是通過將同一樣本的多種嵌入相互靠近,不同樣本的嵌入相互遠(yuǎn)離來實(shí)現(xiàn)的,最大化同一樣本多種嵌入的互信息,增強(qiáng)了樣本嵌入的魯棒性。文獻(xiàn)[28]提出了InfoNCE,主要用在自監(jiān)督學(xué)習(xí)中作為一個(gè)對比損失函數(shù),如式(2)所示。
其中:X表示包含正負(fù)樣本的集合;fk(·)表示一種相似度函數(shù);(xj,ct)表示負(fù)樣本對;(xt+k,ct)表示正樣本對;EX表示整體期望。通過最小化損失函數(shù)即可最大化正樣本對之間的互信息。
2 模型框架與算法描述
2.1 問題說明
設(shè)V={v1,v2,…,vm}為會(huì)話中出現(xiàn)過的所有項(xiàng)目組成的集合;s=[v1,v2,…,vn]為按時(shí)間戳排序的匿名會(huì)話,其長度記為|s|;S={s0,s1,s2,…,s|S|-1}為整個(gè)數(shù)據(jù)庫中的會(huì)話集,|S|為會(huì)話總數(shù)。每個(gè)項(xiàng)目vi∈V和會(huì)話s都被嵌入到相同的向量空間,分別用s∈RApd和xi∈RApd表示,d表示向量的維度。
對于給定的目標(biāo)會(huì)話s0=[v1,v2,…,v|s0|],SRS任務(wù)的目標(biāo)是預(yù)測下一個(gè)可能交互的項(xiàng)目v|s0|+1。推薦模型生成V中所有項(xiàng)目的偏好分?jǐn)?shù),選擇得分最高的前K個(gè)項(xiàng)目進(jìn)行最終推薦。
2.2 模型框架
基于GNN的SRS任務(wù)一般包含圖構(gòu)建、項(xiàng)目嵌入表示學(xué)習(xí)、目標(biāo)會(huì)話表示生成、預(yù)測四步[13]。HCN-TMP算法在以上步驟的基礎(chǔ)上增加一個(gè)意圖解糾纏模塊以挖掘項(xiàng)目多因素信息,為學(xué)習(xí)用戶多意圖偏好提供條件。
在圖構(gòu)建模塊中,由于目標(biāo)會(huì)話中蘊(yùn)涵的信息有限,所以將全局會(huì)話作為協(xié)同信息,根據(jù)目標(biāo)會(huì)話中項(xiàng)目的成對轉(zhuǎn)換關(guān)系構(gòu)建會(huì)話圖,根據(jù)全局會(huì)話的高階轉(zhuǎn)換關(guān)系構(gòu)建超圖。在意圖解糾纏模塊中,為了對用戶多意圖偏好建模,經(jīng)意圖解糾纏,將原有反映用戶耦合意圖的項(xiàng)目嵌入表示轉(zhuǎn)換為項(xiàng)目多因素嵌入表示。在項(xiàng)目嵌入表示學(xué)習(xí)模塊中,為獲取兩個(gè)級別項(xiàng)目多因素的嵌入表示,在會(huì)話圖中,用GAT(graph attention network)學(xué)習(xí)目標(biāo)會(huì)話項(xiàng)目的會(huì)話級表示;在超圖中,用HGCN學(xué)習(xí)目標(biāo)會(huì)話項(xiàng)目的全局級項(xiàng)目表示,并通過距離相關(guān)性損失函數(shù)促使項(xiàng)目多因素嵌入塊有更強(qiáng)的獨(dú)立性。在目標(biāo)會(huì)話表示生成模塊中,將目標(biāo)會(huì)話中項(xiàng)目的位置信息考慮到注意力權(quán)重中,分別融合目標(biāo)會(huì)話中兩個(gè)級別項(xiàng)目的嵌入表示,得到全局級會(huì)話表示和會(huì)話級會(huì)話表示,并通過對比學(xué)習(xí)最大化兩者的互信息;此外,考慮到目標(biāo)項(xiàng)目對用戶多意圖偏好的影響,目標(biāo)會(huì)話項(xiàng)目的會(huì)話級表示和目標(biāo)項(xiàng)目通過目標(biāo)多意圖感知得到目標(biāo)感知級會(huì)話表示,從而縮小用戶意圖偏好空間。在預(yù)測模塊中,線性融合全局級、會(huì)話級和目標(biāo)感知級會(huì)話表示作為用戶偏好向量,經(jīng)softmax函數(shù)預(yù)測項(xiàng)目得分,從而進(jìn)行推薦。算法模型如圖1所示。
2.3 圖構(gòu)建模塊
1)會(huì)話圖構(gòu)建 參考文獻(xiàn)[17],為了對目標(biāo)會(huì)話項(xiàng)目的轉(zhuǎn)換關(guān)系建模,將目標(biāo)會(huì)話構(gòu)建成一個(gè)會(huì)話圖。為了模型簡單起見,在會(huì)話圖構(gòu)建時(shí),忽略入度、出度、自環(huán)等多類型的轉(zhuǎn)換關(guān)系,只考慮項(xiàng)目的成對轉(zhuǎn)換關(guān)系,因此構(gòu)建無向圖。給定目標(biāo)會(huì)話s0=[v1,v2,…,v|s0|],構(gòu)建會(huì)話圖G′=(V′,E′)。其中:V′表示出現(xiàn)在目標(biāo)會(huì)話s0中所有項(xiàng)目的集合;E′表示邊集合,E′={e′i,j|(vi,vj)|vi,vj∈V′} ,(vi,vj)表示邊,即用戶在s0中點(diǎn)擊vi和vj存在先后順序,用VS(vi)表示會(huì)話圖中項(xiàng)目vi的鄰居項(xiàng)目。
2)超圖構(gòu)建 在SRS任務(wù)中,某些項(xiàng)目被交互通常是先前多個(gè)項(xiàng)目聯(lián)合影響的結(jié)果,因此項(xiàng)目轉(zhuǎn)換關(guān)系是多對多的,參考文獻(xiàn)[21],用超圖挖掘項(xiàng)目高階轉(zhuǎn)換關(guān)系。給定全局會(huì)話S,構(gòu)建超圖G″=(V″,E″)。其中:V″表示全局會(huì)話中所有項(xiàng)目的集合,即V″=V;E″是一個(gè)包含|S|個(gè)超邊的集合,每個(gè)會(huì)話構(gòu)成一個(gè)超邊,每個(gè)超邊ε∈E″包含多個(gè)項(xiàng)目節(jié)點(diǎn),ε={vi|vi∈s|s={v1,v2,…,v|s0|}}。
為每個(gè)超邊設(shè)置一個(gè)權(quán)重Wεε,所有超邊權(quán)重構(gòu)成一個(gè)對角矩陣W∈RAp|S|×|S|,整個(gè)超圖可以用一個(gè)關(guān)聯(lián)矩陣H∈RApm×|S|表示,對于一個(gè)項(xiàng)目vi∈ε,Hiε定義為
D∈RApm×m、B∈RAp|S|×|S|分別表示節(jié)點(diǎn)和超邊度的對角矩陣,用Dii和Bεε分別表示節(jié)點(diǎn)和超邊的度,Dii=∑|S|ε=1WεεHiε,Bεε=∑mi=1Hiε。
2.4 意圖解糾纏模塊
當(dāng)前基于表征學(xué)習(xí)的SRS任務(wù)大多把項(xiàng)目嵌入到一個(gè)整體表示中,項(xiàng)目嵌入被視為耦合意圖的結(jié)果,無法從細(xì)粒度的角度挖掘項(xiàng)目背后的不同潛在因素,而用戶采用某項(xiàng)目的意圖是由該項(xiàng)目多因素決定的,所以參考文獻(xiàn)[25],使用意圖解糾纏方法對項(xiàng)目嵌入的多因素進(jìn)行編碼。對于一個(gè)嵌入表示為xi∈RApd的項(xiàng)目vi,通過意圖解糾纏將vi的嵌入表示分為T塊,假設(shè)每塊嵌入表示一個(gè)獨(dú)立與其他塊的潛在因素,如式(4)所示。
其中:σ表示激活函數(shù);WTt∈RApd×d/T,bt∈RApd/T表示第t個(gè)因素的可訓(xùn)練的參數(shù);ci,t表示項(xiàng)目vi第t個(gè)因素的嵌入表示,采用L2正則化防止過擬合。項(xiàng)目vi的嵌入經(jīng)過解糾纏轉(zhuǎn)換為xi=[ci,1,…,ci,T]∈RApd/T。
2.5 項(xiàng)目嵌入表示學(xué)習(xí)模塊
根據(jù)已構(gòu)建的會(huì)話圖和全局圖,分別通過會(huì)話級和全局級項(xiàng)目表示學(xué)習(xí)部分來獲取目標(biāo)會(huì)話項(xiàng)目會(huì)話級和全局級的項(xiàng)目表示,并且通過距離相關(guān)損失部分提高全局級嵌入表示多個(gè)嵌入塊的獨(dú)立性。
2.5.1 會(huì)話級項(xiàng)目表示學(xué)習(xí)
會(huì)話圖中蘊(yùn)涵項(xiàng)目成對轉(zhuǎn)換關(guān)系,參考文獻(xiàn)[17],通過GNN學(xué)習(xí)會(huì)話級項(xiàng)目表示。與文獻(xiàn)[17]不同的是,此處對項(xiàng)目T塊嵌入表示分開學(xué)習(xí),最后融合得到最終的會(huì)話級項(xiàng)目表示,從而學(xué)習(xí)項(xiàng)目多因素的特征。
在會(huì)話圖中,不同鄰居對當(dāng)前項(xiàng)目的重要性不同,通過GAT將不同的注意力權(quán)重分配給鄰居以區(qū)分其重要性,并將其線性組合。項(xiàng)目vi第t個(gè)因素的學(xué)習(xí)過程如式(5)所示。
其中:αt(vi,vj)表示在第t個(gè)因素下項(xiàng)目vj與vi的注意力權(quán)重,計(jì)算方式如下:
其中:⊙表示向量對應(yīng)位置相乘;LeakyReLU為激活函數(shù);W1∈RApd/T表示可訓(xùn)練參數(shù)。最后,融合項(xiàng)目T塊嵌入表示得到最終的會(huì)話級項(xiàng)目表示x′i=[c′i,1,…,c′i,T]∈RApd/T。
2.5.2 全局級項(xiàng)目表示學(xué)習(xí)
超圖蘊(yùn)涵項(xiàng)目高階轉(zhuǎn)換關(guān)系,參考文獻(xiàn)[21],通過HGCN學(xué)習(xí)全局級項(xiàng)目表示。與會(huì)話級項(xiàng)目表示學(xué)習(xí)一樣,此處依舊分開學(xué)習(xí)項(xiàng)目多因素的嵌入,最后融合得到最終的全局級項(xiàng)目表示。
在超圖中,采用“節(jié)點(diǎn)-超邊-節(jié)點(diǎn)”的信息傳播模式,通過卷積操作聚合并傳遞圖中信息,項(xiàng)目vi第t個(gè)因素的信息傳播過程如式(7)所示。
在圖卷積過程中,去除非線性激活部分和參數(shù)矩陣。為了簡單起見,將所有權(quán)重系數(shù)Wεε設(shè)為1。參考式(1),圖卷積過程的矩陣表達(dá)形式為
C(l+1)=D-1HWB-1HTC(l)(8)
信息傳播和聚合應(yīng)用于所有項(xiàng)目的堆疊形式構(gòu)成了多層HGCN結(jié)構(gòu),通過L輪迭代形成穩(wěn)定的模式,項(xiàng)目vi第t個(gè)因素的嵌入表示為cLi,t。為了解決因多輪迭代出現(xiàn)過擬合的問題,平均L輪所得的項(xiàng)目嵌入,如式(9)所示。
最后融合項(xiàng)目T塊嵌入表示得到最終的全局級項(xiàng)目表示x″i=[c″i,1,…,c″i,T]∈RApd/T。
2.5.3 距離相關(guān)損失
在意圖解糾纏模塊中,為了探究用戶多意圖偏好,把項(xiàng)目嵌入分成T塊,每塊表示一個(gè)潛在因素。為了更全面且有針對性地描述項(xiàng)目的多特征,就要讓項(xiàng)目嵌入的多因素間的獨(dú)立性更高,采用距離相關(guān)損失作為正則化器去縮小每一對因素間的依賴性。因?yàn)橥ㄟ^會(huì)話圖和超圖學(xué)習(xí)了兩個(gè)級別項(xiàng)目表示,距離相關(guān)損失存在于會(huì)話級項(xiàng)目表示學(xué)習(xí)和全局級項(xiàng)目表示學(xué)習(xí)過程中,距離相關(guān)損失函數(shù)表示如下:
其中:cos(·,·)表示兩個(gè)向量的距離相關(guān)性函數(shù)。
2.6 目標(biāo)會(huì)話表示生成模塊
與文獻(xiàn)[16~19]在學(xué)習(xí)目標(biāo)會(huì)話表示之前直接融合多個(gè)級別項(xiàng)目嵌入不同,HCN-TMP從三個(gè)角度分別學(xué)習(xí)會(huì)話級、目標(biāo)感知級和全局級會(huì)話表示,并通過對比學(xué)習(xí)最大化會(huì)話級和全局級會(huì)話表示的互信息,從而減少因項(xiàng)目嵌入融合帶來的噪聲??紤]到用戶采用某項(xiàng)目的意圖是由項(xiàng)目多因素決定的,所以分開學(xué)習(xí)項(xiàng)目的每個(gè)因素,更好地捕捉用戶關(guān)心的主要因素。
2.6.1 會(huì)話級與全局級會(huì)話表示
參考文獻(xiàn)[17],為了得到目標(biāo)會(huì)話的整體表示,與現(xiàn)有著重關(guān)注目標(biāo)會(huì)話最后一個(gè)項(xiàng)目的方法不同,融合位置信息嵌入,學(xué)習(xí)每個(gè)項(xiàng)目對整個(gè)目標(biāo)會(huì)話的影響權(quán)重。會(huì)話級會(huì)話表示與全局級會(huì)話表示采用同樣的學(xué)習(xí)方法,下文詳細(xì)描述會(huì)話級會(huì)話表示學(xué)習(xí)過程,對全局級會(huì)話表示的學(xué)習(xí)過程不再贅述。
其次,通過軟注意力學(xué)習(xí)目標(biāo)會(huì)話內(nèi)每個(gè)項(xiàng)目第t個(gè)因素的權(quán)重,如式(13)所示。
函數(shù)。然后,加權(quán)融合會(huì)話級項(xiàng)目嵌入,得到第t個(gè)意圖的會(huì)話級會(huì)話表示s′t,如式(14)所示。
最后,融合T個(gè)意圖的會(huì)話級會(huì)話表示得到最終的會(huì)話級會(huì)話表示s′=[s′1,…,s′T]∈RApd/T。同理,得到最終的全局級會(huì)話表示s″=[s″1,…,s″T]∈RApd/T,其中s″t表示第t個(gè)意圖的全局級會(huì)話表示。
2.6.2 目標(biāo)感知級會(huì)話表示
現(xiàn)有基于意圖解糾纏的方法都是將目標(biāo)會(huì)話壓縮成固定的向量表示,忽略了目標(biāo)項(xiàng)目對用戶偏好多樣性的影響。HCN-TMP通過目標(biāo)多意圖感知,即目標(biāo)多意圖注意力機(jī)制,自適應(yīng)學(xué)習(xí)目標(biāo)會(huì)話中與目標(biāo)項(xiàng)目相關(guān)度更高的多意圖用戶偏好,為每個(gè)目標(biāo)項(xiàng)目學(xué)習(xí)一個(gè)目標(biāo)感知級會(huì)話表示。
在目標(biāo)會(huì)話的第t個(gè)意圖中,取目標(biāo)項(xiàng)目v|s0|+1的嵌入向量,通過非線性轉(zhuǎn)換后,與目標(biāo)會(huì)話的所有項(xiàng)目的會(huì)話級嵌入表示內(nèi)積,經(jīng)歸一化得到項(xiàng)目注意力權(quán)重,如式(15)所示。
最后,融合T個(gè)意圖的會(huì)話級會(huì)話表示得到最終的目標(biāo)感知級會(huì)話表示s=[s1,…,sT]∈RApd/T。由于數(shù)據(jù)庫中所有項(xiàng)目V={v1,v2,…,vm}都要作為目標(biāo)項(xiàng)目,vo∈V作為目標(biāo)項(xiàng)目,目標(biāo)感知級會(huì)話表示為so。
2.6.3 對比學(xué)習(xí)
將全局級會(huì)話表示作為自監(jiān)督信號,通過對比學(xué)習(xí)最大化會(huì)話級和全局級會(huì)話表示的互信息。參考式(2),采用基于標(biāo)準(zhǔn)二分類的InfoNCE作為損失函數(shù),如式(17)所示。
2.7 預(yù)測模塊
在獲取全局級、會(huì)話級和目標(biāo)感知級會(huì)話表示后,針對目標(biāo)項(xiàng)目vo,通過鏈接和線性變換到向量so來表達(dá)用戶最終偏好,如式(18)所示。
so=W7[so;s′;s″](18)
其中:W7∈RApd×3d表示可訓(xùn)練參數(shù)。
對于目標(biāo)項(xiàng)目vo,通過項(xiàng)目嵌入xo和用戶偏好向量so內(nèi)積得到項(xiàng)目得分zo:
zo=sToxo(19)
其中:y={y1,y2,…,ym}表示目標(biāo)會(huì)話中真實(shí)點(diǎn)擊項(xiàng)目的獨(dú)熱編碼向量。結(jié)合式(10)(17)和(20)的損失函數(shù)形成統(tǒng)一的優(yōu)化目標(biāo),如式(21)所示。
LAp=λLAp1+δLAp2+LAp3(21)
其中:λ和δ是兩個(gè)超參數(shù),控制距離相關(guān)損失和對比學(xué)習(xí)損失的比率。
3 實(shí)驗(yàn)與分析
為了評估算法HCN-TMP的有效性,在Tmall和Nowplaying兩個(gè)公開數(shù)據(jù)集上進(jìn)行以下四部分實(shí)驗(yàn):與基線模型的對比實(shí)驗(yàn)、消融實(shí)驗(yàn)、參數(shù)調(diào)整實(shí)驗(yàn)以及算法在不同長度的會(huì)話表現(xiàn)實(shí)驗(yàn)。
3.1 數(shù)據(jù)集與預(yù)處理
實(shí)驗(yàn)選擇Tmall(https://tianchi.aliyun.com/dataset/dataDetail?dataId=42)和Nowplaying(http://dbis-nowplaying.uibk.ac.at/#nowplaying)兩個(gè)公開數(shù)據(jù)集。參考文獻(xiàn)[13,17]的數(shù)據(jù)處理方法,過濾掉兩個(gè)數(shù)據(jù)集中會(huì)話長度為1、項(xiàng)目出現(xiàn)次數(shù)少于5次的會(huì)話和項(xiàng)目。由于原Tmall數(shù)據(jù)集中項(xiàng)目數(shù)量過大,參考文獻(xiàn)[17],篩選出1/64的會(huì)話作為最終數(shù)據(jù)集,并選擇最后一天的數(shù)據(jù)作為測試集,剩余的作為訓(xùn)練集;對于Nowplaying,選擇最后兩個(gè)月的數(shù)據(jù)作為測試集,剩余的作為訓(xùn)練集。對于會(huì)話序列s=[v1,v2,…,vn] ,為了增強(qiáng)會(huì)話數(shù)據(jù),生成一系列(會(huì)話序列,標(biāo)簽),例如 ([v1],v2),([v1,v2],v3),…,([v1,v2,…,vn-1],vn)。數(shù)據(jù)集內(nèi)容如表1所示。
3.2 評價(jià)指標(biāo)
實(shí)驗(yàn)使用基于排名的P@K和MRR@K兩種評價(jià)指標(biāo)對模型進(jìn)行評價(jià)。考慮SRS實(shí)驗(yàn)的有效性和在實(shí)際生活中的應(yīng)用,選取K=20。
3.3 對比方法
為驗(yàn)證模型的性能,選擇以下算法進(jìn)行對比:
a)Item-KNN[6]。推薦與目標(biāo)會(huì)話最相似的會(huì)話中的項(xiàng)目,相似度定義為會(huì)話中項(xiàng)目的共現(xiàn)信息。
b)FPMC[7]。結(jié)合矩陣分解和一階馬爾可夫鏈來捕獲序列效果和用戶偏好。
c)GRU4Rec[9]。一種基于RNN的方法,利用GRU來捕獲會(huì)話序列中項(xiàng)目之間順序的行為。
d)NARM[10]。在GRU4Rec的基礎(chǔ)上加入注意力機(jī)制,以對用戶的主要目的進(jìn)行建模。
e)SR-GNN[13]。通過門控圖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)會(huì)話圖中項(xiàng)目的嵌入表示,開創(chuàng)了使用GNN解決SRS問題的先例。
f)GC-SAN[14]。將GNN和多層自注意力網(wǎng)絡(luò)結(jié)合,從而集成上下文信息。
g)TAGNN[15]。引入了目標(biāo)感知模塊,挖掘目標(biāo)項(xiàng)目與歷史動(dòng)作的相關(guān)性,從而改進(jìn)會(huì)話表示。
h)GCE-GNN[17]。通過構(gòu)建會(huì)話圖與全局圖去學(xué)習(xí)兩個(gè)層次的項(xiàng)目表示,以達(dá)到全局信息增強(qiáng)目標(biāo)會(huì)話的目的。
i)S2-DHCN[21]。構(gòu)建線圖和超圖學(xué)習(xí)會(huì)話間和會(huì)話內(nèi)信息,并使用自監(jiān)督學(xué)習(xí)來增強(qiáng)模型。
j)SHARE[20]。利用超圖和注意力網(wǎng)絡(luò)去探究上下文窗口,從而對會(huì)話相關(guān)的項(xiàng)目表示建模。
k)Disen-GNN[25]。將意圖解糾纏技術(shù)與門控圖卷積層相結(jié)合對項(xiàng)目潛在因素進(jìn)行建模,以估計(jì)用戶的不同意圖。
3.4 參數(shù)設(shè)置
對于HCN-TMP算法,與文獻(xiàn)[13,17]設(shè)置算法項(xiàng)目嵌入向量的維度統(tǒng)一為100不同,本文考慮到項(xiàng)目的多因素,把項(xiàng)目嵌入分為T塊,所以項(xiàng)目嵌入向量的維度d需要通過參數(shù)實(shí)驗(yàn)得到。參考文獻(xiàn)[13,17],設(shè)置批量處理大小為100,可訓(xùn)練參數(shù)以均值為0、標(biāo)準(zhǔn)差為0.1的高斯分布初始化,使用初始學(xué)習(xí)率為0.001的Adam優(yōu)化器,每三個(gè)訓(xùn)練周期衰減0.1,正則化系數(shù)為10-5。對于其他影響算法性能的參數(shù)(HGCN層數(shù)、項(xiàng)目因素?cái)?shù)、超參數(shù)λ和超參數(shù)δ)通過在兩個(gè)數(shù)據(jù)集的參數(shù)實(shí)驗(yàn)得到。對于對比方法,為了公平起見,參數(shù)設(shè)置與原文獻(xiàn)相同。
3.5 結(jié)果分析
a)將HCN-TMP與11個(gè)對比算法進(jìn)行對比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表2所示。從表2可以看出:
(a)基于序列化的方法(NARM和GRU4Rec)基本優(yōu)于不考慮序列化的傳統(tǒng)方法(Item-KNN和FPMC),表明在SRS任務(wù)中考慮會(huì)話序列信息是十分重要的。
(b)基于GNN的方法比傳統(tǒng)方法和基于序列化的方法具有顯著的優(yōu)勢,主要原因可能是圖結(jié)構(gòu)可以迭代地聚合圖中的相鄰信息以提取項(xiàng)目之間的成對轉(zhuǎn)換關(guān)系,從而獲得更好的項(xiàng)目表示。在基于GNN的方法中,僅考慮目標(biāo)會(huì)話項(xiàng)目轉(zhuǎn)移關(guān)系的方法(SR-GNN、GC-SAN、SHARE等)效果明顯差于考慮協(xié)同信息的方法(GCE-GNN和S2-DHCN),說明目標(biāo)會(huì)話以外的協(xié)同信息能更好地挖掘用戶偏好。
(c)基于目標(biāo)項(xiàng)目感知的方法(TAGNN)在Tmall數(shù)據(jù)集上優(yōu)于所有其他基線方法,可能的原因是目標(biāo)項(xiàng)目能很好感知用戶偏好、挖掘用戶意圖。但在Nowplaying數(shù)據(jù)集中,TAGNN相比別的基于GNN的方法效果并不好,說明不同數(shù)據(jù)集中目標(biāo)項(xiàng)目對用戶意圖的挖掘起到的作用不相同。
(d)基于超圖建模會(huì)話的方法(S2-DHCN和SHARE)優(yōu)于一般二部圖建模會(huì)話的方法(SR-GNN、GC-SAN),因?yàn)橐话銏D只能挖掘項(xiàng)目的成對轉(zhuǎn)換關(guān)系,超圖可以挖掘項(xiàng)目的高階轉(zhuǎn)換關(guān)系。基于意圖解糾纏的方法(Disen-GNN)效果好于意圖耦合的方法(SR-GNN、GC-SAN),因?yàn)橛脩舨捎媚澄锲返囊鈭D是由該物品多因素決定的,Disen-GNN將項(xiàng)目嵌入到多個(gè)塊中表示不同的因素。
(e)HCN-TMP算法考慮除目標(biāo)會(huì)話以外的全局協(xié)同會(huì)話,通過超圖建模全局協(xié)同會(huì)話,經(jīng)多意圖目標(biāo)感知,針對不同的目標(biāo)項(xiàng)目自適應(yīng)地學(xué)習(xí)目標(biāo)會(huì)話中多意圖的用戶偏好,綜合以上方法優(yōu)勢所在,在兩個(gè)數(shù)據(jù)集中明顯優(yōu)于所有基線方法。Tmall數(shù)據(jù)集上比最好的基線方法在P@20上高出16.18%,在MRR@20上高出12.01%;Nowplaying數(shù)據(jù)集上比最好的基線方法在P@20上高出1.83%,在MRR@20上高出2.02%。由此可見,相比Nowplaying數(shù)據(jù)集,HCN-TMP對Tmall數(shù)據(jù)集有更可觀的效果,主要的原因可能是目標(biāo)多意圖感知模塊對購物類用戶多意圖場景有更強(qiáng)的針對性。
b)對HCN-TMP算法進(jìn)行消融實(shí)驗(yàn),以驗(yàn)證每個(gè)重要組成部分的有效性。在每個(gè)實(shí)驗(yàn)中,移除其中一個(gè)部分,性能變化程度表明移除部分的重要性程度,分析以下五個(gè)模型:HCN-TMP_1表示移除HGCN部分,即不考慮全局協(xié)同信息,連帶需要移除對比學(xué)習(xí)部分;HCN-TMP_2表示移除意圖解糾纏部分,即項(xiàng)目只用一個(gè)整體嵌入表示;HCN-TMP_3表示移除目標(biāo)感知部分,不考慮目標(biāo)項(xiàng)目;HCN-TMP_4表示移除對比學(xué)習(xí)損失部分,即參數(shù)δ=0;HCN-TMP_5表示移除距離相關(guān)損失部分,即參數(shù)λ=0。實(shí)驗(yàn)結(jié)果如圖2所示。
圖2實(shí)驗(yàn)結(jié)果表明,超圖能有效地挖掘項(xiàng)目高階信息;意圖解糾纏可以更好地探究用戶的多種意圖;目標(biāo)感知通過感知目標(biāo)項(xiàng)目與目標(biāo)會(huì)話的相關(guān)性改進(jìn)會(huì)話表示,提升了模型推薦性能,對于數(shù)據(jù)集Tmall有更明顯的提升效果;對比學(xué)習(xí)損失和距離相關(guān)損失對提高模型推薦性能都是有效的,前者作用更大。
c)對HCN-TMP算法進(jìn)行參數(shù)調(diào)整實(shí)驗(yàn),以獲取在最優(yōu)性能下的參數(shù)值。HCN-TMP堆疊多個(gè)HGCN層來建模超圖中的高階信息,將層數(shù)L范圍定為{1,2,3,4,5}來研究HGCN層數(shù)對推薦結(jié)果的影響,結(jié)果如圖3所示。
圖3實(shí)驗(yàn)結(jié)果表明,Tmall數(shù)據(jù)集在HGCN層數(shù)為1時(shí),P@20和MRR@20都能達(dá)到最高,之后隨著層數(shù)加深效果越來越差,所以層數(shù)最終設(shè)定為1;Nowplaying在層數(shù)為3時(shí)P@20達(dá)到最高、在層數(shù)為2時(shí)MRR@20達(dá)到最高,之后隨著層數(shù)加深效果越來越差,由于層數(shù)為3時(shí)綜合效果更好,所以層數(shù)最終設(shè)定為3。對于Tmall,僅一層就能達(dá)到最佳效果的主要原因可能是數(shù)據(jù)集中的會(huì)話較短,一層就可以完成圖信息的完全傳播,使用過多的層將為表示學(xué)習(xí)過程帶來噪聲。
為了研究項(xiàng)目的多因素對實(shí)驗(yàn)結(jié)果的影響,將項(xiàng)目嵌入塊T范圍定為{1,2,…,9,10},此處保持項(xiàng)目嵌入的維度不變,對于Tmall數(shù)據(jù)集,采用項(xiàng)目嵌入維度d=250;對于Nowplaying數(shù)據(jù)集,采用項(xiàng)目嵌入維度d=100,結(jié)果如圖4所示。
圖4實(shí)驗(yàn)結(jié)果表明,隨著因素?cái)?shù)的增加,性能通常會(huì)增加,直到達(dá)到峰值,然后開始下降。當(dāng)T=1時(shí),性能很差,表明項(xiàng)目耦合的嵌入表示不足以捕獲會(huì)話中用戶的多種意圖,證明了在細(xì)粒度級別上意圖解糾纏的合理性。Tmall數(shù)據(jù)集在因素?cái)?shù)為5時(shí),P@20和MRR@20都能達(dá)到最高,因素?cái)?shù)最終設(shè)定為5;Nowplaying因素?cái)?shù)為7時(shí)P@20達(dá)到最高、因素?cái)?shù)為6時(shí)MRR@20達(dá)到最高,由于因素?cái)?shù)7時(shí)綜合效果更好,所以因素?cái)?shù)最終設(shè)定為7。因素?cái)?shù)對兩個(gè)數(shù)據(jù)集影響是不同的,主要是因?yàn)檫@兩個(gè)數(shù)據(jù)集收集于不同的場景,用戶意圖是由不同場景的不同因素驅(qū)動(dòng)的。
為了使項(xiàng)目多個(gè)嵌入塊有更強(qiáng)的獨(dú)立性,HCN-TMP應(yīng)用了距離相關(guān)損失,超參數(shù)λ控制訓(xùn)練過程中的距離相關(guān)損失權(quán)重,大范圍內(nèi)調(diào)整λ以獲得最佳值權(quán)重。參考文獻(xiàn)[25],將超參數(shù)λ范圍定為{0,0.5,5,10,100},基于評價(jià)指標(biāo)P@20研究其對結(jié)果的影響,結(jié)果如圖5所示。圖5實(shí)驗(yàn)結(jié)果表明,設(shè)置適當(dāng)?shù)摩丝梢蕴岣咝阅?。?dāng)λ=0時(shí),即不考慮距離相關(guān)損失,兩個(gè)數(shù)據(jù)集的性能都相對較差;當(dāng)λ=5時(shí),在兩個(gè)數(shù)據(jù)集上都能達(dá)到最佳效果,這表明考慮項(xiàng)目因素獨(dú)立可以有效地促進(jìn)嵌入學(xué)習(xí),從而提高性能;當(dāng)λ過大時(shí),會(huì)削弱距離相關(guān)損失對學(xué)習(xí)過程的指導(dǎo)作用,導(dǎo)致性能下降。
為了最大化全局級和會(huì)話級項(xiàng)目表示的互信息,HCN-TMP應(yīng)用了對比學(xué)習(xí)的方法,提出了對比學(xué)習(xí)損失,超參數(shù)δ控制訓(xùn)練過程中的對比學(xué)習(xí)損失權(quán)重。參考文獻(xiàn)[21],將超參數(shù)δ范圍定為{0,0.001,0.01,0.02,0.03,0.05},基于評價(jià)指標(biāo)P@20研究其對結(jié)果的影響,結(jié)果如圖6所示。
圖6實(shí)驗(yàn)結(jié)果表明,當(dāng)Tmall和Nowplaying數(shù)據(jù)集的δ分別達(dá)到0.03和0.02時(shí)模型的性能最佳,表明全局級項(xiàng)目表示能夠作為自監(jiān)督信號,最大化與會(huì)話級項(xiàng)目表示的互信息。對于兩個(gè)數(shù)據(jù)集,隨著δ的增加,模型的性能有所下降,下降的原因可能是聯(lián)合損失函數(shù)之間的梯度沖突。
d)針對數(shù)據(jù)集中不同長度的會(huì)話,對HCN-TMP進(jìn)行實(shí)驗(yàn),以探究算法對長會(huì)話和短會(huì)話的影響。長度小于等于5的會(huì)話為短會(huì)話,剩余的會(huì)話是長會(huì)話。此處選擇TAGNN和GCE-GNN這兩個(gè)表現(xiàn)最佳的基線方法作為對比方法,結(jié)果如圖7所示。
圖7實(shí)驗(yàn)結(jié)果表明,在兩個(gè)數(shù)據(jù)集上,所有方法在長會(huì)話上的性能都高于短會(huì)話,主要原因可能是長會(huì)話所蘊(yùn)涵的信息更多,能更好地表達(dá)用戶的偏好。HCN-TMP在兩個(gè)數(shù)據(jù)集的長會(huì)話和短會(huì)話上都優(yōu)于對比方法TAGNN和GCE-GNN,說明HCN-TMP能同時(shí)處理長項(xiàng)目依賴和短項(xiàng)目依賴問題,主要原因可能是HCN-TMP能根據(jù)目標(biāo)項(xiàng)目自適應(yīng)地學(xué)習(xí)目標(biāo)會(huì)話中多意圖的用戶偏好,縮小用戶的意圖空間,無論會(huì)話長短都能很好地感知用戶意圖。
4 結(jié)束語
本文提出基于超圖卷積網(wǎng)絡(luò)和目標(biāo)多意圖感知的會(huì)話推薦算法HCN-TMP,既考慮到通過超圖神經(jīng)網(wǎng)絡(luò)去捕捉項(xiàng)目之間的高階轉(zhuǎn)換關(guān)系,又考慮到通過目標(biāo)多意圖感知自適應(yīng)地學(xué)習(xí)目標(biāo)會(huì)話中多意圖的用戶偏好,并通過距離相關(guān)損失和對比學(xué)習(xí)損失對SRS任務(wù)進(jìn)行優(yōu)化,使推薦更加精確。相比基線方法,HCN-TMP雖然有著最佳的效果,但模型的復(fù)雜度高、訓(xùn)練時(shí)間更久,難以應(yīng)用于實(shí)際應(yīng)用場景。因此,下一步研究通過簡化圖神經(jīng)網(wǎng)絡(luò),從而降低模型復(fù)雜度。
參考文獻(xiàn):
[1]Wang Xiang, He Xiangnan, Wang Meng, et al. Neural graph col-laborative filtering[C]//Proc of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2019:165-174.
[2]Zhu Ziwei, Wang Jianling, Caverlee J. Improving top-k recommendation via joint collaborative autoencoders[C]//Proc of World Wide Web Conference.New York:ACM Press,2019:3482-3483.
[3]Wang Jianling, Caverlee J. Recurrent recommendation with local coherence[C]//Proc of the 12th ACM International Conference on Web Search and Data Mining.New York:ACM Press,2019:564-572.
[4]Wang Jianling, Louca R, Hu D, et al. Time to shop for Valentines day: shopping occasions and sequential recommendation in e-commerce[C]//Proc of the 13th International Conference on Web Search and Data Mining.New York:ACM Press,2020:645-653.
[5]Wang Shoujing, Cao Longbing, Wang Yan, et al. A survey on session-based recommender systems[J].ACM Computing Surveys,2021,54(7):article No.154.
[6]Sarwar B, Karypis G, Konstan J, et al. Item-based collaborative filtering recommendation algorithms[C]//Proc of the 10th International Confe-rence on World Wide Web.New York:ACM Press,2001:285-295.
[7]Rendle S, Freudenthaler C, Schmidt-Thieme L. Factorizing perso-nalized Markov chains for next-basket recommendation[C]//Proc of the 19th International Conference on World Wide Web.New York:ACM Press,2010:811-820.
[8]Shani G, Heckerman D, Brafman R I, et al. An MDP-based recommender system[J].Journal of Machine Learning Research,2005,6(1):1265-1295.
[9]Hidasi B, Karatzoglou A, Baltrunas L, et al. Session-based recommendations with recurrent neural networks[C]//Proc of International Conference on Learning Representations.2016:1-10.
[10]Li Jing, Ren Pengjie, Chen Zhumin, et al. Neural attentive session-based recommendation[C]//Proc of ACM Conference on Information and Knowledge Management.New York:ACM Press,2017:1419-1428.
[11]Tan Y K, Xu Xinxing, Liu Yong. Improved recurrent neural networks for session-based recommendations[C]//Proc of the 1st Workshop on Deep Learning for Recommender Systems.New York:ACM Press,2016:17-22.
[12]Jannach D, Ludewig M. When recurrent neural networks meet the neighborhood for session-based recommendation[C]//Proc of the 11th ACM Conference on Recommender Systems.New York:ACM Press,2017:306-310.
[13]Wu Shu, Tang Yuyuan, Zhu Yanqiao, et al. Session-based recommendation with graph neural networks[C]//Proc of AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2019:346-353.
[14]Xu Chengfeng, Zhao Pengpeng, Liu Yanchi, et al. Graph contextua-lized self-attention network for session-based recommendation[C]//Proc of the 28th International Joint Conference on Artificial Intel-ligence.Palo Alto,CA:AAAI Press,2019:3940-3946.
[15]Yu Feng, Zhu Yanqiao, Liu Qiang, et al. TAGNN:target attentive graph neural networks for session-based recommendation[C]//Proc of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2020:1921-1924.
[16]Zheng Yujia, Liu Siyi, Li Zekun, et al. DGTN:dual-channel graph transition network for session-based recommendation[C]//Proc of International Conference on Data Mining.Piscataway,NJ:IEEE Press,2020:236-242.
[17]Wang Ziyang, Wei Wei, Cong Gao, et al. Global context enhanced graph neural networks for session-based recommendation[C]//Proc of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2020:169-178.
[18]Chu Fei, Jia Caiyan. Self-supervised global context graph neural network for session-based recommendation[J].PeerJ Computer Science,2022,8(2):e1055.
[19]Deng Zhihong, Wang Changdong, Huang Ling, et al. G3SR: global graph guided session-based recommendation[J].IEEE Trans on Neural Networks and Learning Systems,2022,34(12):9671-9684.
[20]劉高,黃沈權(quán),龍安,等.基于超圖網(wǎng)絡(luò)的產(chǎn)品設(shè)計(jì)知識智能推薦方法研究[J].計(jì)算機(jī)應(yīng)用研究,2022,39(10):2962-2967.(Liu Gao, Huang Shenquan, Long An, et al. Research on intelligent recommendation method of product design knowledge based on hypergraph network[J].Application Research of Computers,2022,39(10):2962-2967.)
[21]Xia Xin, Yin Hongzhi, Yu Junliang, et al. Self-supervised hyper-graph convolutional networks for session-based recommendation[C]//Proc of the 35th AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2021:4503-4511.
[22]Li Yinfeng, Gao Chen, Luo Hengliang, et al. Enhancing hypergraph neural networks with intent disentanglement for session-based recommendation[C]//Proc of the 45th International ACM SIGIR Confe-rence on Research and Development in Information Retrieval.New York:ACM Press,2022:1997-2002.
[23]Feng Yifan, You Haoxuan, Zhang Z, et al. Hypergraph neural networks[C]//Proc of the 33rd AAAI Conference on Artificial Intel-ligence.Palo Alto,CA:AAAI Press,2019:3558-3565.
[24]Ma Jianxin, Zhou Chang, Cui Peng, et al. Learning disentangled representations for recommendation[EB/OL].(2019-10-31).https://arxiv.org/pdf/1910.14238v1.pdf.
[25]Li Ansong, Cheng Zhiyong, Liu Fan, et al. Disentangled graph neural networks for session-based recommendation[J].IEEE Trans on Knowledge and Data Engineering,2023,35(8):7870-7882.
[26]洪明利,王靖,賈彩燕.多通道圖注意力解耦社交推薦方法[J].國防科技大學(xué)學(xué)報(bào),2022,44(3):1-9.(Hong Mingli, Wang Jing, Jia Caiyan. Multi-channel graph attention network with disentangling capability for social recommendation[J].Journal of National University of Defense Technology,2022,44(3):1-9.)
[27]Khosla P, Teterwak P, Wang Chen, et al. Supervised contrastive learning[C]//Proc of the 34th Conference on Neural Information Processing Systems.2020:18661-18673.
[28]Van Den Oord A, Li Yazhe, Vinyals O. Representation learning with contrastive predictive coding[EB/OL].(2019-01-22)[2023-04-01].https://arxiv.org/pdf/1807.03748.pdf.