• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多層次視圖對(duì)比學(xué)習(xí)的知識(shí)感知推薦算法

    2024-02-18 20:55:34王正東王靖楊曉君林浩申
    關(guān)鍵詞:推薦系統(tǒng)知識(shí)圖譜

    王正東 王靖 楊曉君 林浩申

    摘 要:現(xiàn)有基于圖神經(jīng)網(wǎng)絡(luò)(GNN)的推薦模型存在一個(gè)自然的缺陷,即稀疏監(jiān)督信號(hào)問題且在關(guān)系建模中是粗粒度的,模型不能在更細(xì)粒度層面識(shí)別用戶項(xiàng)目交互關(guān)系,這可能會(huì)使模型的實(shí)際性能在一定程度上下降。受對(duì)比學(xué)習(xí)在挖掘監(jiān)督信號(hào)方面的成功啟發(fā),提出了一個(gè)基于多層次視圖對(duì)比學(xué)習(xí)的知識(shí)感知推薦算法框架(knowledge-aware recommendation algorithm based on multi-level view contrastive learning,KRMVC)。該框架構(gòu)造了全局和局部共四個(gè)圖形視圖,即全局結(jié)構(gòu)視圖、局部的意圖視圖、協(xié)調(diào)視圖和協(xié)同視圖。同時(shí)在探索用戶項(xiàng)目交互背后的意圖中,設(shè)計(jì)了一種新的GNN信息聚合方案,用來提取關(guān)于用戶意圖的有用信息,并將其編碼到用戶和項(xiàng)目的表示中。KRMVC在全局和局部層次上跨四個(gè)視圖進(jìn)行對(duì)比學(xué)習(xí),利用多任務(wù)策略對(duì)推薦自監(jiān)督任務(wù)和對(duì)比學(xué)習(xí)任務(wù)進(jìn)行聯(lián)合優(yōu)化,以此提升性能。實(shí)驗(yàn)表明,該模型在MovieLens和Yelp2018兩個(gè)數(shù)據(jù)集上AUC值相較于最先進(jìn)的基線提升了1.1%與0.7%,F(xiàn)1指標(biāo)分別提升了1.4%和1.0%,recall@K指標(biāo)均優(yōu)于最先進(jìn)的基線。

    關(guān)鍵詞:推薦系統(tǒng); 知識(shí)圖譜; 對(duì)比學(xué)習(xí); 圖神經(jīng)網(wǎng)絡(luò)

    中圖分類號(hào):TP391?? 文獻(xiàn)標(biāo)志碼:A?? 文章編號(hào):1001-3695(2024)01-007-0045-06

    doi:10.19734/j.issn.1001-3695.2023.05.0283

    Knowledge-aware recommendation algorithm based on multi-level view contrastive learning

    Abstract:The existing graph neural network (GNN)-based recommendation models have a natural limitation, namely the sparse supervision signal problem and coarse-grained relation modeling. These models cant identify user-item interaction relationships at a finer granularity, potentially leading to a decrease in their actual performance. Inspired by the successful application of contrastive learning in mining supervision signals, this paper proposed a KRMVC algorithm. The KRMVC framework constructed four graph views, including a global structural view, a local intention view, a coordination view, and a collaboration view. Additionally, the algorithm designed a new GNN information aggregation scheme to extract useful information about user intents and encoded it into the representations of users and items. KRMVC performed contrastive learning across the four views at both global and local levels, used a multi-task strategy to jointly optimize the recommendation supervision task and contrastive learning task for performance improvement. Experimental results demonstrate that the model achieves improvements in AUC values by 1.1% and 0.7%, F1 scores by 1.4% and 1.0%, and recall@K scores surpass state-of-the-art baselines on the MovieLens and Yelp2018 datasets.

    Key words:recommender system; knowledge graph; contrastive learning ; graph neural network

    0 引言

    在當(dāng)今信息爆炸的時(shí)代,用戶很難快速準(zhǔn)確地找到感興趣的內(nèi)容,因?yàn)榇嬖诖罅咳哂嗪蜔o效的信息。推薦系統(tǒng)是解決信息過載問題的有效方法之一,它根據(jù)用戶的興趣和歷史行為推薦相關(guān)內(nèi)容[1]。傳統(tǒng)的協(xié)同過濾推薦方法(collaborative filtering,CF)[2~4]依賴于歷史用戶行為數(shù)據(jù)來捕捉協(xié)作信號(hào)進(jìn)行推薦。然而,它們面臨著冷啟動(dòng)問題,因?yàn)樗鼈儗⒚總€(gè)交互視為獨(dú)立的實(shí)例,忽略了它們之間的關(guān)系,如NFM[2]和xDeepFM[3]。一種廣泛采用的解決方案是將各種類型的輔助信息,如知識(shí)圖(knowledge graph,KG)[5]中包含的豐富實(shí)體和關(guān)系,納入推薦系統(tǒng),以學(xué)習(xí)高質(zhì)量的用戶和項(xiàng)目表示,即知識(shí)感知推薦(knowledge-aware recommendation,KGR)。已有許多研究工作[6,7]致力于知識(shí)圖譜推薦,重點(diǎn)是如何有效利用項(xiàng)目方面的圖形信息進(jìn)行用戶和項(xiàng)目表示學(xué)習(xí)。早期的KGR研究[8,9]主要采用不同的知識(shí)圖嵌入(knowledge graph embedding,KGE)模型,如TransE [10]和TransH [11],對(duì)實(shí)體嵌入進(jìn)行預(yù)訓(xùn)練來學(xué)習(xí)項(xiàng)目表示。然而,這些方法效果不佳,因?yàn)樗鼈儶?dú)立處理每個(gè)項(xiàng)目實(shí)體關(guān)系,無法提取足夠的協(xié)作信號(hào)來進(jìn)行表示學(xué)習(xí)。

    隨后,出現(xiàn)了基于連接的方法,用于模擬用戶、物品和實(shí)體之間的多種連接模式。這些方法可以分為基于路徑[12]和基于圖神經(jīng)網(wǎng)絡(luò)(GNN)[13]的兩類。基于路徑的方法側(cè)重于通過捕獲知識(shí)圖譜中的遠(yuǎn)程結(jié)構(gòu)來豐富用戶物品交互。然而,這些方法依賴于手動(dòng)設(shè)計(jì)的元路徑,難以優(yōu)化?;贕NN的方法則通過信息聚合將多跳鄰居融入節(jié)點(diǎn)表示中,而當(dāng)前基于GNN的模型受到稀疏監(jiān)督信號(hào)問題的困擾,導(dǎo)致節(jié)點(diǎn)表示的退化和不可區(qū)分性。

    近年來,在推薦系統(tǒng)領(lǐng)域中,基于圖卷積網(wǎng)絡(luò)(graph con-volutional network,GCN)的模型取得了顯著應(yīng)用。通過結(jié)合協(xié)同過濾信息和GCN,推薦系統(tǒng)取得了優(yōu)秀的效果。GCN的設(shè)計(jì)利用了圖的連通性,能夠有效地聚合用戶鄰居節(jié)點(diǎn)信息,提高用戶和項(xiàng)目的表示學(xué)習(xí)效果。基于這些特性,許多研究人員將GCN應(yīng)用于推薦系統(tǒng)中。例如,PinSage[14]將隨機(jī)游走算法和GCN結(jié)合,建立了節(jié)點(diǎn)表示;NGCF[15]利用GCN的信息傳播特性,顯式建模了用戶項(xiàng)目之間的高階連接性。盡管這些模型在推薦效果上取得了良好成果,但由于數(shù)據(jù)稀疏問題,仍存在過度平滑和效率低的挑戰(zhàn)。為了應(yīng)對(duì)這些問題,LR-GCCF[16]利用殘差網(wǎng)絡(luò)結(jié)構(gòu)緩解了過度平滑,并去除了GCN的非線性激活規(guī)則;LightGCN[17]則進(jìn)一步簡化了圖卷積操作,保留了鄰域聚合組件,實(shí)現(xiàn)了輕量高效的效果。

    基于圖卷積網(wǎng)絡(luò)(GCN)的推薦模型在推薦領(lǐng)域取得了顯著的效果,然而這種方法仍然面臨著許多待攻破的難題。本文強(qiáng)調(diào)設(shè)計(jì)的模型應(yīng)以更細(xì)粒度的方式探索更多的圖視圖進(jìn)行學(xué)習(xí),并且多級(jí)跨視圖對(duì)比機(jī)制對(duì)于模型設(shè)計(jì)至關(guān)重要。因此,提出了一種基于自監(jiān)督學(xué)習(xí)范式的新模型KRMVC,旨在充分利用知識(shí)圖譜和用戶物品交互中的協(xié)同和交互背后的意圖信息來進(jìn)行知識(shí)感知推薦(KGR)。該模型引入了一種新穎的多級(jí)跨視圖對(duì)比學(xué)習(xí)機(jī)制,以協(xié)同監(jiān)督四個(gè)圖視圖之間的學(xué)習(xí)。特別是在意圖和協(xié)調(diào)視圖方面,設(shè)計(jì)了一種新的GNN信息聚合方案,用來提取用戶意圖的有用信息,并將其編碼到用戶和項(xiàng)目表示中。此外為了結(jié)合推薦任務(wù)和對(duì)比學(xué)習(xí)任務(wù),采用了多任務(wù)訓(xùn)練策略來優(yōu)化整個(gè)模型。在訓(xùn)練過程中,綜合考慮推薦自監(jiān)督任務(wù)和對(duì)比學(xué)習(xí)任務(wù)的損失函數(shù),通過最小化整體的損失函數(shù)來學(xué)習(xí)模型參數(shù)。這樣的聯(lián)合優(yōu)化過程充分利用了自監(jiān)督信號(hào)和對(duì)比信號(hào),以提高推薦模型的性能。通過廣泛的實(shí)證研究,KRMVC在兩個(gè)基準(zhǔn)數(shù)據(jù)集上展現(xiàn)出優(yōu)于現(xiàn)有模型的性能。

    1 相關(guān)工作

    1.1 知識(shí)感知推薦

    與傳統(tǒng)的基于矩陣分解和自編碼器的協(xié)同過濾方法[18]相比,基于圖的協(xié)同過濾將交互數(shù)據(jù)組織成交互圖,并從結(jié)構(gòu)圖信息中學(xué)習(xí)有意義的節(jié)點(diǎn)表示。由于以下三個(gè)原因,GNN技術(shù)在推薦系統(tǒng)中變得非常流行:a)大多數(shù)推薦系統(tǒng)中的信息具有圖結(jié)構(gòu),而GNN在學(xué)習(xí)圖表示方面具有優(yōu)勢;b)從圖結(jié)構(gòu)的角度看,可以使用統(tǒng)一的框架對(duì)不同類型的數(shù)據(jù)進(jìn)行建模;c)GNN通過多層網(wǎng)絡(luò)傳遞信息,可以明確編碼用戶交互行為中的高階信號(hào)。GNN包括圖構(gòu)建、鄰居聚合、信息更新和最終節(jié)點(diǎn)表示。為了鞏固和保留來自所有層的表示,直接使用來自所有層的表示,而不僅僅是最后一層。

    1.2 對(duì)比學(xué)習(xí)

    最初的主流對(duì)比學(xué)習(xí)方法Inst Disc[19]提出后,隨之而來的是一系列對(duì)比學(xué)習(xí)模型[20,21],引發(fā)了大規(guī)模的研究浪潮。隨著對(duì)比學(xué)習(xí)的廣泛應(yīng)用,自監(jiān)督學(xué)習(xí)(self-supervised lear-ning,SSL)得到了推薦系統(tǒng)的重點(diǎn)關(guān)注,因?yàn)樗梢怨?jié)省人力和物力資源。許多推薦系統(tǒng)在對(duì)比學(xué)習(xí)下取得了顯著的改進(jìn)[21,22],并且每個(gè)系統(tǒng)都取得了可觀的進(jìn)展。對(duì)比學(xué)習(xí)最初被提出是為了解決少量或無注釋問題。然而,通過找到合適的正負(fù)樣本對(duì),已經(jīng)證明對(duì)比學(xué)習(xí)在推薦系統(tǒng)中可以發(fā)揮重要作用。因此,識(shí)別正確的正負(fù)樣本對(duì)對(duì)于該方法的成功至關(guān)重要。與計(jì)算機(jī)視覺中常用的對(duì)比學(xué)習(xí)[23]不同,不使用純粹的丟棄增強(qiáng)和旋轉(zhuǎn)增強(qiáng)。這是因?yàn)樵趫D網(wǎng)絡(luò)中,用戶和項(xiàng)目可能存在密切關(guān)聯(lián),不應(yīng)隨意分開。簡單的隨機(jī)丟棄可能導(dǎo)致模型忽視重要的節(jié)點(diǎn)和關(guān)系。為解決這個(gè)問題,本文模型采用了一種多視圖對(duì)比方法,有助于識(shí)別有價(jià)值的用戶項(xiàng)目關(guān)系。

    2 推薦算法框架

    本章將詳細(xì)描述提出的推薦框架KRMVC。KRMVC的目標(biāo)是將自監(jiān)督學(xué)習(xí)(SSL)和知識(shí)感知推薦(KGR)結(jié)合,以此來改進(jìn)用戶和項(xiàng)目的表示學(xué)習(xí)??蚣芙Y(jié)構(gòu)如圖1所示,本文框架生成了四種不同的圖形視圖,包括全局層次的結(jié)構(gòu)視圖和局部層次的意圖、協(xié)調(diào)及協(xié)同視圖,將局部視圖交叉對(duì)比學(xué)習(xí)和全局視圖橫向?qū)Ρ葘W(xué)習(xí)相結(jié)合,以提升推薦性能。

    2.1 用戶意圖建模

    先前基于圖神經(jīng)網(wǎng)絡(luò)的研究,它們假設(shè)用戶和項(xiàng)目之間沒有或只有一種交互關(guān)系。然而,本文目標(biāo)是捕捉影響用戶行為的多個(gè)意圖。將意圖定義為用戶選擇項(xiàng)目的原因,它反映了所有用戶行為的共性。以音樂推薦為例,可能的意圖包括對(duì)音樂屬性的不同考慮,如藝術(shù)家與合作伙伴的組合,或音樂風(fēng)格和情感的選擇。通過將用戶驅(qū)動(dòng)的類似意圖與項(xiàng)目上的偏好相匹配,可以提升廣泛使用的協(xié)同過濾效果。受該觀點(diǎn)的啟發(fā),本文以意圖為粒度來建模用戶項(xiàng)目關(guān)系[24]。假設(shè)IS是所有用戶共享集合,將用戶項(xiàng)目關(guān)系劃分為|IS|個(gè)意圖,并將每個(gè)(u,i)分解為{(u,s,i),s∈IS}。因此,用戶項(xiàng)目交互圖重新組織為一個(gè)異構(gòu)圖,稱為意圖圖譜(intent graph,IG)。

    2.1.1 意圖的表示學(xué)習(xí)

    為了明確識(shí)別每個(gè)意圖的語義,KTUP[25]提出了一個(gè)簡單的解決方案,但這個(gè)方案僅考慮了單個(gè)關(guān)系,沒有考慮關(guān)系的交互和組合,因此為每個(gè)意圖s∈IS分配一個(gè)關(guān)于知識(shí)圖(KG)關(guān)系的分布,采用注意策略來創(chuàng)建意圖嵌入:

    其中:er為關(guān)系r的嵌入,將關(guān)系r賦予注意分?jǐn)?shù)α(r,s)以量化其重要性,形式如式(2)所示。

    其中:wrs是特定關(guān)系r和特定意圖s的可訓(xùn)練權(quán)重。

    2.1.2 意圖的獨(dú)立建模

    一個(gè)具有獨(dú)立信息的意圖能提供一種有價(jià)值的角度來描述用戶的行為模式,相反如果一個(gè)意圖可以通過其他意圖推斷得出,那么它可能是冗余的。因此,為了提高模型的性能和可解釋性,鼓勵(lì)意圖的表示彼此之間有所區(qū)別。這里引入一個(gè)獨(dú)立意圖表示學(xué)習(xí)的建模模塊,通過應(yīng)用統(tǒng)計(jì)量互信息作為正則化器來實(shí)現(xiàn)[26]:

    其中:m(·)是衡量任意兩個(gè)意圖表示之間關(guān)聯(lián)性的函數(shù),本文設(shè)置為余弦相似度函數(shù);τ是softmax函數(shù)中的溫度超參數(shù)。

    2.2 多視圖生成

    與以往方法不同,本文在用戶項(xiàng)目交互圖中引入了交互意圖,形成用戶-意圖-項(xiàng)目-實(shí)體圖,以實(shí)現(xiàn)更精細(xì)的學(xué)習(xí)。這包括用戶-項(xiàng)目-實(shí)體圖,并同時(shí)考慮局部和全局視圖。首先根據(jù)項(xiàng)目-項(xiàng)目關(guān)系將圖分成用戶-意圖-項(xiàng)目圖和項(xiàng)目-實(shí)體圖。用戶-意圖-項(xiàng)目圖包含用戶-項(xiàng)目圖,被視為局部協(xié)同視圖,用于挖掘項(xiàng)目之間的協(xié)同關(guān)系。用戶-意圖-項(xiàng)目圖被視為局部意圖視圖,用于探索用戶項(xiàng)目交互背后的意圖。項(xiàng)目-實(shí)體圖被視為局部協(xié)調(diào)視圖,協(xié)調(diào)不同意圖路徑對(duì)用戶項(xiàng)目交互的影響。原始的用戶-項(xiàng)目-實(shí)體圖被視為全局結(jié)構(gòu)視圖,保存完整的路徑結(jié)構(gòu)信息,即用戶-項(xiàng)目-實(shí)體的遠(yuǎn)程聯(lián)通性,結(jié)合這四個(gè)視圖,推薦模型能夠在多個(gè)層次上全面理解用戶和項(xiàng)目之間的關(guān)系。每個(gè)視圖提供了不同的信息和角度,相互之間互補(bǔ),從而增強(qiáng)了模型的能力,更細(xì)粒度地識(shí)別用戶和項(xiàng)目之間的交互關(guān)系。通過這樣的視圖劃分,可以綜合考慮用戶、項(xiàng)目、意圖和實(shí)體之間的關(guān)系,并在不同的視圖上進(jìn)行對(duì)比學(xué)習(xí),從而實(shí)現(xiàn)更精細(xì)的推薦學(xué)習(xí)。

    2.3 局部對(duì)比學(xué)習(xí)

    基于在局部層面獲取的意圖、協(xié)調(diào)和協(xié)同視圖,繼而探索了三種具有合適圖編碼器的圖形視圖,并對(duì)它們進(jìn)行了對(duì)比學(xué)習(xí)以實(shí)現(xiàn)相互監(jiān)督。具體而言,在意圖、協(xié)調(diào)視圖中,本文提出了一種新的GNN信息聚合方案,該方案允許提取關(guān)于用戶意圖的有用信息,并將它們編碼到用戶和項(xiàng)目的表示中;在協(xié)同視圖中,本文使用了經(jīng)過改進(jìn)的Light-GCN[17]在兩個(gè)視圖中學(xué)習(xí)全面的項(xiàng)目表示。隨后,通過對(duì)三個(gè)視圖特定的嵌入進(jìn)行編碼,本文提出了一種局部對(duì)比學(xué)習(xí)方法,鼓勵(lì)這三個(gè)視圖共同改善表示效果。

    2.3.1 意圖視圖編碼

    意圖視圖注重用戶交互背后的意圖識(shí)別,考慮在用戶意圖的細(xì)粒度級(jí)別上捕捉更細(xì)粒度的模式,假設(shè)具有相似意圖的用戶會(huì)有相似的物品偏好。如前所述,協(xié)同過濾效應(yīng)[2~4]通過假設(shè)具有相似行為的用戶具有相似的物品偏好,這啟發(fā)本文將用戶的歷史交互數(shù)據(jù)視為用戶預(yù)先存在的特征。首先從意圖圖譜(IG)中提取用戶意圖信息,考慮IG中的用戶u,本文使用Nu={(s,i)|(u,s,i)∈D}來表示意圖感知?dú)v史和用戶u的一階連接。因此可以將歷史物品的意圖感知信息整合起來,創(chuàng)建用戶u的表示形式:

    X(k+1)u=fIG({(Xku,es,Xki)|(s,i)∈Nu})(4)

    其中:X(k)u表示用戶u的k階表示;fIG(·)表示每個(gè)一階(u,s,i)的聚合函數(shù)。這里將fIG(·)實(shí)現(xiàn)為

    其中:e(k)i是項(xiàng)目i的嵌入;⊙是元素積。對(duì)于特定的某一個(gè)用戶,不同的意圖會(huì)對(duì)其行為產(chǎn)生不同的激勵(lì)作用,因此本文引入一個(gè)注意力得分χ(u,s)來區(qū)分意圖s的重要性。

    其中:X(k)u是用戶u的嵌入。通過元素積χ(u,s)es⊙e(k)i來構(gòu)建項(xiàng)目i的信息,能夠明確地表達(dá)用戶k階意圖感知信息。在k層之后,可以得到用戶u在不同層的表示,將它們求和即為用戶u的最終表示。

    Ziu=X(0)u+…+X(k)u(7)

    2.3.2 協(xié)調(diào)視圖編碼

    協(xié)調(diào)視圖注重于協(xié)調(diào)不同意圖路徑對(duì)用戶偏好的不同影響。由于一個(gè)實(shí)體可以出現(xiàn)在多個(gè)知識(shí)圖(KG)三元組中,它可以將其連接的實(shí)體視為其屬性,這些屬性反映了項(xiàng)目之間的內(nèi)容相似性。具體來說,使用Ni={(r,v)|(i,r,v)∈G}來表示項(xiàng)目i的屬性和一階連通性,然后將關(guān)聯(lián)實(shí)體的關(guān)系感知信息進(jìn)行聚合,得到項(xiàng)目i的表示為

    X(k+1)i=fKG({(X(k)i,er,X(k)v)|(r,v)∈Ni})(8)

    其中:X(k)i是k階連接中收集信息的表示;fKG(·)是用于提取和整合每個(gè)連接(i,r,v)信息的聚合函數(shù)。先前的研究僅通過注意機(jī)制模擬知識(shí)圖關(guān)系在衰減因子中的作用[26],本文考慮了聚合器的關(guān)系上下文,將聚合器的關(guān)系上下文建模為

    其中:Nli是所有以i為起點(diǎn)的l跳路徑集合,在k層之后,可以得到項(xiàng)目i在不同層的表示,將它們求和即為項(xiàng)目i的最終表示。

    Zci=X(0)i+…+X(k)i(11)

    2.3.3 協(xié)同視圖編碼

    協(xié)同視圖側(cè)重于項(xiàng)目之間的協(xié)同信息,即項(xiàng)目-用戶-項(xiàng)目的共現(xiàn)情況。通過對(duì)用戶-項(xiàng)目交互的遠(yuǎn)程連接進(jìn)行建模,可以在協(xié)同視圖中捕獲協(xié)同信息。在這里,借鑒了之前基于協(xié)同過濾(CF)的工作[2~4],采用了Light-GCN進(jìn)行處理。Light-GCN以遞歸方式進(jìn)行k次聚合,其中包含簡單的消息傳遞和聚合機(jī)制,無須進(jìn)行特征轉(zhuǎn)換和非線性激活,從而實(shí)現(xiàn)了高效的計(jì)算。在第k層中,聚合過程可以被表述為

    其中:X(k)u和X(k)i表示用戶u和項(xiàng)目i在第k層的嵌入;Nu和Ni分別表示用戶u和項(xiàng)目i的鄰居節(jié)點(diǎn)。將不同層上的表示相加為局部協(xié)同表示,如式(13)所示。

    Zsu=X(0)u+…+X(k)u,Zsi=X(0)i+…+X(k)i(13)

    對(duì)于相同實(shí)體的協(xié)同視圖,通過使用加權(quán)求和的方法,為每個(gè)協(xié)同視圖分配一個(gè)權(quán)重,然后將不同協(xié)同視圖的表示按照權(quán)重進(jìn)行線性組合。這樣可以綜合考慮相同實(shí)體的協(xié)同視圖的貢獻(xiàn),并生成最終的綜合表示。

    2.3.4 局部跨視圖對(duì)比優(yōu)化

    利用協(xié)同和協(xié)調(diào)視圖,針對(duì)項(xiàng)目i的視圖特定嵌入Zsi和Zci,進(jìn)行局部跨視圖對(duì)比學(xué)習(xí),以監(jiān)督兩個(gè)視圖學(xué)習(xí)具有區(qū)分性的表示。受文獻(xiàn)[28]的啟發(fā),本文定義正樣本和負(fù)樣本如下:在一個(gè)視圖中,隨機(jī)節(jié)點(diǎn)與另一個(gè)視圖學(xué)習(xí)到的相應(yīng)節(jié)點(diǎn)形成正對(duì),而所有其他節(jié)點(diǎn)被視為負(fù)樣本。局部對(duì)比損失函數(shù)為

    其中:s(·)表示余弦相似度計(jì)算;τ表示溫度參數(shù)。負(fù)樣本來自兩個(gè)來源,即視圖內(nèi)和視圖間的節(jié)點(diǎn),對(duì)應(yīng)于式(14)分母中的第二、三項(xiàng)。同理可得,協(xié)同和意圖視圖的針對(duì)用戶u的視圖特定嵌入Zsu和Ziu,局部對(duì)比損失函數(shù)如式(15)所示。

    將對(duì)比學(xué)習(xí)后的嵌入和損失相加,得到局部層次的用戶表示Zlocalu、項(xiàng)目表示Zlocali及局部對(duì)比總損失Llocal:

    Zlu=Zsu+Ziu,Zli=Zsi+Zci,Llocal=Llocal_u+Llocal_i(16)

    2.4 全局對(duì)比學(xué)習(xí)

    在上述操作中,已經(jīng)獲得了用戶和物品的部分信息特征,但是還沒有探索用戶-物品-實(shí)體之間的擴(kuò)展鏈接信息,即整體圖結(jié)構(gòu)。因此,采用了以下全局對(duì)比學(xué)習(xí)方法,其中使用了路徑感知編碼器來探索結(jié)構(gòu)視圖。

    2.4.1 結(jié)構(gòu)視圖編碼

    為了獲得全局視圖的編碼信息,本文采用了圖神經(jīng)網(wǎng)絡(luò),它可以在l層中聚合鄰居信息,并同時(shí)保留路徑信息。聚合公式的處理過程如式(17)所示。

    其中:β(i,r,e)可表示為

    β(i,r,e)=softmax((Xi‖Xr)T·(Xe‖Xr))(18)

    然后將所有層的表示相加得到全局用戶表示Zgu和項(xiàng)目表示Zgi:

    Zgu=X(0)u+…+X(L)u,Zgi=X(0)i+…+X(L)i(19)

    2.4.2 全局跨視圖對(duì)比優(yōu)化

    采用與局部層面對(duì)比學(xué)習(xí)相同的正負(fù)采樣策略,全局視圖和局部視圖對(duì)比損失函數(shù)可表示為

    用戶嵌入計(jì)算的對(duì)比損失Lglobalu/Llocalu與Lglobali/Llocali類似,只需在式(20)中將物品嵌入替換為用戶嵌入。因此,全局對(duì)比總損失如式(21)所示。

    其中:N為項(xiàng)目數(shù);M為用戶數(shù)。

    2.5 模型預(yù)測

    在四個(gè)視圖進(jìn)行了多層聚合和多層跨視圖對(duì)比學(xué)習(xí)優(yōu)化后,本文獲得了用戶u的多個(gè)表示(Zsu,Ziu,Zgu)和項(xiàng)目i的多個(gè)表示(Zsi,Zci,Zgi)。將這些表示進(jìn)行求和及連接,得到最終用戶和物品表示,并通過內(nèi)積預(yù)測它們的匹配分?jǐn)?shù),具體為

    z*u=(zsu+ziu)‖zgu,

    z*i=(zsi+zci)‖zgi,

    (u,i)=z*uTz*i(22)

    2.6 多任務(wù)訓(xùn)練

    為了結(jié)合推薦任務(wù)和自監(jiān)督任務(wù),采用多任務(wù)訓(xùn)練策略來優(yōu)化整個(gè)模型。本文使用成對(duì)的BPR損失函數(shù)[29]來重構(gòu)歷史數(shù)據(jù),該損失函數(shù)使得歷史交互物品的預(yù)測得分高于沒有交互的物品。BPR損失函數(shù)定義如式(23)所示。

    其中:O={(u,i,j)|(u,i)∈O+,(u,j)∈O-}是由觀測到的交互O+和未觀測到的交互O-組成的訓(xùn)練數(shù)據(jù)集;σ是sigmoid函數(shù)。將全局和局部對(duì)比損失與BPR損失相結(jié)合,最小化損失函數(shù)來學(xué)習(xí)模型參數(shù):

    LMCKL=LBPR+α(μLlocal+(1-μ)Lglobal)+βLINT+λ‖Θ‖22(24)

    其中:Θ是模型參數(shù)集合;μ是確定局部和全局對(duì)比損失率的超參數(shù);α、β和λ是控制對(duì)比損失率、獨(dú)立損失率和L2正則項(xiàng)的超參數(shù)。

    3 實(shí)驗(yàn)結(jié)果與分析

    3.1 數(shù)據(jù)集和評(píng)價(jià)指標(biāo)

    在兩個(gè)公開的數(shù)據(jù)集上評(píng)估KRMVC和基線模型的性能。MovieLens-1M是一個(gè)電影推薦的基準(zhǔn)數(shù)據(jù)集,包含約1百萬條明確評(píng)分,涵蓋了來自6 036名用戶對(duì)2 445個(gè)項(xiàng)目的評(píng)分。Yelp2018是Yelp網(wǎng)站2018年挑戰(zhàn)賽所采用的公開數(shù)據(jù)集,包含用戶查看過的餐廳、酒吧等商家記錄。表1顯示了這兩個(gè)數(shù)據(jù)集的統(tǒng)計(jì)信息。

    將數(shù)據(jù)集以6∶2∶2的比率劃分成訓(xùn)練集、驗(yàn)證集和測試集。在兩個(gè)實(shí)驗(yàn)場景中評(píng)估了本文的模型:a)在點(diǎn)擊率(CTR)預(yù)測方面,將訓(xùn)練好的模型應(yīng)用于預(yù)測測試集中的每個(gè)交互,采用了兩個(gè)廣泛使用的指標(biāo)AUC和F1來評(píng)估CTR預(yù)測效果;b)在top-K推薦方面,使用訓(xùn)練好的模型在測試集中為每個(gè)用戶選擇預(yù)測點(diǎn)擊概率最高的K個(gè)項(xiàng)目,選擇recall@K來評(píng)估推薦模型的效果。

    3.2 對(duì)比方法和參數(shù)設(shè)置

    本文選用了7個(gè)不同研究方法的基線與KRMVC進(jìn)行比較。

    a)BPRMF[29]:通過最大化后驗(yàn)概率來學(xué)習(xí),使得觀察到的物品得分高于未觀察到的物品。

    b)CKE[30]:設(shè)計(jì)了三個(gè)組件,分別從結(jié)構(gòu)、文本和視覺內(nèi)容中提取物品的語義表示。

    c)RippleNet[31]:通過自動(dòng)且迭代地沿著知識(shí)圖中的鏈接擴(kuò)展用戶潛在興趣,模擬用戶偏好在一組知識(shí)實(shí)體上的傳播。

    d)KGAT[32]:通過遞歸地從節(jié)點(diǎn)的鄰居和高階連接中傳播嵌入,以端到端的方式明確模擬知識(shí)圖中的高階關(guān)系。

    e)KGIN[24]:在GNN范式中考慮了用戶-物品關(guān)系,具有更細(xì)粒度的長期意圖和關(guān)系路徑語義。

    f)MCCLK[33]:通過本地和全局層面上跨三個(gè)視圖進(jìn)行對(duì)比學(xué)習(xí),在自監(jiān)督的方式下挖掘全面的圖形特征和結(jié)構(gòu)信息。

    g)MFCCL[34]:在全局和局部視圖采用了多種視圖增強(qiáng)方法,用多視圖融合跨層對(duì)比學(xué)習(xí)獲取更多的特征信息。

    為了公平比較,將所有的基線方法參數(shù)設(shè)置為原始文獻(xiàn)最佳值。其中,用戶和項(xiàng)目的嵌入維度設(shè)為64,batchsize為2 048,模型優(yōu)化器為Adam,使用Xavier初始化器初始化參數(shù),學(xué)習(xí)率為10-3,溫度超參數(shù)τ為0.5,超參數(shù)λ為10-5。表2提供了其他超參數(shù)的最優(yōu)設(shè)置。

    3.3 實(shí)驗(yàn)結(jié)果分析

    多次實(shí)驗(yàn)得到的CTR預(yù)測結(jié)果如表3所示,top-K推薦結(jié)果如圖2和3所示。對(duì)實(shí)驗(yàn)數(shù)據(jù)進(jìn)行分析得到以下結(jié)論:

    a)本文模型在兩個(gè)數(shù)據(jù)集上表現(xiàn)都較好。具體而言,KRMVC模型在MovieLens和Yelp2018數(shù)據(jù)集上進(jìn)行CTR預(yù)測任務(wù),其中AUC評(píng)價(jià)指標(biāo)相較于最先進(jìn)的基線提升了1.1%與0.7%,F(xiàn)1指標(biāo)分別提升了1.4%和1.0%。在top-K推薦任務(wù)中,recall@K指標(biāo)在任何K值下都優(yōu)于最先進(jìn)的基線。以上的實(shí)驗(yàn)數(shù)據(jù)充分驗(yàn)證了本文模型的有效性。

    b)與BPRMF、CKE和RippleNet相比,KRMVC在其架構(gòu)中結(jié)合了Light-GCN和知識(shí)感知圖神經(jīng)網(wǎng)絡(luò)。這種設(shè)計(jì)使本文模型能夠充分利用評(píng)分和評(píng)論文本中難以察覺的信息,使模型能夠理解用戶和物品之間的關(guān)系。通過這種方式,本文模型通常會(huì)產(chǎn)生優(yōu)秀的用戶和物品表示,從而提高評(píng)分預(yù)測性能。

    c)本文采用了對(duì)比學(xué)習(xí)方法來自監(jiān)督KRMVC模型,它在性能上始終優(yōu)于KGAT和KGIN。盡管GNN已經(jīng)被集成到KGAT和KGIN中,并且已經(jīng)取得了一定的進(jìn)展,但它們?nèi)匀恍枰O(jiān)督信號(hào)來增強(qiáng)自身的學(xué)習(xí)能力,并跟上基于對(duì)比學(xué)習(xí)模型的性能。

    d)KRMVC模型引入了用戶意圖概念,并通過多層次視圖對(duì)比學(xué)習(xí)方法進(jìn)行深入挖掘。它更準(zhǔn)確地捕捉用戶的偏好和興趣,提供強(qiáng)大的用戶和物品表示。與MCCLK模型相比,KRMVC利用全局和局部視圖進(jìn)行跨視圖對(duì)比學(xué)習(xí),綜合考慮全局結(jié)構(gòu)、局部協(xié)同關(guān)系和意圖探索。這使得KRMVC模型更全面地理解用戶與物品之間的關(guān)系,提供準(zhǔn)確和有用的推薦結(jié)果。

    e)MFCCL模型采用的增強(qiáng)方法可能會(huì)導(dǎo)致圖結(jié)構(gòu)的改變或噪聲的引入,從而可能影響模型對(duì)用戶項(xiàng)目交互關(guān)系的準(zhǔn)確建模。KRMVC模型在設(shè)計(jì)GNN信息聚合方案時(shí)專注于提取有用的用戶意圖信息,通過在全局和局部層次上跨四個(gè)視圖進(jìn)行對(duì)比學(xué)習(xí),KRMVC模型能夠更全面地理解用戶與物品之間的關(guān)系,提供更準(zhǔn)確和有用的推薦結(jié)果。

    3.3.1 消融實(shí)驗(yàn)

    為了驗(yàn)證KRMVC各組件的性能和有效性,通過以下實(shí)驗(yàn)進(jìn)行對(duì)比。

    a)V1:移除全局對(duì)比模塊,保留局部意圖、協(xié)調(diào)、協(xié)同視圖學(xué)習(xí)。

    b)V2:移除局部對(duì)比模塊,保留全局結(jié)構(gòu)視圖學(xué)習(xí)。

    c)V3:在V2基礎(chǔ)上,加入意圖、協(xié)調(diào)視圖學(xué)習(xí)。

    在兩個(gè)數(shù)據(jù)集上的消融實(shí)驗(yàn)結(jié)果如表4所示。觀察表4數(shù)據(jù)可得,KRMVC性能優(yōu)于V1與V2,驗(yàn)證了局部和全局多視圖跨層對(duì)比學(xué)習(xí)對(duì)模型優(yōu)化的積極作用。在數(shù)據(jù)集MovieLens中,V1性能優(yōu)于V2,但在Yelp2018數(shù)據(jù)集中相反,這表明在大規(guī)模數(shù)據(jù)集中,學(xué)習(xí)局部各視圖之間的區(qū)分性信息更具優(yōu)勢。此外,V3性能始終優(yōu)于V2,而KRMVC性能始終優(yōu)于V3,這證明了意圖、協(xié)調(diào)視圖的加入和協(xié)同視圖并不沖突,新的GNN信息聚合方案通過更精細(xì)地建模和關(guān)系路徑的利用,能夠捕捉用戶意圖的有用信息,并在實(shí)驗(yàn)性能對(duì)比中展現(xiàn)出較高的性能和解釋性,這三個(gè)視圖的局部對(duì)比學(xué)習(xí)對(duì)算法起到了優(yōu)化作用。

    3.3.2 超參數(shù)敏感性分析

    為了觀察模型在不同設(shè)置下的性能變化,本文通過系統(tǒng)地調(diào)整模型的超參數(shù),以揭示超參數(shù)對(duì)于模型表現(xiàn)的影響,分析不同超參數(shù)對(duì)CTR預(yù)測任務(wù)中AUC指標(biāo)的影響。

    a)局部對(duì)比損失權(quán)重μ控制了局部對(duì)比損失在最終對(duì)比損失中的影響,本文在{0,0.2,0.4,0.6,0.8,1.0}內(nèi)變化μ,實(shí)驗(yàn)結(jié)果如表5所示。通過實(shí)驗(yàn)分析,μ=0和1的情況下表現(xiàn)最差,證明了兩級(jí)對(duì)比損失的有效性,而μ=0.4在模型優(yōu)化中平衡了局部和全局的對(duì)比損失。

    b)對(duì)比損失權(quán)重α決定了在多任務(wù)訓(xùn)練中對(duì)比損失的重要性。本文在{1,0.1,0.01,0.001}內(nèi)變化α,實(shí)驗(yàn)結(jié)果如表6所示??梢杂^察到,α=0.1帶來了最佳的模型性能,主要原因是將對(duì)比損失調(diào)整到與推薦任務(wù)損失相對(duì)平衡的水平可以提升模型性能。

    c)為了分析意圖數(shù)量的影響,本文在{1,2,4,8}內(nèi)變化|IS|,實(shí)驗(yàn)結(jié)果如表7所示。增加意圖數(shù)量在大多數(shù)情況下提升了性能,意圖數(shù)量過多也會(huì)使一些意圖過于細(xì)粒度,無法攜帶有用信息,實(shí)驗(yàn)表明數(shù)量為4最合適。

    d)為了分析聚合深度對(duì)協(xié)調(diào)視圖的影響,考慮變化關(guān)系路徑聚合層數(shù)Kc。疊加更多層可以將更長距離的連接所攜帶的信息整合到節(jié)點(diǎn)表示中。本文在{1,2,3,4}內(nèi)搜索Kc,并將結(jié)果總結(jié)在表8中。在大多數(shù)情況下,增加模型深度能夠提升預(yù)測結(jié)果。實(shí)驗(yàn)表明聚合層數(shù)為3時(shí)性能最好。

    3.4 實(shí)例分析

    本節(jié)針對(duì)用戶意圖的語義進(jìn)行實(shí)例分析,通過MovieLens一個(gè)例子展示模型的可解釋性。如圖4所示,可得以下觀察結(jié)果。

    a)新GNN聚合方案通過各種知識(shí)圖關(guān)系引導(dǎo)出用戶的意圖及所有用戶的共同特點(diǎn)。其中,對(duì)于一個(gè)意圖,關(guān)系的權(quán)重反映了其影響用戶行為的重要性。比如第一個(gè)意圖s1的前兩個(gè)關(guān)系是影片-獎(jiǎng)項(xiàng)和影片-時(shí)長,而第二個(gè)意圖s2被賦予最高得分的是影片-評(píng)分和影片-演員,很顯然學(xué)習(xí)到的意圖可以捕獲用戶選擇的共享原因。此外由于對(duì)意圖進(jìn)行了獨(dú)立建模,意圖具有明確的邊界,所以能從不同及獨(dú)立的角度描述用戶行為。

    b)有一些關(guān)系在多個(gè)意圖中都得到很高的權(quán)重得分,如影片-評(píng)分,這表明這個(gè)關(guān)系是與用戶行為相關(guān)的共同因素,將其與其他關(guān)系(如影片-演員)聯(lián)合起來,就可以把意圖s2歸納為某個(gè)演員主演的高評(píng)分影片。

    c)新GNN聚合方案可以為每個(gè)用戶交互創(chuàng)建基于實(shí)例的解釋及用戶的個(gè)性化推薦。如圖3實(shí)例中的交互u213-i2451,由式(6),根據(jù)注意力得分搜索最具有影響力的意圖s2。這個(gè)意圖解釋了這個(gè)行為,用戶u213選擇影片i2451,是因?yàn)樗嫌脩魎213對(duì)某個(gè)演員主演的高評(píng)分影片的興趣。

    4 結(jié)束語

    本文基于知識(shí)圖譜的多視圖對(duì)比推薦算法框架KRMVC,KRMVC在用戶物品表示學(xué)習(xí)中考慮了全局級(jí)別的結(jié)構(gòu)視圖、局部級(jí)別的意圖、協(xié)調(diào)和協(xié)同視圖四個(gè)視圖角度,通過多級(jí)跨視圖對(duì)比學(xué)習(xí)在四個(gè)視圖之間進(jìn)行信息交互,同時(shí)探索特征和結(jié)構(gòu)信息,并進(jìn)一步學(xué)習(xí)具有區(qū)分性的表示。在關(guān)系建模方面,KRMVC框架揭示了用戶-物品關(guān)系的意圖粒度,展示可解釋的語義。同時(shí),KRMVC利用關(guān)系路徑感知的聚合從多跳路徑中整合關(guān)系信息,以改進(jìn)表示。通過引入多個(gè)視圖來深度挖掘用戶-項(xiàng)目偏好,視圖的劃分和設(shè)計(jì)有助于在不同層次上對(duì)用戶-項(xiàng)目偏好進(jìn)行更全面的表達(dá)和分析。除了視圖層面的表現(xiàn),本文還使用了對(duì)比學(xué)習(xí)方法,利用多任務(wù)策略對(duì)推薦監(jiān)督任務(wù)和對(duì)比學(xué)習(xí)任務(wù)進(jìn)行聯(lián)合優(yōu)化。這可以更好地利用視圖中關(guān)于用戶-項(xiàng)目偏好的信息,提升推薦模型的性能。本文對(duì)KRMVC框架的有效性和可解釋性進(jìn)行了深入分析,在兩個(gè)公開數(shù)據(jù)集上進(jìn)行了大量實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果證明KRMVC比現(xiàn)有先進(jìn)方法取得了更好的性能。此外,本文認(rèn)識(shí)到目前的研究通常將基于知識(shí)圖譜的推薦框架作為一項(xiàng)監(jiān)督任務(wù),但這樣的監(jiān)督信號(hào)過于稀疏,無法提供高質(zhì)量的表示。因此,計(jì)劃在未來的工作中繼續(xù)探索自監(jiān)督學(xué)習(xí),并引入因果概念,以進(jìn)一步提升KRMVC框架在知識(shí)感知推薦中的性能和解釋能力。

    參考文獻(xiàn):

    [1]徐鵬宇,劉華鋒,劉冰,等.標(biāo)簽推薦方法研究綜述[J].軟件學(xué)報(bào),2022,33(4):1244-1266.(Xu Pengyu, Liu Huafeng, Liu Bing, et al. Survey of tag recommendation methods[J].Journal of Software,2022,33(4):1244-1266.)

    [2]He Xiangnan, Liao Lizi, Zhang Hanwang, et al. Neural collaborative filtering [C]//Proc of the 26th International Conference on World Wide Web.Republic and Canton of Geneva,Switzerland:International World Wide Web Conferences Steering Committee,2017:173-182.

    [3]Lian Jianxun, Zhou Xiaohuan, Zhang Fuzheng, et al. xDeepFM:combining explicit and implicit feature interactions for recommender systems[C]//Proc of the 24th ACM SIGKDD International Confe-rence on Knowledge Discovery & Data Mining.New York:ACM Press,2018:1754-1763.

    [4]Liu Yong, Wei Wei, Sun Aixin, et al. Exploiting geographical neighborhood characteristics for location recommendation[C]//Proc of the 23rd ACM International Conference on Information and Knowledge Management.New York:ACM Press,2014:739-748.

    [5]Chen Ting, Kornblith S, Norouzi M, et al. A simple framework for contrastive learning of visual representations[C]//Proc of the 37th International Conference on Machine Learning.[S.l.]:JMLR.org,2020:1597-1607.

    [6]Chen Yu, Wu Lingfei, Zaki M. Iterative deep graph learning for graph neural networks:better and robust node embeddings[J].Advances in Neural Information Processing Systems,2020,33:19314-19326.

    [7]Dwivedi V P, Joshi C K, Luu A T, et al. Benchmarking graph neural networks[EB/OL].(2022-12-28).https://arxiv.org/abs/2003.00982.

    [8]Gao Bin, Liu Tieyan, Wei Wei, et al. Semi-supervised ranking on very large graphs with rich metadata[C]//Proc of the 17th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York:ACM Press,2011:96-104.

    [9]Gao Jun, He Di, Tan Xu, et al. Representation degeneration problem in training natural language generation models[EB/OL].(2019-07-28).https://arxiv.org/abs/1907.12009.

    [10]Bordes A, Usunier N, Garcia-Durán A, et al. Translating embeddings for modeling multi-relational data[C]//Proc of the 26th International Conference on Neural Information Processing Systems.Red Hook,NY:Curran Associates Inc.,2013:2787-2795.

    [11]Wang Zhen, Zhang Jianwen, Feng Jianlin, et al. Knowledge graph embedding by translating on hyperplanes[C]//Proc of the 28th AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2014:1112-1119.

    [12]Hu Binbin, Shi Chuan, Zhao W X, et al. Leveraging meta-path based context for top-n recommendation with a neural co-attention model[C]//Proc of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining.New York:ACM Press,2018:1531-1540.

    [13]Shi Chuan, Hu Binbin, Zhao W X, et al. Heterogeneous information network embedding for recommendation[J].IEEE Trans on Know-ledge and Data Engineering,2018,31(2):357-370.

    [14]Ying R, He Ruining, Chen Kaifeng, et al. Graph convolutional neural networks for Web-scale recommender systems[C]//Proc of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining.New York:ACM Press,2018:974-983.

    [15]Wang Xiang, He Xiangnan, Wang Meng, et al. Neural graph collaborative filtering[C]//Proc of the 42nd International ACM SIGIR Confe-rence on Research and Development in Information Retrieval.New York:ACM Press,2019:165-174.

    [16]Chen Lei, Wu Le, Hong Richang, et al. Revisiting graph based collaborative filtering:a linear residual graph convolutional network app-roach[C]//Proc of AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2020:27-34.

    [17]He Xiangnan, Deng Kuan, Wang Xiang, et al. LightGCN:simplifying and powering graph convolution network for recommendation[C]//Proc of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2020:639-648.

    [18]Strub F, Mary J, Philippe P. Collaborative filtering with stacked denoising autoencoders and sparse inputs[C]//Proc of NIPS Workshop on Machine Learning for eCommerce.2015.

    [19]Wu Zhirong, Xiong Yuanjun, Yu S X, et al. Unsupervised feature learning via non-parametric instance discrimination[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Pisca-taway,NJ:IEEE Press,2018:3733-3742.

    [20]He Kaiming, Fan Haoqi, Wu Yuxin, et al. Momentum contrast for unsupervised visual representation learning[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:9726-9735.

    [21]Shuai Jie, Zhang Kun, Wu Le, et al. A review-aware graph contrastive learning framework for recommendation[C]//Proc of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2022:1283-1293.

    [22]Yu Junliang, Yin Hongzhi, Xia Xin, et al. Are graph augmentations necessary?Simple graph contrastive learning for recommendation[C]//Proc of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2022:1294-1303.

    [23]Tian Yonglong, Krishnan D, Isola P. Contrastive multiview coding[C]//Proc of the 16th European Conference on Computer Vision.Berlin:Springer,2020:776-794.

    [24]Wang Xiang, Huang Tinglin, Wang Dingxian, et al. Learning intents behind interactions with knowledge graph for recommendation[C]//Proc of Web Conference.New York:ACM Press,2021:878-887.

    [25]Cao Yixin, Wang Xiang, He Xiangnan, et al. Unifying knowledge graph learning and recommendation: towards a better understanding of user preferences[C]//Proc of World Wide Web Conference.New York:ACM Press,2019:151-161.

    [26]Wang Hongwei, Zhang Fuzhen, Zhang Mengdi, et al. Knowledge-aware graph neural networks with label smoothness regularization for recommender systems[C]//Proc of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining.New York:ACM Press,2019:968-977.

    [27]Sun Zhiqing, Deng Zhihong, Nie Jianyun, et al. Rotate: knowledge graph embedding by relational rotation in complex space[EB/OL].(2019-02-26).https://arxiv.org/abs/1902.10197.

    [28]Zhu Yanqiao, Xu Yichen, Yu Feng, et al. Deep graph contrastive representation learning[EB/OL].(2020-07-13). https://arxiv.org/abs/2006.04131.

    [29]Rendle S, Freudenthaler C, Gantner Z, et al. BPR: Bayesian personalized ranking from implicit feedback[EB/OL].(2012-05-09).https://arxiv.org/abs/1205.2618.

    [30]Zhang Fuzheng, Yuan N J, Lian Defu, et al. Collaborative know-ledge base embedding for recommender systems[C]//Proc of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York:ACM Press,2016:353-362.

    [31]Wang Hongwei, Zhang Fuzheng, Wang Jialin, et al. RippleNet:propagating user preferences on the knowledge graph for recommender systems[C]//Proc of the 27th ACM International Conference on Information and Knowledge Management.New York:ACM Press,2018:417-426.

    [32]Wang Xiang, He Xiangnan, Cao Yixin, et al. KGAT: knowledge graph attention network for recommendation[C]//Proc of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining.New York:ACM Press,2019:950-958.

    [33]Zou Ding, Wei Wei, Mao Xianlin, et al. Multi-level cross-view con-trastive learning for knowledge-aware recommender system[C]//Proc of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2022:1358-1368.

    [34]顧嘉靜,楊丹,聶鐵錚,等.基于多視圖融合跨層對(duì)比學(xué)習(xí)的推薦算法[J/OL].計(jì)算機(jī)工程.(2023-04-04).https://doi.org/10.19678/j.issn.1000-3428.0066906.(Gu Jiajing, Yang Dan, Nie Tiezheng, et al. A recommendation algorithm based on multi-view fusion and cross-layer contrastive learning[J/OL].Computer Engineering.(2023-04-04).https://doi.org/10.19678/j.issn.1000-3428.0066906.)

    猜你喜歡
    推薦系統(tǒng)知識(shí)圖譜
    數(shù)據(jù)挖掘在選課推薦中的研究
    軟件(2016年4期)2017-01-20 10:09:33
    基于用戶偏好的信任網(wǎng)絡(luò)隨機(jī)游走推薦模型
    基于個(gè)性化的協(xié)同過濾圖書推薦算法研究
    個(gè)性化推薦系統(tǒng)關(guān)鍵算法探討
    國內(nèi)圖書館嵌入式服務(wù)研究主題分析
    國內(nèi)外政府信息公開研究的脈絡(luò)、流派與趨勢
    近十五年我國小學(xué)英語教學(xué)研究的熱點(diǎn)、問題及對(duì)策
    基于知識(shí)圖譜的產(chǎn)業(yè)集群創(chuàng)新績效可視化分析
    基于知識(shí)圖譜的智慧教育研究熱點(diǎn)與趨勢分析
    淺談Mahout在個(gè)性化推薦系統(tǒng)中的應(yīng)用
    日韩三级伦理在线观看| 成人国产麻豆网| 午夜免费男女啪啪视频观看| 亚洲欧美成人精品一区二区| 婷婷精品国产亚洲av| 网址你懂的国产日韩在线| 边亲边吃奶的免费视频| 国产一区二区三区av在线 | 午夜免费激情av| 狂野欧美白嫩少妇大欣赏| 中文在线观看免费www的网站| 中国美白少妇内射xxxbb| 欧美日韩综合久久久久久| av在线观看视频网站免费| 国产一区亚洲一区在线观看| 一本久久精品| 91精品国产九色| 精品久久久久久久末码| 国内精品宾馆在线| 中文字幕人妻熟人妻熟丝袜美| 成人欧美大片| 99久久久亚洲精品蜜臀av| 丰满的人妻完整版| 欧美成人一区二区免费高清观看| 国产精品久久电影中文字幕| av在线亚洲专区| 欧美日韩一区二区视频在线观看视频在线 | 国产精品麻豆人妻色哟哟久久 | 国产在线男女| 中文字幕av成人在线电影| 精品一区二区免费观看| 欧美在线一区亚洲| 亚洲久久久久久中文字幕| 日日摸夜夜添夜夜添av毛片| 99国产极品粉嫩在线观看| 长腿黑丝高跟| 久久久色成人| 亚洲在线观看片| 国产精品.久久久| 久久久午夜欧美精品| 国产伦精品一区二区三区视频9| 日韩成人av中文字幕在线观看| 国产精品久久久久久精品电影小说 | 国产在视频线在精品| 深爱激情五月婷婷| 只有这里有精品99| 久久热精品热| 亚洲中文字幕一区二区三区有码在线看| 亚洲欧美成人精品一区二区| 日韩大尺度精品在线看网址| 成人综合一区亚洲| 国内精品久久久久精免费| 联通29元200g的流量卡| 午夜精品一区二区三区免费看| 日韩视频在线欧美| 国产探花在线观看一区二区| 一本久久精品| 嫩草影院新地址| 亚洲无线观看免费| 亚洲欧美中文字幕日韩二区| 亚洲aⅴ乱码一区二区在线播放| 天美传媒精品一区二区| 日日撸夜夜添| 97人妻精品一区二区三区麻豆| 深夜a级毛片| 欧美日本亚洲视频在线播放| 在线天堂最新版资源| 精品不卡国产一区二区三区| 国产高清不卡午夜福利| 99视频精品全部免费 在线| 免费av不卡在线播放| 在线天堂最新版资源| 国产av在哪里看| 久久婷婷人人爽人人干人人爱| 欧美日韩在线观看h| 亚洲第一电影网av| 18禁黄网站禁片免费观看直播| 亚洲中文字幕日韩| 人人妻人人澡人人爽人人夜夜 | 99热只有精品国产| 精品久久久久久久久av| 一级毛片久久久久久久久女| 毛片一级片免费看久久久久| 国产片特级美女逼逼视频| 99热这里只有是精品在线观看| 国产综合懂色| 亚洲国产日韩欧美精品在线观看| 在线a可以看的网站| 大型黄色视频在线免费观看| 精品国产三级普通话版| 国产一区二区激情短视频| 狂野欧美激情性xxxx在线观看| 国产午夜福利久久久久久| 男女啪啪激烈高潮av片| 97超视频在线观看视频| a级毛片免费高清观看在线播放| 男插女下体视频免费在线播放| 欧美极品一区二区三区四区| av专区在线播放| 精品熟女少妇av免费看| 午夜a级毛片| 舔av片在线| 午夜福利视频1000在线观看| 性欧美人与动物交配| 精品国内亚洲2022精品成人| 在线观看免费视频日本深夜| 日产精品乱码卡一卡2卡三| 国产精品一及| 国产av在哪里看| 亚洲成人精品中文字幕电影| 亚洲成人中文字幕在线播放| 搡女人真爽免费视频火全软件| 亚洲成人精品中文字幕电影| 少妇的逼好多水| 六月丁香七月| a级毛色黄片| 久久久精品大字幕| 婷婷精品国产亚洲av| 欧美一区二区精品小视频在线| 男女做爰动态图高潮gif福利片| 黄片wwwwww| 老司机福利观看| 大又大粗又爽又黄少妇毛片口| 国产v大片淫在线免费观看| 国产黄色小视频在线观看| 国产69精品久久久久777片| 亚洲国产日韩欧美精品在线观看| 最好的美女福利视频网| av又黄又爽大尺度在线免费看 | 国产探花在线观看一区二区| 最近2019中文字幕mv第一页| 亚洲国产色片| 精品久久久久久成人av| 蜜桃久久精品国产亚洲av| 午夜福利在线观看吧| 免费人成视频x8x8入口观看| 精品久久久久久久末码| 国产黄a三级三级三级人| 亚洲中文字幕一区二区三区有码在线看| 亚洲欧美精品专区久久| 精品一区二区免费观看| 亚洲精品国产成人久久av| 一级毛片我不卡| 天堂影院成人在线观看| 高清午夜精品一区二区三区 | 狂野欧美白嫩少妇大欣赏| 国产欧美日韩精品一区二区| 插逼视频在线观看| 亚洲欧美成人综合另类久久久 | av在线天堂中文字幕| 精品人妻熟女av久视频| 日韩大尺度精品在线看网址| 亚洲欧美精品自产自拍| 国产极品天堂在线| 国产黄a三级三级三级人| 亚洲欧美日韩高清专用| 尤物成人国产欧美一区二区三区| 亚洲在线观看片| 日韩,欧美,国产一区二区三区 | 看非洲黑人一级黄片| 欧美在线一区亚洲| 97热精品久久久久久| 亚洲最大成人手机在线| 99热6这里只有精品| 欧洲精品卡2卡3卡4卡5卡区| 波多野结衣巨乳人妻| 成人高潮视频无遮挡免费网站| 国内少妇人妻偷人精品xxx网站| 少妇人妻一区二区三区视频| 亚洲熟妇中文字幕五十中出| 女人被狂操c到高潮| 国产毛片a区久久久久| 99久久精品热视频| 国产真实乱freesex| 亚洲精华国产精华液的使用体验 | 中文字幕精品亚洲无线码一区| 国产亚洲精品av在线| 欧美bdsm另类| 国产淫片久久久久久久久| 国产精品人妻久久久久久| 国产真实伦视频高清在线观看| 亚洲国产精品成人综合色| 老师上课跳d突然被开到最大视频| 国产爱豆传媒在线观看| 亚洲欧美日韩卡通动漫| 十八禁国产超污无遮挡网站| 自拍偷自拍亚洲精品老妇| 狠狠狠狠99中文字幕| 国产精品久久电影中文字幕| 久久久久久九九精品二区国产| 欧美一区二区国产精品久久精品| 国产精品久久电影中文字幕| 波多野结衣高清无吗| а√天堂www在线а√下载| 色尼玛亚洲综合影院| 三级国产精品欧美在线观看| 嫩草影院新地址| av在线老鸭窝| 91av网一区二区| 久久韩国三级中文字幕| 久久这里有精品视频免费| 国产三级在线视频| 久久国内精品自在自线图片| 欧美最黄视频在线播放免费| 少妇人妻一区二区三区视频| 在线免费十八禁| 欧美日韩国产亚洲二区| 日韩欧美三级三区| 女人被狂操c到高潮| 熟女电影av网| av在线播放精品| av在线老鸭窝| 26uuu在线亚洲综合色| 国产精品嫩草影院av在线观看| 日韩欧美在线乱码| 国产精品av视频在线免费观看| 人妻少妇偷人精品九色| 国产精品.久久久| 国产精品一区二区三区四区久久| 中文字幕制服av| 国产女主播在线喷水免费视频网站 | 舔av片在线| 色尼玛亚洲综合影院| 欧美zozozo另类| 一边亲一边摸免费视频| 成人国产麻豆网| 又爽又黄a免费视频| 一级av片app| 国产精品伦人一区二区| 国产在线精品亚洲第一网站| 少妇熟女aⅴ在线视频| 亚洲精品亚洲一区二区| 高清日韩中文字幕在线| 有码 亚洲区| 久久久国产成人免费| 成人欧美大片| 久久精品人妻少妇| 国产一区二区在线av高清观看| 免费搜索国产男女视频| 极品教师在线视频| 久久久久免费精品人妻一区二区| 精品人妻偷拍中文字幕| 日韩欧美三级三区| 少妇猛男粗大的猛烈进出视频 | 亚洲欧美中文字幕日韩二区| 91精品一卡2卡3卡4卡| 精品人妻偷拍中文字幕| 一级毛片电影观看 | 在线观看午夜福利视频| 精品久久久久久久久久久久久| 在线a可以看的网站| 亚洲美女视频黄频| 日日干狠狠操夜夜爽| 校园春色视频在线观看| 伦理电影大哥的女人| 亚洲欧美成人综合另类久久久 | 亚洲精品粉嫩美女一区| 一个人观看的视频www高清免费观看| 极品教师在线视频| 少妇熟女aⅴ在线视频| 久久99精品国语久久久| 国产精品三级大全| 久久精品夜色国产| 国产一级毛片七仙女欲春2| 一区福利在线观看| 久久久精品欧美日韩精品| 人妻少妇偷人精品九色| 99久久精品一区二区三区| 精品一区二区三区人妻视频| 亚洲av成人av| 亚洲国产色片| 精品久久久久久久久久久久久| 三级男女做爰猛烈吃奶摸视频| 草草在线视频免费看| 国产成人a∨麻豆精品| 又爽又黄a免费视频| 夫妻性生交免费视频一级片| 高清午夜精品一区二区三区 | 亚洲第一电影网av| 哪个播放器可以免费观看大片| 亚洲欧美清纯卡通| 婷婷精品国产亚洲av| 免费观看人在逋| 亚洲国产精品国产精品| 婷婷亚洲欧美| 五月伊人婷婷丁香| 成年女人看的毛片在线观看| av免费在线看不卡| 成人毛片a级毛片在线播放| 国产精品国产三级国产av玫瑰| 一本久久中文字幕| 99久久成人亚洲精品观看| 国产精品久久久久久久电影| 久久人人爽人人爽人人片va| 午夜福利在线观看吧| 中文字幕人妻熟人妻熟丝袜美| 亚洲第一区二区三区不卡| АⅤ资源中文在线天堂| 国产麻豆成人av免费视频| 97超碰精品成人国产| 97人妻精品一区二区三区麻豆| 欧美一区二区亚洲| 高清在线视频一区二区三区 | 国产伦精品一区二区三区四那| 日韩欧美精品v在线| 91在线精品国自产拍蜜月| 桃色一区二区三区在线观看| 亚洲国产精品国产精品| av女优亚洲男人天堂| 亚洲精品乱码久久久v下载方式| 小说图片视频综合网站| 村上凉子中文字幕在线| 美女xxoo啪啪120秒动态图| 国产老妇伦熟女老妇高清| 国产大屁股一区二区在线视频| 两性午夜刺激爽爽歪歪视频在线观看| 少妇丰满av| АⅤ资源中文在线天堂| 亚洲欧美中文字幕日韩二区| 国产久久久一区二区三区| 国产女主播在线喷水免费视频网站 | 久久久久九九精品影院| 成人一区二区视频在线观看| 久久热精品热| 久久久精品94久久精品| 在线免费观看不下载黄p国产| 少妇熟女aⅴ在线视频| 免费电影在线观看免费观看| 精品一区二区三区视频在线| 亚洲成av人片在线播放无| 男人舔女人下体高潮全视频| 高清毛片免费观看视频网站| 波多野结衣巨乳人妻| 91av网一区二区| 免费观看的影片在线观看| 97超碰精品成人国产| 久久人人精品亚洲av| 成人漫画全彩无遮挡| 晚上一个人看的免费电影| av.在线天堂| 国产精品无大码| 卡戴珊不雅视频在线播放| 午夜久久久久精精品| 亚洲欧美精品自产自拍| 色吧在线观看| 欧美色视频一区免费| 可以在线观看毛片的网站| 亚洲精品久久久久久婷婷小说 | 婷婷六月久久综合丁香| 精品一区二区三区视频在线| 午夜免费男女啪啪视频观看| www日本黄色视频网| 一级毛片我不卡| av专区在线播放| 自拍偷自拍亚洲精品老妇| 一个人观看的视频www高清免费观看| 久久久精品大字幕| 欧美日本亚洲视频在线播放| 日韩av在线大香蕉| 日韩视频在线欧美| 只有这里有精品99| 亚洲五月天丁香| 免费人成在线观看视频色| 国产成人91sexporn| 91精品国产九色| 波多野结衣高清无吗| 精品一区二区三区视频在线| 身体一侧抽搐| 给我免费播放毛片高清在线观看| 在线天堂最新版资源| av在线播放精品| 亚洲,欧美,日韩| 免费看美女性在线毛片视频| 国产伦理片在线播放av一区 | 午夜久久久久精精品| 99热网站在线观看| 久久精品国产亚洲av天美| 男女啪啪激烈高潮av片| 最近中文字幕高清免费大全6| 晚上一个人看的免费电影| 小说图片视频综合网站| 国产真实伦视频高清在线观看| 久久午夜福利片| 欧美变态另类bdsm刘玥| 亚洲欧美精品专区久久| 岛国在线免费视频观看| 观看免费一级毛片| 亚洲真实伦在线观看| 亚洲高清免费不卡视频| 观看免费一级毛片| 国产精品久久久久久亚洲av鲁大| 国产黄色小视频在线观看| 久久久精品大字幕| 久久久午夜欧美精品| 校园人妻丝袜中文字幕| 久久精品国产亚洲网站| a级一级毛片免费在线观看| 男女做爰动态图高潮gif福利片| 亚洲欧美中文字幕日韩二区| 成人高潮视频无遮挡免费网站| 天堂√8在线中文| 国产一级毛片在线| 夜夜看夜夜爽夜夜摸| 淫秽高清视频在线观看| 欧美极品一区二区三区四区| 91午夜精品亚洲一区二区三区| 少妇人妻精品综合一区二区 | 国模一区二区三区四区视频| 免费av不卡在线播放| 夜夜爽天天搞| 你懂的网址亚洲精品在线观看 | 99热这里只有是精品50| 国产亚洲91精品色在线| 啦啦啦韩国在线观看视频| 国产国拍精品亚洲av在线观看| 美女被艹到高潮喷水动态| 国产精品爽爽va在线观看网站| 人人妻人人看人人澡| 日韩强制内射视频| 国产伦理片在线播放av一区 | 看黄色毛片网站| 国产精品日韩av在线免费观看| 国产激情偷乱视频一区二区| 成人漫画全彩无遮挡| 欧美日韩国产亚洲二区| 卡戴珊不雅视频在线播放| 女同久久另类99精品国产91| 给我免费播放毛片高清在线观看| 午夜福利高清视频| 午夜激情欧美在线| 哪个播放器可以免费观看大片| 高清毛片免费看| 久久婷婷人人爽人人干人人爱| av在线老鸭窝| 一级毛片电影观看 | 熟女电影av网| 看免费成人av毛片| 国产精品日韩av在线免费观看| 欧美变态另类bdsm刘玥| 99热只有精品国产| 国产精品蜜桃在线观看 | 婷婷六月久久综合丁香| 亚洲国产色片| 免费av观看视频| 免费不卡的大黄色大毛片视频在线观看 | 99精品在免费线老司机午夜| 在线观看66精品国产| 中国国产av一级| 精品99又大又爽又粗少妇毛片| 亚洲中文字幕一区二区三区有码在线看| 国产一区二区三区在线臀色熟女| 亚洲图色成人| 亚洲精品亚洲一区二区| 久久午夜福利片| 尾随美女入室| 深夜精品福利| 蜜桃久久精品国产亚洲av| 波多野结衣高清无吗| 一本一本综合久久| 国产精品一区二区在线观看99 | 高清在线视频一区二区三区 | h日本视频在线播放| 亚洲无线在线观看| 99热精品在线国产| 美女国产视频在线观看| 99热6这里只有精品| 欧美日韩综合久久久久久| 欧美zozozo另类| 国产激情偷乱视频一区二区| 免费不卡的大黄色大毛片视频在线观看 | 国产 一区精品| 别揉我奶头 嗯啊视频| 丰满人妻一区二区三区视频av| 久久久精品大字幕| 舔av片在线| 少妇高潮的动态图| 精品欧美国产一区二区三| 插逼视频在线观看| 午夜精品在线福利| 日韩精品青青久久久久久| 国产精品一二三区在线看| 看非洲黑人一级黄片| 亚洲人成网站高清观看| 草草在线视频免费看| 亚洲av成人精品一区久久| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 日韩精品有码人妻一区| 尤物成人国产欧美一区二区三区| 国产亚洲91精品色在线| 亚洲人成网站在线观看播放| 观看美女的网站| 插逼视频在线观看| 午夜激情欧美在线| 看非洲黑人一级黄片| or卡值多少钱| 欧美人与善性xxx| 一夜夜www| 国语自产精品视频在线第100页| 午夜福利在线观看吧| 欧美精品一区二区大全| 少妇熟女欧美另类| 免费观看a级毛片全部| 国产综合懂色| 丰满乱子伦码专区| 伊人久久精品亚洲午夜| 欧美成人一区二区免费高清观看| 久久热精品热| 免费黄网站久久成人精品| 又粗又硬又长又爽又黄的视频 | 日韩欧美三级三区| 在线播放无遮挡| 超碰av人人做人人爽久久| 成人高潮视频无遮挡免费网站| 国产精华一区二区三区| 日日啪夜夜撸| 九九爱精品视频在线观看| 国产黄a三级三级三级人| 亚洲精华国产精华液的使用体验 | 亚洲一区二区三区色噜噜| 99热6这里只有精品| 国产精品av视频在线免费观看| 国产av麻豆久久久久久久| 变态另类丝袜制服| 国产日韩欧美在线精品| 午夜亚洲福利在线播放| 欧美日韩综合久久久久久| 国产精品一区www在线观看| 国产三级在线视频| 又黄又爽又刺激的免费视频.| 国产视频首页在线观看| 亚洲经典国产精华液单| 一边摸一边抽搐一进一小说| 日韩一本色道免费dvd| 女的被弄到高潮叫床怎么办| 国产av不卡久久| 日韩视频在线欧美| 国产精品一区二区三区四区久久| 亚洲无线观看免费| 午夜老司机福利剧场| 一进一出抽搐gif免费好疼| 午夜福利成人在线免费观看| 亚洲精品色激情综合| 午夜免费男女啪啪视频观看| videossex国产| 日韩精品青青久久久久久| 国产精品永久免费网站| 舔av片在线| 三级男女做爰猛烈吃奶摸视频| 久久人人爽人人片av| 99久久精品热视频| 国产精品野战在线观看| 两个人视频免费观看高清| 一区二区三区高清视频在线| 91精品国产九色| 日韩精品有码人妻一区| 插阴视频在线观看视频| 欧美xxxx性猛交bbbb| 九色成人免费人妻av| 国产中年淑女户外野战色| 国产成人freesex在线| 精品一区二区免费观看| 精品人妻熟女av久视频| 麻豆成人av视频| 国产一区亚洲一区在线观看| 91精品国产九色| 99久久精品一区二区三区| 国产av麻豆久久久久久久| 婷婷六月久久综合丁香| 毛片女人毛片| 黄色一级大片看看| 色吧在线观看| 久久草成人影院| 一进一出抽搐gif免费好疼| 日日干狠狠操夜夜爽| 成人美女网站在线观看视频| 亚洲欧洲国产日韩| 热99re8久久精品国产| 久久欧美精品欧美久久欧美| 免费看日本二区| 亚洲av成人av| 色5月婷婷丁香| 综合色丁香网| 成年女人看的毛片在线观看| 亚洲一区高清亚洲精品| www日本黄色视频网| 国产 一区 欧美 日韩| 日本免费a在线| 在线观看免费视频日本深夜| 国产人妻一区二区三区在| 欧美日韩精品成人综合77777| 高清毛片免费看| a级毛片免费高清观看在线播放| 久久亚洲国产成人精品v| 精品久久久久久久末码| 日韩一本色道免费dvd| 日本三级黄在线观看| 久久久久久久午夜电影| 日韩国内少妇激情av| 日本欧美国产在线视频| 日产精品乱码卡一卡2卡三| 国产精品久久久久久久久免| 99久久中文字幕三级久久日本| 国产伦理片在线播放av一区 | 久久精品夜色国产| 精品国产三级普通话版| 亚洲av中文字字幕乱码综合| 美女内射精品一级片tv| 日韩一本色道免费dvd| 午夜久久久久精精品| 亚洲最大成人av| 九九在线视频观看精品| 成人鲁丝片一二三区免费| 亚洲av免费在线观看| 伊人久久精品亚洲午夜| 麻豆成人午夜福利视频|