孫金楊,劉柏嵩,任豪,錢(qián)江波
(寧波大學(xué)信息科學(xué)與工程學(xué)院,浙江 寧波 315211)
學(xué)術(shù)論文是科研人員重要的研究工具,近年來(lái),隨著科學(xué)研究的進(jìn)步,學(xué)術(shù)論文數(shù)量呈指數(shù)式增長(zhǎng),每年在各個(gè)領(lǐng)域都有超過(guò)百萬(wàn)篇的學(xué)術(shù)論文被發(fā)表,嚴(yán)重的“信息過(guò)載”導(dǎo)致科研人員需要花費(fèi)更多的時(shí)間、精力尋找論文。推薦系統(tǒng)能有效解決論文“信息過(guò)載”的問(wèn)題,將論文的獲取方式由主動(dòng)轉(zhuǎn)化為被動(dòng),極大程度滿足科研人員的學(xué)術(shù)需求[1]。
協(xié)同過(guò)濾(collaborative +iltering,CF)在推薦系統(tǒng)中使用最為廣泛,通過(guò)用戶和項(xiàng)目的歷史交互信息來(lái)探索用戶的興趣偏好。然而,由于用戶和論文的交互矩陣高度稀疏,極大限制了 CF在論文推薦領(lǐng)域中的推薦性能,為此,一種常見(jiàn)的做法是引入論文的輔助信息來(lái)增強(qiáng)推薦性能。
如今,已有不少研究利用各類(lèi)輔助信息,在論文推薦中,輔助信息以引文網(wǎng)絡(luò)和文本信息為主。前者通過(guò)論文之間的引用關(guān)系構(gòu)建引文網(wǎng)絡(luò)[2],論文的引用關(guān)系表明一篇論文對(duì)另一篇論文的影響,但忽略了論文自身的內(nèi)容信息,同時(shí)還存在新論文不會(huì)被引用而被邊緣化的冷啟動(dòng)問(wèn)題[3];后者是指利用論文的標(biāo)題和摘要信息來(lái)更好地表征論文,標(biāo)題和摘要包含大量的語(yǔ)義信息,挖掘語(yǔ)義信息融入推薦模型中能夠有效緩解數(shù)據(jù)稀疏問(wèn)題。
隨著深度學(xué)習(xí)[4-6]在各領(lǐng)域中取得的研究成果增多,利用深度學(xué)習(xí)對(duì)文本進(jìn)行語(yǔ)義挖掘[7-8]也愈發(fā)流行。參考文獻(xiàn)[9]使用卷積神經(jīng)網(wǎng)絡(luò)從項(xiàng)目的邊信息中提取項(xiàng)目的語(yǔ)義特征,并在用戶項(xiàng)目的潛在向量中引入對(duì)抗性干擾,然后將其集成到概率矩陣分解中,以計(jì)算用戶對(duì)項(xiàng)目的推薦分?jǐn)?shù)。參考文獻(xiàn)[10]提出了一種基于長(zhǎng)短期記憶(long an2 short-term memory,LSTM)的上下文感知引文推薦模型,基于LSTM分別學(xué)習(xí)引文上下文和論文的分布式表示,并計(jì)算論文的相關(guān)性來(lái)生成推薦列表。參考文獻(xiàn)[11]使用堆疊降噪自編碼網(wǎng)絡(luò)提取項(xiàng)目的評(píng)論信息,并整合到協(xié)同過(guò)濾的評(píng)分矩陣中,進(jìn)一步提升協(xié)同過(guò)濾的推薦性能?,F(xiàn)有大部分對(duì)于文本的處理方法是單一的,對(duì)于論文而言,這些方法對(duì)標(biāo)題和摘要是無(wú)差別處理的,本文認(rèn)為論文的標(biāo)題是論文內(nèi)容的核心概括,而摘要是標(biāo)題的解釋和內(nèi)容上的擴(kuò)展,通過(guò)對(duì)兩者不同細(xì)粒度的語(yǔ)義提取和結(jié)合,能更好地提取論文的語(yǔ)義特征。
在論文推薦中,用戶和論文的交互方式往往屬于隱式反饋,即只能獲取到用戶閱讀過(guò)哪些論文,而無(wú)法得知用戶對(duì)于論文的感興趣程度(例如電影的評(píng)分),因此,即使用戶閱讀過(guò)某篇論文,無(wú)法確定該用戶是否喜歡這篇論文,也就很難確定正負(fù)樣本。對(duì)于隱式反饋的推薦場(chǎng)景,常見(jiàn)的方法是將用戶交互過(guò)的項(xiàng)目作為正樣本[12],而負(fù)樣本則從未交互過(guò)的項(xiàng)目中隨機(jī)采樣得到,這種方法會(huì)導(dǎo)致無(wú)法對(duì)用戶的興趣偏好精確建模,進(jìn)而影響推薦效果。生成對(duì)抗網(wǎng)絡(luò)(generative a2-versarial network,GAN)[13]的提出為隱式反饋的推薦場(chǎng)景提供了新的方向,其基本思想是生成模型和判別模型進(jìn)行極大極小的博弈,兩者迭代交替訓(xùn)練,相互促進(jìn)。在推薦領(lǐng)域中,生成模型的目標(biāo)是擬合用戶的興趣偏好,不需要經(jīng)過(guò)負(fù)采樣。參考文獻(xiàn)[14]提出的IRGAN是首個(gè)將GAN應(yīng)用到推薦系統(tǒng)的模型,通過(guò)GAN的思想將生成模型和判別模型對(duì)抗訓(xùn)練,并采用強(qiáng)化學(xué)習(xí)中的策略梯度優(yōu)化模型,訓(xùn)練好的生成模型能夠產(chǎn)生推薦結(jié)果。參考文獻(xiàn)[15]針對(duì)由于策略梯度訓(xùn)練不穩(wěn)定和準(zhǔn)確率不高的兩大問(wèn)題,提出了一種基于生成對(duì)抗網(wǎng)絡(luò)的協(xié)同過(guò)濾通用框架(CFGAN),使用向量級(jí)的訓(xùn)練使模型可進(jìn)行梯度下降,有效緩解了GAN訓(xùn)練過(guò)程中的不穩(wěn)定性。參考文獻(xiàn)[16]則將對(duì)抗性擾動(dòng)加入推薦模型中,提出對(duì)抗個(gè)性化排名模型(APR),對(duì)抗性擾動(dòng)的作用是幫助模型提前考慮由噪聲引起的偏差,能有效提高模型的泛化能力。
為了解決上述在論文推薦領(lǐng)域的問(wèn)題,本文提出了一種融合細(xì)粒度語(yǔ)義特征的學(xué)術(shù)論文對(duì)抗推薦模型——TAGAN。對(duì)于論文的標(biāo)題、摘要,使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)提取標(biāo)題的全局語(yǔ)義特征,并使用雙層的LSTM網(wǎng)絡(luò)分別建模摘要的單詞序列和語(yǔ)句序列,同時(shí),在建模單詞序列中引入注意力機(jī)制,將標(biāo)題和摘要進(jìn)行關(guān)聯(lián),通過(guò)語(yǔ)句序列建模構(gòu)建細(xì)粒度的論文語(yǔ)義特征。然后,將論文的語(yǔ)義特征融入基于生成對(duì)抗網(wǎng)絡(luò)的推薦模型中,利用生成模型逼近用戶的真實(shí)興趣分布,并進(jìn)行相應(yīng)的推薦。在公開(kāi)的論文數(shù)據(jù)集上的實(shí)驗(yàn)表明,本文提出的模型能有效建模用戶興趣偏好,提升論文推薦性能。
區(qū)別于傳統(tǒng)方法將標(biāo)題和摘要作為文本信息統(tǒng)一處理,本文認(rèn)為標(biāo)題是論文整體內(nèi)容的表示,而摘要?jiǎng)t是標(biāo)題內(nèi)容的擴(kuò)展和具體化,兩者之間存在很多語(yǔ)義上的關(guān)聯(lián)。語(yǔ)義特征提取的原理如圖1所示,將語(yǔ)句中單詞的順序位置作為學(xué)習(xí)語(yǔ)句表示的重要特征,并使用LSTM來(lái)建模摘要語(yǔ)句中的單詞序列。同時(shí),由于摘要語(yǔ)句和標(biāo)題的語(yǔ)義信息密不可分,在建模過(guò)程中引入注意力機(jī)制來(lái)建立標(biāo)題與摘要的關(guān)聯(lián),基本假設(shè)是,摘要中的詞在語(yǔ)義上與標(biāo)題中的詞在語(yǔ)義上接近時(shí),具有更高的重要性。相比而言,標(biāo)題往往是一個(gè)概括性的描述或名詞,和語(yǔ)句中的單詞序列有一定差別,本文使用CNN來(lái)建模標(biāo)題的全局語(yǔ)義信息。最后,使用LSTM處理由語(yǔ)句向量組成的語(yǔ)句序列,同時(shí),使用標(biāo)題向量來(lái)初始化網(wǎng)絡(luò)參數(shù)。
圖1 論文細(xì)粒度語(yǔ)義特征提取方法
本文使用詞向量模型 Bor22vec預(yù)訓(xùn)練語(yǔ)料庫(kù)中所有標(biāo)題和摘要的詞向量。令論文的標(biāo)題表示 為T(mén)={wT,1,wT,2, … ,wT,n}, 摘 要 表 示 為A={a1,a2,… ,az},其中,wT,n表示標(biāo)題中單詞的詞向量,n為標(biāo)題的單詞數(shù)量,az表示摘要中的各個(gè)語(yǔ)句,z為摘要中語(yǔ)句的數(shù)量,對(duì)摘要中的語(yǔ)句做進(jìn)一步的表示,使得aj={wj,1,wj,2, …,wj,m},wj,m表示摘要中第j個(gè)語(yǔ)句中的詞向量,m為第j個(gè)句中的單詞數(shù)量。
卷積神經(jīng)網(wǎng)絡(luò)在文本語(yǔ)義提取上表現(xiàn)優(yōu)異,本文使用參考文獻(xiàn)[17]提出的針對(duì)文本信息的CNN結(jié)構(gòu)對(duì)標(biāo)題進(jìn)行語(yǔ)義提取,具體而言,將標(biāo)題中的詞向量拼接轉(zhuǎn)化成詞向量矩陣,并通過(guò)卷積層、池化層和全連接層得到標(biāo)題的語(yǔ)義向量,如式(1)所示。
其中,W表示CNN中的參數(shù),T是由標(biāo)題中詞向量拼接而成的詞向量矩陣。
針對(duì)摘要部分,首先對(duì)摘要中的每個(gè)語(yǔ)句進(jìn)行語(yǔ)義的提取,文本將語(yǔ)句看作一個(gè)單詞序列,采用 LSTM 網(wǎng)絡(luò)進(jìn)行建模,LSTM包含一連串的重復(fù)模塊,每個(gè)模塊的單元狀態(tài)都存儲(chǔ)著重要的順序信息,這些信息將在每個(gè)時(shí)間步更新。此外,還可以容納可變長(zhǎng)度的序列,適用于摘要的單詞序列。將轉(zhuǎn)化成詞向量的單詞序列aj={wj,1,wj,2, … ,wj,m}輸入網(wǎng)絡(luò)中,如式(2)所示。
其中,htw-1、htw分別表示LSTM網(wǎng)絡(luò)在tw-1時(shí)刻和tw時(shí)刻的輸出,θ1表示LSTM網(wǎng)絡(luò)的參數(shù)。
為了有效地考慮標(biāo)題和摘要單詞之間的相關(guān)性,本文設(shè)計(jì)了一種注意力機(jī)制來(lái)學(xué)習(xí)每個(gè)語(yǔ)句單詞的相對(duì)重要性,從而更精確地表征句向量。具體而言,對(duì)于語(yǔ)句中的每個(gè)單詞,通過(guò)其詞向量與標(biāo)題向量之間的內(nèi)積來(lái)計(jì)算兩者的相關(guān)性分?jǐn)?shù),如式(3)所示。
其中, si m(wj,x,t)表示第j個(gè)語(yǔ)句中第x個(gè)單詞與標(biāo)題向量的相關(guān)性分?jǐn)?shù),該分?jǐn)?shù)越高,這個(gè)單詞和標(biāo)題的語(yǔ)義關(guān)聯(lián)程度越深。
然后,通過(guò)so+tmax函數(shù)進(jìn)行歸一化處理,得到每個(gè)單詞的權(quán)重,如式(4)所示。
其中,m為第j個(gè)句中的單詞數(shù)量,xα為相應(yīng)單詞在語(yǔ)句中的權(quán)重。
利用LSTM中各個(gè)單詞的輸出狀態(tài),可通過(guò)式(5)獲得第j個(gè)摘要語(yǔ)句的句向量。
在獲取到標(biāo)題向量t和摘要的句向量A={a1,a2,… ,az}之后,本文將標(biāo)題視為最能概括論文的文本內(nèi)容,而摘要語(yǔ)句則提供了豐富的語(yǔ)義信息,可以依次解釋標(biāo)題的詳細(xì)內(nèi)容,為此,本文引入第二個(gè)LSTM網(wǎng)絡(luò)來(lái)建模標(biāo)題和摘要的語(yǔ)義信息,同時(shí),利用標(biāo)題向量來(lái)初始化網(wǎng)絡(luò)權(quán)重,這有助于網(wǎng)絡(luò)的訓(xùn)練并取得一個(gè)良好的效果,隨后,將摘要的句向量依次輸入該網(wǎng)絡(luò)中,如式(6)所示。
其中,otu-1和otu分別表示tu-1和tu時(shí)刻網(wǎng)絡(luò)的輸出,atu表示tu時(shí)刻輸入網(wǎng)絡(luò)中的句向量,θ2表示網(wǎng)絡(luò)的參數(shù)。該網(wǎng)絡(luò)最后時(shí)刻的輸出向量作為論文的內(nèi)容向量,如式(7)所示。
其中,qc表示論文的內(nèi)容向量。
最后,將其輸入生成對(duì)抗網(wǎng)絡(luò)的推薦框架中進(jìn)行模型的訓(xùn)練。
生成對(duì)抗網(wǎng)絡(luò)的推薦框架包括生成模型G和判別模型D,對(duì)于給定用戶u,G嘗試生成一組u可能感興趣的推薦列表,而D則試圖判斷生成物品和用戶實(shí)際感興趣物品的差異。本文在IRGAN[14]模型基礎(chǔ)上,融合論文的文本信息,框架如圖2所示。IRGAN模型只利用了用戶和項(xiàng)目的交互記錄,本文通過(guò)融入文本信息,在一定程度上緩解數(shù)據(jù)稀疏性問(wèn)題,進(jìn)而提升推薦性能。
圖2 TAGAN推薦框架
生成模型G采用的是矩陣分解模型(MF),對(duì)于用戶的隱式反饋信息,在嵌入層通過(guò)嵌入矩陣可將用戶和論文轉(zhuǎn)化為相應(yīng)的特征向量,如式(8)所示。
其中,P∈Rb×k,Q∈Rd×k分別表示用戶和論文的嵌入矩陣,b、d分別表示用戶數(shù)量和論文數(shù)量,k為特征向量的維度,vu、vi分別表示用戶和論文根據(jù)ID轉(zhuǎn)化的獨(dú)熱向量,pu、分別表示用戶和論文的交互特征。
其中,β為平衡因子,用來(lái)調(diào)節(jié)文本信息的參與度。
用戶對(duì)論文的推薦分?jǐn)?shù)可通過(guò)內(nèi)積來(lái)計(jì)算,如式(10)所示。
其中,bi表示論文的偏置項(xiàng)。
生成模型G計(jì)算用戶對(duì)候選論文的推薦分?jǐn)?shù)并使用so+tmax函數(shù)轉(zhuǎn)化為推薦分布,如式(11)所示,從該分布中進(jìn)行采樣得到推薦列表。
其中,τ表示調(diào)節(jié)因子,其值越小,推薦列表會(huì)更加集中于分?jǐn)?shù)較高的論文。
判別模型D是一個(gè)二分類(lèi)器,IRGAN在推薦任務(wù)中使用基于點(diǎn)對(duì)(pointwise)的矩陣分解算法,本文發(fā)現(xiàn)在隱式反饋中,優(yōu)化已交互論文和生成論文的相對(duì)關(guān)系能加速模型的收斂,更有利于生成模型G的訓(xùn)練。因此,本文的判別模型D采用貝葉斯個(gè)性化排序算法(BPR)。
判別模型D判斷用戶u對(duì)從歷史記錄中采樣的論文i和生成模型生成的論文j所組成三元組<u,i,j>的偏序關(guān)系正確與否,如式(12)所示。
其中,D(i,j|u)表示判別模型D對(duì)三元組<u,i,j>偏序關(guān)系正確判斷的可能程度,σ為sigmoi2函數(shù)。判別模型D通過(guò)更新參數(shù)使能盡可能正確判斷出三元組的偏序關(guān)系,即最大化兩個(gè)樣本之間的差距,而生成模型G通過(guò)更新參數(shù)使得判別模型D無(wú)法準(zhǔn)確判斷出三元組的偏序關(guān)系,即最小化兩個(gè)樣本之間的差距,由此可得到兩者的代價(jià)函數(shù),如式(13)所示。
其中,生成模型G通過(guò)最小化代價(jià)函數(shù)更新參數(shù)θ,判別模型D通過(guò)最大化代價(jià)函數(shù)更新參數(shù)φ,兩者交替更新,直至模型收斂。
由于生成模型G生成的推薦列表傳遞給判別模型D是一個(gè)離散采樣過(guò)程,所以無(wú)法通過(guò)梯度下降對(duì)生成模型進(jìn)行更新,這里采用強(qiáng)化學(xué)習(xí)中的策略梯度來(lái)更新生成模型的參數(shù),如式(14)所示,整體框架的算法流程如算法1所示。
算法1TAGAN算法流程
輸入用戶-項(xiàng)目隱式交互矩陣,論文語(yǔ)義特征
輸出生成器Gθ
隨機(jī)化初始生成模型參數(shù)θ和判別模型參數(shù)φ;
Repeat
forDsteps do
生成模型G生成推薦列表
在判別模型中構(gòu)建三元組
基于式(13)更新判別模型參數(shù)
end for
forGsteps do
生成模型G生成推薦列表
固定判別模型參數(shù)生成反饋
基于式(14)更新生成模型參數(shù)
end for
until TAGAN收斂
本文的實(shí)驗(yàn)采用兩個(gè)公開(kāi)的論文數(shù)據(jù)集citeulike-a和 citeulike-t。這兩個(gè)數(shù)據(jù)集都包含論文的標(biāo)題和摘要信息以及用戶和論文的交互數(shù)據(jù)。對(duì)于這兩個(gè)數(shù)據(jù)集,分別將其隨機(jī)分為兩個(gè)子集,其中80%的交互數(shù)據(jù)作為訓(xùn)練集,其余20%的交互數(shù)據(jù)為測(cè)試集。本文刪除了缺少標(biāo)題摘要或其內(nèi)容有損的論文和其相應(yīng)的交互記錄,同時(shí),過(guò)濾掉交互記錄小于10次的用戶,經(jīng)處理后的兩個(gè)數(shù)據(jù)集,稀疏度分別高達(dá)99.79%和99.88%。
本文使用命中率(HR)和歸一化累計(jì)折扣累積增益(NDCG)兩個(gè)評(píng)價(jià)指標(biāo)對(duì)推薦模型進(jìn)行性能評(píng)估,評(píng)價(jià)指標(biāo)定義如下。
(1)在TopK推薦中,HR是一種常用的衡量召回率的指標(biāo),強(qiáng)調(diào)用戶感興趣的論文是否出現(xiàn)在推薦列表中,定義如式(15)所示。
其中,N表示數(shù)據(jù)集中所有論文的數(shù)量,分子表示在K個(gè)推薦論文中用戶感興趣的論文數(shù)量。
(2)歸一化累計(jì)折扣累積增益是一種用來(lái)衡量推薦列表排序質(zhì)量的評(píng)價(jià)指標(biāo),用戶感興趣的論文在推薦列表的排名越靠前,則該指標(biāo)值越大,該指標(biāo)的定義如式(16)所示。
其中,Zk是標(biāo)準(zhǔn)化因子,ir的值為0或1,表示論文i的預(yù)測(cè)相關(guān)性,lg(1+i)表示位置i的衰減函數(shù)。
· ItemPop[18]:一種基于項(xiàng)目的流行度進(jìn)行推薦的方法,屬于非個(gè)性化推薦。
· MF-BPR[19]:基于貝葉斯個(gè)性化排序的矩陣分解推薦算法,通過(guò)交互矩陣分析用戶和項(xiàng)目的潛在向量,并以成對(duì)的排序方式進(jìn)行模型的訓(xùn)練。
· ConvMF[17]:卷積矩陣分解,使用卷積神經(jīng)網(wǎng)絡(luò)提取項(xiàng)目的輔助特征,并集成到概率矩陣分解模型中進(jìn)行推薦計(jì)算。
· IRGAN[14]:信息生成檢索對(duì)抗網(wǎng)絡(luò),將生成對(duì)抗網(wǎng)絡(luò)的思想應(yīng)用到推薦領(lǐng)域,通過(guò)生成模型和判別模型的相互博弈不斷改進(jìn)推薦模型。
3.4.1 實(shí)驗(yàn)對(duì)比
在TopK推薦時(shí),分別設(shè)定K的值為5、10、15,在兩個(gè)數(shù)據(jù)集上的結(jié)果分別如圖3和圖4所示。圖3中,TAGAN在兩個(gè)指標(biāo)上表現(xiàn)都優(yōu)于基線模型,分別比IRGAN和ConvMF在HR上提升了0.081和0.077,NDCG提升了0.073和0.071,這得益于對(duì)論文信息的細(xì)粒度語(yǔ)義特征提取和生成對(duì)抗網(wǎng)絡(luò)擬合真實(shí)樣本分布的能力。相比而言,無(wú)個(gè)性化推薦的 ItemPop算法僅依靠論文的流行度進(jìn)行推薦,效果遠(yuǎn)差于其余個(gè)性化推薦模型,這也說(shuō)明了個(gè)性化推薦的重要性。MF-BPR和IRGAN均只使用到用戶論文的交互數(shù)據(jù),它們的推薦性能弱于或接近于使用輔助信息的ConvMF,這也表明了引入輔助信息能有效緩解數(shù)據(jù)稀疏問(wèn)題。同時(shí),IRGAN的各方面指標(biāo)都高于MF-BPR,也證明了 GAN推薦算法擬合用戶興趣偏好的能力。而TAGAN集成了細(xì)粒度的語(yǔ)義特征和GAN推薦算法,其推薦能力相比基線模型都有不同幅度的提升。
圖3 citeulike-a中不同模型推薦性能比較
圖4 citeulike-t中不同模型推薦性能比較
3.4.2 模型簡(jiǎn)化測(cè)試
TAGAN主要由論文語(yǔ)義提取和GAN推薦算法兩部分組成,為了進(jìn)一步驗(yàn)證GAN推薦算法擬合用戶偏好的能力,本節(jié)在原框架中使用MF-BPR替換 GAN推薦算法部分,簡(jiǎn)稱(chēng)TABPR-MF,并做相應(yīng)的對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)對(duì)比結(jié)果如圖5所示??梢园l(fā)現(xiàn),在引入相同輔助信息的情況下,TAGAN的效果更佳,在兩個(gè)數(shù)據(jù)集上HR指標(biāo)分別提高了0.057和0.064,這也證實(shí)了GAN在推薦領(lǐng)域中的可行性。同時(shí),TABPR-MF的效果要優(yōu)于 MF-BPR,也間接說(shuō)明了引入輔助信息的有效性。
圖5 TAGAN和TABPR-MF實(shí)驗(yàn)對(duì)比結(jié)果
3.4.3 參數(shù)β的效果
語(yǔ)義權(quán)重參數(shù)β作用是調(diào)節(jié)語(yǔ)義特征在建模過(guò)程的重要性,通過(guò)實(shí)驗(yàn)發(fā)現(xiàn),不同的參數(shù)值會(huì)影響推薦效果,本節(jié)將參數(shù)β從0調(diào)整到1并以0.2為步長(zhǎng)進(jìn)行調(diào)整,結(jié)果如圖6所示,兩個(gè)數(shù)據(jù)集的性能趨勢(shì)非常相似,在增加β的值時(shí),它們都有更好的性能表現(xiàn),當(dāng)β的值為 0.6時(shí),模型的表現(xiàn)最佳。但是,進(jìn)一步調(diào)整增加β的值將大大降低推薦性能。這說(shuō)明,語(yǔ)義特征的嵌入和交互特征需要合理組合,才能更好地提升論文的表達(dá)性。
圖6 參數(shù)β對(duì)推薦性能的影響
本文提出了一種融合細(xì)粒度語(yǔ)義特征的學(xué)術(shù)論文對(duì)抗推薦模型(TAGAN),利用 CNN和雙層的LSTM 網(wǎng)絡(luò)分別提取論文的標(biāo)題和摘要的語(yǔ)義信息。同時(shí),引入注意力機(jī)制關(guān)聯(lián)標(biāo)題和摘要,加強(qiáng)論文的特征表示,并融入GAN推薦算法,借助生成模型能高度擬合樣本分布的能力對(duì)用戶的興趣偏好建模,進(jìn)一步提升推薦的效果。未來(lái)的研究方向會(huì)聚焦于 GAN推薦算法,當(dāng)前的生成模型使用的還是矩陣分解模型,相比于神經(jīng)協(xié)同過(guò)濾[20]等模型,其建模用戶項(xiàng)目交互能力略顯不足。因此,下一步的研究將嘗試使用交互能力更強(qiáng)的推薦模型并將其嵌入GAN推薦算法中,以此來(lái)提升推薦的性能。