張養(yǎng)碩,牛存良,姚 政,張琳鈺
(河北工業(yè)大學(xué) 人工智能與數(shù)據(jù)科學(xué)學(xué)院,天津 300401)
隨著數(shù)據(jù)的爆炸增長(zhǎng)與大數(shù)據(jù)技術(shù)的普及,如何快速的從海量數(shù)據(jù)中挖掘有效信息成為當(dāng)今研究熱點(diǎn)。推薦系統(tǒng)作為一種緩解信息過(guò)載的重要技術(shù),能從大量的數(shù)據(jù)中挖掘數(shù)據(jù)信息,適應(yīng)用戶的喜好,并通過(guò)推薦列表向用戶提供其喜愛(ài)的項(xiàng)目,該功能在電商(Amazon、淘寶)、社交(Face-book、微信)、新聞(Google News、今日頭條)等方面應(yīng)用日益廣泛。
本文在融入用戶數(shù)據(jù)、項(xiàng)目數(shù)據(jù)、用戶信任關(guān)系數(shù)據(jù)、項(xiàng)目屬性數(shù)據(jù)的基礎(chǔ)上,提出一種新的融合注意力機(jī)制和用戶信任機(jī)制的深度推薦算法(DRAAT,deep recommendation algorithm integrating attention and user trust mechanism)。實(shí)驗(yàn)結(jié)果表明,本文所提出的DRAAT算法,在一定程度上提高了推薦的效率和精度,同時(shí)給用戶提供了更個(gè)性化的推薦。
早期的基于內(nèi)容的推薦(Content-Based Recommendation)[1]主要是給用戶推薦項(xiàng)目種類相同的物品,推薦方法簡(jiǎn)單直接,推薦形式單調(diào),無(wú)法為用戶找到感興趣的其他種類,后來(lái)提出的影響深遠(yuǎn)的協(xié)同過(guò)濾技術(shù)(Collaborative Filtering)[2]能給用戶提供新的選擇,并且在技術(shù)上易于實(shí)現(xiàn)。通過(guò)數(shù)據(jù)收集用戶喜好,并根據(jù)相似度預(yù)測(cè)評(píng)分,協(xié)同過(guò)濾技術(shù)使推薦問(wèn)題逐漸變成回歸問(wèn)題,矩陣分解應(yīng)運(yùn)而生。Salakhutdinov等[3]提出的概率矩陣分解(PMF,Probabilistic Matrix Factorization)模型運(yùn)用高斯分布、貝葉斯原理進(jìn)行數(shù)學(xué)建模,從概率的角度來(lái)預(yù)測(cè)用戶的評(píng)分。隨后,降噪自編碼器也應(yīng)用到矩陣分解中,Wang等[4]通過(guò)降噪自編碼器實(shí)現(xiàn)了更好的推薦效果。
隨著大數(shù)據(jù)技術(shù)的發(fā)展,國(guó)內(nèi)外眾研究者對(duì)基于深度學(xué)習(xí)的推薦算法展開(kāi)廣泛研究[5]。Hinton等[6]提出深度信念網(wǎng)絡(luò)概念,它比傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)訓(xùn)練簡(jiǎn)單,多應(yīng)用在音樂(lè)推薦中。He等[7]提出挖掘用戶和項(xiàng)目之間復(fù)雜關(guān)系的神經(jīng)協(xié)同過(guò)濾模型,利用多層神經(jīng)網(wǎng)絡(luò)建模用戶和項(xiàng)目之間的線性與非線性特征。注意力機(jī)制最初被應(yīng)用于機(jī)器翻譯領(lǐng)域,后來(lái)逐漸應(yīng)用于推薦系統(tǒng),它通過(guò)學(xué)習(xí)特定關(guān)系來(lái)挖掘用戶特定層面的隱含信息,以提升推薦性能。Gong[8]等在卷積神經(jīng)網(wǎng)絡(luò)(CNN,Convolutional Neural Network)的基礎(chǔ)上加入注意力機(jī)制,提取微博的標(biāo)簽特征進(jìn)行話題推薦。Wang[9]等利用CNN提出動(dòng)態(tài)注意力模型,通過(guò)CNN學(xué)習(xí)文章的表達(dá)形式和語(yǔ)義信息,捕獲作者選文章時(shí)的動(dòng)態(tài)行為。王永貴等[10]通過(guò)雙層注意力機(jī)制挖掘項(xiàng)目信息,但缺少對(duì)用戶信息的挖掘?qū)е峦扑]效率偏低。柴超群[11]通過(guò)社交網(wǎng)絡(luò)信息構(gòu)建用戶信息,但缺少對(duì)社交網(wǎng)絡(luò)信息的挖掘,同時(shí)只挖掘項(xiàng)目單一屬性,導(dǎo)致數(shù)據(jù)利用不充分。雖然上述算法可以實(shí)現(xiàn)很好的推薦效果,但是缺少對(duì)歷史項(xiàng)目的挖掘,缺少通過(guò)用戶信任機(jī)制對(duì)用戶信息的建模。針對(duì)以上問(wèn)題,本文提出了一種融合注意力機(jī)制和用戶信任機(jī)制的深度推薦算法,研究工作主要優(yōu)勢(shì)如下:
1)同時(shí)關(guān)注用戶數(shù)據(jù)、項(xiàng)目數(shù)據(jù)、用戶信任關(guān)系數(shù)據(jù)3方面數(shù)據(jù),以實(shí)現(xiàn)更精準(zhǔn)的深度推薦;
2)通過(guò)雙層注意力機(jī)制實(shí)現(xiàn)歷史項(xiàng)目信息的挖掘,更有效地捕捉有價(jià)值的高階交互信息;
3)通過(guò)顯性和隱性信任關(guān)系定義新的用戶信任關(guān)系,并利用注意力機(jī)制總結(jié)社交網(wǎng)絡(luò)中用戶信任關(guān)系的影響力;
4)引入多層感知機(jī)同時(shí)處理用戶項(xiàng)目的原始特征和高階特征信息,以提供top-N推薦。
為挖掘信息的潛在特性,對(duì)數(shù)據(jù)進(jìn)行全面的分析,本文使用降噪自編碼器對(duì)原始數(shù)據(jù)編碼,在輸入時(shí)使用預(yù)處理的One-Hot編碼,表示用戶和項(xiàng)目的向量。通過(guò)降噪自編碼器的訓(xùn)練后得到嵌入數(shù)據(jù)。研究通過(guò)獲取用戶數(shù)據(jù)、項(xiàng)目數(shù)據(jù)、用戶信任關(guān)系數(shù)據(jù)、項(xiàng)目屬性數(shù)據(jù)的降噪自編碼作為輸入,經(jīng)過(guò)4個(gè)獨(dú)立的降噪自編碼器的訓(xùn)練,得到嵌入表示p、q、t、l,其中(p,q,t,l)∈?k。
注意力機(jī)制借鑒了認(rèn)知心理學(xué)中的人腦注意力模型,核心目標(biāo)是從眾多信息中選擇出對(duì)當(dāng)前任務(wù)目標(biāo)更關(guān)鍵的信息。本文的注意力機(jī)制應(yīng)用在Encoder-Decoder的模型中,利用降噪自編碼器對(duì)輸入數(shù)據(jù)進(jìn)行Encoder編碼,即將每個(gè)輸入的數(shù)據(jù)映射成相同長(zhǎng)度的上下文向量,之后Decoder編碼輸出的是編碼后的上下文向量。在Decoder編碼時(shí)加入注意力機(jī)制,其輸出后的數(shù)據(jù)不是對(duì)數(shù)據(jù)在上下文信息的簡(jiǎn)單的累加,而是引入對(duì)于各個(gè)輸入信息的權(quán)值對(duì)其進(jìn)行加權(quán)求和運(yùn)算的結(jié)果。
傳統(tǒng)的注意力機(jī)制針對(duì)不同的歷史項(xiàng)目分配相同的權(quán)重,未能充分挖掘歷史項(xiàng)目信息。為了挖掘項(xiàng)目更深層次的信息,本文利用兩層注意力機(jī)制,專注于處理項(xiàng)目屬性偏好和交互偏好,最終融合得到項(xiàng)目綜合特征,項(xiàng)目綜合特征模型如圖1所示。
圖1 項(xiàng)目綜合特征模型Fig.1 Project comprehensive feature model
本文的項(xiàng)目級(jí)注意力機(jī)制的構(gòu)建如下。通過(guò)降噪自編碼器建模用戶數(shù)據(jù),獲得項(xiàng)目的低維向量化表示,其中項(xiàng)目i的表示向量為qi,(qi1,qi2,…,qix)為項(xiàng)目i的第x個(gè)屬性,qr為待推薦項(xiàng)目。為了推薦時(shí)更多的挖掘項(xiàng)目信息,使不同的歷史項(xiàng)目在預(yù)測(cè)時(shí)做出不同的貢獻(xiàn),學(xué)習(xí)各個(gè)項(xiàng)目的潛在信息為用戶提供帶推薦項(xiàng)目qi時(shí),充分考慮用戶的歷史數(shù)據(jù),將用戶u的歷史數(shù)據(jù)融入待推薦項(xiàng)目qj的屬性偏好,則項(xiàng)目的屬性偏好向量qi表達(dá)式為
式中,μj,x為待推薦項(xiàng)目qr對(duì)歷史項(xiàng)目第x個(gè)屬性qj,x的偏好,學(xué)習(xí)到可靠的項(xiàng)目的屬性偏好向量qi,便可用于注意力μj,x權(quán)重的學(xué)習(xí),所以項(xiàng)目屬性偏好注意力權(quán)重μj,x的表達(dá)式為
注意力的推薦中,有些用戶的歷史活躍度很長(zhǎng),softmax函數(shù)會(huì)對(duì)有較長(zhǎng)歷史活躍度的用戶進(jìn)行懲罰,引用文獻(xiàn)[10]的做法引入λ作為平滑指數(shù),score(qr,t,qj,t)為對(duì)齊分?jǐn)?shù),用來(lái)衡量?jī)蓚€(gè)向量的匹配程度,使用多層感知機(jī)模型進(jìn)行學(xué)習(xí)。用tanh作為非線性激活函數(shù),用來(lái)表示輸入序列和輸出序列的隱含層狀態(tài),score(qr,t,qj,t)表達(dá)式為
式中,Va1和Wa1為訓(xùn)練參數(shù)。為了獲取更深層次的歷史交互項(xiàng)目的數(shù)據(jù),在得到用戶屬性偏好的基礎(chǔ)上,針對(duì)用戶的屬性偏好向量qj和項(xiàng)目交互向量lr運(yùn)用注意力機(jī)制,得到交互偏好的項(xiàng)目隱式向量,使用注意力機(jī)制,獲取待推薦項(xiàng)目交互向量lr對(duì)于項(xiàng)目的屬性偏好向量qj的影響力權(quán)重ηr,j。其第2層待推薦項(xiàng)目的交互的注意力權(quán)重ηr,j的表達(dá)式為
式中,score(,qj)為對(duì)齊分?jǐn)?shù),仍采用多層感知機(jī)模型進(jìn)行學(xué)習(xí),選擇tanh作為非線性激活函數(shù),score(lr,qj)表達(dá)式為
式中,Va2和Wa2為訓(xùn)練參數(shù)。通過(guò)兩層注意力機(jī)制,感知器模型學(xué)習(xí)用戶注意力偏好,結(jié)合項(xiàng)目的屬性偏好向量qj和待推薦項(xiàng)目的交互向量lr的關(guān)系,確定各自的權(quán)重系數(shù)后獲得項(xiàng)目綜合特征q~r定義如下:
用戶的社交關(guān)系能提供豐富的數(shù)據(jù)信息,在傳統(tǒng)的社交網(wǎng)絡(luò)推薦中,用戶會(huì)受其信任朋友的影響,與其朋友具有相似的興趣,通過(guò)挖掘用戶的信任關(guān)系為待推薦用戶推薦其信任朋友選擇的項(xiàng)目。本文利用評(píng)分?jǐn)?shù)據(jù)、用戶信任關(guān)系分別定義顯示和隱式信任關(guān)系得到用戶綜合信任關(guān)系數(shù)據(jù),再利用注意力機(jī)制總結(jié)社交網(wǎng)絡(luò)中用戶信任關(guān)系的影響力,得到用戶綜合特征,模型如圖2所示。
圖2 用戶綜合特征模型Fig.2 User comprehensive feature model
傳統(tǒng)的推薦大多只關(guān)注顯性信任,而忽略了用戶隱形信任關(guān)系。本文研究的用戶信任機(jī)制基本思想是給用戶推薦其信任用戶的項(xiàng)目選擇,所以挖掘用戶間有效的信任關(guān)系,能得到融入信息更豐富的用戶綜合特征。首先通過(guò)用戶評(píng)分整理用戶隱性信任關(guān)系TI,接著通過(guò)用戶被信任數(shù)量的大小定義用戶的顯性信任關(guān)系TE,最后得到用戶的綜合信任關(guān)系T~,將得到用戶的綜合信任關(guān)系形成社會(huì)化信任矩陣,為接下來(lái)注意力機(jī)制的引入提供保障。
用戶評(píng)分的準(zhǔn)確性直接影響推薦效率,用戶評(píng)分越高表示對(duì)該項(xiàng)目越喜愛(ài),但是日常生活中用戶針對(duì)一些項(xiàng)目評(píng)分只打中間值,導(dǎo)致評(píng)分?jǐn)?shù)據(jù)準(zhǔn)確性低影響推薦效率,故引入用戶評(píng)分準(zhǔn)確度系數(shù)β。
式中:Rui表示用戶u對(duì)項(xiàng)目j的評(píng)分;表示用戶對(duì)所有項(xiàng)目i的平均評(píng)分。當(dāng)用戶u對(duì)項(xiàng)目i有評(píng)分,F(xiàn)ui取值為1,用戶u項(xiàng)目i沒(méi)有評(píng)分取值為0。
通常采用目前主流的Pearson相關(guān)系數(shù)計(jì)算用戶評(píng)分相似度,開(kāi)始需要找到用戶i和用戶j共同評(píng)分的項(xiàng)目集合,但是這樣的用戶相似度并沒(méi)有考慮到目標(biāo)項(xiàng)目信息,目標(biāo)用戶及其鄰居用戶的相似度都是恒定不變的,導(dǎo)致推薦效率降低,在計(jì)算用戶相似度時(shí)引入項(xiàng)目相似度信息,定義項(xiàng)目的相似度SI(i,j)計(jì)算公式表示為
式中:Uij為對(duì)項(xiàng)目i和j同時(shí)評(píng)分的用戶集合;和則表示項(xiàng)目評(píng)分均值。針對(duì)不同的項(xiàng)目,考慮不同項(xiàng)目對(duì)用戶相似度的影響,將項(xiàng)目相似度SI(i,j)引入Pearson相關(guān)系數(shù)計(jì)算用戶評(píng)分相似度,用戶相似度計(jì)算公式為
式中:Ck為項(xiàng)目i的類別;為用戶種類對(duì)Ck的共同評(píng)分集合。該公式考慮到了不同項(xiàng)目對(duì)用戶相似度的影響,最終計(jì)算出的相似度會(huì)更加的準(zhǔn)確。
這里定義用戶隱式信任關(guān)系TI,用戶u和v的隱式信任關(guān)系定義如下:
本文用TE表示用戶i和j的顯式信任關(guān)系。tij表示用戶i和j的信任關(guān)系,用戶i信任用戶j時(shí)取1,否則取0。但是信任關(guān)系并不是對(duì)稱的,顯然信任和被信任的數(shù)量有關(guān),當(dāng)用戶i被眾多其他用戶信任時(shí)則用戶i的可信度高影響力大;反之用戶i信任眾多其他用戶時(shí),用戶i的受每個(gè)用戶的影響就小,可信度低影響力就小,因此結(jié)合影響力得到用戶i和j的顯式信任關(guān)系TE,定義如下:
式中:表示用戶ui被信任的用戶數(shù)量;表示用戶ui信任的用戶數(shù)量。用戶的綜合信任定義如下:
挖掘用戶信任關(guān)系數(shù)據(jù),考慮用戶隱式信任關(guān)系和顯示信任關(guān)系,得到用戶的綜合信任關(guān)系能更真實(shí)的體現(xiàn)推薦的過(guò)程。為獲得更加豐富的用戶信任關(guān)系,挖掘用戶信任關(guān)系,定義用戶信任閾值t,判斷用戶u和v之間的信任關(guān)系有無(wú),定義如下:
在用戶信任關(guān)系數(shù)據(jù)的基礎(chǔ)上挖掘用戶間信任關(guān)系,本文選擇多層感知機(jī)學(xué)習(xí)用戶的信任注意力關(guān)系,非線性激活函數(shù)選擇RELU,用戶u對(duì)于其信任用戶v的對(duì)齊分?jǐn)?shù)score(pu,tv)表達(dá)式為
式中:W是注意力的權(quán)重矩陣;b是系統(tǒng)的偏置。用戶和其信任朋友間的影響力權(quán)重λu,v定義如下:
利用注意力機(jī)制挖掘用戶和其信任朋友間的影響力權(quán)重λu,v,并融合用戶原始數(shù)據(jù),確定各自的權(quán)重系數(shù)之后計(jì)算獲得用戶綜合特征定義如下:
通過(guò)上述描述,本文充分考慮用戶數(shù)據(jù)、項(xiàng)目數(shù)據(jù)、用戶信任關(guān)系數(shù)據(jù)、項(xiàng)目屬性數(shù)據(jù),利用項(xiàng)目綜合特征和用戶綜合特征得到用戶項(xiàng)目綜合評(píng)分定義如下
為了避免因過(guò)度挖掘造成推薦效率降低,通過(guò)橫向并聯(lián)少量數(shù)據(jù)得到更加豐富的信息。因此,橫向增加用戶和項(xiàng)目的原始隱性特征提升推薦效率。通過(guò)多層感知機(jī)獲取用戶特征和項(xiàng)目特征,經(jīng)過(guò)池化層將用戶向量和項(xiàng)目向量堆疊起來(lái),得到更完整的數(shù)據(jù)嵌入,其公式為
將堆疊數(shù)據(jù)利用多層感知機(jī)獲取用戶和項(xiàng)目信息的隱式特征,使用RELU作為激活函數(shù),定義如下:
利用用戶項(xiàng)目綜合評(píng)分和用戶和項(xiàng)目信息的隱式特征融合,綜合變量h定義如下:
應(yīng)用多層感知機(jī),得到算法最終預(yù)測(cè)評(píng)分,引入Dropout機(jī)制防止過(guò)擬合得到最終預(yù)測(cè)評(píng)分h~。利用BPTT算法開(kāi)展模型優(yōu)化,其中交叉熵?fù)p失函數(shù)定義如下:
DRAAT算法模型如圖3所示。本算法通過(guò)對(duì)項(xiàng)目信息引入雙層注意力機(jī)制,挖掘項(xiàng)目屬性偏好和交互偏好并聯(lián)合得到項(xiàng)目綜合特征,對(duì)用戶信息建模分別定義顯示和隱式信任關(guān)系得到用戶綜合信任關(guān)系,利用注意力機(jī)制挖掘用戶信任關(guān)系權(quán)重,利用多層感知機(jī)獲取用戶和項(xiàng)目的原始特征,并融合用戶項(xiàng)目綜合評(píng)分,得到最終預(yù)測(cè)評(píng)分應(yīng)用于top-N推薦。
圖3 DRAAT算法模型圖Fig.3 DRAAT algorithm model diagram
使用推薦系統(tǒng)常用的公共數(shù)據(jù)集Film Trust和Ciao,F(xiàn)ilm Trust數(shù)據(jù)集包含了用戶數(shù)、電影數(shù)、電影評(píng)分、社交信息等。Ciao為物評(píng)論網(wǎng)站數(shù)據(jù),其中包含了用戶、物品和物品的評(píng)分、有向社交關(guān)系等數(shù)據(jù)。為了清洗數(shù)據(jù)本文過(guò)濾項(xiàng)目評(píng)分?jǐn)?shù)小于5的用戶,數(shù)據(jù)集的統(tǒng)計(jì)情況如表1所示。
表1 Film Trust數(shù)據(jù)集的統(tǒng)計(jì)信息Tab.1 Statistics of Film Trust data set
為了評(píng)價(jià)推薦系統(tǒng)的推薦質(zhì)量,本文采用常用的評(píng)價(jià)指標(biāo):命中率(Hit Ratio,HR)和歸一化折扣累計(jì)增益(Normalized Discounted Cumulative Gain,NDCG)。命中率HR衡量召回率,直觀的測(cè)量推薦的準(zhǔn)確率,式中GT為用戶在測(cè)試集中所有項(xiàng)目的數(shù)量之和;歸一化折扣累計(jì)增益NDCG衡量排序質(zhì)量,評(píng)價(jià)指標(biāo)定義如下:
將本文提出的DRAAT算法與以下算法比較:1)LFM[12]是一種隱語(yǔ)義模型通過(guò)矩陣分解預(yù)測(cè)項(xiàng)目評(píng)分,是最經(jīng)典的矩陣分解算法之一;2)PMF[3]是一種概率矩陣分解推薦模型,在傳統(tǒng)的矩陣分解模型基礎(chǔ)上從概率的角度對(duì)矩陣分解模型進(jìn)行解釋;3)SocialMF[13]將用戶的社交信任信息融入到傳統(tǒng)的矩陣分解模型中;4)DeepMF[14]利用深度神經(jīng)網(wǎng)絡(luò)獲取多階特征信息,學(xué)習(xí)特征間的高階關(guān)系;5)NAIS[15]利用使用注意力機(jī)制和多層神經(jīng)網(wǎng)絡(luò)建模用戶和項(xiàng)目的線性與非線性特征;6)CFM[16]使用卷積處理特征的交互模塊,提取向量的二階特征。
依據(jù)以往實(shí)驗(yàn)經(jīng)驗(yàn),在數(shù)據(jù)集中隨機(jī)抽取80%的數(shù)據(jù)作為實(shí)驗(yàn)訓(xùn)練集,20%的數(shù)據(jù)為實(shí)驗(yàn)測(cè)試集。本文使用數(shù)據(jù)集Film Trust調(diào)整模型參數(shù),設(shè)置學(xué)習(xí)率為0.01,MLP各隱藏單元數(shù)為{128,64,32,5},各級(jí)隱藏層神經(jīng)元個(gè)數(shù)為128。注意力權(quán)重尺寸與嵌入尺寸相同,嵌入特征向量維度設(shè)為{8,16,32,64},TOP-N推薦中的推薦個(gè)數(shù)N取值為{5,10,15,20}。
如圖4所示當(dāng)嵌入向量為8時(shí),所有算法排序質(zhì)量都較差,嵌入向量為度16時(shí)有大的提升,但隨著嵌入向量維度的增加,其他算法提升效果不明顯,但本文算法仍有一定程度的提升;在top-N推薦中,如圖5所示N的值越大推薦效果越好,符合普遍認(rèn)知,推薦的數(shù)量越多就會(huì)有更多用戶喜愛(ài)的項(xiàng)目,N的各個(gè)取值中本文的算法與其它算法相比表現(xiàn)良好。圖6表示基礎(chǔ)信息引入的權(quán)重α和φ對(duì)于模型NDCG值的影響,由圖中信息可知,α和φ的效果都是先提升后降落,分別在用戶基礎(chǔ)信息權(quán)重在α=0.7和項(xiàng)目信息權(quán)重在φ=0.6時(shí)排序質(zhì)量最優(yōu)。權(quán)衡模型性能后選擇d=32,α=0.7,φ=0.6,N=10作DRAAT算法最佳參數(shù)組合。
圖4 嵌入向量維度d的影響Fig.4 Influence of the embedding vector dimension d
圖5 N的取值對(duì)排序質(zhì)量的影響Fig.5 Effect of the value of N on the quality of sorting
圖6 α和φ的取值對(duì)排序質(zhì)量的影響Fig.6 Effect of the value ofαandφon the quality of the sorting
使用GPU訓(xùn)練所有模型,LFM、PMF、SocialMF基于概率矩陣的算法,應(yīng)用格子搜索法確定獲得隱因子數(shù)量和最優(yōu)正則化系數(shù);對(duì)于深度學(xué)習(xí)模型Deep-MF、NAIS、CFM,其超參數(shù)繁多,選擇文獻(xiàn)中表現(xiàn)最優(yōu)的參數(shù)值進(jìn)行實(shí)驗(yàn)。DRAAT算法參數(shù)選擇d=32,α=0.7,φ=0.6,N=10,各類算法實(shí)驗(yàn)效果對(duì)比如表2所示。
通過(guò)表2可知,本文DRAAT算法在樣本數(shù)量大的Ciao數(shù)據(jù)集比數(shù)據(jù)量小的Film Trust數(shù)據(jù)集有較好的實(shí)驗(yàn)效果,所以實(shí)驗(yàn)樣本的大小影響推薦效果,說(shuō)明本文提出的融合注意力機(jī)制和用戶信任機(jī)制的深度推薦算法使用大量有監(jiān)督的數(shù)據(jù)來(lái)訓(xùn)練模型,學(xué)習(xí)到更多的有效信息,提高了推薦的準(zhǔn)確率。
通過(guò)實(shí)驗(yàn)數(shù)據(jù)得出本文提出的算法在兩個(gè)數(shù)據(jù)集上的HR和NDCG的指標(biāo)優(yōu)于其他算法。由表2可知,本文DRRAT算法比傳統(tǒng)的矩陣分解模型LFM、概率矩陣分解模型PMF、融入社交信任信息的矩陣分解模型SocialMF這些基于矩陣分解的算法在召回率上分別提升10.11%、10.33%、6.54%,在衡量排序質(zhì)量的歸一化折扣累計(jì)增益NDCG上分別提升9.5%、7.5%、6.6%;深度神經(jīng)網(wǎng)絡(luò)模型DeepMF、注意力模型NAIS、卷積特征交互模型CFM這些基于深度學(xué)習(xí)的推薦模型,利用非線性方式表示用戶和項(xiàng)目特征獲得不錯(cuò)的推薦效果,但是本文DRAAT算法比DeepMF、NAIS、CFM這些基于深度學(xué)習(xí)的推薦算法依然在HR的指標(biāo)上提升6.34%、4.57%、4.21%,在NDCG的指標(biāo)上提升4.8%、3.3%、2.4%。本文算法通過(guò)注意力機(jī)制和信任機(jī)制獲得過(guò)更好的項(xiàng)目綜合特征和用戶綜合特征,能更深入地挖掘數(shù)據(jù)來(lái)得到更好的推薦效果。實(shí)驗(yàn)表明,DRAAT算法擁有優(yōu)秀的推薦性能。
表2 各類算法實(shí)驗(yàn)效果對(duì)比Tab.2 Comparison of experimental effects of variousalgorithms
為了給用戶提供更個(gè)性化的推薦,如何精準(zhǔn)的把握用戶的喜好和需求,提高推薦的質(zhì)量成為當(dāng)下研究的主要方向。本文利用深度學(xué)習(xí)技術(shù)更精準(zhǔn)的捕獲數(shù)據(jù)間的交互關(guān)系,并且引入注意力機(jī)制和用戶信任機(jī)制,在融入用戶數(shù)據(jù)、項(xiàng)目數(shù)據(jù)、用戶信任關(guān)系數(shù)據(jù)、項(xiàng)目屬性數(shù)據(jù)的基礎(chǔ)上,提出一種新的融合注意力機(jī)制和用戶信任機(jī)制的深度推薦算法DRAAT。在數(shù)據(jù)集Film Trust和數(shù)據(jù)集Ciao上的試驗(yàn)結(jié)果表明,本文提出的算法對(duì)提高推薦精度有一定的效果,同時(shí)給用戶提供了更個(gè)性化的推薦。在今后的工作中,需要繼續(xù)鉆研先進(jìn)的推薦算法,提高推薦系統(tǒng)的質(zhì)量和算法的可解釋性。