易喬敏
(四川大學(xué)計(jì)算機(jī)學(xué)院,成都610065)
大數(shù)據(jù)時(shí)代,推薦系統(tǒng)作為一種重要的信息過濾技術(shù),在幫助用戶快速發(fā)現(xiàn)自己感興趣的內(nèi)容上發(fā)揮了重要作用,因而被廣泛部署到各種在線應(yīng)用中。推薦系統(tǒng)旨在從用戶的歷史交互/反饋中捕捉用戶的興趣或偏好,并提供個(gè)性化推薦。例如,網(wǎng)易云音樂根據(jù)用戶的聽歌記錄提供歌單推薦;微博根據(jù)用戶的興趣推薦相關(guān)的博主;淘寶根據(jù)用戶的瀏覽足跡在用戶主頁展示其可能感興趣的商品等。
在各種推薦系統(tǒng)中,協(xié)同過濾已經(jīng)成為主流的推薦方法之一,其思想是相似的用戶有相似的偏好,相似的商品具有相似的特征。典型的協(xié)同過濾方法主要包括3種類型:基于用戶的協(xié)同過濾、基于商品的協(xié)同過濾和基于模型的協(xié)同過濾。為了提高協(xié)同過濾的性能,許多工作開始考慮輔助信息[8,21,32],如社交網(wǎng)絡(luò)、商品標(biāo)簽,等等。盡管如此,大多數(shù)現(xiàn)有協(xié)同過濾方法仍依賴于一個(gè)潛在假設(shè),即用戶歷史反饋可以真實(shí)有效地反映用戶的興趣或偏好。然而事實(shí)上,用戶歷史反饋往往是有噪音的,當(dāng)大數(shù)據(jù)時(shí)代尤其如此。例如,用戶在淘寶上的一次商品點(diǎn)擊可能是一個(gè)隨機(jī)行為導(dǎo)致的自然噪音,其不能代表用戶的真實(shí)興趣;豆瓣上某個(gè)用戶對某部電影的評(píng)分可能因用戶評(píng)分時(shí)的愉悅心情而高于其對電影本身的滿意度,因此產(chǎn)生噪音評(píng)分。又如,某些電商利用畫像注入攻擊產(chǎn)生許多惡意噪音,以此操縱推薦系統(tǒng)來達(dá)成某些商業(yè)企圖。惡意或非惡意噪音的存在使協(xié)同過濾方法難以準(zhǔn)確地捕捉用戶的真實(shí)偏好,當(dāng)用戶的歷史交互發(fā)生改變時(shí),缺乏魯棒性的協(xié)同過濾方法難以產(chǎn)生穩(wěn)定的推薦結(jié)果,甚至推薦性能顯著降低。因此,如何從有噪音的用戶反饋數(shù)據(jù)中有效捕捉用戶的真實(shí)偏好,對提高推薦的魯棒性至關(guān)重要。事實(shí)上,準(zhǔn)確且魯棒的個(gè)性化推薦一方面有利于提升用戶對推薦結(jié)果的滿意度和信任度,另一方面也有助于提升應(yīng)用的用戶粘性,帶來經(jīng)濟(jì)利益。
根據(jù)Robust Statistics[1]對算法魯棒性的定義,本文從三個(gè)層次來分析協(xié)同過濾算法的魯棒性:
第一,魯棒性協(xié)同過濾應(yīng)該具有較高的推薦準(zhǔn)確性。為了提高推薦性能,除了考慮用戶的歷史反饋數(shù)據(jù),許多協(xié)同過濾推薦算法利用輔助信息或混合模型[2-4]來捕獲用戶偏好。諸如社交網(wǎng)絡(luò)、用戶/物品屬性、知識(shí)圖譜等輔助信息有助于學(xué)習(xí)更好的用戶和商品表達(dá)以提升推薦性能;混合模型組合不同推薦模型的推薦結(jié)果,以集成的方式提升推薦準(zhǔn)確性。
第二,魯棒性協(xié)同過濾應(yīng)該具有一定的處理用戶反饋中自然噪音的能力。事實(shí)上,用戶的交互行為或評(píng)分行為常常是不完美的,魯棒性推薦要求推薦模型在面對有自然噪音的用戶反饋時(shí),能夠在一定程度上保持推薦結(jié)果的準(zhǔn)確性和穩(wěn)定性。因此,魯棒性協(xié)同過濾需要從噪音反饋中挖掘用戶的真實(shí)偏好。
第三,魯棒性協(xié)同過濾應(yīng)該具有一定程度的抵抗惡意噪音的能力。受某些經(jīng)濟(jì)利益的驅(qū)動(dòng),一些惡意用戶有目的地向推薦系統(tǒng)注入大量虛假用戶畫像,從而提升或降低某些物品被推薦的可能性[5]。然而,惡意用戶的推薦目的往往不符合大多數(shù)其他用戶的期望,故顯著降低個(gè)性化推薦性能。防止惡意噪音對推薦系統(tǒng)產(chǎn)生災(zāi)難性的影響是魯棒性推薦的一大挑戰(zhàn)。
一些研究已經(jīng)關(guān)注到推薦的魯棒性問題[5-7,9-13]。早期工作[5-7,11-13]主要集中于研究推薦算法抵抗惡意噪音的能力。為了提高推薦系統(tǒng)對惡意攻擊的魯棒性,一些方法[5,12]通過分析真實(shí)用戶與可能的惡意用戶之間打分行為的差異識(shí)別惡意用戶,從而提前過濾惡意用戶或降低惡意用戶的數(shù)據(jù)對模型學(xué)習(xí)的影響。文獻(xiàn)[7]總結(jié)了八種不同的注入攻擊策略和惡意噪音環(huán)境中魯棒性協(xié)同過濾的三個(gè)方面的技術(shù),包括攻擊策略、探測策略和魯棒性推薦算法。其中,魯棒性推薦算法專注于對惡意噪音的探測和過濾,例如文獻(xiàn)[12]通過交替進(jìn)行聚類去噪和訓(xùn)練SVD兩個(gè)過程,提高SVD的魯棒性。此后,針對惡意噪音的魯棒性推薦算法致力于控制惡意攻擊的影響,因?yàn)橹苯舆^濾可能的噪音會(huì)同時(shí)消除一些真實(shí)的用戶畫像。近年來,基于神經(jīng)網(wǎng)絡(luò)的協(xié)同過濾方法被廣泛研究,在自然噪音環(huán)境中,針對推薦系統(tǒng)的兩大任務(wù),即評(píng)分預(yù)測和Top-K推薦,一些研究者已經(jīng)提出了不同的魯棒性神經(jīng)推薦模型。
在自然噪音環(huán)境下,魯棒性Top-K推薦旨在從噪音交互中準(zhǔn)確捕捉用戶的真實(shí)興趣或偏好,以產(chǎn)生準(zhǔn)確且穩(wěn)定的個(gè)性化Top-K推薦列表。現(xiàn)有魯棒性Top-K協(xié)同過濾方法,其大致可分為兩種類型。一種現(xiàn)有工作通過在訓(xùn)練過程中向訓(xùn)練數(shù)據(jù)或模型參數(shù)中注入額外噪音來提高推薦模型的魯棒性[9,14-16],另一種現(xiàn)有工作則利用變分自編碼器(VAE)等生成模型獲得魯棒的用戶和商品嵌入以提高推薦模型的魯棒性[17-19]。
基于噪音注入的方法包括兩種類型。一種方法將降噪自編碼器引入Top-K協(xié)同過濾。例如,根據(jù)降噪準(zhǔn)則,CDAE[15]在模型學(xué)習(xí)時(shí)以一定概率對用戶交互向量進(jìn)行drop-out破壞,之后從破壞的用戶交互向量中學(xué)習(xí)用戶隱表示以重構(gòu)原始交互向量;通過最小化重構(gòu)誤差,CDAE能夠從破壞的用戶交互向量中學(xué)習(xí)魯棒的隱表示,從而具有一定的容噪能力。另一種方法引入對抗訓(xùn)練和對抗噪音提高模型的魯棒性[10,18,20]。例如,文獻(xiàn)[14]提出對抗個(gè)性化排名方法APR,該方法利用對抗訓(xùn)練在模型學(xué)習(xí)過程中為模型參數(shù)引入一定水平的對抗噪音,從而學(xué)習(xí)魯棒的用戶和商品表示,提高貝葉斯個(gè)性化排名方法的魯棒性。由于基于神經(jīng)網(wǎng)絡(luò)的協(xié)同過濾算法優(yōu)秀的推薦表現(xiàn),文獻(xiàn)[9]提出一個(gè)通用的對抗學(xué)習(xí)框架,致力于同時(shí)提高基于神經(jīng)網(wǎng)絡(luò)的推薦模型的Top-K推薦性能和魯棒性。
然而,這兩種基于噪音注入的方法仍有兩個(gè)不足。第一,模型的魯棒性依賴于一個(gè)先驗(yàn)確定的噪音注入水平,固定的噪音水平忽略了不同用戶個(gè)性化的噪音分布;第二,基于對抗噪音的方法需要設(shè)置恰當(dāng)?shù)膶乖胍羲?,從而平衡模型的推薦性能和魯棒性,防止過強(qiáng)的對抗噪音降低模型的推薦表現(xiàn)。
近年來,由于變分自編碼器強(qiáng)大的表示學(xué)習(xí)能力,一些工作提出基于變分自編碼器的魯棒性Top-K推薦模型[19,21]。例如,文獻(xiàn)[19]提出一個(gè)推薦變分自編碼器模型,簡稱RecVAE,該模型為變分自編碼器的推斷網(wǎng)絡(luò)設(shè)計(jì)了一個(gè)新的網(wǎng)絡(luò)結(jié)構(gòu),并結(jié)合降噪準(zhǔn)則從用戶的隱式反饋數(shù)據(jù)中捕捉用戶偏好,大大提升了Top-K推薦的性能。這些研究也證明,變分自編碼器能夠很好地處理稀疏的用戶交互向量。
對于基于變分自編碼器的Top-K推薦方法的魯棒性,本文從兩個(gè)角度進(jìn)行闡述。第一,變分自編碼器基于用戶歷史交互為每個(gè)用戶學(xué)習(xí)一個(gè)隱表示的高斯分布,該分布建模了用戶交互數(shù)據(jù)的不確定性,其中高斯分布的方差刻畫了用戶個(gè)性化的噪音水平;第二,變分自編碼器的優(yōu)化使用了重參數(shù)技巧,重參過程相當(dāng)于為潛空間引入隨機(jī)噪音,從而為推薦模型引入了隨機(jī)性,有利于提高模型的泛化性能。然而,一些研究也指出,變分自編碼器傾向于學(xué)習(xí)一個(gè)單模態(tài)的潛特征空間,其缺乏足夠的表達(dá)能力以捕捉隱表示的真實(shí)后驗(yàn)分布。在推薦系統(tǒng)的應(yīng)用場景中,用戶-商品的交互數(shù)據(jù)常常蘊(yùn)含多模態(tài)的特征,即不同用戶或不同商品具有不同的偏好分布或特征分布。因此,許多基于變分自編碼器的推薦模型常常難以捕捉多模態(tài)的偏好分布。
本節(jié)總結(jié)了自然噪音環(huán)境下,魯棒性Top-K推薦仍面臨的兩大挑戰(zhàn):第一,不同用戶的交互數(shù)據(jù)具有不同的噪音水平;第二,不同用戶的偏好分布是多模態(tài)的。因此,魯棒性推薦需要自適應(yīng)地建模用戶的個(gè)性化噪音水平,同時(shí)具有足夠的表達(dá)能力以捕捉用戶的多模態(tài)偏好。
現(xiàn)有工作利用變分自編碼器的網(wǎng)絡(luò)結(jié)構(gòu)為解決第一個(gè)挑戰(zhàn)提出了一種解決方法,但是原始變分自編碼器難以處理多模態(tài)的偏好分布。為了捕捉多模態(tài)的數(shù)據(jù)分布,文獻(xiàn)[23]提出WAE,其具有VAE的優(yōu)良特性,但利用Wasserstein距離保持了潛特征空間的多模態(tài),從而鼓勵(lì)模型近似真實(shí)的數(shù)據(jù)分布;文獻(xiàn)[24]引入生成對抗網(wǎng)絡(luò)(GAN)[20]并提出一種名為對抗變分貝葉斯(AVB)的訓(xùn)練技巧,使推斷網(wǎng)絡(luò)能夠更靈活地近似真實(shí)的后驗(yàn)分布;文獻(xiàn)[25]將AVB的思想引入?yún)f(xié)同過濾推薦。與此同時(shí),作為另一種強(qiáng)大的生成模型,生成對抗網(wǎng)絡(luò)具有強(qiáng)大的捕捉數(shù)據(jù)分布的能力,因此現(xiàn)有工作也開始探索GAN在推薦領(lǐng)域的應(yīng)用,主要包括兩個(gè)方面:第一,利用GAN學(xué)習(xí)用戶隱表示,以捕捉用戶的潛特征偏好;第二,利用GAN直接生成用戶交互向量。然而,不像圖片常常具有稠密的向量表示,推薦系統(tǒng)中稀疏的用戶交互數(shù)據(jù)為GAN學(xué)習(xí)用戶偏好分布帶來新的挑戰(zhàn)。由于變分自編碼器正好具有很好的處理稀疏數(shù)據(jù)的能力,本文認(rèn)為未來的工作可以結(jié)合GAN和VAE這兩種強(qiáng)大的生成模型為Top-K協(xié)同過濾任務(wù)設(shè)計(jì)一種新的網(wǎng)絡(luò)結(jié)構(gòu),以同時(shí)捕捉個(gè)性化的噪音分布和多模態(tài)的偏好分布,從而提升Top-K推薦的準(zhǔn)確率和魯棒性。
在自然噪音環(huán)境下,魯棒性評(píng)分預(yù)測旨在從噪音反饋中準(zhǔn)確捕捉用戶的真實(shí)偏好,以準(zhǔn)確且穩(wěn)定地重構(gòu)“用戶-商品”評(píng)分矩陣。利用評(píng)分預(yù)測進(jìn)行推薦最早被學(xué)術(shù)界廣泛研究。自從2006年Netflix大獎(jiǎng)賽以來,推薦系統(tǒng)開始從學(xué)術(shù)界被引入工業(yè)界,并廣泛應(yīng)用于各種電子商務(wù)應(yīng)用中。Netflix大獎(jiǎng)賽主要解決電影評(píng)分預(yù)測問題,其中矩陣分解(MF)方法大獲成功,成為主流的協(xié)同過濾算法之一。MF迭代訓(xùn)練一個(gè)低維用戶矩陣和一個(gè)低維商品矩陣,使這兩個(gè)矩陣的乘積近似原始評(píng)分矩陣,從而補(bǔ)全原始評(píng)分矩陣并據(jù)此進(jìn)行推薦。顯而易見,以MF為代表的評(píng)分預(yù)測方法的性能依賴于用戶評(píng)分的真實(shí)有效性。然而,一些研究已經(jīng)發(fā)現(xiàn)用戶評(píng)分是有偏差的。文獻(xiàn)[25-26]指出,當(dāng)用戶被要求再次評(píng)分其曾經(jīng)評(píng)分過的商品時(shí),只有大約60%的用戶保持相同的分?jǐn)?shù)。事實(shí)上,由于記憶損失、用戶偏好難以量化以及許多其他因素,大量的可觀測評(píng)分是有噪音的,這些噪音評(píng)分會(huì)影響協(xié)同過濾模型在評(píng)分預(yù)測任務(wù)上的準(zhǔn)確性和魯棒性。
早期主要有兩種方法處理評(píng)分中的自然噪音:第一,移除噪音評(píng)分或噪音用戶畫像[28-29];第二,通過獲取再評(píng)分?jǐn)?shù)據(jù)探測和糾正噪音評(píng)分[2,22]。然而,估計(jì)誤差導(dǎo)致直接移除可能的噪音會(huì)同時(shí)錯(cuò)誤地刪除非噪音評(píng)分,增加評(píng)分矩陣的稀疏性,而記憶偏差、用戶意愿等因素導(dǎo)致難以保證再評(píng)分?jǐn)?shù)據(jù)的真實(shí)有效。
近年來,一些方法致力于僅利用歷史評(píng)分訓(xùn)練魯棒的評(píng)分預(yù)測模型,其主要包括對噪音評(píng)分的糾正和降低噪音評(píng)分的影響兩種思想[26-27,32]。文獻(xiàn)[27]利用噪音探測和噪音糾正兩個(gè)過程來處理自然噪音,其主要缺點(diǎn)是需要先驗(yàn)地定義一些分類標(biāo)準(zhǔn)和并劃分分類區(qū)間,最終的預(yù)測模型的性能依賴于噪音探測和噪音糾正的質(zhì)量,而噪音探測和糾正的質(zhì)量可能受到不完美的預(yù)測模型的影響,并且噪音探測過程中使用預(yù)設(shè)的閾值劃分分類區(qū)間,沒有考慮到用戶評(píng)分層次的個(gè)性化。最近,一些方法通過降低噪音評(píng)分在模型損失中的權(quán)重來提高模型訓(xùn)練的穩(wěn)定性和評(píng)分預(yù)測準(zhǔn)確性[26,32]。文獻(xiàn)[32]發(fā)現(xiàn)現(xiàn)有的自適應(yīng)學(xué)習(xí)率方法可以提高模型在稀疏數(shù)據(jù)上的收斂表現(xiàn),然而用戶評(píng)分不僅稀疏且有噪音,對噪音數(shù)據(jù)設(shè)置小的學(xué)習(xí)率有利于降低噪音數(shù)據(jù)對模型學(xué)習(xí)的干擾。文獻(xiàn)[26,32]以不同方式實(shí)現(xiàn)了自適應(yīng)學(xué)習(xí)率的評(píng)分預(yù)測算法,旨在提高評(píng)分預(yù)測模型對自然噪音的魯棒性。
個(gè)性化噪音分布和多模態(tài)偏好分布同樣為魯棒性評(píng)分預(yù)測帶來巨大挑戰(zhàn)。由于神經(jīng)網(wǎng)絡(luò)強(qiáng)大的信息抽取能力,利用神經(jīng)網(wǎng)絡(luò)自適應(yīng)地評(píng)估用戶評(píng)分中的自然噪音是一個(gè)很有前景的研究方向。另外,相對于隱式反饋來說,顯式的用戶評(píng)分?jǐn)?shù)據(jù)往往具有更高的稀疏性,成為魯棒性評(píng)分預(yù)測的另一大挑戰(zhàn)。直觀地,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練依賴于訓(xùn)練數(shù)據(jù)的規(guī)模,稀疏的評(píng)分?jǐn)?shù)據(jù)通常導(dǎo)致神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練不足而難以捕捉用戶的真實(shí)偏好分布。因此,本文認(rèn)為設(shè)計(jì)一種合適的網(wǎng)絡(luò)結(jié)構(gòu),其能夠在識(shí)別噪音的同時(shí)實(shí)現(xiàn)有效的數(shù)據(jù)增強(qiáng),有利于提高模型在稀疏且有噪音的場景下的評(píng)分預(yù)測魯棒性。
本節(jié),我們在兩個(gè)真實(shí)的數(shù)據(jù)集上比較了現(xiàn)有魯棒性推薦算法的性能。
我們在MovieLens 1M和Digital Music數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。這兩個(gè)數(shù)據(jù)集的統(tǒng)計(jì)信息如表1所示。
表1 數(shù)據(jù)集統(tǒng)計(jì)信息
在MovieLens 1M數(shù)據(jù)集中,每個(gè)用戶至少有20個(gè)評(píng)分。Digital Music數(shù)據(jù)集是來自亞馬遜的一個(gè)公開數(shù)據(jù)集,其原始數(shù)據(jù)集具有較高的稀疏度,我們僅保留至少有5次評(píng)分的用戶和商品。對于Top-K推薦任務(wù),我們將顯式的評(píng)分轉(zhuǎn)化為隱式的0-1交互數(shù)據(jù)。
對于Top-K推薦任務(wù),我們在CDAE[15]、APR[14]、ACAE[9]、RecVAE[19]和NeuMF[3]上進(jìn)行了實(shí)驗(yàn);對于評(píng)分預(yù)測任務(wù),我們在AdaError[32]、Norma[26]和MF上進(jìn)行了實(shí)驗(yàn)。其中,NeuMF是一種神經(jīng)協(xié)同過濾的通用框架,該方法采用多層感知機(jī)建模用戶和商品的潛特征之間的非線性交互;MF是一個(gè)矩陣分解模型,該方法學(xué)習(xí)用戶和商品的低維嵌入向量,并使用向量的內(nèi)積為預(yù)測評(píng)分。
4.3.1 Top-K推薦評(píng)價(jià)指標(biāo)
對于Top-K推薦任務(wù),我們采用留一法進(jìn)行評(píng)估,即對于每個(gè)數(shù)據(jù)集,我們?yōu)槊恳粋€(gè)用戶抽取一條交互數(shù)據(jù)用于測試,該方法被廣泛應(yīng)用于Top-K推薦評(píng)估[9,14-15,33]。需要注意的是,對于每個(gè)數(shù)據(jù)集,我們以類似構(gòu)造測試集的方式構(gòu)造驗(yàn)證集,用于調(diào)整超參數(shù)。由于在測試時(shí)對每個(gè)用戶進(jìn)行所有商品的排序非常耗時(shí),因此我們采用文獻(xiàn)[15]和[33]的做法,即檢查測試集中用戶已經(jīng)交互過的商品是否排在事先隨機(jī)選擇的99個(gè)該用戶未交互過的商品之前。我們采用命中率(HR)和歸一化折扣累積增益(NDCG)來衡量Top-K推薦性能。命中率的計(jì)算公式定義為:
其中rel i表示排名為i的物品是否被命中,若命中則rel i=1,否則r el i=0。HR和NDCG都是越高越好。
4.3.2 評(píng)分預(yù)測評(píng)價(jià)指標(biāo)
對于評(píng)分預(yù)測任務(wù),對于每個(gè)數(shù)據(jù)集,我們按8:2隨機(jī)劃分訓(xùn)練集和測試集,之后在訓(xùn)練集中隨機(jī)留出20%的評(píng)分構(gòu)成驗(yàn)證集。我們采用RMSE(Root Mean Square Error)和MAE(Mean Absolute Error)作為評(píng)價(jià)指標(biāo)。定義如下:
其中,T test表示測試集。
表2展示了在兩個(gè)數(shù)據(jù)集上各個(gè)方法的Top-K推薦表現(xiàn)。除了NeuMF以外,其他方法都以不同方式考慮了噪音交互。通過實(shí)驗(yàn)指標(biāo)我們發(fā)現(xiàn),考慮了噪音交互的魯棒性方法并不一定具有最優(yōu)的Top-K推薦性能。例如,在Digital Music數(shù)據(jù)集上,魯棒性推薦方法APR、ACAE和RecVAE的表現(xiàn)好于未考慮噪音交互的NeuMF,但是在MovieLens 1M數(shù)據(jù)集上,NeuMF優(yōu)于所有的魯棒性方法。另外,魯棒性推薦方法在不同的數(shù)據(jù)集上表現(xiàn)有所差異。例如,RecVAE和APR分別是MovieLens 1M和Digital Music數(shù)據(jù)集上最好的魯棒性推薦方法。這些實(shí)驗(yàn)結(jié)果證明了個(gè)性化噪音水平和多模態(tài)偏好可能是影響推薦模型魯棒性的重要因素。
表2 所有模型在MovieLens 1M和Digital Music數(shù)據(jù)集上的Top-K推薦表現(xiàn)
表3展示了在兩個(gè)數(shù)據(jù)集上各個(gè)方法的評(píng)分預(yù)測準(zhǔn)確性。其中,MF沒有考慮噪音評(píng)分。通過觀察實(shí)驗(yàn)指標(biāo)我們發(fā)現(xiàn),考慮了噪音交互的魯棒性評(píng)分預(yù)測方法并不總是具有最優(yōu)的表現(xiàn)。例如,在MovieLens 1M數(shù)據(jù)集上,Norma具有最好的表現(xiàn),而同樣考慮了噪音評(píng)分的AdaError的表現(xiàn)甚至差于MF;在Digital Music數(shù)據(jù)集上,MF的評(píng)分預(yù)測表現(xiàn)最好,Norma的性能差于AdaError。我們認(rèn)為,這樣的結(jié)果可能與數(shù)據(jù)集的不同稀疏性有關(guān)。
表3 所有模型在MovieLens 1M和Digital Music數(shù)據(jù)集上的評(píng)分預(yù)測準(zhǔn)確度
本文總結(jié)了噪音環(huán)境下魯棒性協(xié)同過濾的研究現(xiàn)狀,重點(diǎn)回顧了自然噪音環(huán)境下基于神經(jīng)網(wǎng)絡(luò)的魯棒性Top-K推薦和評(píng)分預(yù)測方法,并在兩個(gè)真實(shí)的數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)。最后,針對Top-K推薦和評(píng)分預(yù)測兩大任務(wù),本文分別提出一些魯棒性推薦的未來研究方向。實(shí)驗(yàn)結(jié)果顯示了本文提出的研究方向?qū)τ谔嵘扑]模型魯棒性的可行性。