• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合成對編碼方案及二維卷積神經(jīng)網(wǎng)絡(luò)的長短期會話推薦算法

    2022-06-21 06:33:00陳學(xué)勤陶濤張鐘旺王一蕾
    計算機(jī)應(yīng)用 2022年5期
    關(guān)鍵詞:用戶模型

    陳學(xué)勤,陶濤,張鐘旺,王一蕾

    (福州大學(xué) 數(shù)學(xué)與計算機(jī)科學(xué)學(xué)院,福州 350108)(?通信作者電子郵箱714867833@qq.com)

    融合成對編碼方案及二維卷積神經(jīng)網(wǎng)絡(luò)的長短期會話推薦算法

    陳學(xué)勤,陶濤,張鐘旺,王一蕾*

    (福州大學(xué) 數(shù)學(xué)與計算機(jī)科學(xué)學(xué)院,福州 350108)(?通信作者電子郵箱714867833@qq.com)

    雖然基于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的會話推薦算法可以有效地對會話中的長期依賴關(guān)系進(jìn)行建模,并且可以結(jié)合注意力機(jī)制來刻畫用戶在會話中的主要目的,但它在進(jìn)行會話建模的過程中無法繞過與用戶主要目的不相關(guān)的物品,易受其影響以致降低推薦精度。針對上述問題,設(shè)計了成對編碼方案來將原始輸入序列嵌入向量轉(zhuǎn)化為一個三維張量表示,使得非相鄰的行為也能夠產(chǎn)生聯(lián)系。通過二維卷積神經(jīng)網(wǎng)絡(luò)(CNN)來處理該張量以捕獲非相鄰物品間的聯(lián)系,并提出了引入用于會話推薦的二維卷積神經(jīng)網(wǎng)絡(luò)的神經(jīng)注意力推薦機(jī)(COS-NARM)模型。該模型能有效跳過序列中與用戶主要目的不相關(guān)的物品。實(shí)驗(yàn)結(jié)果表明,COS-NARM模型在DIGINETICA等多個真實(shí)數(shù)據(jù)集上的召回率和平均倒數(shù)排名(MRR)都得到了不同程度的提升,且優(yōu)于NARM、GRU-4Rec+等所有基線模型。在上述研究的基礎(chǔ)上,將歐氏距離引入COS-NARM模型,提出了OCOS-NARM模型。利用歐氏距離直接計算不同時刻興趣間的相似度以減少模型的參數(shù),降低模型的復(fù)雜度。實(shí)驗(yàn)結(jié)果表明,歐氏距離的引入不僅使得OCOS-NARM模型在DIGINETICA等多個真實(shí)數(shù)據(jù)集上的推薦效果得到了進(jìn)一步的提升,而且使OCOS-NARM模型的訓(xùn)練時間相較COS-NARM模型縮短了14.84%,有效提高了模型的訓(xùn)練速度。

    會話推薦;循環(huán)神經(jīng)網(wǎng)絡(luò);成對編碼;卷積神經(jīng)網(wǎng)絡(luò);歐氏距離

    0 引言

    現(xiàn)今,基于會話的推薦算法已成為個性化推薦算法的重要組成部分,與傳統(tǒng)的推薦算法不同,它將會話間或會話內(nèi)的信息交互納入推薦過程,同時在建模數(shù)據(jù)時把會話看作基本數(shù)據(jù)結(jié)構(gòu)。近年來,由于超級計算機(jī)的進(jìn)步和深度學(xué)習(xí)技術(shù)的突破進(jìn)展,深度學(xué)習(xí)技術(shù)在數(shù)據(jù)處理方面的能力得到了大幅提高,可以更有效地挖掘出數(shù)據(jù)中潛藏的特征[1]。因此,許多研究者開始利用深度學(xué)習(xí)技術(shù)來解決基于會話的推薦算法中存在的各種問題。近幾年深度神經(jīng)網(wǎng)絡(luò)在會話推薦中的應(yīng)用已經(jīng)驗(yàn)證了深度神經(jīng)模型比其他模型能產(chǎn)生更好的推薦效果[2]。

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)的網(wǎng)絡(luò)結(jié)構(gòu)使得當(dāng)前時刻的輸出受到當(dāng)前時刻的輸入和上一時刻的輸出的共同影響。因此,它在每一時刻的輸出都包含之前時刻的信息以此刻畫用戶的長期興趣。文獻(xiàn)[3]中第一次在基于會話的推薦算法里使用了RNN,提出了GRU-4Rec模型,該模型能批量并行處理會話數(shù)據(jù),同時選擇基于排序的損失函數(shù)作為模型的損失函數(shù);文獻(xiàn)[4]中將基于規(guī)則的算法與RNN相結(jié)合,使得模型可以根據(jù)用戶在瀏覽會話期間執(zhí)行的操作序列來了解用戶可能點(diǎn)擊哪個物品;文獻(xiàn)[5]中利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)提取復(fù)雜局部特征,并使用RNN從會話序列中學(xué)習(xí)長期依賴關(guān)系;文獻(xiàn)[6-7]中使用RNN從會話序列中學(xué)習(xí)長期依賴關(guān)系;文獻(xiàn)[8]中提出了一種增強(qiáng)型的RNN模型,該模型使用基于物品的神經(jīng)網(wǎng)絡(luò)提取高階的用戶上下文偏好以增強(qiáng)任何基于RNN的會話推薦模型。盡管以上基于RNN的會話推薦算法相較傳統(tǒng)的會話推薦算法有了很大的改進(jìn),但它們都只考慮了用戶在當(dāng)前會話中的順序行為而沒有強(qiáng)調(diào)用戶在當(dāng)前會話中的主要目的。因此,文獻(xiàn)[9]中提出了基于會話的神經(jīng)注意力推薦機(jī)(Neural Attentive Recommendation Machine, NARM)模型,同時考慮用戶的連續(xù)行為和當(dāng)前會話中的主要目的,并首次將注意力機(jī)制應(yīng)用于基于會話的推薦算法。但是基于RNN的會話推薦算法是直接對有序的物品表示進(jìn)行操作,因而會受到單向鏈?zhǔn)浇Y(jié)構(gòu)的物品序列的約束,這導(dǎo)致其在利用會話數(shù)據(jù)進(jìn)行序列建模時無法繞過與當(dāng)前會話的用戶主要目的不相關(guān)的行為。針對基于RNN的會話推薦算法在捕獲用戶的主要目的時會受到一些與用戶的主要目的毫無關(guān)聯(lián)的會話數(shù)據(jù)的影響以致推薦效果降低的問題,本文設(shè)計了成對編碼方案對原始的輸入序列嵌入向量進(jìn)行處理,并融入二維卷積神經(jīng)網(wǎng)絡(luò)共同構(gòu)成了引入用于會話推薦的二維卷積神經(jīng)網(wǎng)絡(luò)的神經(jīng)注意力推薦機(jī)(Neural Attentive Recommendation Machine introducing two-dimensional COnvolutional neural network for Session-based recommendation, COS-NARM)模型。為了能在COS-NARM模型的基礎(chǔ)上進(jìn)一步提升其推薦效果,并使推薦模型更加輕量級,本文提出了OCOS-NARM模型,對COS-NARM模型中的局部編碼器進(jìn)行優(yōu)化,并采用歐氏距離公式來計算不同時刻興趣表示之間的相似度作為重要度分?jǐn)?shù)分配給對應(yīng)時刻的興趣表示。

    1 相關(guān)工作

    1.1 循環(huán)神經(jīng)網(wǎng)絡(luò)

    近年來,RNN已在語言模型、文本分類、機(jī)器翻譯、圖像分析以及推薦系統(tǒng)等領(lǐng)域都展現(xiàn)出較好的效果[10-11]。為了能更有效地利用會話數(shù)據(jù)中所包含的時間順序信息,RNN使用狀態(tài)變量儲存歷史信息,并將其和當(dāng)前輸入結(jié)合起來作為當(dāng)前的輸出以實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的“記憶功能”。然而,若需要RNN處理長序列,它將難以把較早時刻的信息傳遞給后面的時刻。另外,在使用反向傳播訓(xùn)練RNN期間,RNN會產(chǎn)生梯度消失的現(xiàn)象。因此,在進(jìn)行梯度更新時,較早時刻的層因其梯度值通常會非常小而不再進(jìn)行學(xué)習(xí),這造成RNN只有短期記憶。而長短期記憶(Long Short-Term Memory, LSTM)網(wǎng)絡(luò)和門控循環(huán)單元(Gated Recurrent Unit, GRU)模型在RNN的基礎(chǔ)上引入了可以調(diào)節(jié)信息流的門控機(jī)制,有效解決了上述問題。

    1.2 卷積神經(jīng)網(wǎng)絡(luò)

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種能夠進(jìn)行卷積運(yùn)算的深度神經(jīng)網(wǎng)絡(luò)[12],它一般被應(yīng)用在視覺圖像的識別。CNN的四個重要做法包含局部感知、卷積、池化以及權(quán)值共享。這一系列的做法有效降低了模型的復(fù)雜性,減小了過擬合現(xiàn)象出現(xiàn)的頻率。

    1.3 基于RNN的會話推薦模型

    由于大部分會話數(shù)據(jù)被假定是序列依賴聯(lián)系,而RNN對于建模序列依賴關(guān)系有著與生俱來的優(yōu)勢,所以它在基于會話的推薦算法中表現(xiàn)非常突出。最基礎(chǔ)的基于RNN的會話推薦模型是GRU-4Rec模型,之后的許多研究都是在這個基礎(chǔ)上展開的。近年來,基于RNN的模型也進(jìn)行了不少擴(kuò)展;文獻(xiàn)[13]中將用戶停留在物品上的時間長短信息融入模型;文獻(xiàn)[14]中利用RNN對會話點(diǎn)擊序列進(jìn)行建模,并利用有關(guān)用戶和文章的輔助信息實(shí)現(xiàn)新聞推薦;文獻(xiàn)[15]中設(shè)計了一個跨域用戶級別的RNN來探索用戶跨域行為之間的相關(guān)性,實(shí)現(xiàn)跨域順序信息的合并;文獻(xiàn)[9]中使用RNN分別建模長期興趣和短期興趣,并在刻畫短期興趣的編碼器里引入了注意力機(jī)制。

    1.4 基于會話的神經(jīng)注意力推薦模型

    一個好的推薦器除了需要考慮用戶的整體順序行為外,還應(yīng)該考慮用戶在當(dāng)前會話中的主要目的。這個主要目的是由一些在當(dāng)前會話中相對重要的物品所體現(xiàn)的。基于會話的神經(jīng)注意力推薦機(jī)(NARM)模型通過帶有注意機(jī)制的混合編碼器來對用戶的順序行為進(jìn)行建模并挖掘用戶在當(dāng)前會話中的主要目的,再將用戶的順序行為表示以及用戶的主要目的表示合并為一個新的會話表示。NARM模型利用注意力機(jī)制對更重要的會話數(shù)據(jù)給予更多的關(guān)注,并使用基于統(tǒng)一會話表示的雙線性匹配方案計算每個候選項(xiàng)目的推薦分?jǐn)?shù)。

    2 本文方法

    本文通過成對編碼方案和二維卷積神經(jīng)網(wǎng)絡(luò)重構(gòu)了NARM模型的全局編碼器以捕獲更有效的用戶長期偏好,提出了COS-NARM模型。在COS-NARM模型的基礎(chǔ)上,考慮其局部編碼器通過加法注意力的方式并不能很好地刻畫不同向量之間的相似度。因此,在COS-NARM模型的局部編碼器中,本文利用歐氏距離來計算相似度,提出了OCOS-NARM模型。

    2.1 融合成對編碼方案及2D CNN的COS-NARM模型

    RNN在利用會話數(shù)據(jù)進(jìn)行序列建模時無法繞過與當(dāng)前會話的用戶主要目的不相關(guān)的行為,而改進(jìn)的CNN在進(jìn)行序列建模時能夠放松序列順序結(jié)構(gòu)的約束以有效跳過與會話的主要目的不相關(guān)的行為。但是,放松序列順序結(jié)構(gòu)的約束會導(dǎo)致模型無法有效保留局部行為的動態(tài)變化。為了發(fā)揮RNN和CNN各自的優(yōu)勢以使它們互相彌補(bǔ),本文設(shè)計了成對編碼方案將原始輸入序列嵌入向量轉(zhuǎn)化成一個三維張量表示,并通過二維CNN處理該張量以捕獲更有效的序列特征表示和行為間的復(fù)雜關(guān)系。

    2.1.1 基于RNN的神經(jīng)注意力會話推薦算法

    NARM模型的具體結(jié)構(gòu)如圖1所示。該模型的基本思想是通過全局編碼器和局部編碼器共同構(gòu)建一個會話的隱藏表示并基于該會話表示通過解碼器生成推薦。

    圖1 NARM模型的結(jié)構(gòu)Fig. 1 Structure of NARM model

    NARM模型使用GRU構(gòu)建全局編碼器,輸入用戶歷史全部點(diǎn)擊行為,輸出用戶在當(dāng)前會話中的順序行為特征,并且輸入和輸出都用高維向量表示。但是,利用該全局編碼器捕獲到的順序行為一般無法體現(xiàn)用戶在當(dāng)前會話中的真實(shí)目的。為了彌補(bǔ)這一不足,NARM模型提出了局部編碼器。

    局部編碼器的結(jié)構(gòu)與全局編碼器的結(jié)構(gòu)相似,它們在進(jìn)行編碼時都使用GRU作為基本框架。為了挖掘出用戶在當(dāng)前會話的主要目的,局部編碼器還引入了注意力機(jī)制以允許解碼器可以動態(tài)選擇并線性結(jié)合輸入會話的不同部分。最后,NARM模型使用一個雙線性解碼方案來計算會話表示和每個候選行為之間的相似度得分Si,并通過softmax層將每個行為的得分轉(zhuǎn)化成每個行為在下一次點(diǎn)擊中發(fā)生的概率。

    2.1.2 引入成對編碼方案及2D CNN的長短期會話推薦算法

    盡管NARM模型在一系列會話推薦任務(wù)中都顯現(xiàn)出較好的效果,但由于序列順序結(jié)構(gòu)的約束,它難以挖掘隱含在用戶歷史行為中的復(fù)雜關(guān)系。為了解決上述問題,本文通過一個二維卷積神經(jīng)網(wǎng)絡(luò)(2D CNN)來建模成對關(guān)系以捕獲更有效的序列特征表示和行為間的復(fù)雜關(guān)系,并將其與NARM模型相結(jié)合。

    根據(jù)經(jīng)典CNN的架構(gòu)設(shè)計,本文使用一種輕權(quán)重的卷積神經(jīng)網(wǎng)絡(luò)作為2D CNN的基礎(chǔ)網(wǎng)絡(luò)以降低模型的參數(shù)量。如表1所示,2D CNN包含兩個卷積塊,每個卷積塊由兩層卷積層構(gòu)成。在一個卷積塊中,一級卷積層使用一個的卷積核來豐富輸入序列的特征表示,二級卷積層利用的卷積核使模型隨著網(wǎng)絡(luò)的加深能夠聚合序列的順序特征并提取用戶歷史行為中更復(fù)雜的關(guān)系。數(shù)據(jù)在經(jīng)過每個卷積層之后,都要進(jìn)行批處理歸一化和一個修正線性單元(Rectified Linear Unit, ReLU)激活。

    表1 二維卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)Tab. 1 Structure of two-dimensional CNN

    盡管放松序列順序結(jié)構(gòu)的約束能使序列中的行為產(chǎn)生跳躍現(xiàn)象,但是這打破了序列中的局部鏈?zhǔn)浇Y(jié)構(gòu),使得模型難以保留局部行為的動態(tài)變化。這會使得NARM模型在處理會話時會受到序列順序結(jié)構(gòu)的約束而導(dǎo)致最終推薦精度的降低。為了彌補(bǔ)上述缺點(diǎn),本文利用成對編碼方案將原始輸入序列嵌入向量轉(zhuǎn)化成一個三維張量表示,使得非相鄰的行為也能夠產(chǎn)生聯(lián)系,并通過2D CNN處理該張量以捕獲更有效的序列特征表示和行為間的復(fù)雜關(guān)系。上述方案共同構(gòu)成了COS-NARM模型。

    為了更清晰地展現(xiàn)成對編碼方案具備繞過與會話的主要目的不相關(guān)的物品的能力,通過一個例子來具體闡述。給定一個會話序列嵌入矩陣[[1,0,0],[0,1,0],[0,0,1]],通過成對編碼方案的建模方法可以得到一個三維張量[[[1,0,0,1,0,0],[1,0,0,0,1,0],[1,0,0,0,0,1]],[[0,1,0,1,0,0],[0,1,0,0,1,0],[0,1,0,0,0,1]],[[0,0,1,1,0,0],[0,0,1,0,1,0],[0,0,1,0,0,1]]]。顯而易見,成對編碼方案能建立序列中非相鄰物品之間的聯(lián)系。

    具體而言,COS-NARM模型的全局編碼器首先將輸入的所有物品都進(jìn)行one-hot編碼。COS-NARM模型中全局編碼器的結(jié)構(gòu)如圖2所示。會話序列Sl經(jīng)過one-hot編碼后表示為,其中對應(yīng)第i個物品的二進(jìn)制向量,S是一個二維矩陣即。為了允許物品之間能夠產(chǎn)生靈活的成對關(guān)聯(lián),COS-NARM先將S進(jìn)行拷貝后再分別將其按第0維和第1維進(jìn)行維度擴(kuò)充得到,。然后將和分別按其擴(kuò)充的維度通過長度L進(jìn)行張量拷貝得到,和,則有。最后,將和按第2維進(jìn)行張量拼接即可得到,其計算式如式(1):

    其中:cop表示張量的復(fù)制操作;rep(X,i)表示將張量X按其第i個維度進(jìn)行張量拷貝;“⊕”表示張量的拼接。通過上述成對編碼方案,COS-NARM在S的基礎(chǔ)上創(chuàng)建了一個三維張量作為新的會話表示。上述操作即為圖2中的第①步至第②步。然后,COS-NARM將上述類似“圖像特征映射”形式的會話表示T作為2.1.1節(jié)所提的2D CNN的輸入。接著,將該2D CNN的輸出通過一個帶有dropout(一種預(yù)防CNN過擬合的正則化方法)的全連接層轉(zhuǎn)化成最終的序列特征向量。最后,通過式(2)把當(dāng)作長期興趣表示并將其與2.1.1節(jié)所提的局部編碼器獲得的短期興趣相結(jié)合作為最終興趣表示,同時仍使用NARM模型的解碼器處理最終的興趣表示。因此,COS-NARM模型可以看成是一個優(yōu)化了NARM模型的全局編碼器的模型。

    圖2 COS-NARM模型的全局編碼器Fig. 2 Global encoder of COS-NARM model

    2.2 引入歐氏距離的COS-NARM模型

    COS-NARM模型的局部編碼器使用式(3)的目的是通過加法注意力來獲取不同時刻的興趣表示之間的相似性。由于每個時刻的興趣表示都是一個向量,故這種線性相加的方式并不能很好地刻畫不同向量之間的相似度。并且假設(shè)某時刻用戶興趣的向量表示的長度為d時,則計算相似度q的時間復(fù)雜度為。

    為了改進(jìn)COS-NARM模型以進(jìn)一步提升模型的推薦效果并提高訓(xùn)練速度,本節(jié)將更能描繪不同向量之間相似度的歐氏距離[16]引入COS-NARM模型的局部編碼器,提出了結(jié)合CNN并引入歐氏距離的長短期會話推薦模型OCOS-NARM。

    具體而言,OCOS-NARM模型的局部編碼器首先將會話表示通過RNN的處理得到對應(yīng)時刻的隱藏狀態(tài)表示,若將看成當(dāng)前會話的第i個時刻的用戶興趣表示,則代表最后時刻的用戶興趣表示。然后,利用式(4)來計算和之間的相似度,該相似度就是用戶在第i個時刻的興趣對于用戶在會話中的主要興趣的重要性權(quán)值。假設(shè)向量的長度為d,則計算相似度q的時間復(fù)雜度為。最后,通過式(5)將每個時刻的重要性權(quán)值分配給對應(yīng)時刻的興趣表示。

    3 實(shí)驗(yàn)與結(jié)果分析

    3.1 基線模型

    實(shí)驗(yàn)選擇了四個傳統(tǒng)模型POP(POpular Predictor)、S-POP(Session POP)、Item-KNN(Item basedK-Nearest Neighbor)協(xié)同過濾方法、BPR-MF(Bayesian Personalized Ranking Matrix Factorization)和三個基于RNN的模型GRU-4Rec、GRU-4Rec+、NARM作為基線模型。另外,為了驗(yàn)證成對編碼方案和二維CNN只適合用于構(gòu)建全局編碼器而不適用于構(gòu)建局部編碼器,本文在COS-NARM模型的基礎(chǔ)上使用成對編碼方案和2D CNN重構(gòu)了局部編碼器得到DCOS-NARM模型作為一個基線模型。為了完善對比,本文也將2D CNN獨(dú)立出來作為一個基線模型,其他基線模型介紹如下:

    1)POP,流行預(yù)測器每次都將訓(xùn)練集中最受用戶歡迎的物品推薦給用戶。

    2)S-POP,該基線模型與POP類似,不同之處在于它推薦的是當(dāng)前會話中最令用戶感興趣的物品。

    3)Item-KNN,該基線模型是一個基于物品相似性的推薦算法,它計算一個候選物品與點(diǎn)擊序列中物品之間的相似性并將最相似的物品推薦給用戶。

    4)BPR-MF,該基線模型利用隨機(jī)梯度下降的方法來優(yōu)化成對排名的損失函數(shù)。

    5)GRU-4Rec,該基線模型是一種基于RNN的會話推薦模型,其中包括多個GRU層。

    6)GRU-4Rec+,該基線模型是一種基于GRU-4Rec的改進(jìn)模型,它利用數(shù)據(jù)增強(qiáng)以及處理輸入數(shù)據(jù)分布改變的方式來提升GRU-4Rec的性能。

    7)NARM,該基線模型同時考慮用戶的連續(xù)行為和當(dāng)前會話中的主要目的,并首次將注意力機(jī)制應(yīng)用于基于會話的推薦算法。

    3.2 數(shù)據(jù)集

    本文在兩個標(biāo)準(zhǔn)交易數(shù)據(jù)集(即YOOCHOOSE數(shù)據(jù)集[9]和DIGINETICA數(shù)據(jù)集[9])上對不同的模型進(jìn)行評估。YOOCHOOSE是RecSys Challenge 2015發(fā)布的公開數(shù)據(jù)集,該數(shù)據(jù)集包含電子商務(wù)網(wǎng)站上的點(diǎn)擊流。DIGINETICA數(shù)據(jù)集則來自CIKM Cup 2016,該數(shù)據(jù)集只使用了發(fā)布的交易數(shù)據(jù)。為了實(shí)驗(yàn)結(jié)果的可靠性,本文剔除了YOOCHOOSE數(shù)據(jù)集和DIGINETICA數(shù)據(jù)集中所有長度為1的會話以及出現(xiàn)次數(shù)低于5次的物品。最終,YOOCHOOSE數(shù)據(jù)集剩下7 981 580個會話和37 483個物品,而DIGINETICA數(shù)據(jù)集只包含204 771個會話和43 097個物品。接著,本文對這兩個數(shù)據(jù)集分別進(jìn)行一些預(yù)處理以構(gòu)建測試集和訓(xùn)練集。對于YOOCHOOSE數(shù)據(jù)集,本文使用當(dāng)天會話之后的第二天會話作為測試集,并過濾掉出現(xiàn)在測試集但沒有出現(xiàn)在訓(xùn)練集中的物品。對于DIGINETICA數(shù)據(jù)集,本文使用當(dāng)天會話之后的七天會話作為測試集,也過濾掉出現(xiàn)在測試集但沒有出現(xiàn)在訓(xùn)練集中的物品。因?yàn)楸疚脑趯?shí)驗(yàn)中沒有用并行處理會話的方法去訓(xùn)練模型,所以,分割預(yù)處理會話序列是必須的。對于每個輸入會話,本文都會將其轉(zhuǎn)化成一個所有位置都帶有標(biāo)記的新序列并把它作為在YOOCHOOSE數(shù)據(jù)集和DIGINETICA數(shù)據(jù)集上進(jìn)行訓(xùn)練時的會話數(shù)據(jù)。其中,用每個分割出的會話序列中的位置標(biāo)記表示該序列中的最后一個物品。

    文獻(xiàn)[17]中驗(yàn)證了推薦模型需要考慮用戶行為隨著時間的變化,且其實(shí)驗(yàn)結(jié)果表明訓(xùn)練在最近一部分?jǐn)?shù)據(jù)集上的推薦模型的效果優(yōu)于訓(xùn)練在整個數(shù)據(jù)集上的推薦模型。由于YOOCHOOSE數(shù)據(jù)集本身的數(shù)據(jù)量過大并且時間跨度長達(dá)六個月,因此,本文按時間戳對YOOCHOOSE數(shù)據(jù)集的訓(xùn)練序列從高到低進(jìn)行排序,并從中提取出數(shù)據(jù)集的前1/64部分和前1/4部分,分別記為YOOCHOOSE 1/64和YOOCHOOSE 1/4。YOOCHOOSE 1/64、YOOCHOOSE 1/4、DIGINETICA這三個數(shù)據(jù)集的統(tǒng)計數(shù)據(jù)如表2所示。

    表2 不同數(shù)據(jù)集的統(tǒng)計數(shù)據(jù)Tab. 2 Statistics of different datasets

    3.3 實(shí)驗(yàn)環(huán)境與設(shè)置

    本文在Ubuntu 16.04 64bit操作系統(tǒng)上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)所用的GPU為兩塊Nvidia GTX 1080,選擇Pytorch作為實(shí)驗(yàn)用到的深度學(xué)習(xí)框架,將Python3.7作為實(shí)驗(yàn)的編程語言。

    本文設(shè)置批處理大小固定在512,物品特征的嵌入維度大小為50,隱藏層大小為100,初始學(xué)習(xí)率為0.001,訓(xùn)練的迭代總數(shù)為100,學(xué)習(xí)衰減率為0.1,位于物品嵌入層和GRU層之間的dropout值為0.25,位于GRU層和雙線性相似層之間的dropout值為0.5,位于全連接層中的dropout值為0.5。另外,本文使用交叉熵?fù)p失函數(shù)作為模型的損失函數(shù)并通過基于時間的反向傳播(Back Propagation Through Time, BPTT)來訓(xùn)練模型,使用Adam作為優(yōu)化函數(shù),使用訓(xùn)練集的10%數(shù)據(jù)作為驗(yàn)證集,規(guī)定在第80次迭代后才開始衰減學(xué)習(xí)率。

    3.4 模型評估指標(biāo)

    本文的模型評估指標(biāo)使用召回率(Recall)和平均排名倒數(shù)(Mean Reciprocal Rank, MRR)。召回率是實(shí)際情況和預(yù)測結(jié)果都為正的樣本在實(shí)際情況為正的所有樣本中發(fā)生的概率。Recall@K是Top-K推薦中的常用指標(biāo),其計算式如式(6)所示:

    其中:Ru表示測試集中與用戶u相關(guān)的物品集;Tu表示推薦給用戶的前K個物品列表。本文在實(shí)驗(yàn)中使用Recall@20作為模型評估指標(biāo)之一。

    平均倒數(shù)排名(MRR)能很好地評估檢索算法的效果,其中心思想反映了結(jié)果集的好壞。在推薦算法中,推薦結(jié)果的MRR的具體計算式如式(7)所示:

    其中:|U|是用戶的數(shù)量;ranki是用戶i的推薦列表中第一個能在真實(shí)結(jié)果集中被查詢到的推薦物品所處的位置。由于推薦結(jié)果的順序問題是衡量本文實(shí)驗(yàn)結(jié)果優(yōu)劣的重要依據(jù),而MRR考慮了推薦結(jié)果的排名。因此本文在實(shí)驗(yàn)中所使用的另一個模型評估指標(biāo)是MRR@20。在MRR@20中,若一個排名的大小是超過20的,那么它的倒數(shù)應(yīng)該設(shè)置為零。

    3.5 結(jié)果分析

    3.5.1 引入成對編碼方案及2D CNN的長短期會話推薦

    不同模型在YOOCHOOSE 1/64、YOOCHOOSE 1/4和DIGINETICA這三個數(shù)據(jù)集上訓(xùn)練得到的Recall@20和MRR@20如表3所示。

    表3 不同模型的Recall@20和MRR@20 單位: %Tab. 3 Recall@20 and MRR@20 of different models unit: %

    觀察表3可知:1)對于不同的數(shù)據(jù)集,COS-NARM模型以及NARM模型的推薦效果都優(yōu)于其他對比模型,這是因?yàn)榍皟烧卟粌H考慮了用戶會話的順序行為,還同時考慮了用戶的長期興趣和短期興趣,從而促使推薦效果的提升。2)2D CNN在三個數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,其雖具有一定的推薦效果,但遠(yuǎn)沒有融入NARM模型所得到的推薦效果好。究其原因在于,單純的卷積操作會過于放松序列順序結(jié)構(gòu)的約束而使序列中的行為產(chǎn)生跳躍現(xiàn)象,這會使得局部行為的動態(tài)變化難以捕捉而導(dǎo)致推薦效果不佳。3)與NARM模型相比,COS-NARM模型的MRR@20和Recall@20都有了不錯的提升,該實(shí)驗(yàn)結(jié)果表明本文所提的成對編碼方案以及2D CNN作為建模中的全局編碼器的有效性。通過該全局編碼器,COS-NARM模型在進(jìn)行會話建模過程中可以有效繞過與當(dāng)前會話的主要目的不相關(guān)的物品,這使得模型能捕獲到更符合用戶真實(shí)偏好的興趣表示。4)DCOS-NARM模型的推薦效果遠(yuǎn)不如COS-NARM模型,甚至比NARM模型的推薦效果還略差一些。該實(shí)驗(yàn)結(jié)果表明,在模型的局部編碼器和全局編碼器中都使用成對編碼方案以及2D CNN,會使得模型大幅度放松會話順序結(jié)構(gòu)的約束進(jìn)而導(dǎo)致模型無法有效刻畫用戶局部興趣的動態(tài)變化過程,從而降低了推薦效果。

    對于YOOCHOOSE 1/64、YOOCHOOSE 1/4以及DIGINETICA這三個不同的數(shù)據(jù)集,根據(jù)表4~5可得:1)COS-NARM模型的MRR@20和Recall@20相較于NARM模型都得到了提升。2)DCOS-NARM模型的MRR@20和Recall@20相較于NARM模型都有所降低。

    分析可知,相較于NARM模型,COS-NARM模型的推薦效果在YOOCHOOSE 1/4數(shù)據(jù)集上提升的百分比遠(yuǎn)大于在另外兩個數(shù)據(jù)集上提升的百分比,并且DCOS-NARM模型的推薦效果在YOOCHOOSE 1/4數(shù)據(jù)集上降低的百分比遠(yuǎn)小于在另外兩個數(shù)據(jù)集上降低的百分比。這是因?yàn)閅OOCHOOSE 1/4數(shù)據(jù)集的點(diǎn)擊總數(shù)遠(yuǎn)大于另外兩個數(shù)據(jù)集,而數(shù)據(jù)集的點(diǎn)擊總數(shù)越多意味著其中包含與會話的主要目的不相關(guān)的點(diǎn)擊也越多,本文所提的成對編碼方案和二維CNN的作用也越顯著。

    表4 不同模型與NARM模型在Recall@20和MRR@20上的比較Tab. 4 Comparison of different models and NARM model on Recall@20 and MRR@20

    表5 不同數(shù)據(jù)集的點(diǎn)擊總數(shù)Tab. 5 Total number of clicks of different datasets

    3.5.2 引入歐氏距離的COS-NARM模型

    為了驗(yàn)證用來改進(jìn)NARM模型的局部編碼器依然有效,本節(jié)也將歐氏距離引入NARM模型得到O-NARM模型并將此作為基線模型之一。將OCOS-NARM模型與前文得到的最優(yōu)模型COS-NARM以及NARM模型進(jìn)行對比實(shí)驗(yàn)。四種模型在三個數(shù)據(jù)集上的Recall@20和MRR@20如表6所示。為了驗(yàn)證所提的方法能提高COS-NARM模型的訓(xùn)練速度,使得模型更加輕量級,在YOOCHOOSE 1/4數(shù)據(jù)集上測試了不同模型的訓(xùn)練時間,結(jié)果如表7所示。

    通過對表6的結(jié)果分析可得:相較于COS-NARM模型,OCOS-NARM模型的Recall@20和MRR@20都有所提升。這是由于將歐氏距離引入COS-NARM模型有助于它的局部編碼器捕獲到不同向量之間更準(zhǔn)確的相似度,同時減少模型參數(shù),因此2.2節(jié)的改進(jìn)方法不僅能提高模型效果而且能防止過擬合問題。

    通過對表7的結(jié)果分析可得:O-NARM模型的訓(xùn)練時間相較于NARM模型縮短了16.14%,而OCOS-NARM模型的訓(xùn)練時間相較COS-NARM模型縮短了14.84%。這是因?yàn)镺-NARM模型與OCOS-NARM模型都將歐氏距離引入了模型來降低模型的復(fù)雜度并減少了模型的參數(shù),使得模型的訓(xùn)練速度得到了提升。

    結(jié)合表6~7可以發(fā)現(xiàn):1)雖然O-NARM模型與NARM模型的推薦效果差別并不顯著,但是O-NARM模型與NARM模型的訓(xùn)練時間卻有較大差異。2)相較于COS-NARM模型,雖然OCOS-NARM模型的推薦效果僅僅只是略有提高,但是其訓(xùn)練時間卻顯著減少。這是因?yàn)镹ARM模型和COS-NARM模型都使用基礎(chǔ)注意力機(jī)制來計算不同興趣表示間的相似度,而O-NARM模型與OCOS-NARM模型都將歐氏距離引入局部編碼器,所以O(shè)-NARM模型與OCOS-NARM模型都不需要通過訓(xùn)練參數(shù)也能在一定程度上刻畫特征向量間的相似性,以致模型的參數(shù)量減少了很多。綜上所述,使用歐氏距離來改進(jìn)NARM模型和COS-NARM模型的局部編碼器不僅能在一定程度上提升模型的推薦效果,而且能大幅提高模型的訓(xùn)練速度。

    表6 四種模型的Recall@20和MRR@20 單位: %Tab. 6 Recall@20 and MRR@20 of four models unit: %

    表7 在YOOCHOOSE 1/4數(shù)據(jù)集上不同模型的訓(xùn)練時間Tab. 7 Training time of different models on YOOCHOOSE 1/4 dataset

    4 結(jié)語

    為了解決基于RNN的會話推薦算法在進(jìn)行序列建模時無法繞過與當(dāng)前會話中用戶的主要目的不相關(guān)的行為的問題,本文提出了COS-NARM模型。首先,將會話中的物品嵌入編碼成為成對表示并利用一個2D CNN提取用戶的長期興趣。然后,將用戶的長期興趣與用RNN和注意力機(jī)制獲取得到的短期興趣相結(jié)合。最后,使用雙線性解碼器計算每個候選物品推薦得分。實(shí)驗(yàn)結(jié)果表明,將2D CNN和RNN相結(jié)合的方式可以幫助模型在建模會話的過程中繞過與會話的主要目的不相關(guān)的物品以捕捉更準(zhǔn)確的用戶興趣,提升了推薦效果。為了能進(jìn)一步提升COS-NARM模型的推薦效果,使模型更加輕量級,本文提出了另一種改進(jìn)模型OCOS-NARM,即在COS-NARM模型的局部編碼器中直接利用歐氏距離公式來計算不同時刻興趣表示之間的相似度,并將其作為重要度分?jǐn)?shù)分配給對應(yīng)時刻的興趣表示。在三個不同的數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,OCOS-NARM模型的推薦效果和訓(xùn)練速度都優(yōu)于COS-NARM模型。另外,本文按照OCOS-NARM模型的方式將歐氏距離引入NARM模型,并通過實(shí)驗(yàn)進(jìn)一步驗(yàn)證了使用歐氏距離來改進(jìn)相似度計算的有效性。未來將進(jìn)一步考慮如何將時域卷積網(wǎng)絡(luò)應(yīng)用在基于會話的推薦算法中以充分發(fā)揮它的優(yōu)勢。

    [1] 毛勇華,桂小林,李前,等.深度學(xué)習(xí)應(yīng)用技術(shù)研究[J].計算機(jī)應(yīng)用研究,2016,33(11):3201-3205.(MAO Y H, GUI X L, LI Q, et al. Study on application technology of deep learning [J]. Application Research of Computers, 2016, 33(11): 3201-3205.)

    [2] 劉浩翰,呂鑫,李建伏.考慮用戶意圖和時間間隔的會話型深度學(xué)習(xí)推薦系統(tǒng)[J].計算機(jī)應(yīng)用與軟件,2021,38(3):190-195,223.(LIU H H, LYU X, LI J F. A session-based deep learning recommendation system considering user purpose and time interval [J]. Computer Applications and Software, 2021, 38(3): 190-195, 223.)

    [3] HIDASI B, KARATZOGLOU A, BALTRUNAS L, et al. Session-based recommendations with recurrent neural networks [EB/OL]. [2021-02-12]. https://arxiv.org/pdf/1511.06939.pdf.

    [4] DADOUN A, TRONCY R. Many-to-one recurrent neural network for session-based recommendation [EB/OL]. [2021-02-12]. https://arxiv.org/pdf/2008.11136.pdf.

    [5] BACH N X, LONG D H, PHUONG T M. Recurrent convolutional networks for session-based recommendations [J]. Neurocomputing, 2020, 411: 247-258.

    [6] QUADRANA M, KARATZOGLOU A, HIDASI B, et al. Personalizing session-based recommendations with hierarchical recurrent neural networks [C]// Proceedings of the 2017 11th ACM Conference on Recommender Systems. New York: ACM, 2017: 130-137.

    [7] HIDASI B, KARATZOGLOU A. Recurrent neural networks with top-k gains for session-based recommendations [C]// Proceedings of the 2018 27th ACM International Conference on Information and Knowledge Management. New York: ACM, 2018: 843-852.

    [8] SONG Y, LEE J G. Augmenting recurrent neural networks with high-order user-contextual preference for session-based recommendation [EB/OL]. [2021-02-12]. https://arxiv.org/pdf/1805.02983.pdf.

    [9] LI J, REN P J, CHEN Z M, et al. Neural attentive session-based recommendation [C]// Proceedings of the 2017 ACM Conference on Information and Knowledge Management. New York: ACM, 2017: 1419-1428.

    [10] YIN W P, KANN K, YU M, et al. Comparative study of CNN and RNN for natural language processing [EB/OL]. [2021-02-12]. https://arxiv.org/pdf/1702.01923.pdf.

    [11] DHYANI M, KUMAR R. An intelligent Chatbot using deep learning with Bidirectional RNN and attention model [J]. Materials Today: Proceedings, 2021,34(Pt 3): 817-824.

    [12] TANG J X, WANG K. Personalized top-Nsequential recommendation via convolutional sequence embedding [C]// Proceedings of the 2018 11th ACM International Conference on Web Search and Data Mining. New York: ACM, 2018: 565-573.

    [13] BOGINA V, KUFLIK T. Incorporating dwell time in session-based recommendations with recurrent neural networks [C]// Proceedings of the 2017 1st Workshop on Temporal Reasoning in Recommender Systems Co-located with 11th International Conference on Recommender Systems. Aachen: CEUR-WS.org, 2017:57-59.

    [14] MOREIRA G S P, JANNACH D, DA CUNHA A M. Hybrid session-based news recommendation using recurrent neural networks [EB/OL]. [2021-02-12]. https://arxiv.org/pdf/2006. 13063.pdf.

    [15] WANG Y Q, GUO C L, CHU Y F, et al. A cross-domain hierarchical recurrent model for personalized session-based recommendations [J]. Neurocomputing,2020, 380: 271-284.

    [16] BEHRENS T, SCHMIDT K, VISCARRA ROSSEL R A, et al. Spatial modelling with Euclidean distance fields and machine learning [J]. European Journal of Soil Science, 2018, 69(5): 757-770.

    [17] TAN Y K, XU X X, LIU Y. Improved recurrent neural networks for session-based recommendations [C]// Proceedings of the 2016 1st Workshop on Deep Learning for Recommender Systems. New York: ACM, 2016: 17-22.

    Long short-term session-based recommendation algorithm combining paired coding scheme and two-dimensional conventional neural network

    CHEN Xueqin, TAO Tao,ZHANG Zhongwang, WANG Yilei*

    (College of Mathematics and Computer Science,F(xiàn)uzhou University,F(xiàn)uzhou Fujian350108,China)

    The session-based recommendation algorithm based on Recurrent Neural Network (RNN) can effectively model the long-term dependency in the session, and can combine the attention mechanism to describe the main purpose of the user in the session. However, it cannot bypass the items that are not related to the user’s main purpose in the process of session modeling, and is susceptible to their influence to reduce the recommendation accuracy. In order to solve problems, a new paired coding scheme was designed,which transformed the original input sequence embedding vector into a three-dimensional tensor representation, so that non-adjacent behaviors were also able to be linked. The tensor was processed by a two-dimensional Conventional Neural Network (CNN) to capture the relationship between non-adjacent items, and a Neural Attentive Recommendation Machine introducing two-dimensional COnvolutional neural network for Session-based recommendation (COS-NARM) model was proposed. The proposed model was able to effectively skip items that were not related to the user’s main purpose in the sequence. Experimental results show that the recall and Mean Reciprocal Rank (MRR) of the COS-NARM model on multiple real datasets such as DIGINETICA are improved to varying degrees, and they are better than those of all baseline models such as NARM and GRU-4Rec+. On the basis of the above research, Euclidean distance was introduced into the COS-NARM model, and the OCOS-NARM model was proposed. Euclidean distance was used to directly calculate the similarity between interests at different times to reduce the parameters of model and reduce the complexity of model. Experimental results show that the introduction of Euclidean distance further improves the recommendation effect of the OCOS-NARM model on multiple real datasets such as DIGINETICA, and makes the training time of the OCOS-NARM model shortened by 14.84% compared with that of the COS-NARM model, effectively improving the training speed of model.

    session-based recommendation; Recurrent Neural Network (RNN); paired coding; Conventional Neural Network (CNN); Euclidean distance

    TP183

    A

    1001-9081(2022)05-1347-08

    10.11772/j.issn.1001-9081.2021030467

    2021?03?29;

    2021?07?01;

    2021?07?05。

    福建省自然科學(xué)基金資助項(xiàng)目(2018J01799)。

    陳學(xué)勤(1997—),男,福建福州人,碩士研究生,主要研究方向:個性化推薦; 陶濤(1995—),男,江西撫州人,碩士研究生,主要研究方向:個性化推薦; 張鐘旺(1997—),男,福建三明人,碩士研究生,主要研究方向:個性化推薦; 王一蕾(1979—),女,福建福州人,副教授,博士,CCF會員,主要研究方向:文本挖掘、數(shù)據(jù)安全、隱私保護(hù)。

    This work is partially supported by Natural Science Foundation of Fujian Province (2018J01799).

    CHEN Xueqin, born in 1997, M. S. candidate. His research interests include personalized recommendation.

    TAO Tao, born in 1995, M. S. candidate. His research interests include personalized recommendation.

    ZHANG Zhongwang, born in 1997, M. S. candidate. His research interests include personalized recommendation.

    WANG Yilei, born in 1979, Ph. D., associate professor. Her research interests include text mining, data security, privacy protection.

    猜你喜歡
    用戶模型
    一半模型
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
    關(guān)注用戶
    商用汽車(2016年11期)2016-12-19 01:20:16
    3D打印中的模型分割與打包
    關(guān)注用戶
    商用汽車(2016年6期)2016-06-29 09:18:54
    關(guān)注用戶
    商用汽車(2016年4期)2016-05-09 01:23:12
    FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
    Camera360:拍出5億用戶
    100萬用戶
    欧美最新免费一区二区三区| 亚洲av免费高清在线观看| 亚洲国产av新网站| 伊人久久精品亚洲午夜| 国产亚洲一区二区精品| 国产精品三级大全| 亚洲国产高清在线一区二区三| 高清在线视频一区二区三区| 久久97久久精品| 国产视频首页在线观看| 男女啪啪激烈高潮av片| 亚洲精品一区蜜桃| 欧美另类一区| 视频中文字幕在线观看| 国产高清三级在线| 啦啦啦视频在线资源免费观看| 99国产精品免费福利视频| 中文字幕亚洲精品专区| 久久国内精品自在自线图片| 久久人妻熟女aⅴ| 老女人水多毛片| 在线 av 中文字幕| 国产精品久久久久久av不卡| 精品国产三级普通话版| 国产午夜精品一二区理论片| 亚洲精品日本国产第一区| 国产亚洲午夜精品一区二区久久| 亚洲美女视频黄频| 亚洲成人av在线免费| 精品一品国产午夜福利视频| 成年av动漫网址| 人妻少妇偷人精品九色| 中国国产av一级| 精华霜和精华液先用哪个| 亚洲精品视频女| .国产精品久久| 不卡视频在线观看欧美| 91精品一卡2卡3卡4卡| a级一级毛片免费在线观看| 日本欧美视频一区| 欧美97在线视频| 国产一区有黄有色的免费视频| 一级av片app| 一区二区三区乱码不卡18| 高清不卡的av网站| 国产高清有码在线观看视频| 欧美精品一区二区大全| 狂野欧美白嫩少妇大欣赏| 日韩制服骚丝袜av| 国产永久视频网站| 国产av码专区亚洲av| 看免费成人av毛片| 国产精品麻豆人妻色哟哟久久| 婷婷色综合www| 久久青草综合色| 中文精品一卡2卡3卡4更新| 国产一区二区三区综合在线观看 | 国产在视频线精品| 精品99又大又爽又粗少妇毛片| 日本欧美视频一区| 亚洲国产高清在线一区二区三| freevideosex欧美| 亚洲内射少妇av| 99九九线精品视频在线观看视频| 欧美zozozo另类| 欧美日韩国产mv在线观看视频 | 永久免费av网站大全| 亚洲欧美成人综合另类久久久| 亚洲精品国产色婷婷电影| 亚洲成人手机| 亚洲人成网站在线播| 国产色爽女视频免费观看| 免费看光身美女| 男的添女的下面高潮视频| 精品一区二区免费观看| 啦啦啦视频在线资源免费观看| 男人爽女人下面视频在线观看| 国产91av在线免费观看| 99re6热这里在线精品视频| 边亲边吃奶的免费视频| 亚洲av福利一区| 久久 成人 亚洲| 国产中年淑女户外野战色| 在线观看一区二区三区激情| 亚洲成色77777| 男女边摸边吃奶| 日韩中字成人| 狂野欧美激情性xxxx在线观看| 亚洲成人手机| 亚洲av在线观看美女高潮| 国产探花极品一区二区| 精品人妻视频免费看| 多毛熟女@视频| 国语对白做爰xxxⅹ性视频网站| 成人二区视频| 99国产精品免费福利视频| 亚洲精品视频女| 啦啦啦在线观看免费高清www| 99久久综合免费| 婷婷色av中文字幕| 欧美+日韩+精品| 亚洲精品亚洲一区二区| 国国产精品蜜臀av免费| 人妻少妇偷人精品九色| 80岁老熟妇乱子伦牲交| 精品人妻偷拍中文字幕| 一级毛片电影观看| 亚洲精品成人av观看孕妇| 99热这里只有是精品50| 日本-黄色视频高清免费观看| 亚洲美女视频黄频| 成人无遮挡网站| 亚洲欧美日韩另类电影网站 | 精品人妻偷拍中文字幕| 男女国产视频网站| 一级黄片播放器| 99热这里只有是精品50| 午夜福利网站1000一区二区三区| 亚洲内射少妇av| 热99国产精品久久久久久7| 久久精品国产亚洲av天美| 亚洲欧美日韩东京热| 在线观看免费日韩欧美大片 | 我的女老师完整版在线观看| 亚洲精品国产av成人精品| 九九爱精品视频在线观看| 99国产精品免费福利视频| 汤姆久久久久久久影院中文字幕| 18禁在线播放成人免费| 能在线免费看毛片的网站| 国产美女午夜福利| 亚洲欧美成人精品一区二区| 国产亚洲5aaaaa淫片| 国产黄频视频在线观看| 男女国产视频网站| 春色校园在线视频观看| 国产v大片淫在线免费观看| 在线播放无遮挡| 亚洲精品自拍成人| 深爱激情五月婷婷| 久久精品国产亚洲网站| 在线精品无人区一区二区三 | 99热这里只有是精品在线观看| 成年女人在线观看亚洲视频| 免费人妻精品一区二区三区视频| 少妇猛男粗大的猛烈进出视频| 免费黄网站久久成人精品| 国产成人精品福利久久| 18禁裸乳无遮挡动漫免费视频| 春色校园在线视频观看| 午夜免费男女啪啪视频观看| 精华霜和精华液先用哪个| 国产成人免费无遮挡视频| 国产91av在线免费观看| 大话2 男鬼变身卡| 舔av片在线| 国产精品一二三区在线看| 熟女av电影| 久久99蜜桃精品久久| 嫩草影院新地址| 中文字幕制服av| 国产成人精品福利久久| 大码成人一级视频| 久久人人爽人人片av| 国产精品人妻久久久久久| 2021少妇久久久久久久久久久| 免费黄频网站在线观看国产| 国产乱人视频| 久久精品久久精品一区二区三区| 久久久久久久久久久丰满| 99视频精品全部免费 在线| 十分钟在线观看高清视频www | 最近2019中文字幕mv第一页| 伊人久久精品亚洲午夜| 高清日韩中文字幕在线| 在线观看免费高清a一片| 久久精品国产亚洲网站| 成人免费观看视频高清| 国产精品人妻久久久影院| 男人爽女人下面视频在线观看| 久热这里只有精品99| 国产极品天堂在线| 99久久综合免费| 国产乱人偷精品视频| 一级毛片黄色毛片免费观看视频| 国产精品三级大全| 欧美成人精品欧美一级黄| 成人免费观看视频高清| 国产精品三级大全| 欧美成人精品欧美一级黄| h日本视频在线播放| 精品久久久久久电影网| 丰满人妻一区二区三区视频av| 日本欧美国产在线视频| 18禁在线无遮挡免费观看视频| 午夜老司机福利剧场| 99热全是精品| 日本欧美视频一区| 久久女婷五月综合色啪小说| 国产一区二区三区av在线| 九色成人免费人妻av| 久久国产亚洲av麻豆专区| 亚洲精品第二区| 又黄又爽又刺激的免费视频.| 精品酒店卫生间| 亚洲欧美精品专区久久| av国产免费在线观看| 色哟哟·www| 啦啦啦视频在线资源免费观看| 新久久久久国产一级毛片| 永久网站在线| a级毛片免费高清观看在线播放| 麻豆精品久久久久久蜜桃| 看免费成人av毛片| 精品久久国产蜜桃| 特大巨黑吊av在线直播| 欧美精品人与动牲交sv欧美| 久久97久久精品| 精品亚洲成国产av| 午夜福利高清视频| 国产av国产精品国产| 精品人妻一区二区三区麻豆| 日日啪夜夜撸| 能在线免费看毛片的网站| 在线观看免费视频网站a站| 久久99蜜桃精品久久| 大片免费播放器 马上看| 亚洲av成人精品一区久久| 久久久亚洲精品成人影院| 欧美日韩视频高清一区二区三区二| 欧美高清性xxxxhd video| 日本黄大片高清| 偷拍熟女少妇极品色| av线在线观看网站| 国产极品天堂在线| 免费观看的影片在线观看| 亚洲精华国产精华液的使用体验| 99热网站在线观看| 日本黄色片子视频| 永久网站在线| 校园人妻丝袜中文字幕| 久久精品国产亚洲av天美| 亚洲av欧美aⅴ国产| 成人漫画全彩无遮挡| 免费黄网站久久成人精品| 两个人的视频大全免费| 亚洲aⅴ乱码一区二区在线播放| 涩涩av久久男人的天堂| 深夜a级毛片| 最后的刺客免费高清国语| 18禁动态无遮挡网站| 一个人看视频在线观看www免费| 99久久中文字幕三级久久日本| 亚洲人与动物交配视频| 精品国产露脸久久av麻豆| 成人影院久久| 亚洲人成网站高清观看| 婷婷色综合大香蕉| 欧美xxxx性猛交bbbb| 少妇高潮的动态图| 亚洲精品国产色婷婷电影| 亚洲图色成人| 国产午夜精品久久久久久一区二区三区| 一级毛片我不卡| 亚洲精华国产精华液的使用体验| av又黄又爽大尺度在线免费看| 成年免费大片在线观看| 边亲边吃奶的免费视频| 18禁裸乳无遮挡免费网站照片| 熟女av电影| 十分钟在线观看高清视频www | 亚洲四区av| 国产成人一区二区在线| 国产亚洲欧美精品永久| 精品人妻一区二区三区麻豆| 国产极品天堂在线| 男人爽女人下面视频在线观看| 欧美日本视频| 在线观看三级黄色| 国产在线一区二区三区精| 高清午夜精品一区二区三区| 国产成人免费无遮挡视频| 99久久精品一区二区三区| 亚洲欧美成人综合另类久久久| 97精品久久久久久久久久精品| 波野结衣二区三区在线| 观看美女的网站| 亚洲人成网站高清观看| av免费观看日本| 一本一本综合久久| 黑丝袜美女国产一区| 美女xxoo啪啪120秒动态图| 国产高清三级在线| 国产精品av视频在线免费观看| 久久人人爽人人片av| 国产有黄有色有爽视频| 国产成人a∨麻豆精品| 午夜免费观看性视频| 亚洲国产av新网站| 丝袜脚勾引网站| 久久女婷五月综合色啪小说| 免费观看性生交大片5| 成人美女网站在线观看视频| 亚洲国产精品专区欧美| 特大巨黑吊av在线直播| 日本与韩国留学比较| 亚洲精品日本国产第一区| 少妇高潮的动态图| 黄色怎么调成土黄色| 欧美一级a爱片免费观看看| videossex国产| 久久av网站| 少妇的逼好多水| 亚洲图色成人| 精品国产乱码久久久久久小说| 国产美女午夜福利| 人妻夜夜爽99麻豆av| 久久韩国三级中文字幕| 欧美人与善性xxx| 国产精品免费大片| 国产日韩欧美在线精品| 我的女老师完整版在线观看| 丝瓜视频免费看黄片| 日本与韩国留学比较| 亚洲国产色片| 高清午夜精品一区二区三区| 久久97久久精品| 18+在线观看网站| 97超视频在线观看视频| 久久精品国产亚洲av天美| 在线观看免费日韩欧美大片 | 午夜福利视频精品| 国产一区二区三区综合在线观看 | 日韩在线高清观看一区二区三区| 精品久久久久久久久av| av在线老鸭窝| 国内揄拍国产精品人妻在线| 如何舔出高潮| 日本与韩国留学比较| 简卡轻食公司| av在线蜜桃| 大片免费播放器 马上看| 欧美激情国产日韩精品一区| 国产精品欧美亚洲77777| 麻豆精品久久久久久蜜桃| 久久久精品免费免费高清| 久久久久精品性色| 97在线人人人人妻| 少妇高潮的动态图| 爱豆传媒免费全集在线观看| 亚洲国产精品成人久久小说| 精品酒店卫生间| 久久久久视频综合| 亚洲成人一二三区av| 国产男女超爽视频在线观看| 黄片wwwwww| av国产精品久久久久影院| 成年av动漫网址| 欧美三级亚洲精品| a级毛片免费高清观看在线播放| 欧美3d第一页| 网址你懂的国产日韩在线| av又黄又爽大尺度在线免费看| 99热全是精品| 九草在线视频观看| 国产精品一及| 欧美xxxx性猛交bbbb| 日本黄色日本黄色录像| 亚洲国产精品专区欧美| a 毛片基地| 亚洲在久久综合| 国产伦精品一区二区三区视频9| 欧美成人一区二区免费高清观看| 成人免费观看视频高清| 91精品国产国语对白视频| 成人午夜精彩视频在线观看| 亚洲内射少妇av| 99热这里只有是精品50| 精品午夜福利在线看| 又爽又黄a免费视频| 久久精品久久久久久噜噜老黄| 久久精品久久久久久久性| 男人舔奶头视频| 丝袜脚勾引网站| 九九在线视频观看精品| 日韩免费高清中文字幕av| 久久女婷五月综合色啪小说| 欧美zozozo另类| 伊人久久精品亚洲午夜| 最近中文字幕高清免费大全6| 国产伦理片在线播放av一区| 国产精品精品国产色婷婷| 精品久久久噜噜| 丰满人妻一区二区三区视频av| 国产乱人偷精品视频| 日韩不卡一区二区三区视频在线| 内地一区二区视频在线| 久久精品久久久久久噜噜老黄| 极品教师在线视频| 只有这里有精品99| 久久99热6这里只有精品| av.在线天堂| 亚洲av电影在线观看一区二区三区| 国产成人a区在线观看| 成人国产麻豆网| 在现免费观看毛片| 日本黄色日本黄色录像| 一二三四中文在线观看免费高清| 国产精品.久久久| 亚洲欧美日韩卡通动漫| kizo精华| 国产视频首页在线观看| 在线播放无遮挡| 国产精品一区二区在线不卡| 亚洲精品一二三| 国产一区亚洲一区在线观看| 日本欧美视频一区| 国产精品免费大片| 久久毛片免费看一区二区三区| 欧美少妇被猛烈插入视频| 人妻 亚洲 视频| 欧美国产精品一级二级三级 | 日日摸夜夜添夜夜添av毛片| 欧美性感艳星| 十八禁网站网址无遮挡 | 蜜桃亚洲精品一区二区三区| 一区在线观看完整版| 蜜桃亚洲精品一区二区三区| 26uuu在线亚洲综合色| 极品教师在线视频| 亚洲欧洲国产日韩| 久久久久久久久久久丰满| 久久久成人免费电影| 国产深夜福利视频在线观看| 七月丁香在线播放| 免费少妇av软件| 久久人人爽人人爽人人片va| 80岁老熟妇乱子伦牲交| 国产精品精品国产色婷婷| 国产伦在线观看视频一区| 欧美一区二区亚洲| 亚洲欧美日韩东京热| 欧美zozozo另类| 亚洲色图av天堂| 亚洲婷婷狠狠爱综合网| 肉色欧美久久久久久久蜜桃| 毛片女人毛片| 成人毛片a级毛片在线播放| 国产精品久久久久久精品电影小说 | 五月玫瑰六月丁香| 免费人成在线观看视频色| 色哟哟·www| 80岁老熟妇乱子伦牲交| 欧美一区二区亚洲| 少妇高潮的动态图| 一区二区三区乱码不卡18| 肉色欧美久久久久久久蜜桃| 下体分泌物呈黄色| 日韩一本色道免费dvd| 久久久久精品性色| av在线观看视频网站免费| 久久99热6这里只有精品| 国产真实伦视频高清在线观看| 极品教师在线视频| 精品一区二区免费观看| 在线观看一区二区三区激情| 欧美另类一区| 久久久久久久久久成人| 91精品伊人久久大香线蕉| 色网站视频免费| 国产亚洲精品久久久com| 两个人的视频大全免费| 51国产日韩欧美| 午夜精品国产一区二区电影| 欧美bdsm另类| 99久久人妻综合| 国产成人免费观看mmmm| 亚洲av成人精品一区久久| 少妇的逼好多水| 国产精品人妻久久久久久| 在线观看美女被高潮喷水网站| 在线精品无人区一区二区三 | 欧美xxⅹ黑人| 51国产日韩欧美| 国产午夜精品久久久久久一区二区三区| 国产精品蜜桃在线观看| 美女国产视频在线观看| 联通29元200g的流量卡| 久久久国产一区二区| 免费看不卡的av| 超碰av人人做人人爽久久| 亚洲中文av在线| 亚洲va在线va天堂va国产| 日本黄大片高清| 少妇人妻精品综合一区二区| 日本色播在线视频| 精品人妻一区二区三区麻豆| 亚洲内射少妇av| 秋霞伦理黄片| 观看美女的网站| 人人妻人人爽人人添夜夜欢视频 | 99久国产av精品国产电影| 亚洲精品aⅴ在线观看| 麻豆乱淫一区二区| 黄片wwwwww| 精品亚洲成a人片在线观看 | 国产在线视频一区二区| 嫩草影院入口| 人妻夜夜爽99麻豆av| 秋霞在线观看毛片| 欧美日韩视频精品一区| 亚洲av在线观看美女高潮| 久久久成人免费电影| 久久国产精品男人的天堂亚洲 | 黄色一级大片看看| 日本一二三区视频观看| 日韩一本色道免费dvd| 亚洲精品中文字幕在线视频 | 色哟哟·www| 高清视频免费观看一区二区| 91精品伊人久久大香线蕉| 亚洲第一区二区三区不卡| 国产精品99久久99久久久不卡 | 永久免费av网站大全| 国产乱来视频区| 国产一区二区在线观看日韩| 亚洲人成网站高清观看| 成人特级av手机在线观看| 十八禁网站网址无遮挡 | 最近最新中文字幕大全电影3| 国产亚洲午夜精品一区二区久久| 免费看光身美女| 一级毛片久久久久久久久女| 黄色一级大片看看| 亚洲欧美清纯卡通| 日韩人妻高清精品专区| 国产精品伦人一区二区| 亚洲综合色惰| 成人午夜精彩视频在线观看| 亚洲,一卡二卡三卡| 你懂的网址亚洲精品在线观看| 久久精品夜色国产| 99热国产这里只有精品6| 九九爱精品视频在线观看| 国产伦精品一区二区三区视频9| 久久久久久久国产电影| 亚洲av中文av极速乱| 国产男女超爽视频在线观看| 亚洲精品国产成人久久av| 亚洲人成网站高清观看| 各种免费的搞黄视频| 国产 一区 欧美 日韩| 成人国产麻豆网| 婷婷色av中文字幕| 亚洲精品日韩av片在线观看| 久久久久久久国产电影| 3wmmmm亚洲av在线观看| 久热久热在线精品观看| 亚洲欧美日韩无卡精品| 日本黄色片子视频| 亚洲精品久久久久久婷婷小说| 少妇熟女欧美另类| 这个男人来自地球电影免费观看 | 最近最新中文字幕大全电影3| 美女国产视频在线观看| 高清在线视频一区二区三区| 99热网站在线观看| 狠狠精品人妻久久久久久综合| 午夜福利在线在线| 亚洲精品第二区| freevideosex欧美| 人妻系列 视频| 蜜臀久久99精品久久宅男| 在线免费观看不下载黄p国产| 亚洲精品日韩在线中文字幕| 少妇熟女欧美另类| 欧美亚洲 丝袜 人妻 在线| 秋霞在线观看毛片| 免费人妻精品一区二区三区视频| 青春草国产在线视频| 街头女战士在线观看网站| 热re99久久精品国产66热6| 亚洲精品,欧美精品| 国产无遮挡羞羞视频在线观看| 日本av免费视频播放| 国产精品蜜桃在线观看| 在线观看一区二区三区| 国产深夜福利视频在线观看| 国产成人91sexporn| av在线app专区| 一级a做视频免费观看| 国产一区二区三区综合在线观看 | 日韩av不卡免费在线播放| 内地一区二区视频在线| 97在线视频观看| 成人免费观看视频高清| 国产精品99久久99久久久不卡 | 在线观看免费日韩欧美大片 | 成年免费大片在线观看| 少妇人妻 视频| 人妻 亚洲 视频| 亚洲成人手机| 婷婷色麻豆天堂久久| 久久精品国产亚洲av天美| 91久久精品国产一区二区三区| 免费av不卡在线播放| 亚洲欧美日韩另类电影网站 | 亚洲国产成人一精品久久久| 少妇的逼好多水| 伦理电影大哥的女人| 最近的中文字幕免费完整| 亚洲美女视频黄频| 国产成人午夜福利电影在线观看| 成人无遮挡网站| 国产精品偷伦视频观看了|