• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于策略記憶的深度強(qiáng)化學(xué)習(xí)序列推薦算法研究

    2022-09-02 04:23:02陳卓姜偉豪杜軍威
    關(guān)鍵詞:向量深度記憶

    陳卓,姜偉豪,杜軍威

    (青島科技大學(xué)信息科學(xué)技術(shù)學(xué)院,山東青島 266061)

    隨著科學(xué)技術(shù)的發(fā)展,信息過載的問題也越來越嚴(yán)重,推薦系統(tǒng)的成功應(yīng)用可以有效地緩解這一難題.然而,用戶興趣總是隨著時間的推移而產(chǎn)生變化,因此,序列推薦系統(tǒng)(Sequential Recommender Systems,SRS)[1]應(yīng)運(yùn)而生.序列推薦系統(tǒng)將用戶-項目交互視為一個動態(tài)序列,捕捉用戶當(dāng)前和最近的偏好,以獲得更準(zhǔn)確的推薦,該系統(tǒng)在購物以及影音網(wǎng)站等都有著很好的應(yīng)用.

    不同于基于內(nèi)容的協(xié)同過濾[2]以及基于矩陣分解[3]的傳統(tǒng)推薦系統(tǒng),序列推薦系統(tǒng)根據(jù)模型的復(fù)雜程度可以分為兩類,包括傳統(tǒng)的序列模型和神經(jīng)網(wǎng)絡(luò)模型.傳統(tǒng)的序列模型例如基于馬爾科夫鏈的模型對序列中的用戶-項目交互進(jìn)行建模,并計算相互之間的轉(zhuǎn)移概率,該方法只能捕獲短期依賴并且忽略用戶的總體興趣.神經(jīng)網(wǎng)絡(luò)模型例如基于循環(huán)神經(jīng)網(wǎng)絡(luò)的模型通過給定的用戶-項目交互序列來預(yù)測下一交互,但該方法假設(shè)任何相鄰交互都是有關(guān)系的并忽略多個項目的共同作用.

    大多數(shù)的序列推薦系統(tǒng)只專注于當(dāng)前收益,對于即時回報較小但有較大未來收益項目的識別度不高.比如用戶在觀看了有關(guān)游戲和天氣的短視頻后,可能不會再關(guān)注今天的天氣;但是看了喜歡的游戲之后,更傾向于觀看更多與游戲相關(guān)的視頻.深度強(qiáng)化學(xué)習(xí)可以統(tǒng)一優(yōu)化即時收益和長期收益[4],將用戶的狀態(tài)進(jìn)行動態(tài)建模,并學(xué)習(xí)到最優(yōu)推薦策略,以提高推薦準(zhǔn)確率.現(xiàn)有的深度強(qiáng)化學(xué)習(xí)狀態(tài)的表示是將用戶之前交互的項目按照一定的順序進(jìn)行建模,無法區(qū)分用戶交互序列中的不同行為模式,因而無法較為準(zhǔn)確地預(yù)測用戶的當(dāng)前興趣偏好.深度強(qiáng)化學(xué)習(xí)做預(yù)測時,可選擇的動作空間較大且數(shù)據(jù)較為稀疏,導(dǎo)致算法收斂困難.本文使用深度強(qiáng)化學(xué)習(xí)中的深度確定性策略梯度(Deep Deterministic Policy Gradient,DDPG)算法,該算法不再計算每個項目的概率而是基于確定的策略,這更有利于處理連續(xù)動作,并且提高了算法的收斂速度.

    本文提出了一種將用戶策略記憶與DDPG 算法結(jié)合的方式來解決以上問題.本文的貢獻(xiàn)可以總結(jié)為以下幾點:

    1)使用記憶網(wǎng)絡(luò)存儲用戶歷史交互序列,并訓(xùn)練一個策略網(wǎng)絡(luò),通過用戶和其歷史交互對用戶當(dāng)前行為模式進(jìn)行劃分.引入注意力機(jī)制,根據(jù)策略網(wǎng)絡(luò)的輸出對記憶網(wǎng)絡(luò)使用不同的注意力表示方法并生成用戶當(dāng)前的記憶向量表示.

    2)提出結(jié)合策略記憶的深度強(qiáng)化學(xué)習(xí)推薦算法(Deep Reinforcement Recommendation with Policy Memory,DRRM).將用戶表示、用戶當(dāng)前偏好以及用戶記憶作為狀態(tài)輸入,利用DDPG 算法預(yù)測用戶喜好,在交互中不斷更新推薦策略,該算法同時考慮了推薦項目對用戶的當(dāng)前收益及其對用戶的長期影響.使用探索策略提高推薦多樣性.

    3)通過在兩個公共數(shù)據(jù)集上進(jìn)行的實驗,驗證了所提出算法的有效性,其效果明顯強(qiáng)于基線算法.

    1 相關(guān)工作

    1.1 序列推薦系統(tǒng)

    序列推薦系統(tǒng)是近年來的研究熱點,通過對用戶的行為序列進(jìn)行建模,考慮用戶興趣的依賴性,為其推薦下一時刻所感興趣的項目.傳統(tǒng)的序列推薦算法有:Feng 等人[5]提出了基于距離嵌入的個性化排序算法(Personalized Ranking Metric Embedding,PRME),將用戶序列建模為馬爾可夫鏈,并嵌入歐氏空間,基于距離計算項目相互之間的轉(zhuǎn)移概率.Liu等人[6]提出了基于上下文感知的序列推薦算法(Context-Aware Recurrent Neural Networks,CARNN),該算法使用特定輸入矩陣和轉(zhuǎn)移矩陣進(jìn)行推薦,但該算法不利于捕獲交互序列中高度相關(guān)的項目信息.Wang 等人[7]提出的基于注意力機(jī)制的事務(wù)嵌入推薦算法(Attention-Based Transaction Embedding Model,ATEM)通過注意力機(jī)制來觀察和識別與下一個項目相關(guān)的上下文信息.Kang 等人[8]提出的基于自注意力的序列推薦算法(Self-Attentive Sequential Recommendation,SASRec)將自注意力機(jī)制應(yīng)用于序列推薦系統(tǒng),用于捕獲序列的長期語義,并在訓(xùn)練速度上有一定的提升.

    上述算法進(jìn)行序列推薦時,總是假定相鄰兩交互是相關(guān)的,而對于具有靈活順序的長序列的識別能力不強(qiáng).

    1.2 基于記憶網(wǎng)絡(luò)的推薦算法

    由于需要長期記憶來存儲問答知識或聊天的語境信息,記憶網(wǎng)絡(luò)(Memory Networks,MN)[9]由Weston 首次提出,以這種有效的方式來簡單地讀寫此類信息,該模型最初被應(yīng)用于智能問答領(lǐng)域.Chen等人[10]提出了一種基于用戶記憶網(wǎng)絡(luò)的推薦算法(Recommender system with User Memory networks,RUM),該算法首次將記憶網(wǎng)絡(luò)應(yīng)用于推薦系統(tǒng),通過對用戶交互項目的讀取、寫入等操作更好地利用用戶的歷史記錄;但該算法并沒有對用戶興趣進(jìn)行區(qū)分.Ebesu 等人[11]提出了一種將用戶協(xié)同過濾與記憶網(wǎng)絡(luò)相結(jié)合的推薦系統(tǒng)(Collaborative Memory Networks,CMN),分別利用潛在因素的全局結(jié)構(gòu)以及鄰域的局部結(jié)構(gòu)進(jìn)行推薦.Ouyang 等人[12]提出了一種基于記憶增強(qiáng)的深度神經(jīng)網(wǎng)絡(luò)推薦算法(Memory Augmented Deep Neural Networks,MADNN),該算法為每一個用戶都創(chuàng)建喜歡和不喜歡兩個外部記憶向量,以此來對用戶點擊率進(jìn)行預(yù)測.

    上述基于記憶網(wǎng)絡(luò)的推薦算法僅能夠識別記憶向量對當(dāng)前交互的作用,無法識別未來收益較大的交互項目,并且沒有利用更深層的神經(jīng)網(wǎng)絡(luò)模型對用戶偏好進(jìn)行預(yù)測.

    1.3 基于深度強(qiáng)化學(xué)習(xí)的推薦算法

    近幾年來,隨著強(qiáng)化學(xué)習(xí)的發(fā)展,與推薦系統(tǒng)的結(jié)合也越來越多.深度強(qiáng)化學(xué)習(xí)的目標(biāo)是智能體在與環(huán)境的不斷交互中學(xué)習(xí)到最佳策略,因此,有利于序列推薦的動態(tài)建模.Wang等人[13]提出了基于遞歸神經(jīng)網(wǎng)絡(luò)的監(jiān)督強(qiáng)化學(xué)習(xí)算法(Supervised Reinforcement Learning with Recurrent Neural Network,SRL-RNN),該算法使用演員-評論家框架處理多種藥物、疾病以及個體之間的關(guān)系,以進(jìn)行個性化藥品推薦.Zhao 等人[14]提出了一種基于多智能體強(qiáng)化學(xué)習(xí)的DeepChain算法,該算法使用多個智能體協(xié)同優(yōu)化,捕捉多場景中用戶行為順序相關(guān)性,以獲得整體的最大回報.Zheng 等人[15]將深度強(qiáng)化學(xué)習(xí)中的深度Q 網(wǎng)絡(luò)(Deep Q Learning,DQN)與推薦系統(tǒng)相結(jié)合,提出了基于深度強(qiáng)化學(xué)習(xí)的新聞推薦框架(Deep Reinforcement Learning Framework for News Recommendation,DRN),該框架同時使用Dueling Bandit 梯度下降方法來進(jìn)行有效的探索.Liu 等人[16]利用DDPG 算法提出了用于解決電影等推薦的深度強(qiáng)化學(xué)習(xí)推薦算法(Deep Reinforcement Learning based Recommendation,DRR).

    上述基于深度強(qiáng)化學(xué)習(xí)的推薦算法僅使用單一的方式對用戶當(dāng)前狀態(tài)進(jìn)行建模,對用戶興趣的劃分存在一定偏差,且無法對用戶歷史喜好的不同權(quán)重進(jìn)行建模.

    2 DRRM模型

    2.1 符號定義

    本文將深度強(qiáng)化學(xué)習(xí)應(yīng)用于序列推薦,推薦代理(Agent)根據(jù)時間順序?qū)τ脩艉晚椖窟M(jìn)行交互,以獲得最大化的累計回報.將此過程建模為一個馬爾可夫決策過程,其中包括狀態(tài)、動作、獎勵、衰減因子等四元組,具體定義如下:

    狀態(tài)S:由用戶及其之前交互項目的集合組合而成,交互過的項目按照時間順序依次排列,并將其輸入演員-評論家網(wǎng)絡(luò)中進(jìn)行預(yù)測.

    動作A:采用基于策略的DDPG 算法,每次交互時根據(jù)策略網(wǎng)絡(luò)生成一個確定的動作A,該動作表示用戶當(dāng)前的喜好,再與項目集進(jìn)行內(nèi)積得到為用戶推薦的項目.

    即時獎勵R:推薦代理將一個項目推薦給用戶,根據(jù)用戶是否在當(dāng)前時刻與該項目進(jìn)行過交互,并給予一定的獎賞或懲罰.

    衰減因子γ:γ∈[0,1],是衡量短期收益與累計收益的標(biāo)準(zhǔn),當(dāng)γ越接近于零,代表算法越重視推薦的短期回報,反之則更加重視累計回報.

    2.2 模型框架

    DRRM 模型框架如圖1 所示,該模型分為3部分.

    圖1 DRRM模型框架圖Fig.1 DRRM model framework diagram

    第1 部分為圖中下半部,即用戶記憶網(wǎng)絡(luò)部分,該部分引入注意力機(jī)制用來區(qū)分用戶歷史交互項目的不同權(quán)重關(guān)系,從而學(xué)習(xí)用戶的興趣變化;根據(jù)不同的行為模式生成不同的用戶記憶向量,并將用戶的歷史記錄存入外部的記憶網(wǎng)絡(luò)中,為狀態(tài)的更新提供依據(jù).第2 部分為策略網(wǎng)絡(luò)部分,該部分對用戶當(dāng)前行為模式進(jìn)行劃分.本文使用基于策略梯度算法的策略網(wǎng)絡(luò)對其進(jìn)行劃分(詳見2.2.2 節(jié)),從而使記憶網(wǎng)絡(luò)選擇不同的注意力計算方式,得到用戶記憶向量,并結(jié)合用戶向量生成當(dāng)前狀態(tài)S.第3 部分為DDPG 網(wǎng)絡(luò)部分,該部分用戶預(yù)測動作A.該網(wǎng)絡(luò)由演員和評論家兩個網(wǎng)絡(luò)組成,演員網(wǎng)絡(luò)通過輸入的狀態(tài)S,來輸出用戶當(dāng)前的喜好;評論家網(wǎng)絡(luò)通過該部分輸出來更新演員網(wǎng)絡(luò).該算法在與用戶的交互中不斷更新,以達(dá)到最優(yōu)策略的輸出.

    2.2.1 記憶網(wǎng)絡(luò)模塊

    本文將用戶的歷史交互信息存儲在一個外部的組件——記憶網(wǎng)絡(luò)中,記憶網(wǎng)絡(luò)的具體構(gòu)建如下:

    令U={u1,u2,…,un-1,un},T={t1,t2,…,tm-1,tm}.分別表示用戶和項目的集合,而n和m分別表示數(shù)據(jù)集中用戶以及項目的個數(shù).令S={s11,s12,…,sij}且S∈Rn×m,表示用戶和項目的交互矩陣,其中sij表示用戶ui對項目tj的評分,矩陣中不同得分表示用戶對該項目的喜好程度,若用戶沒有對該項目進(jìn)行過評分,則該評分為0.對于每個用戶u 都有該用戶自己評過分的項目集合Tu=其中k為該用戶所有評分項目的個數(shù),該集合按用戶對項目評分的時間序列依次排列.

    在每個時間節(jié)點t時刻都將每個用戶u 在此時刻之前的歷史交互存入其對應(yīng)的記憶網(wǎng)絡(luò)中,即為根據(jù)本文3.5節(jié)實驗研究表明,記憶網(wǎng)絡(luò)中每個項目對于用戶下一次行為的影響并不相同.因此,本文將用戶行為分為短期偏好、長期偏好和全局偏好.

    1)當(dāng)用戶行為受上一次影響即為短期偏好時,對用戶交互集合中的所有項目與最近一次交互計算注意力權(quán)重,權(quán)重的計算如式(1)所示.

    式中:n、j∈[1,t-2];wn為最近一次交互的項目向量與記憶網(wǎng)絡(luò)中每個向量的乘積,輸出為一個一維的數(shù)值;exp()表示以e 為底的指數(shù)函數(shù);zn為第n個項目向量在此記憶網(wǎng)絡(luò)中的權(quán)重值.在得到權(quán)重值之后,計算當(dāng)前狀態(tài)下的權(quán)重向量.經(jīng)過注意力機(jī)制的權(quán)重向量的計算如式(2)所示.

    式中:At為所求的前t-2 個項目的注意力向量,以此來表示該用戶的記憶向量.

    2)當(dāng)用戶行為受之前某一行為影響即為長期偏好時,首先使用式(1)得出與最近一次行為注意力權(quán)重最高的項目;再使用和用戶的歷史交互向量計算注意力權(quán)重,再通過式(2)計算用戶記憶向量.

    3)當(dāng)用戶行為與歷史交互無直接關(guān)系即為全局偏好時,對使用用戶向量與該用戶的歷史交互向量進(jìn)行注意力權(quán)重的計算,并計算用戶的記憶向量.

    對于用戶記憶網(wǎng)絡(luò)的寫入操作,本文采用先入先出的策略進(jìn)行更新.將每個用戶的記憶網(wǎng)絡(luò)設(shè)置為固定的長度,先將每個用戶的前兩次交互放入網(wǎng)絡(luò)中,從第3 次交互開始訓(xùn)練.若用戶的記憶數(shù)小于記憶網(wǎng)絡(luò)可存放的記憶個數(shù),則直接將最近一次交互寫入記憶網(wǎng)絡(luò),否則將最開始的用戶交互記憶刪除并寫入最近交互.

    2.2.2 基于策略梯度的策略網(wǎng)絡(luò)

    本文將訓(xùn)練一個策略網(wǎng)絡(luò)來對用戶當(dāng)前行為的3種模式進(jìn)行劃分,記憶網(wǎng)絡(luò)將根據(jù)該網(wǎng)絡(luò)的輸出結(jié)果選擇如2.2.1 節(jié)所示的不同的注意力計算方式,生成用戶記憶向量.

    該策略網(wǎng)絡(luò)基于策略梯度(Policy Gradient)算法,通過用戶向量和用戶歷史交互向量的平均值作為輸入,計算得到用戶3 種行為模式的概率πθ(at|st),并輸出該交互的行為模式.在經(jīng)過記憶網(wǎng)絡(luò)以及DDPG 網(wǎng)絡(luò)預(yù)測出的結(jié)果得到獎勵值R(at),通過該獎勵值計算策略網(wǎng)絡(luò)的損失,該損失函數(shù)如式(3)所示.

    在得到損失函數(shù)后,使用梯度下降來優(yōu)化損失,更新網(wǎng)絡(luò)參數(shù).

    2.2.3 基于DDPG算法的訓(xùn)練框架

    用戶當(dāng)前狀態(tài)的表示模型由用戶表示、用戶記憶網(wǎng)絡(luò)以及用戶當(dāng)前偏好3 部分組成,以此來表示用戶與項目交互的序列關(guān)系.用戶u 在t時刻的偏好即當(dāng)前狀態(tài)的表示如式(4)所示.

    式中:Concat()為拼接函數(shù);u代表用戶的向量表示;At代表用戶的記憶向量表示代表用戶的當(dāng)前偏好表示,若為短期偏好則使用用戶最近一次交互,若為長期偏好則使用權(quán)重最高的交互向量,若為全局偏好則使用歷史交互的平均值.

    使用DDPG 算法對數(shù)據(jù)進(jìn)行訓(xùn)練,DDPG 算法是演員-評論家網(wǎng)絡(luò)的一種,它輸出的是一個確定的動作,結(jié)合DQN 以及策略梯度算法的優(yōu)勢,加速網(wǎng)絡(luò)的收斂,可以更好地解決連續(xù)動作空間上的求解問題.該算法由兩個網(wǎng)絡(luò)組成,即演員網(wǎng)絡(luò)和評論家網(wǎng)絡(luò).同時,為了提高網(wǎng)絡(luò)的穩(wěn)定性和收斂性,設(shè)置兩個更新較慢的目標(biāo)網(wǎng)絡(luò)來提高兩個預(yù)測網(wǎng)絡(luò)的更新效率.兩個預(yù)測網(wǎng)絡(luò)的功能及其更新過程如下所述:

    演員網(wǎng)絡(luò)將輸入的用戶當(dāng)前狀態(tài)St經(jīng)過幾層神經(jīng)網(wǎng)絡(luò)后輸出一個確定的用戶喜好向量at.為了增加推薦的多樣性,防止算法得到局部最優(yōu)解,在訓(xùn)練過程中,使用高斯噪聲進(jìn)行探索,探索過程計算如式(5)所示.

    式中:μ為數(shù)學(xué)期望;σ2為方差;β為探索時的衰減系數(shù).使用經(jīng)過探索得到的喜好向量跟項目集合T相乘,將得到的值經(jīng)過sigmoid 函數(shù)變換為每個項目的得分Gi,并將此得分進(jìn)行排序為用戶推薦前n個項目.具體計算如式(6)所示.

    每輪預(yù)測都將向經(jīng)驗回放池傳入B={St,A,R,St+1}四元組,其中St+1為下一時刻的狀態(tài).演員網(wǎng)絡(luò)更新的損失函數(shù)梯度如式(7)所示.

    式中:θa為演員網(wǎng)絡(luò)中的參數(shù);N為經(jīng)驗回放池中的batch大??;Q(s,a,θa)為評論家網(wǎng)絡(luò)的輸出.

    評論家網(wǎng)絡(luò)用來評估演員網(wǎng)絡(luò).通過從經(jīng)驗回放池中獲得一個batch 的數(shù)據(jù),利用現(xiàn)實Q值和估計Q值的均方差來更新其網(wǎng)絡(luò)參數(shù).更新的損失函數(shù)如式(8)所示.

    式中:Q(si,ai,θc)為估計的Q值網(wǎng)絡(luò)得到的值.yi的計算如式(9)所示.

    式中:γ為衰減因子,用于權(quán)衡即時收益與未來總收益之間的關(guān)系;Q′(si+1,ai+1,θc′)為使用現(xiàn)實Q網(wǎng)絡(luò)對下一步交互所計算的值;ri為當(dāng)前狀態(tài)的獎勵值.獎勵值R的計算如式(10)所示.

    若推薦的項目集合中存在用戶當(dāng)前的喜好項目則獎勵值為1;若推薦的項目集合中沒有當(dāng)前喜好,但出現(xiàn)在用戶的交互序列中則獎勵值為1∕2;其他情況獎勵值為-1.以此來區(qū)分不同動作所獲得的回報.

    3 實驗與結(jié)果分析

    3.1 數(shù)據(jù)集與評價指標(biāo)

    本文使用Amazon Instant Video 以及Amazon Automotive(http:∕∕jmcauley.ucsd.edu∕data∕amazon∕)兩 個公開的數(shù)據(jù)集來進(jìn)行實驗分析.為保證序列的長度,將交互個數(shù)小于10 個項目的用戶刪除,經(jīng)過預(yù)處理后的可用數(shù)據(jù)量如表1 所示.兩個數(shù)據(jù)集都具有時間戳信息,因此,可對用戶序列按時間進(jìn)行排序并進(jìn)行序列推薦.使用每個用戶前80%的數(shù)據(jù)進(jìn)行訓(xùn)練,后20%進(jìn)行測試,以證明本文所提出觀點的有效性.

    表1 數(shù)據(jù)集統(tǒng)計表Tab.1 Statistics of data sets

    本文所使用的評價指標(biāo)[10]由精準(zhǔn)度(Precision)、召回率(Recall)、F1值(F1-score)以及HR 值(Hit-ratio)組成,從多個方面評估模型的好壞.

    3.2 實驗環(huán)境

    本實驗采用的軟硬件環(huán)境如表2 所示,本算法所使用的Python版本為3.7.3,并基于Tensorflow 深度學(xué)習(xí)框架實現(xiàn)本算法的深度強(qiáng)化學(xué)習(xí).

    表2 實驗環(huán)境表Tab.2 Experimental environment table

    3.3 實驗參數(shù)設(shè)定

    DRRM 模型所使用的超參數(shù)有學(xué)習(xí)率、batch_size以及衰減因子.

    為了研究超參數(shù)對模型性能的影響,首先對DDPG 網(wǎng)絡(luò)使用不同學(xué)習(xí)率、batch_size進(jìn)行實驗.學(xué)習(xí)率和batch_size 是兩個最重要的模型超參數(shù),合適的學(xué)習(xí)率和batch_size,不僅可以加速模型收斂,防止陷入局部最優(yōu),還可以提高模型的性能.在Amazon Instant Video 數(shù)據(jù)集上進(jìn)行參數(shù)設(shè)置,不同學(xué)習(xí)率、batch_size的對比實驗如表3所示.

    表3 學(xué)習(xí)率、batch_size對比實驗表Tab.3 Learning rate,batch_size of comparative experiments

    從表3可以看出,當(dāng)學(xué)習(xí)率為0.001且batch_size為8 時,所得到的Precision 以及F1-score 指標(biāo)最高,模型達(dá)到最佳性能.

    衰減因子是深度強(qiáng)化學(xué)習(xí)中最重要的參數(shù)之一,是衡量當(dāng)前收益與未來總收益的標(biāo)準(zhǔn),通過設(shè)置不同的大小來表明當(dāng)前動作對未來的影響.當(dāng)學(xué)習(xí)率和batch_size分別為0.001和8時,進(jìn)行衰減因子的設(shè)定對比實驗,實驗結(jié)果如圖2所示.

    圖2 不同衰減因子的指標(biāo)對比Fig.2 Comparison of indicators of different attenuation factors

    3.4 對比實驗

    為了證明所提出的DRRM 算法的有效性,本文從傳統(tǒng)的序列推薦模型、基于神經(jīng)網(wǎng)絡(luò)的模型、基于強(qiáng)化學(xué)習(xí)的模型以及記憶網(wǎng)絡(luò)模型4 個方面,使用以下5種具有代表性的基線算法進(jìn)行對比實驗.

    貝葉斯個性化排序算法[17](Bayesian Personalized Ranking,BPR):該算法基于貝葉斯的個性化Top-N 推薦方法,提出了一個通用的準(zhǔn)則BPR-Opt來優(yōu)化推薦排序.

    個性化馬爾科夫鏈算法[18](Factorizing Personalized Markov Chains,F(xiàn)PMC):該算法將矩陣分解和馬爾科夫鏈模型相結(jié)合來學(xué)習(xí)用戶對應(yīng)的轉(zhuǎn)移矩陣,并引入BPR算法來處理數(shù)據(jù)進(jìn)行序列推薦.

    動態(tài)遞歸推薦算法[19](Dynamic Recurrent Basket Model,DREAM):該算法的主要思想為基于遞歸神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)用戶的動態(tài)興趣表示,并捕捉用戶的全局序列特征.

    深度強(qiáng)化學(xué)習(xí)推薦算法[16](Recommendation Based on Deep Reinforcement Learning,DRR):該算法基于顯式用戶-項目交互的深度強(qiáng)化學(xué)習(xí)推薦系統(tǒng),僅使用用戶和項目的交互向量作為輸入項,并使用DDPG算法進(jìn)行預(yù)測.

    用戶記憶網(wǎng)絡(luò)推薦算法[10](Recommender with User Memory Networks,RUM):該模型的主要思想是在序列推薦算法中引入用戶記憶網(wǎng)絡(luò),存放用戶的歷史交互并進(jìn)行Top-N推薦.

    Amazon Instant Video 和Amazon Automotive 數(shù)據(jù)集模型性能比較如表4 所示.相較于最優(yōu)基線算法,DRRM 算法的精準(zhǔn)度在Amazon Instant Video 數(shù)據(jù)集上有8.89%的提升,在Amazon Automotive 數(shù)據(jù)集上略有下降;召回率在2 個數(shù)據(jù)集上分別有8.87%和11.20%的提升;F1值在2 個數(shù)據(jù)集上分別有18.10%和7.23%的提升;HR 在2 個數(shù)據(jù)集上分別有8.89%和1.07%的提升.由此證明了本文所提算法的有效性.

    表4 Amazon Instant Video和Amazon Automotive數(shù)據(jù)集模型性能比較Tab.4 Performance comparison of Amazon Instant Video and Amazon Automotive dataset models %

    3.5 消融實驗

    為了研究本文所提出的策略網(wǎng)絡(luò)以及基于優(yōu)先記憶模型在用戶記憶網(wǎng)絡(luò)和DRRM 模型中的作用,在Amazon Instant Video 數(shù)據(jù)集上進(jìn)行多組消融實驗,并使用精準(zhǔn)度以及召回率指標(biāo)進(jìn)行對比.

    具體實驗設(shè)置如下:①將用于生成用戶行為模式的策略網(wǎng)絡(luò)去除,僅使用用戶最近交互對用戶的記憶向量表示進(jìn)行計算的DRRM_s 模型;②將策略網(wǎng)絡(luò)去除,僅使用與用戶最近交互項目權(quán)重最高的記憶項目對用戶的記憶向量進(jìn)行計算的DRRM_l 模型;③將策略網(wǎng)絡(luò)去除,僅使用用戶向量計算注意力權(quán)重并生成用戶記憶向量表示的DRRM_h 模型.實驗對比圖如圖3所示.

    圖3 消融實驗對比圖Fig.3 Comparison diagram of ablation experiment

    由圖3可知,沒有加入策略網(wǎng)絡(luò)的3種單一記憶向量表示方法的精準(zhǔn)度與召回率均低于DRRM 算法,從而說明用戶策略網(wǎng)絡(luò)對用戶當(dāng)前行為模式的預(yù)測起著重要的作用.

    3.6 用戶行為模式

    為了證明所提出的3 種用戶行為模式,即短期偏好、長期偏好以及全局偏好的可解釋性,使用Amazon Instant Video 數(shù)據(jù)集的實例進(jìn)行實驗驗證.如圖4~圖6 所示,實驗使用的記憶網(wǎng)絡(luò)內(nèi)存長度為5,x軸和y軸均表示用戶的交互序列,每一個小格代表對應(yīng)兩個向量之間的相關(guān)度,顏色越深則說明兩向量越相關(guān),對角線元素均為1.

    由圖4 可知,在用戶的第6~9 次交互時,策略網(wǎng)絡(luò)預(yù)測為短期偏好,最近一次交互對當(dāng)前交互的影響最大,對應(yīng)的顏色也越深.對應(yīng)于Amazon Instant Video 數(shù)據(jù)集中的實例是該用戶在看了一集某電視劇后又接連觀看了后面的3集.

    由圖5可知,在用戶的第8~11次交互時,策略網(wǎng)絡(luò)預(yù)測為長期偏好.用戶的第6 次交互對其影響最大,對應(yīng)顏色也越深,即為用戶的長期偏好.對應(yīng)于Amazon Instant Video 數(shù)據(jù)集中的實例是該用戶當(dāng)看了一部之前沒看過的喜劇類型電影(第6 次交互)后,又連續(xù)看了幾部該類型(第8~11 次交互)但互相關(guān)聯(lián)不大的電影.

    圖5 長期偏好圖Fig.5 Long-term preference diagram

    由圖6 可知,在用戶的第6~9 次交互時,策略網(wǎng)絡(luò)預(yù)測為全局偏好.其之前的幾次交互權(quán)重值相差不大且顏色近似,說明此次交互為用戶的全局偏好.對應(yīng)于Amazon Instant Video 數(shù)據(jù)集中的實例是該用戶當(dāng)看了一部驚悚類型(第6 次交互)的電影之后,又看了喜劇、愛情、傳記類型的電影.

    圖6 全局偏好圖Fig.6 Global preference diagram

    4 結(jié)論

    本文研究了結(jié)合用戶策略記憶和深度強(qiáng)化學(xué)習(xí)的序列推薦算法,提出一個新的DRRM 模型框架.該算法通過策略網(wǎng)絡(luò)對用戶與項目交互的行為模式進(jìn)行更加細(xì)致的劃分,以解決用戶-項目交互序列并不總是順序相關(guān)甚至存在噪聲的問題.通過對衰減因子的設(shè)定,證明深度強(qiáng)化學(xué)習(xí)對DRRM 的影響;在消融實驗中,驗證了用戶策略網(wǎng)絡(luò)以及注意力機(jī)制在記憶網(wǎng)絡(luò)中的重要性.通過在兩個數(shù)據(jù)集上對比先進(jìn)序列推薦模型的大量實驗,證明了本文所提算法的有效性.

    本文只是對數(shù)據(jù)集中的用戶和項目進(jìn)行矩陣分解得到相應(yīng)的向量,此外還有許多可以利用的信息比如用戶的身份信息、社交信息等,來更新用戶、項目表示,以提高模型的可解釋性.

    猜你喜歡
    向量深度記憶
    向量的分解
    聚焦“向量與三角”創(chuàng)新題
    深度理解一元一次方程
    深度觀察
    深度觀察
    深度觀察
    記憶中的他們
    向量垂直在解析幾何中的應(yīng)用
    兒時的記憶(四)
    兒時的記憶(四)
    2022亚洲国产成人精品| 一级毛片 在线播放| 男女边吃奶边做爰视频| 国产亚洲av嫩草精品影院| 国产精品伦人一区二区| 夜夜爽夜夜爽视频| 麻豆久久精品国产亚洲av| eeuss影院久久| 有码 亚洲区| 久久韩国三级中文字幕| 在线免费观看不下载黄p国产| 真实男女啪啪啪动态图| 天堂中文最新版在线下载 | 免费av毛片视频| 狂野欧美激情性xxxx在线观看| 毛片女人毛片| 天堂网av新在线| 欧美最新免费一区二区三区| 亚洲伊人久久精品综合| 91在线精品国自产拍蜜月| 亚洲精品第二区| 国产色婷婷99| 日韩欧美 国产精品| 我的女老师完整版在线观看| 婷婷色综合www| 熟妇人妻不卡中文字幕| 成人亚洲精品一区在线观看 | 一个人看视频在线观看www免费| 日日啪夜夜撸| 久久综合国产亚洲精品| 建设人人有责人人尽责人人享有的 | 少妇被粗大猛烈的视频| 国产黄色小视频在线观看| 麻豆精品久久久久久蜜桃| 99久久精品一区二区三区| 亚洲成色77777| 精品久久久久久久久亚洲| 国产精品女同一区二区软件| 韩国高清视频一区二区三区| 色5月婷婷丁香| 国产免费福利视频在线观看| 色哟哟·www| 五月天丁香电影| 真实男女啪啪啪动态图| 老司机影院毛片| 亚洲欧美成人综合另类久久久| 亚洲精品久久午夜乱码| 国产精品蜜桃在线观看| 国产精品1区2区在线观看.| 男人舔奶头视频| 男女边吃奶边做爰视频| 欧美3d第一页| 白带黄色成豆腐渣| 男女下面进入的视频免费午夜| 69人妻影院| 国产单亲对白刺激| 成年版毛片免费区| 免费电影在线观看免费观看| 亚洲精品日本国产第一区| 国产一区有黄有色的免费视频 | 日日干狠狠操夜夜爽| 亚洲精品中文字幕在线视频 | 又粗又硬又长又爽又黄的视频| 日韩欧美精品免费久久| 老女人水多毛片| 欧美区成人在线视频| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 亚洲av免费高清在线观看| 久久久a久久爽久久v久久| 国产av码专区亚洲av| 美女国产视频在线观看| 五月天丁香电影| 一级毛片aaaaaa免费看小| 亚洲精品aⅴ在线观看| 又粗又硬又长又爽又黄的视频| 亚洲国产精品成人久久小说| 国产精品不卡视频一区二区| 久久久午夜欧美精品| or卡值多少钱| 青春草国产在线视频| 中国美白少妇内射xxxbb| 91aial.com中文字幕在线观看| 久久综合国产亚洲精品| 又爽又黄a免费视频| 精品不卡国产一区二区三区| 亚洲欧美成人综合另类久久久| 深爱激情五月婷婷| 亚洲va在线va天堂va国产| 18禁在线无遮挡免费观看视频| 欧美成人a在线观看| 亚洲精品国产av成人精品| 一本一本综合久久| 在线免费十八禁| 亚洲av电影不卡..在线观看| 亚洲av中文字字幕乱码综合| 网址你懂的国产日韩在线| 日韩在线高清观看一区二区三区| 岛国毛片在线播放| 男的添女的下面高潮视频| 久久久成人免费电影| 美女xxoo啪啪120秒动态图| 国产在视频线精品| 一级av片app| 联通29元200g的流量卡| 亚洲av二区三区四区| 神马国产精品三级电影在线观看| 久久久久久久久久黄片| 久久午夜福利片| 一级av片app| 人人妻人人看人人澡| 男的添女的下面高潮视频| 久久久久久伊人网av| av在线播放精品| 卡戴珊不雅视频在线播放| 在线免费观看的www视频| 国产高清不卡午夜福利| 日本wwww免费看| 欧美激情在线99| 极品教师在线视频| 色5月婷婷丁香| 亚洲真实伦在线观看| 久久久精品94久久精品| 免费黄色在线免费观看| 大又大粗又爽又黄少妇毛片口| 色网站视频免费| 亚洲国产av新网站| 嫩草影院入口| 丝瓜视频免费看黄片| 欧美+日韩+精品| 2021天堂中文幕一二区在线观| 偷拍熟女少妇极品色| 国产美女午夜福利| 国产成人午夜福利电影在线观看| av播播在线观看一区| 日韩强制内射视频| 国产淫片久久久久久久久| 亚洲美女搞黄在线观看| 伦理电影大哥的女人| 男人舔女人下体高潮全视频| 成人午夜高清在线视频| 国产精品久久久久久久久免| 欧美高清成人免费视频www| 在线观看av片永久免费下载| av又黄又爽大尺度在线免费看| 亚洲国产精品成人综合色| 日日撸夜夜添| 国产成人精品福利久久| 在线观看av片永久免费下载| 91aial.com中文字幕在线观看| 亚洲精品色激情综合| 精品久久久久久久久av| 嫩草影院新地址| 久久久久网色| 国产大屁股一区二区在线视频| 成年女人在线观看亚洲视频 | 国产乱人偷精品视频| 国产精品人妻久久久久久| 一个人看的www免费观看视频| 草草在线视频免费看| 日本免费a在线| 午夜激情欧美在线| 免费黄网站久久成人精品| 国产又色又爽无遮挡免| 亚洲欧美精品自产自拍| 久久精品久久久久久噜噜老黄| 国产亚洲午夜精品一区二区久久 | 亚洲国产色片| 久久草成人影院| 亚洲欧美成人精品一区二区| 1000部很黄的大片| 亚洲国产精品专区欧美| 免费观看无遮挡的男女| 久久99热6这里只有精品| 午夜免费男女啪啪视频观看| 久久热精品热| 性插视频无遮挡在线免费观看| 国产一区有黄有色的免费视频 | 成年人午夜在线观看视频 | 婷婷色综合大香蕉| 一夜夜www| 男人和女人高潮做爰伦理| 欧美 日韩 精品 国产| 日本熟妇午夜| 精品久久久久久久久亚洲| 亚洲精品久久午夜乱码| 极品教师在线视频| 赤兔流量卡办理| 免费观看在线日韩| 亚洲av成人精品一二三区| 国产精品精品国产色婷婷| 成人无遮挡网站| 女的被弄到高潮叫床怎么办| 黄色配什么色好看| 美女主播在线视频| 一个人免费在线观看电影| 18禁动态无遮挡网站| 成人高潮视频无遮挡免费网站| 亚洲av国产av综合av卡| 久久久成人免费电影| 黄片wwwwww| 女人十人毛片免费观看3o分钟| 女人被狂操c到高潮| 国产成人精品福利久久| 久久久成人免费电影| 婷婷色综合www| 欧美另类一区| 国产美女午夜福利| 国产精品国产三级国产专区5o| 真实男女啪啪啪动态图| 不卡视频在线观看欧美| 国产高潮美女av| 久久久久久久久大av| 国产高清有码在线观看视频| 少妇人妻精品综合一区二区| 亚洲aⅴ乱码一区二区在线播放| 一二三四中文在线观看免费高清| 国产乱来视频区| 亚洲,欧美,日韩| 国内揄拍国产精品人妻在线| 美女内射精品一级片tv| 尤物成人国产欧美一区二区三区| 欧美区成人在线视频| 26uuu在线亚洲综合色| 嫩草影院新地址| 中文字幕人妻熟人妻熟丝袜美| 最近中文字幕2019免费版| 亚洲综合色惰| 男人和女人高潮做爰伦理| 国产精品麻豆人妻色哟哟久久 | 久久久国产一区二区| 卡戴珊不雅视频在线播放| 亚洲精品第二区| 日韩电影二区| 成人毛片a级毛片在线播放| 26uuu在线亚洲综合色| 夫妻午夜视频| 欧美xxxx黑人xx丫x性爽| 精品99又大又爽又粗少妇毛片| 搞女人的毛片| 亚洲乱码一区二区免费版| 亚洲精品乱久久久久久| 六月丁香七月| 干丝袜人妻中文字幕| 老师上课跳d突然被开到最大视频| 可以在线观看毛片的网站| 精品国产露脸久久av麻豆 | 久久精品综合一区二区三区| 大香蕉97超碰在线| 中文乱码字字幕精品一区二区三区 | 国产高清三级在线| av福利片在线观看| 九九久久精品国产亚洲av麻豆| 性插视频无遮挡在线免费观看| 蜜桃久久精品国产亚洲av| av黄色大香蕉| 看免费成人av毛片| 亚洲熟女精品中文字幕| 最近视频中文字幕2019在线8| 好男人在线观看高清免费视频| 老女人水多毛片| 全区人妻精品视频| av免费在线看不卡| 我要看日韩黄色一级片| 男插女下体视频免费在线播放| 中文字幕亚洲精品专区| 免费大片黄手机在线观看| 国产精品国产三级专区第一集| 国产精品三级大全| 亚洲成人久久爱视频| 亚洲精品一二三| 只有这里有精品99| 久久久精品94久久精品| 蜜桃亚洲精品一区二区三区| 免费看光身美女| 91aial.com中文字幕在线观看| 亚洲最大成人av| 久久精品国产亚洲网站| 亚洲国产日韩欧美精品在线观看| 国产精品一区二区性色av| 有码 亚洲区| 日本av手机在线免费观看| 亚洲人与动物交配视频| 久久久久免费精品人妻一区二区| 国产精品福利在线免费观看| av在线天堂中文字幕| 日韩一区二区三区影片| 伦精品一区二区三区| 男女下面进入的视频免费午夜| 国产淫片久久久久久久久| 亚洲国产日韩欧美精品在线观看| 免费看a级黄色片| 精品午夜福利在线看| 亚洲成人久久爱视频| 成人欧美大片| 国产亚洲5aaaaa淫片| 日日摸夜夜添夜夜爱| 99久久人妻综合| 永久免费av网站大全| 午夜亚洲福利在线播放| 国产久久久一区二区三区| 永久免费av网站大全| 少妇裸体淫交视频免费看高清| 特大巨黑吊av在线直播| 九九在线视频观看精品| 狂野欧美激情性xxxx在线观看| 极品教师在线视频| 亚洲电影在线观看av| 搡老乐熟女国产| 久久久久久久国产电影| 夜夜看夜夜爽夜夜摸| 国产精品精品国产色婷婷| 熟妇人妻不卡中文字幕| 成人毛片60女人毛片免费| 搡老妇女老女人老熟妇| 国产精品麻豆人妻色哟哟久久 | 久久国产乱子免费精品| 男女视频在线观看网站免费| av专区在线播放| 久久精品国产自在天天线| 成年人午夜在线观看视频 | 免费av毛片视频| 免费黄色在线免费观看| 黄色日韩在线| 国产一区二区亚洲精品在线观看| 中文字幕免费在线视频6| 亚洲欧美精品自产自拍| 一个人免费在线观看电影| 国产色婷婷99| 国产精品国产三级专区第一集| 日韩av免费高清视频| 免费看av在线观看网站| 熟女电影av网| 国产亚洲最大av| 18禁动态无遮挡网站| 日韩,欧美,国产一区二区三区| 欧美日韩精品成人综合77777| 久久综合国产亚洲精品| 国产91av在线免费观看| 亚洲第一区二区三区不卡| a级毛片免费高清观看在线播放| 特大巨黑吊av在线直播| www.av在线官网国产| 亚洲18禁久久av| 三级国产精品片| 高清在线视频一区二区三区| 欧美日韩综合久久久久久| 国产精品精品国产色婷婷| 亚洲精品一区蜜桃| 男人舔奶头视频| 成人无遮挡网站| 亚洲精品一二三| 国产一区二区在线观看日韩| 亚洲精品影视一区二区三区av| 国产亚洲av片在线观看秒播厂 | 亚洲精品色激情综合| 午夜激情福利司机影院| 国产精品不卡视频一区二区| 深夜a级毛片| 亚洲婷婷狠狠爱综合网| 啦啦啦韩国在线观看视频| 日韩一本色道免费dvd| 亚洲欧洲日产国产| 精品一区二区三区视频在线| 国产激情偷乱视频一区二区| 三级国产精品欧美在线观看| 床上黄色一级片| 婷婷色av中文字幕| 免费观看av网站的网址| 美女xxoo啪啪120秒动态图| 精品久久久久久久久久久久久| 国产亚洲5aaaaa淫片| 日本一二三区视频观看| 熟妇人妻久久中文字幕3abv| 亚洲精品色激情综合| 亚洲av不卡在线观看| 国产永久视频网站| 久久99热这里只频精品6学生| 国产大屁股一区二区在线视频| av在线观看视频网站免费| 好男人视频免费观看在线| 久久精品熟女亚洲av麻豆精品 | 亚洲av电影在线观看一区二区三区 | 日韩欧美精品免费久久| 欧美变态另类bdsm刘玥| 日韩精品有码人妻一区| 免费看日本二区| 精品一区二区三区人妻视频| 嫩草影院精品99| 老师上课跳d突然被开到最大视频| 日日啪夜夜撸| 亚洲精品日本国产第一区| 国产一区二区三区综合在线观看 | av国产久精品久网站免费入址| 中文资源天堂在线| 爱豆传媒免费全集在线观看| 国产精品国产三级国产专区5o| 一个人看的www免费观看视频| 91久久精品国产一区二区三区| av黄色大香蕉| 免费观看a级毛片全部| 午夜精品在线福利| 日韩在线高清观看一区二区三区| 久久久国产一区二区| 观看免费一级毛片| 哪个播放器可以免费观看大片| 国产黄色视频一区二区在线观看| 国产男女超爽视频在线观看| 淫秽高清视频在线观看| 蜜桃久久精品国产亚洲av| 亚洲av二区三区四区| 嫩草影院精品99| 亚洲在线观看片| 免费观看a级毛片全部| 成人性生交大片免费视频hd| 免费大片黄手机在线观看| 国产成人福利小说| 亚洲精品乱码久久久v下载方式| 久久久久久九九精品二区国产| 国产免费视频播放在线视频 | 久久久久久国产a免费观看| 色视频www国产| 亚洲精品aⅴ在线观看| 嫩草影院入口| 国产成人一区二区在线| 夫妻午夜视频| 黄色欧美视频在线观看| 高清日韩中文字幕在线| 成人二区视频| 国产高清不卡午夜福利| 舔av片在线| 亚洲av在线观看美女高潮| 国产av在哪里看| 2021少妇久久久久久久久久久| 观看免费一级毛片| 亚洲av成人精品一二三区| 狂野欧美白嫩少妇大欣赏| 精品国产露脸久久av麻豆 | 欧美极品一区二区三区四区| 亚洲精品亚洲一区二区| 六月丁香七月| 国产探花极品一区二区| 一边亲一边摸免费视频| 直男gayav资源| 午夜日本视频在线| 嫩草影院入口| 麻豆成人av视频| 床上黄色一级片| 免费黄频网站在线观看国产| 看非洲黑人一级黄片| 精品人妻偷拍中文字幕| 亚洲最大成人手机在线| 神马国产精品三级电影在线观看| 亚洲精品国产av蜜桃| 九九久久精品国产亚洲av麻豆| 天堂网av新在线| 一级毛片电影观看| 人妻制服诱惑在线中文字幕| 高清欧美精品videossex| 日韩人妻高清精品专区| 欧美日韩亚洲高清精品| av播播在线观看一区| 成年av动漫网址| av免费在线看不卡| 小蜜桃在线观看免费完整版高清| 国产高清有码在线观看视频| 精品国产露脸久久av麻豆 | 国产有黄有色有爽视频| 免费黄色在线免费观看| 又大又黄又爽视频免费| 中文字幕久久专区| 日本免费a在线| h日本视频在线播放| 禁无遮挡网站| 老司机影院毛片| 中文乱码字字幕精品一区二区三区 | 亚洲高清免费不卡视频| 精品熟女少妇av免费看| 一级黄片播放器| 亚洲成人中文字幕在线播放| videos熟女内射| 亚洲av福利一区| 欧美高清成人免费视频www| 一二三四中文在线观看免费高清| 精品一区二区三区人妻视频| 婷婷色av中文字幕| 丰满人妻一区二区三区视频av| 国产午夜精品一二区理论片| 亚洲aⅴ乱码一区二区在线播放| 天堂中文最新版在线下载 | 直男gayav资源| 精品久久久久久久久av| 人妻制服诱惑在线中文字幕| 男人和女人高潮做爰伦理| 人人妻人人澡欧美一区二区| 亚洲av不卡在线观看| 国产成年人精品一区二区| 久久久久久久久中文| 国产免费视频播放在线视频 | 免费看日本二区| 一级毛片 在线播放| 亚洲人成网站在线观看播放| 69人妻影院| 高清午夜精品一区二区三区| 午夜激情福利司机影院| 亚洲国产av新网站| 欧美变态另类bdsm刘玥| 六月丁香七月| 日韩av在线免费看完整版不卡| 99久国产av精品| av又黄又爽大尺度在线免费看| 色5月婷婷丁香| 一级毛片我不卡| 国产黄色免费在线视频| 亚洲国产精品国产精品| 97在线视频观看| 大香蕉久久网| 水蜜桃什么品种好| 3wmmmm亚洲av在线观看| 国产淫语在线视频| 最近中文字幕高清免费大全6| 国产熟女欧美一区二区| 成年免费大片在线观看| 亚洲一级一片aⅴ在线观看| 国产精品不卡视频一区二区| 一级毛片我不卡| 亚洲真实伦在线观看| 99久久人妻综合| av一本久久久久| 成年版毛片免费区| 久久精品夜色国产| 免费av毛片视频| 免费看不卡的av| 丰满少妇做爰视频| 国产黄频视频在线观看| 久久久久久久亚洲中文字幕| 欧美性感艳星| 精品国产露脸久久av麻豆 | 国产精品综合久久久久久久免费| 久久草成人影院| 国产一区亚洲一区在线观看| 伦精品一区二区三区| 2021少妇久久久久久久久久久| 国产精品无大码| 久久久a久久爽久久v久久| 青青草视频在线视频观看| 精品国产一区二区三区久久久樱花 | 哪个播放器可以免费观看大片| 天堂网av新在线| 两个人视频免费观看高清| 日韩欧美 国产精品| 狠狠精品人妻久久久久久综合| 男女边吃奶边做爰视频| 国产精品.久久久| 国产麻豆成人av免费视频| 精品国产三级普通话版| a级一级毛片免费在线观看| 六月丁香七月| 亚洲精品,欧美精品| 中文在线观看免费www的网站| 久久久精品欧美日韩精品| 一级毛片黄色毛片免费观看视频| 婷婷色av中文字幕| 国产av不卡久久| 九草在线视频观看| 欧美xxxx性猛交bbbb| 国产精品av视频在线免费观看| 亚洲精华国产精华液的使用体验| 成人无遮挡网站| av播播在线观看一区| 免费少妇av软件| 69人妻影院| 22中文网久久字幕| 又爽又黄a免费视频| 国产综合精华液| 午夜福利网站1000一区二区三区| 内地一区二区视频在线| 久久人人爽人人爽人人片va| 搞女人的毛片| 一本一本综合久久| 男女下面进入的视频免费午夜| 国产又色又爽无遮挡免| 美女cb高潮喷水在线观看| 深夜a级毛片| 美女被艹到高潮喷水动态| av国产久精品久网站免费入址| 亚洲欧美精品专区久久| 国产色爽女视频免费观看| 综合色丁香网| av网站免费在线观看视频 | 日韩欧美 国产精品| 色尼玛亚洲综合影院| 免费大片18禁| 国产精品综合久久久久久久免费| 日日啪夜夜爽| 超碰av人人做人人爽久久| 成人亚洲精品一区在线观看 | 一夜夜www| 日韩人妻高清精品专区| 国产亚洲av片在线观看秒播厂 | 少妇的逼水好多| 国产亚洲av嫩草精品影院| 97人妻精品一区二区三区麻豆| 国产成人a区在线观看| 一个人观看的视频www高清免费观看| 91午夜精品亚洲一区二区三区| 久久久a久久爽久久v久久| 久久99热这里只频精品6学生| 肉色欧美久久久久久久蜜桃 | 伦理电影大哥的女人| 久久久久性生活片| 久久人人爽人人爽人人片va| av天堂中文字幕网| 国产精品久久久久久久久免| 亚洲欧洲日产国产| av.在线天堂|