• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    增強推薦系統(tǒng)可解釋性的深度評論注意力神經(jīng)網(wǎng)絡(luò)模型

    2023-11-29 10:13:04魏楚元王夢珂戶傳豪張桄齊
    計算機應(yīng)用 2023年11期
    關(guān)鍵詞:解釋性編碼器語義

    魏楚元,王夢珂,戶傳豪,張桄齊

    增強推薦系統(tǒng)可解釋性的深度評論注意力神經(jīng)網(wǎng)絡(luò)模型

    魏楚元1*,王夢珂2,戶傳豪2,張桄齊2

    (1.北京建筑大學(xué) 電氣與信息工程學(xué)院, 北京 102616; 2.北京建筑大學(xué) 機電與車輛工程學(xué)院, 北京 102616)( ? 通信作者電子郵箱weichuyuan@bucea.edu.cn)

    為了提高推薦系統(tǒng)(RS)的可解釋性,打破推薦系統(tǒng)固有的局限性,提升用戶對推薦系統(tǒng)的信任度和滿意度,提出一種增強可解釋性的深度評論注意力神經(jīng)網(wǎng)絡(luò)(DRANN)模型。該模型利用用戶評論與商品評論中豐富的語義信息,基于文本評論學(xué)習(xí)用戶、物品之間的潛在關(guān)系,預(yù)測用戶興趣偏好和情感傾向。首先,采用文本卷積神經(jīng)網(wǎng)絡(luò)(TextCNN)對詞向量作淺層特征抽取;然后,使用注意力機制為評論數(shù)據(jù)分配權(quán)重,過濾無效評論信息,同時構(gòu)建深度自編碼器模塊將高維稀疏數(shù)據(jù)降維,去除干擾信息,學(xué)習(xí)深層語義表征,增強推薦模型的可解釋性;最后,通過預(yù)測層得到預(yù)測評分。在4個公開數(shù)據(jù)集(Patio、Automotive、Musical Instrument (M-I)和Beauty)上的實驗結(jié)果表明,與概率矩陣分解(PMF)模型、奇異值分解++(SVD++)模型、深度協(xié)同神經(jīng)網(wǎng)絡(luò)(DeepCoNN)模型、樹增強嵌入模型(TEM)、DeepCF(Deep Collaborative Filtering)、DER(Dynamic Explainable Recommender)相比,DRANN模型的均方根誤差(RMSE)最小,驗證了它在提升性能上的有效性以及所采用解釋策略的可行性。

    推薦系統(tǒng);深度學(xué)習(xí);可解釋性推薦;注意力機制;自編碼器

    0 引言

    互聯(lián)網(wǎng)的迅猛發(fā)展使用戶對數(shù)據(jù)的依賴越來越強,同時也帶來了嚴重的“信息過載”問題,用戶很難從大量數(shù)據(jù)中快速找到有效信息,信息使用效率反而下降。推薦系統(tǒng)(Recommender System, RS)[1]作為一種自動篩選信息的方式,是當前研究中解決信息過載問題的重要方法之一。它利用網(wǎng)絡(luò)平臺獲取用戶和物品的交互數(shù)據(jù),再通過分析用戶的歷史行為對用戶的興趣偏好建模,然后根據(jù)模型計算得出候選物品評分并排序,主動為用戶做出個性化推薦,滿足用戶需求并有效發(fā)掘長尾信息。

    近年來,深度學(xué)習(xí)技術(shù)飛速發(fā)展,成了數(shù)據(jù)挖掘領(lǐng)域的重要研究方法,并用于推薦系統(tǒng)模型的構(gòu)建,為提高推薦系統(tǒng)的性能發(fā)揮了重要作用[2]。然而,深度神經(jīng)網(wǎng)絡(luò)的“黑盒”問題也引起了廣泛關(guān)注,用戶在關(guān)心推薦系統(tǒng)準確度的同時也在關(guān)注推薦結(jié)果的可解釋性。推薦系統(tǒng)涉及多個利益相關(guān)者,用戶不僅希望能得到推薦,還希望獲知推薦的理由。因此,推薦系統(tǒng)的可解釋性尤為重要。盡管解釋的需求方不同,但都具有相同的解釋目的[3],即推薦的信任度、準確度和滿意度。

    隨著電商平臺功能的不斷豐富和擴展,用戶評論能夠更加真實、準確地反映用戶偏好。評論包含用戶對產(chǎn)品使用的反饋、對產(chǎn)品性能的實際評價等信息,并包含用戶的情感傾向,提高對評論信息的利用程度,能夠提高推薦的準確性和用戶的可信度。通過對同類商品評論信息的分析,用戶對推薦結(jié)果的理解能夠更直觀,從而能提升用戶對系統(tǒng)所具備解釋性的認同感。

    如圖1所示是亞馬遜平臺上不同用戶對同一產(chǎn)品的評價,評論A和評論B對同一物品給出了相反的使用感受,評論C提出了更多的選購需求。用戶對同一物品的評價表明用戶在產(chǎn)品選擇中的側(cè)重點、情感傾向以及附加需求。在面對沒有歷史行為的新用戶時,也可以根據(jù)相關(guān)物品評價的優(yōu)劣程度為用戶推薦。

    圖1 亞馬遜平臺用戶對商品的評論

    由于傳統(tǒng)方法只能捕捉用戶與對象之間的線性關(guān)系,在評分預(yù)測的學(xué)習(xí)中忽略了深度學(xué)習(xí)強大的表示能力。同時,與僅隱式使用交叉特征的傳統(tǒng)推薦相比,基于文本信息的推薦可以更直觀地解釋推薦原因。因此,利用豐富的評論文本信息可以有效緩解推薦系統(tǒng)固有的局限性,提高推薦的準確度以及幫助用戶對推薦系統(tǒng)解釋方式的進一步理解?;谶@個思路,本文從用戶的心理需求出發(fā),提出一種深度評論注意力神經(jīng)網(wǎng)絡(luò)(Deep Review Attention Neural Network,DRANN)模型。該模型從用戶的歷史評論數(shù)據(jù)中挖掘用戶偏好及商品屬性,結(jié)合注意力機制篩選有效評論數(shù)據(jù),刻畫用戶、商品畫像,同時引入循環(huán)神經(jīng)網(wǎng)絡(luò)編碼器-解碼器(Recurrent Neural Network Encoder-Decoder,RNN Encoder-Decoder)學(xué)習(xí)深度語義特征,以此設(shè)計可解釋的推薦算法。本文的主要工作為:

    1)融入文本評論信息。加入輔助信息指導(dǎo)模型學(xué)習(xí),打破評分數(shù)據(jù)稀疏的局限。采用文本卷積神經(jīng)網(wǎng)絡(luò)(Text Convolutional Neural Network,TextCNN)深度挖掘評論文本潛在特征,理解用戶興趣偏好,提升模型推薦準確度。

    2)提出了DRANN模型。通過兩部分并行的深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)特征向量,不再是傳統(tǒng)的單一模式。利用注意力機制為對應(yīng)的評論數(shù)據(jù)特征向量分配權(quán)重,過濾無效的評論信息,結(jié)合語義特征獲得預(yù)測向量。

    3)設(shè)計了RNN Encoder-Decoder用于學(xué)習(xí)文本評論的深層語義特征。在推薦過程中提供隱式解釋,通過有效評論和物品屬性推斷用戶偏好,幫助用戶理解模型所具備的可解釋性如何體現(xiàn)。

    1 相關(guān)工作

    1.1 主流推薦算法

    目前,推薦系統(tǒng)主要有以下幾類:基于內(nèi)容的推薦[4]、協(xié)同過濾(Collaborative Filtering,CF)推薦[5]、基于知識的推薦[6]、基于深度學(xué)習(xí)模型的推薦[7]等。CF算法是一種經(jīng)典的推薦系統(tǒng)算法,主要利用屬性信息,如用戶ID、購買過的商品等挖掘用戶偏好,從而為用戶推薦預(yù)測分值較高的物品;但該方法還存在數(shù)據(jù)稀疏和泛化能力弱等問題。針對CF存在的缺陷,Yu等[8]提出了矩陣分解(Matrix Factorization, MF)算法,結(jié)合隱語義和機器學(xué)習(xí)的特性,提升了模型處理稀疏矩陣的能力;但MF模型訓(xùn)練時間較長,且MF采用將用戶和物品隱射到隱因子空間的方式學(xué)習(xí),缺乏對推薦系統(tǒng)的解釋性,降低了模型的推薦性能[9]。區(qū)別于前面兩類推薦方法,基于知識的推薦垂直領(lǐng)域本身,通過知識的交互,能增加項目之間的信息關(guān)聯(lián)。

    與傳統(tǒng)模型相比,深度學(xué)習(xí)的方法能夠更有效地捕獲用戶與候選物品之間的關(guān)系并提供最優(yōu)選擇。如Zhang等[10]針對隱因子模型(Latent Factor Model, LFM)提出了對應(yīng)的顯因子模型(Explicit Factor Model, EFM),利用用戶評論抽取物品的顯式特征提高算法的精度,在向用戶進行推薦的同時為用戶解釋推薦的理由,從而更好地幫助用戶作出決策,提高用戶對系統(tǒng)的信任度。

    歷史的“點擊”“瀏覽”等行為包含大量的冗雜數(shù)據(jù),無法保證每次操作都代表用戶的真實意圖,也無法捕捉并更新用戶實時變化的喜好。因此,受多方面因素影響,傳統(tǒng)推薦模型所采用的方法使推薦系統(tǒng)不具備可解釋性。

    1.2 可解釋性推薦系統(tǒng)

    可解釋性推薦概念最早是推薦過程可以通過用戶熟悉的其他項目解釋[11]。例如用戶正在看的這個產(chǎn)品與他曾購入的商品相似,便可以做出推薦[12],這也奠定了CF的基本思想。

    可解釋性推薦的相關(guān)研究不斷嘗試深入挖掘文本數(shù)據(jù)的有效信息,如Xiao等[13]將EFM擴展到張量分解,提出了AFM (Attentional Factorization Machines)模型,可以學(xué)習(xí)和調(diào)整用戶對不同項目特征的注意力分布,從文本評論中提取產(chǎn)品特征;Tao等[14]利用樹結(jié)構(gòu)解釋推薦,該方法在選定的功能前添加預(yù)定義的修飾符,以構(gòu)建基于模板的解釋;Gao等[15]提出了一種可解釋的深度多視圖學(xué)習(xí)框架,用于建模并解釋多層次特征,并且還采用了基于功能的模板提供解釋;Costa等[16]利用長短期記憶(Long Short-Term Memory, LSTM)模型生成句子解釋,通過訓(xùn)練大量的用戶評論數(shù)據(jù),使模型在提供推薦決策的同時生成合理的解釋語句;Li等[17]利用門控循環(huán)單元(Gated Recurrent Unit, GRU)為Yelp中的推薦餐館生成提示,根據(jù)預(yù)測的評分,該模型可以生成相應(yīng)的提示以幫助用戶了解推薦項目的關(guān)鍵特征;Lu等[18]提出了多任務(wù)推薦模型,該模型利用多個任務(wù)共同學(xué)習(xí)的方式得出評分預(yù)測和推薦解釋,其中解釋模塊采用對抗性序列對序列學(xué)習(xí)技術(shù)編碼,生成和區(qū)分用戶和項目評論,并且在訓(xùn)練過程中生成器也可以生成句子解釋。同時,用戶的注意力分布也可以作為推薦的解釋。如雙重注意力機制(Dual Attention-based, D-Attn)[19]模型在卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)的基礎(chǔ)上引入兩種詞級別的注意力機制:局部注意力機制(Local Attention)和全局注意力機制(Global Attention),為不同的詞賦予不同權(quán)重,篩選更精確的語義表示,提高了模型的解釋性能;NARRE(Neural Attentional Regression model with Review-level Explanations)[20]通過計算用戶和商品的特征表示預(yù)測評分,同時在計算過程中采用分配注意力權(quán)重的方法篩選有效的評論信息。

    2 模型設(shè)計

    DRANN的結(jié)構(gòu)如圖2所示。該模型主要分為兩大模塊:左側(cè)部分為文本評論處理模塊,提取評論中的語義信息,并融入用戶和物品特征,采用注意力機制過濾無效評論信息;右側(cè)部分采用深度自編碼器學(xué)習(xí)隱藏語義信息,利用RNN編碼器-解碼器重構(gòu)高維稀疏數(shù)據(jù),學(xué)習(xí)語義信息中的潛在特征之后融合兩部分數(shù)據(jù)送入預(yù)測層,得到預(yù)測評分。

    圖2 DRANN模型結(jié)構(gòu)

    2.1 文本評論處理模塊

    用戶對物品的評論信息能最直接反映用戶的喜好。給定固定長度為的原始文本評論集{R1,R2, …,R},經(jīng)過嵌入層被映射為對應(yīng)的詞向量矩陣{1,2,…,}。本文采用TextCNN處理詞向量矩陣,能夠有效抽取文本淺層特征,抽取的局部特征可以看作是由多個詞組成的滑動窗口,所以它的本質(zhì)是一個-Gram[21]模型。

    圖3 TextCNN結(jié)構(gòu)

    用大小為的卷積濾波器提取上下文特征。如式(1)所示:

    2.2 深度自編碼器文本處理模塊

    深度自編碼[23]是一種無監(jiān)督學(xué)習(xí)技術(shù),主要作用是特征降維,將文本評論中的高維稀疏數(shù)據(jù)轉(zhuǎn)化為低維的潛在數(shù)據(jù)特征,同時去除了高維數(shù)據(jù)中的干擾部分。

    在每次迭代過程中自編碼器權(quán)重矩陣按式(9)更新:

    近年來,各種網(wǎng)絡(luò)業(yè)務(wù)發(fā)展快速,SNS已經(jīng)成為推動經(jīng)濟社會發(fā)展的基礎(chǔ)信息設(shè)施。各種新式功能層出不窮,高速發(fā)展的背后是日常使用中隱藏的危險漏洞,而更不容易發(fā)現(xiàn)的,是因為隱私悖論導(dǎo)致的信息泄露。本文重點分析了在SNS中基于共享性原則產(chǎn)生的隱私悖論,以及如何利用該問題發(fā)現(xiàn)社會工程學(xué)的可攻擊點和具體利用方法。本文希望可以通過使用自動化工具snsmap,為研究此類問題以及進行抗社會工程學(xué)攻擊測試提供便利,從而推動對隱私悖論的不斷研究,保護個人隱私與網(wǎng)絡(luò)環(huán)境的健康發(fā)展。

    2.3 預(yù)測層

    其中:、表示局部偏移量;表示全局偏移量。為使預(yù)測值和真實值的差值最小,本文采用的損失函數(shù)表達式如下:

    圖4 編碼器-解碼器流程

    3 實驗與結(jié)果分析

    3.1 數(shù)據(jù)集

    實驗采用亞馬遜開源數(shù)據(jù)集(http://jmcauley.ucsd.edu/data/amazon/),該數(shù)據(jù)庫涉及從1996年5月到2014年7月的評級和評論數(shù)據(jù),包含電子商務(wù)各個領(lǐng)域。該數(shù)據(jù)集被分為不同的子數(shù)據(jù)集,本文使用其中4個驗證本文模型的性能,分別為:Patio、Automotive、Musical Instrument (M-I)和Beauty,這些數(shù)據(jù)集涵蓋不同領(lǐng)域,具體交互數(shù)據(jù)記錄如表1所示。

    實驗將所用數(shù)據(jù)集按8∶1∶1劃分為訓(xùn)練集、驗證集和測試集,用訓(xùn)練集數(shù)據(jù)訓(xùn)練模型,將模型在驗證集上得到的數(shù)據(jù)作為反饋,調(diào)節(jié)參數(shù),測試數(shù)據(jù)用于對訓(xùn)練好的模型測試。實驗中,使用維度大小為300的Word2Vec向量初始化詞嵌入。使用Adam 函數(shù)優(yōu)化目標函數(shù),初始化學(xué)習(xí)率設(shè)置為0.005,卷積核大小設(shè)置為3。為防止過擬合,在實驗中設(shè)置了正則化部分,并將dropout值設(shè)為0.5。

    表1 數(shù)據(jù)集信息

    3.2 評價指標

    實驗使用推薦系統(tǒng)中廣泛使用的均方根誤差(Root Mean Square Error, RMSE)評估模型的性能。RMSE值計算的是預(yù)測數(shù)據(jù)與原始數(shù)據(jù)對應(yīng)樣本誤差平方和的均值,能夠衡量預(yù)測值和真實值之間的偏差,相比之下,均方根誤差能夠更好地反映測試的準確性。評價指標計算如下:

    3.3 對比模型

    為了評估模型性能,將本文模型與概率矩陣分解(Probabilistic Matrix Factorization, PMF)[26]模型、奇異值分解++(Single Value Decomposition++, SVD++)模型[27]、深度協(xié)同神經(jīng)網(wǎng)絡(luò)(Deep Cooperative Neural Network, DeepCoNN)模型[28]、樹增強嵌入模型(Tree-enhanced Embedding Model, TEM)[29]、DeepCF(Deep Collaborative Filtering)[30]、DER(Dynamic Explainable Recommender)[31]等6種基準模型比較。

    1)PMF:該模型是一種傳統(tǒng)的矩陣分解模型,對用戶和項目的隱藏向量建模以預(yù)測分數(shù),反映預(yù)測的準確性。

    2)SVD++:該模型基于SVD模型,引入隱式反饋向量,參考任意形式的用戶歷史數(shù)據(jù)幫助獲取用戶的興趣偏好。

    3)DeepCF:該模型結(jié)合了表示學(xué)習(xí)和匹配方程學(xué)習(xí)兩種方法的優(yōu)點,通過搭建深度學(xué)習(xí)網(wǎng)絡(luò)預(yù)測用戶-物品交互矩陣。

    4)DeepCoNN:該模型使用神經(jīng)網(wǎng)絡(luò)對用戶和項目聯(lián)合建模,將文本數(shù)據(jù)表示成詞向量,學(xué)習(xí)語義情感的同時提升評分預(yù)測的準確度。

    5)TEM:該模型將傳統(tǒng)的基于樹的模型與神經(jīng)網(wǎng)絡(luò)相結(jié)合,通過探索用戶和物品的屬性特征生成推薦并提供解釋。

    6)DER:該模型使用深度學(xué)習(xí)方法聯(lián)合建模用戶和商品的評論信息,通過突出顯示評論數(shù)據(jù)中最有效的評論信息對推薦結(jié)果作出解釋。

    3.4 實驗結(jié)果及分析

    不同模型的數(shù)據(jù)對比結(jié)果如表2所示??梢钥闯觯琍MF在相關(guān)數(shù)據(jù)集上的實驗結(jié)果最差,因為PMF只對用戶和物品建模,而沒有添加任何有效的輔助信息豐富建模過程,這也驗證了評論數(shù)據(jù)中確實包含能夠指導(dǎo)推薦的信息。SVD++模型主要利用評分矩陣做出預(yù)測,在實際應(yīng)用中性能下降,因而實驗結(jié)果并不理想。與DeepCF模型相比,DeepCoNN模型除了在M-I數(shù)據(jù)集上的結(jié)果較差外,在其他數(shù)據(jù)集上性能均優(yōu)于DeepCF模型,這是因為在DeepCoNN的建模過程中加入了文本信息,并使用文本注釋聯(lián)合建模用戶行為和產(chǎn)品屬性,而M-I數(shù)據(jù)集中的用戶數(shù)和評論交互數(shù)相對較少,引起的“過擬合”問題導(dǎo)致了效果變差。TEM引入了基于樹的模型挖掘用戶項目和屬性,提供可信的解釋信息。而DER模型應(yīng)用了最新的對評論信息聯(lián)合建模的方式預(yù)測推薦結(jié)果,相較于其他模型得到了更好的實驗結(jié)果。DRANN模型中引入的注意力機制和自編碼器協(xié)同工作,利用注意力機制更好地過濾無效的文本評論信息,增大有用評論所占權(quán)重,為用戶在推薦過程中提供了解釋,通過自編碼器學(xué)習(xí)隱藏的語義關(guān)系,充分發(fā)揮評論信息的作用,有效提高模型的推薦及解釋性能,在實驗中的RMSE最小。

    表2 Amazon數(shù)據(jù)集上不同模型的RMSE對比

    3.5 結(jié)果分析

    1)參數(shù)敏感性分析。本文在{5×10-5,5×10-4,5×10-3,5×10-2,5×10-1,5×100}的范圍和{0.1,0.3,0.5,0.7,0.9}的范圍中測試權(quán)重參數(shù)。對于TextCNN在卷積層中濾波器的窗口大小可以是3、4、5,其中每個窗口過濾器數(shù)量為100。此外,將預(yù)先訓(xùn)練的詞向量維度設(shè)置為300,默認潛在因子數(shù)為64,同時正則化dropout值設(shè)置為0.5。圖5選取了其中三個模型與DRANN在M-I數(shù)據(jù)集上的結(jié)果進行比較:在潛在因子數(shù)小于80時,DRANN模型都達到了較好的性能;潛在因子數(shù)大于80時,由于過擬合引起模型性能在合理范圍內(nèi)產(chǎn)生了波動。進一步觀察到增加潛在因素的數(shù)量并不一定會提高準確性,因為太多的潛在因素會導(dǎo)致過度擬合。

    圖5 M-I數(shù)據(jù)集上的RMSE比較

    2)消融實驗。DRANN模型增加了RNN編碼器-編碼器學(xué)習(xí)隱藏的語義信息。為驗證所加模塊在學(xué)習(xí)文本評論信息隱藏語義特征上的有效性,進行消融實驗,考慮了沒有添加RNN編碼器-編碼器時的RMSE值,結(jié)果如表3所示。由表3可知,在3個不同的數(shù)據(jù)集上加入了RNN編碼器-編碼器后的RMSE明顯小于未加入時的值,這說明加入RNN編碼器-編碼器學(xué)習(xí)有效提升了模型性能,表明了模型結(jié)構(gòu)的可行性。

    表3 深度編碼器對模型RMSE的影響

    4 結(jié)語

    歷史評論信息是用戶偏好和購買興趣的重要反映,了解預(yù)測背后的原因?qū)τ谠u估信任度也非常重要。本文提出的DRANN模型的主要思想是從用戶評論信息和產(chǎn)品評論信息中提取特征,這在一定程度上為理解用戶偏好和興趣提供了解釋。引入注意力機制聚合有效特征,可以過濾掉無用的評論信息;添加自編碼器學(xué)習(xí)文本評論中的隱藏信息可以提高語義特征的豐富度并提高推薦過程的準確性。在不同數(shù)據(jù)集上的實驗結(jié)果驗證了本文模型的可行性。但是,在復(fù)雜的語義環(huán)境下,隨著干擾因素的增加,模型對于語義信息的提取也會存在一些偏差。當前研究表明,增加神經(jīng)網(wǎng)絡(luò)的層數(shù)、擴大模型深度等方法都具備進一步提升模型性能的可能性,在后續(xù)的研究中還可以嘗試更深層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化模型以提升性能。

    [1] 于蒙, 何文濤, 周緒川,等.推薦系統(tǒng)綜述[J].計算機應(yīng)用,2022,42(6):1898-1913.(YU M, HE W T, ZHOU X C, et al. Review of recommender system [J]. Journal of Computer Applications, 2022, 42(6): 1898-1913.)

    [2] MU R H. A survey of recommender systems based on deep learning[J]. IEEE Access, 2018, 6: 69009-69022.

    [3] 田添星.評論情感分析增強的深度推薦模型[J].計算機應(yīng)用與軟件,2022,39(8):258-264.(TIAN T X. Comment sentiment analysis enhanced deep recommendation model [J]. Computer Applications and Software, 2022, 39(8):258-264.)

    [4] BOZANTA A, B KUTLU. HybRecSys: content-based contextual hybrid venue recommender system[J]. Journal of Information Science, 2019, 45(2): 212-226.

    [5] LI X F, LI D. An improved collaborative filtering recommendation algorithm and recommendation strategy[J]. Mobile Information Systems, 2019, 2019(13): No.3560968.

    [6] CENA F, CONSOLE L, VERNERO F. Logical foundations of knowledge-based recommender systems: a unifying spectrum of alternatives[J]. Information Sciences, 2021, 546(1): 60-73.

    [7] YOO H, CHUNG K. Deep learning-based evolutionary recommendation model for heterogeneous big data integration[J]. KSII Transactions on Internet and Information Systems, 2020, 14(9): 3730-3744.

    [8] YU H T, GAO R B, WANG K, et al. A novel robust recommendation method based on kernel matrix factorization[J]. Journal of Intelligent & Fuzzy Systems, 2017, 32(3): 2101-2109.

    [9] 田震,潘臘梅,王睿,等.深度矩陣分解推薦算法[J].軟件學(xué)報,2021,32(12):3917-3928.(TIAN Z, PAN L M, WANG R, et al. Deep matrix factorization recommendation algorithm [J]. Journal of Software, 2020.32 (12): 3917-3928.)

    [10] ZHANG Y F, CHEN X. Explainable recommendation: a survey and new perspectives[J]. Foundations and Trends in Information Retrieval, 2020, 14(1): 1-101.

    [11] RAWAT S, TYAGI U, SINGHAL S. Recommender systems in e-commerce and their challenges[C]// Proceedings of the 2021 3rd International Conference on Advances in Computing, Communication Control and Networking. Piscataway: IEEE, 2021: 1598-1601.

    [12] ROY A, BANERJEE S, SARKAR M, et al. Exploring new vista of intelligent collaborative filtering: a restaurant recommendation paradigm[J]. Journal of Computational Science, 2018, 27(1): 168-182.

    [13] XIAO J, YE H, HE X, et, al. Attentional factorization machines: learning the weight of feature interactions via attention networks [C]// Proceedings of the 26th International Joint Conference on Artificial Intelligence. Menlo Park, CA: AAAI Press, 2017: 3119-3125.

    [14] TAO Y Y, JIA Y L, WANG N,et al. The FacT: taming latent factor models for explainability with factorization trees[C]// Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Infromation Retrieval. New York: ACM, 2019: 295-304.

    [15] GAO J Y, WANG X T, WANG Y S, et al. Explainable recommendation through attentive multi-view learning[C]// Proceedings of the 33rd AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2019:3622-3629.

    [16] COSTA F, OUYANG S, DOLOG P, et al. Automatic generation of natural language explanations [C]// Proceedings of the 23rd International Conference on Intelligent User Interfaces Companion. New York: ACM, 2018: No.57.

    [17] LI P J, WANG Z H, REN Z C, et al. Neural rating regression with abstractive tips generation for recommendation[C]// Proceedings of the 40th International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM, 2017: 345-354.

    [18] LU Y C, DONG R H, SMYTH B. Why I like it: multi-task learning for recommendation and explanation[C]// Proceedings of the RecSys 12th ACM Conference on Recommender Systems. New York: ACM , 2018: 4-12.

    [19] SEO S, HUANG J, YANG H, et al. Interpretable convolutional neural networks with dual local and global attention for review rating prediction[C]// Proceedings of the 11th ACM Conference on Recommender Systems. New York: ACM, 2017: 297-305.

    [20] CHANG C, MIN Z, LIU Y Q, et al. Neural attentional rating regression with review-level explanations[C]// Proceedings of the 27th International World Wide Web Conference. New York: ACM, 2018: 1583-1592.

    [21] LIU S, DEMIREL M F, LIANG Y. N-gram graph: simple unsupervised representation for graphs with applications to molecules[C]// Proceedings of the 33rd International Conference on Neural Information Processing Systerms. Red Hook, NY: Curran Associates Inc., 2019: 8466-8478.

    [22] JI S, SATISH N, LI S, et al. Parallelizing Word2Vec in shared and distributed memory[J]. IEEE Transactions on Parallel and Distributed Systems, 2019, 30(6): 2090-2100.

    [23] 陶文彬, 錢育蓉,張伊揚,等.基于自編碼器的深度聚類算法綜述[J].計算機工程與應(yīng)用,2022,58(18):16-25.(TAO W B, QIAN Y R, ZHANG Y Y, et al. Survey of deep clustering algorithms based on autoencoder [J] Computer Engineering and Applications, 2022, 58(18): 16-25.)

    [24] CHO K, VAN MERRI?NBOER B, GU?L?EHRE ?, et al. Learning phrase representations using RNN encoder-decoder for statistical machine translation[C]// Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing. Stroudsburg: ACL, 2014: 1724-1734.

    [25] 梁志貞,張磊.面向Kullback-Leibler散度不確定集的正則化線性判別分析[J].自動化學(xué)報,2022,48(4):1033-1047.(LIANG Z Z, ZHANG L. Regularized linear discriminant analysis based on uncertainty sets from Kullback-Leibler divergence[J]. Acta Automatica Sinica, 2022, 48(4): 1033-1047)

    [26] SALAKHUTDINOV R, MNIH A. Probabilistic matrix factorization[C]// Proceedings of the 20th International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2007: 1257-1264.

    [27] 陳佩武,束方興.基于SVD++隱語義模型的信任網(wǎng)絡(luò)推薦算法[J].大數(shù)據(jù),2021,7(4):105-116.(CHEN P W, SHU F X. A recommender algorithm based on SVD++ model under trust network[J]. Big Data Research, 2021, 7(4): 105-116.)

    [28] ZHENG L, NOROOZI V, YU P S. Joint deep modeling of users and items using reviews for recommendation[C]// Proceedings of the 10th ACM International Conference on Web Search and Data Mining. New York: ACM, 2017:425-434.

    [29] WANG X, HE X N, FENG F L, et al. TEM: tree-enhanced embedding model for explainable recommendation[C]// Proceedings of the 2018 World Wide Web Conference. Republic and Canton of Geneva, Switzerland: International World Wide Web Conferences Steering Committee, 2018:1543-1552.

    [30] DENG Z H, HUANG L, WANG C D,et al. DeepCF: a unified framework of representation learning and matching functionlearning in recommender system[C]// Proceedings of the 2019 33rd AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2019: 61-68.

    [31] CHEN X, ZHANG Y F, QIN Z. Dynamic explainable recommendation based on neural attentive models[C]// Proceedings of the 33rd AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2019:53-60.

    Deep review attention neural network model for enhancing explainability of recommendation system

    WEI Chuyuan1*, WANG Mengke2, HU Chuanhao2, ZHANG Guangqi2

    (1,,102616,;2,,102616,)

    In order to improve the explainability of Recommendation System (RS), break the inherent limitations of recommendation system and enhance the user’s trust and satisfaction on recommender systems, a Deep Review Attention Neural Network (DRANN) model with enhanced explainability was proposed. Based on the potential relationships between users and items on text reviews, the rich semantic information in user reviews and item reviews was used to predict users’ interest preferences and sentiment tendencies by the proposed model. Firstly, a Text Convolutional Neural Network (TextCNN) was used to do shallow feature extraction for word vectors. Then, the attention mechanism was used to assign weights to comment data and filter invalid comment information. At the same time, the deep autoencoder module was constructed to reduce the dimension of high-dimensional sparse data, remove interference information, learn deep semantic representation, and enhance the explainability of recommendation model. Finally, the prediction score was obtained through the prediction layer. Experimental results on the four public data sets including Patio, Automotive, Musical Instrument (M?I) and Beauty show that DRANN model has the smallest Root Mean Square Error (RMSE) compared with Probabilistic Matrix Factorization (PMF), Single Value Decomposition++ (SVD++), Deep Cooperative Neural Network (DeepCoNN), Tree-enhanced Embedding Model (TEM), DeepCF (Deep Collaborative Filtering) and DER(Dynamic Explainable Recommender), verifying its effectiveness in improving performance and the feasibility of the adopted explanation strategy.

    Recommendation System (RS); deep learning; explainability recommendation; attention mechanism; autoencoder

    1001-9081(2023)11-3443-06

    10.11772/j.issn.1001-9081.2022101628

    2022?10?31;

    2023?03?17;

    教育部人文社會科學(xué)研究一般項目(22YJAZH110)。

    魏楚元(1977—),男,湖北武漢人,副教授,博士,CCF高級會員,主要研究方向:自然語言處理、數(shù)據(jù)挖掘; 王夢珂(1999—),女,陜西漢中人,碩士研究生,主要研究方向:深度學(xué)習(xí)、推薦系統(tǒng); 戶傳豪(2000—),男,山東菏澤人,碩士研究生,主要研究方向:深度學(xué)習(xí)、推薦系統(tǒng); 張桄齊(1996—),男,山西晉中人,碩士研究生,主要研究方向:深度學(xué)習(xí)、推薦系統(tǒng)。

    TP389.1

    A

    2023?04?04。

    This work is partially supported by General Program for Humanities and Social Sciences Research of Ministry of Education (22YJAZH110).

    WEI Chuyuan, born in 1977, Ph. D., associate professor. His research interests include natural language processing, data mining.

    WANG Mengke, born in 1999, M. S. candidate. Her research interests include deep learning, recommendation system.

    HU Chuanhao, born in 2000, M. S. candidate. His research interests include deep learning, recommendation system.

    ZHANG Guangqi, born in 1996, M. S. candidate. His research interests include deep learning, recommendation system.

    猜你喜歡
    解釋性編碼器語義
    著力構(gòu)建可解釋性模型
    論行政自由裁量的“解釋性控權(quán)”
    法律方法(2021年4期)2021-03-16 05:35:16
    語言與語義
    基于FPGA的同步機軸角編碼器
    融媒體時代解釋性報道的發(fā)展之路
    傳播力研究(2017年5期)2017-03-28 09:08:30
    基于PRBS檢測的8B/IOB編碼器設(shè)計
    “上”與“下”語義的不對稱性及其認知闡釋
    非解釋性憲法適用論
    JESD204B接口協(xié)議中的8B10B編碼器設(shè)計
    電子器件(2015年5期)2015-12-29 08:42:24
    認知范疇模糊與語義模糊
    丁香欧美五月| 免费看十八禁软件| 久久这里只有精品19| 法律面前人人平等表现在哪些方面| 精品卡一卡二卡四卡免费| 老司机靠b影院| 久久精品国产亚洲av香蕉五月 | 国产人伦9x9x在线观看| 国产亚洲av高清不卡| 天天躁狠狠躁夜夜躁狠狠躁| 亚洲精品国产精品久久久不卡| 日韩大码丰满熟妇| 国产成人啪精品午夜网站| 不卡av一区二区三区| 老熟女久久久| 久久国产精品大桥未久av| 国产欧美日韩一区二区精品| 男男h啪啪无遮挡| 黄色 视频免费看| 少妇猛男粗大的猛烈进出视频| 日韩免费高清中文字幕av| 久久久久久人人人人人| 国产免费现黄频在线看| 亚洲人成伊人成综合网2020| 9191精品国产免费久久| 午夜影院日韩av| 久久香蕉国产精品| 日本vs欧美在线观看视频| 欧美最黄视频在线播放免费 | 久久久精品区二区三区| 精品久久久久久,| 免费黄频网站在线观看国产| 久久精品aⅴ一区二区三区四区| 丝袜美腿诱惑在线| e午夜精品久久久久久久| 亚洲中文日韩欧美视频| 亚洲伊人色综图| 成人免费观看视频高清| e午夜精品久久久久久久| 久久精品国产综合久久久| 伊人久久大香线蕉亚洲五| 中文字幕人妻丝袜一区二区| 中文欧美无线码| 成人影院久久| 国产一区二区三区视频了| 人妻一区二区av| 嫁个100分男人电影在线观看| 成人18禁在线播放| 亚洲成人免费电影在线观看| 欧美激情 高清一区二区三区| 这个男人来自地球电影免费观看| 久久影院123| 黑人巨大精品欧美一区二区mp4| 精品人妻在线不人妻| 交换朋友夫妻互换小说| 中文字幕最新亚洲高清| 国产成人欧美| 国产一区二区三区在线臀色熟女 | 91精品国产国语对白视频| 久久久久久免费高清国产稀缺| 精品乱码久久久久久99久播| 日韩大码丰满熟妇| 国产单亲对白刺激| 亚洲色图av天堂| 国产精品久久久久久精品古装| 久久亚洲精品不卡| 91国产中文字幕| 国产成人av激情在线播放| 亚洲精品在线美女| 日韩熟女老妇一区二区性免费视频| 99久久国产精品久久久| 国产精品久久久久成人av| 天天躁狠狠躁夜夜躁狠狠躁| 国产精品久久视频播放| 高潮久久久久久久久久久不卡| 国产无遮挡羞羞视频在线观看| 亚洲熟妇中文字幕五十中出 | 亚洲 欧美一区二区三区| 黄色 视频免费看| 国产三级黄色录像| 18禁裸乳无遮挡动漫免费视频| 又黄又粗又硬又大视频| 久久精品国产清高在天天线| 欧美日韩福利视频一区二区| 精品国内亚洲2022精品成人 | 久久久精品免费免费高清| 一二三四社区在线视频社区8| 亚洲精品中文字幕一二三四区| 一级作爱视频免费观看| 国产男女内射视频| 色播在线永久视频| 一边摸一边做爽爽视频免费| 大型黄色视频在线免费观看| 搡老岳熟女国产| 中文字幕人妻丝袜一区二区| 男女之事视频高清在线观看| 午夜精品久久久久久毛片777| 少妇的丰满在线观看| 久久人人爽av亚洲精品天堂| 久久精品亚洲精品国产色婷小说| 国产精品亚洲一级av第二区| 国产男靠女视频免费网站| 久久天堂一区二区三区四区| 成人亚洲精品一区在线观看| 天天操日日干夜夜撸| 性少妇av在线| 国产激情欧美一区二区| 女同久久另类99精品国产91| 国产男靠女视频免费网站| 大香蕉久久网| 国产色视频综合| 正在播放国产对白刺激| 欧美乱色亚洲激情| 久久国产乱子伦精品免费另类| 女人被躁到高潮嗷嗷叫费观| 午夜福利一区二区在线看| 欧美日韩亚洲综合一区二区三区_| a在线观看视频网站| 午夜老司机福利片| 一级毛片精品| ponron亚洲| 国产精品国产av在线观看| 亚洲av电影在线进入| 又大又爽又粗| 日本vs欧美在线观看视频| 久久人人爽av亚洲精品天堂| 麻豆乱淫一区二区| 一a级毛片在线观看| 视频区欧美日本亚洲| 桃红色精品国产亚洲av| 法律面前人人平等表现在哪些方面| 窝窝影院91人妻| 侵犯人妻中文字幕一二三四区| 国产精品影院久久| 亚洲av美国av| 99国产精品一区二区蜜桃av | 自线自在国产av| 国产精品av久久久久免费| 大码成人一级视频| 每晚都被弄得嗷嗷叫到高潮| 最近最新中文字幕大全免费视频| 丰满迷人的少妇在线观看| 999久久久国产精品视频| 国产一区二区三区综合在线观看| 黄色视频,在线免费观看| 国产欧美日韩一区二区三区在线| 丝瓜视频免费看黄片| 久久精品国产清高在天天线| 国产成人精品在线电影| 99riav亚洲国产免费| 大片电影免费在线观看免费| 王馨瑶露胸无遮挡在线观看| 精品国产超薄肉色丝袜足j| 99国产极品粉嫩在线观看| 久久中文看片网| 精品福利永久在线观看| 很黄的视频免费| 国产aⅴ精品一区二区三区波| 色播在线永久视频| 每晚都被弄得嗷嗷叫到高潮| av天堂在线播放| 国产亚洲精品久久久久5区| av片东京热男人的天堂| 久久国产精品人妻蜜桃| 国产乱人伦免费视频| 亚洲国产欧美日韩在线播放| a级片在线免费高清观看视频| 交换朋友夫妻互换小说| 日韩一卡2卡3卡4卡2021年| 99久久99久久久精品蜜桃| 国产99白浆流出| 日韩成人在线观看一区二区三区| 成人亚洲精品一区在线观看| 国产国语露脸激情在线看| 搡老熟女国产l中国老女人| 国产男靠女视频免费网站| 99精国产麻豆久久婷婷| 别揉我奶头~嗯~啊~动态视频| 丰满迷人的少妇在线观看| 高清欧美精品videossex| 80岁老熟妇乱子伦牲交| 欧美黑人欧美精品刺激| 如日韩欧美国产精品一区二区三区| 伦理电影免费视频| 757午夜福利合集在线观看| 久久精品国产a三级三级三级| 18禁美女被吸乳视频| 久久久久视频综合| 国产在视频线精品| 欧美日韩黄片免| 人人妻人人爽人人添夜夜欢视频| 久9热在线精品视频| 看片在线看免费视频| 亚洲国产欧美日韩在线播放| 日韩 欧美 亚洲 中文字幕| 免费观看人在逋| www.精华液| 国产精品亚洲一级av第二区| 日韩欧美一区二区三区在线观看 | 精品福利永久在线观看| 国产精品免费大片| 一本综合久久免费| www.自偷自拍.com| 国产又色又爽无遮挡免费看| 国产亚洲精品久久久久5区| 夫妻午夜视频| 亚洲专区国产一区二区| 日本精品一区二区三区蜜桃| 如日韩欧美国产精品一区二区三区| 50天的宝宝边吃奶边哭怎么回事| 激情视频va一区二区三区| 午夜福利一区二区在线看| av网站免费在线观看视频| 麻豆国产av国片精品| 久久草成人影院| 亚洲一区二区三区不卡视频| 在线观看免费视频日本深夜| 啦啦啦免费观看视频1| 狠狠狠狠99中文字幕| 成熟少妇高潮喷水视频| 欧美国产精品va在线观看不卡| 天天躁狠狠躁夜夜躁狠狠躁| 在线看a的网站| 首页视频小说图片口味搜索| 亚洲专区字幕在线| 丝袜在线中文字幕| 天天躁夜夜躁狠狠躁躁| 亚洲av日韩在线播放| 91麻豆av在线| 女同久久另类99精品国产91| 女人久久www免费人成看片| 国产成人av教育| 久久精品国产综合久久久| 国产野战对白在线观看| 亚洲av日韩在线播放| 久久精品国产99精品国产亚洲性色 | 成人黄色视频免费在线看| 亚洲国产毛片av蜜桃av| 捣出白浆h1v1| 热99re8久久精品国产| 精品国内亚洲2022精品成人 | 热99久久久久精品小说推荐| 一边摸一边抽搐一进一小说 | 午夜福利乱码中文字幕| 亚洲aⅴ乱码一区二区在线播放 | 90打野战视频偷拍视频| 在线av久久热| 窝窝影院91人妻| 99re在线观看精品视频| 麻豆av在线久日| 多毛熟女@视频| 超碰97精品在线观看| 欧美黄色片欧美黄色片| 中文字幕人妻丝袜一区二区| 欧美日韩中文字幕国产精品一区二区三区 | 国产精品久久视频播放| 伦理电影免费视频| 美女视频免费永久观看网站| 91精品三级在线观看| 国产欧美日韩一区二区精品| 热re99久久国产66热| 999久久久国产精品视频| 99国产综合亚洲精品| 中出人妻视频一区二区| 精品少妇一区二区三区视频日本电影| 精品人妻熟女毛片av久久网站| 色婷婷av一区二区三区视频| 欧美日韩av久久| 久久久久精品人妻al黑| 日本撒尿小便嘘嘘汇集6| 亚洲午夜精品一区,二区,三区| 久久精品国产亚洲av香蕉五月 | 欧美亚洲日本最大视频资源| 91成年电影在线观看| 久久精品国产99精品国产亚洲性色 | 好男人电影高清在线观看| 久久精品人人爽人人爽视色| 99久久精品国产亚洲精品| 在线十欧美十亚洲十日本专区| 啦啦啦免费观看视频1| 亚洲精品中文字幕一二三四区| 久久午夜综合久久蜜桃| 久久婷婷成人综合色麻豆| 成年人免费黄色播放视频| 国产精品久久视频播放| 首页视频小说图片口味搜索| 国产激情欧美一区二区| 无遮挡黄片免费观看| 中文字幕另类日韩欧美亚洲嫩草| xxx96com| 午夜福利视频在线观看免费| 最近最新中文字幕大全免费视频| 91麻豆av在线| 美女国产高潮福利片在线看| 伊人久久大香线蕉亚洲五| 91av网站免费观看| 国产人伦9x9x在线观看| 精品人妻1区二区| 黑丝袜美女国产一区| 亚洲综合色网址| 麻豆乱淫一区二区| 岛国毛片在线播放| 亚洲成a人片在线一区二区| 好看av亚洲va欧美ⅴa在| 午夜福利乱码中文字幕| 中亚洲国语对白在线视频| 中文字幕av电影在线播放| 巨乳人妻的诱惑在线观看| 波多野结衣一区麻豆| 两性午夜刺激爽爽歪歪视频在线观看 | 国产一区二区三区综合在线观看| 国产精品一区二区免费欧美| 美女高潮喷水抽搐中文字幕| 久久影院123| 日韩欧美一区视频在线观看| 亚洲精品国产一区二区精华液| 伊人久久大香线蕉亚洲五| tocl精华| 超碰97精品在线观看| 18在线观看网站| 成人永久免费在线观看视频| 在线永久观看黄色视频| 成年女人毛片免费观看观看9 | 在线观看免费日韩欧美大片| 丰满饥渴人妻一区二区三| 国产精品自产拍在线观看55亚洲 | 老汉色∧v一级毛片| 啦啦啦免费观看视频1| 成年人免费黄色播放视频| 黄色片一级片一级黄色片| 真人做人爱边吃奶动态| 国产在线观看jvid| 久久久久久久精品吃奶| 中文字幕最新亚洲高清| 丰满饥渴人妻一区二区三| 少妇被粗大的猛进出69影院| 精品免费久久久久久久清纯 | 一进一出抽搐gif免费好疼 | 80岁老熟妇乱子伦牲交| 久久精品国产亚洲av高清一级| 男女高潮啪啪啪动态图| 女同久久另类99精品国产91| 大香蕉久久网| 久久久久国产一级毛片高清牌| 亚洲欧美激情在线| 国产精品.久久久| 久久草成人影院| 成人特级黄色片久久久久久久| 老司机影院毛片| 欧美国产精品一级二级三级| 麻豆乱淫一区二区| 成人免费观看视频高清| 成人三级做爰电影| 首页视频小说图片口味搜索| 777久久人妻少妇嫩草av网站| 一二三四社区在线视频社区8| 久久香蕉激情| 男男h啪啪无遮挡| 亚洲中文日韩欧美视频| 人妻一区二区av| 成人18禁高潮啪啪吃奶动态图| 久久天堂一区二区三区四区| 9色porny在线观看| 深夜精品福利| 亚洲精品av麻豆狂野| 十八禁网站免费在线| 欧美久久黑人一区二区| 人人妻人人爽人人添夜夜欢视频| 欧美精品av麻豆av| 色在线成人网| 在线观看免费日韩欧美大片| 在线国产一区二区在线| 久热这里只有精品99| 女警被强在线播放| 动漫黄色视频在线观看| 午夜亚洲福利在线播放| 黑人欧美特级aaaaaa片| 国产男靠女视频免费网站| 黄片大片在线免费观看| 精品福利观看| 18在线观看网站| 亚洲欧美激情在线| 久久天躁狠狠躁夜夜2o2o| 一本综合久久免费| 91精品三级在线观看| 制服诱惑二区| 中文字幕精品免费在线观看视频| 国产一卡二卡三卡精品| 最新在线观看一区二区三区| 悠悠久久av| 在线观看免费午夜福利视频| 婷婷精品国产亚洲av在线 | av中文乱码字幕在线| e午夜精品久久久久久久| 十八禁高潮呻吟视频| 操美女的视频在线观看| 免费少妇av软件| 精品欧美一区二区三区在线| av欧美777| 在线播放国产精品三级| 中文字幕人妻丝袜一区二区| 一区二区三区国产精品乱码| 大陆偷拍与自拍| 亚洲精品av麻豆狂野| 在线永久观看黄色视频| 69精品国产乱码久久久| 国产成+人综合+亚洲专区| 91麻豆精品激情在线观看国产 | 久久久久国产一级毛片高清牌| ponron亚洲| 18禁裸乳无遮挡免费网站照片 | 王馨瑶露胸无遮挡在线观看| avwww免费| 国产精品秋霞免费鲁丝片| 不卡av一区二区三区| 欧美黑人欧美精品刺激| 可以免费在线观看a视频的电影网站| 一边摸一边做爽爽视频免费| 精品国产乱码久久久久久男人| 中文字幕最新亚洲高清| 在线观看一区二区三区激情| 久久午夜亚洲精品久久| 欧美精品啪啪一区二区三区| 亚洲精品美女久久久久99蜜臀| 操出白浆在线播放| a级毛片黄视频| 天堂动漫精品| 可以免费在线观看a视频的电影网站| 亚洲国产欧美日韩在线播放| 欧美在线一区亚洲| 中文字幕高清在线视频| 日韩欧美一区二区三区在线观看 | 欧美久久黑人一区二区| 一边摸一边抽搐一进一出视频| 亚洲熟妇中文字幕五十中出 | 咕卡用的链子| 亚洲精品美女久久av网站| 久久国产精品人妻蜜桃| 日韩欧美一区视频在线观看| 自拍欧美九色日韩亚洲蝌蚪91| 一二三四在线观看免费中文在| 午夜免费观看网址| 最新在线观看一区二区三区| 热re99久久精品国产66热6| 欧美激情高清一区二区三区| 淫妇啪啪啪对白视频| 久久精品aⅴ一区二区三区四区| 老司机午夜十八禁免费视频| 黑人巨大精品欧美一区二区mp4| 老司机影院毛片| 黄片播放在线免费| 精品一区二区三卡| a在线观看视频网站| 亚洲自偷自拍图片 自拍| 深夜精品福利| 多毛熟女@视频| 国产又色又爽无遮挡免费看| 中文字幕最新亚洲高清| 女人久久www免费人成看片| av电影中文网址| 母亲3免费完整高清在线观看| 亚洲中文字幕日韩| 无人区码免费观看不卡| 午夜福利欧美成人| 国产精品 欧美亚洲| 亚洲av美国av| 欧美乱码精品一区二区三区| 亚洲五月天丁香| 久久婷婷成人综合色麻豆| 性少妇av在线| 少妇被粗大的猛进出69影院| 久久 成人 亚洲| 亚洲欧美一区二区三区黑人| 亚洲三区欧美一区| 日本wwww免费看| 日韩 欧美 亚洲 中文字幕| 丰满迷人的少妇在线观看| videosex国产| 下体分泌物呈黄色| 99精品久久久久人妻精品| 精品久久久久久,| 夫妻午夜视频| av有码第一页| 美女国产高潮福利片在线看| 一区在线观看完整版| 精品亚洲成国产av| 亚洲精品乱久久久久久| 波多野结衣av一区二区av| 亚洲熟女精品中文字幕| 国产精品1区2区在线观看. | 亚洲成国产人片在线观看| 色在线成人网| 免费在线观看黄色视频的| 日韩中文字幕欧美一区二区| av网站免费在线观看视频| 黑人操中国人逼视频| 午夜福利,免费看| 正在播放国产对白刺激| 亚洲精品一二三| 一级毛片精品| cao死你这个sao货| 欧美日韩亚洲高清精品| 亚洲第一欧美日韩一区二区三区| 高清视频免费观看一区二区| 怎么达到女性高潮| 天堂√8在线中文| 两个人看的免费小视频| 高清视频免费观看一区二区| 香蕉久久夜色| 亚洲五月婷婷丁香| 亚洲美女黄片视频| 两个人看的免费小视频| 国产有黄有色有爽视频| 日本黄色视频三级网站网址 | 在线观看免费视频网站a站| 精品国产乱子伦一区二区三区| 国产av精品麻豆| 黄色成人免费大全| 国产成人一区二区三区免费视频网站| 午夜福利乱码中文字幕| 一级毛片高清免费大全| 亚洲五月天丁香| 久久人人97超碰香蕉20202| 91精品国产国语对白视频| 欧美激情高清一区二区三区| 久久久精品区二区三区| 亚洲精品乱久久久久久| 99国产精品免费福利视频| 国产免费男女视频| 中文欧美无线码| 波多野结衣av一区二区av| 高清在线国产一区| 亚洲视频免费观看视频| 亚洲情色 制服丝袜| 日韩欧美一区视频在线观看| 法律面前人人平等表现在哪些方面| 久久久久精品人妻al黑| 国产精品国产高清国产av | 国产成人系列免费观看| 高潮久久久久久久久久久不卡| 欧美日韩乱码在线| 国产成人欧美| 可以免费在线观看a视频的电影网站| 国产精品免费一区二区三区在线 | 91麻豆精品激情在线观看国产 | 亚洲国产毛片av蜜桃av| 怎么达到女性高潮| 交换朋友夫妻互换小说| 亚洲 国产 在线| 高清在线国产一区| 俄罗斯特黄特色一大片| 久久久久久免费高清国产稀缺| 中文字幕色久视频| 久久久水蜜桃国产精品网| 欧美人与性动交α欧美软件| 免费观看a级毛片全部| 国产一区在线观看成人免费| 久久 成人 亚洲| 国产精品久久视频播放| 国产日韩欧美亚洲二区| 淫妇啪啪啪对白视频| 狠狠狠狠99中文字幕| ponron亚洲| 国内久久婷婷六月综合欲色啪| 国产一区二区三区在线臀色熟女 | 日韩中文字幕欧美一区二区| 欧美黄色淫秽网站| 天堂动漫精品| 手机成人av网站| 国产国语露脸激情在线看| 在线永久观看黄色视频| 一本综合久久免费| 免费观看a级毛片全部| 国产主播在线观看一区二区| 9191精品国产免费久久| 国产色视频综合| 99re在线观看精品视频| 精品高清国产在线一区| 桃红色精品国产亚洲av| 亚洲第一av免费看| 免费一级毛片在线播放高清视频 | 一夜夜www| 12—13女人毛片做爰片一| 午夜久久久在线观看| 免费高清在线观看日韩| 妹子高潮喷水视频| 久久久国产一区二区| 女人久久www免费人成看片| 黑人巨大精品欧美一区二区mp4| 亚洲成国产人片在线观看| 成年人免费黄色播放视频| 亚洲精品一卡2卡三卡4卡5卡| 亚洲欧美激情综合另类| 天堂动漫精品| 色综合婷婷激情| 男女之事视频高清在线观看| 亚洲午夜精品一区,二区,三区| 国产成人影院久久av| 自线自在国产av| 久久久国产一区二区| 深夜精品福利| 亚洲av片天天在线观看| 亚洲av日韩在线播放| 日本黄色视频三级网站网址 | 999久久久精品免费观看国产| 亚洲熟女精品中文字幕| 老熟女久久久| 法律面前人人平等表现在哪些方面| 亚洲久久久国产精品| 欧美人与性动交α欧美软件| 视频在线观看一区二区三区| 纯流量卡能插随身wifi吗| 少妇的丰满在线观看| 国产不卡av网站在线观看| 一级毛片精品|