• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    面向推薦系統(tǒng)中有偏和無偏一元反饋建模的三任務變分自編碼器

    2021-11-10 07:20:04林子楠劉杜鋼潘微科
    信息安全學報 2021年5期
    關鍵詞:偏置編碼器校正

    林子楠, 劉杜鋼, 潘微科, 明 仲

    1 深圳大學大數(shù)據(jù)系統(tǒng)計算技術國家工程實驗室 深圳 中國 518060

    2 人工智能與數(shù)字經(jīng)濟廣東省實驗室(深圳) 深圳 中國 518060

    3 深圳大學計算機與軟件學院 深圳 中國 518060

    1 引言

    隨著互聯(lián)網(wǎng)的快速發(fā)展, 信息的數(shù)量呈現(xiàn)出爆炸性的增長, 這進一步加劇了信息過載的問題。為了緩解這一問題, 推薦系統(tǒng)應運而生[1-4], 并被用于從海量的信息中為用戶提供有效的信息, 從而滿足用戶的需求。推薦系統(tǒng)的基本思路是通過對用戶的歷史行為、興趣偏好等信息進行建模和分析, 挖掘出用戶的需求, 進而為用戶推薦可能感興趣的物品。

    在推薦系統(tǒng)中, 用戶的行為(即對物品的反饋)可分為多元反饋、二元反饋和一元反饋等。多元反饋指的是用戶對物品的反饋是顯式且具有多個等級的,例如用戶給物品進行打分, 打分范圍為{1,2,3,4,5}。二元反饋和多元反饋類似, 用戶對物品的反饋也是顯式的, 但不同于多元反饋, 用戶的反饋只有兩個等級, 即喜歡和不喜歡。而一元反饋指的是用戶對物品的反饋是隱式的, 是由系統(tǒng)根據(jù)用戶的行為自行記錄的, 例如點擊和購買等。在現(xiàn)實生活中, 多元反饋和二元反饋都需要用戶主動對物品進行反饋, 收集過程較為困難, 而一元反饋是由系統(tǒng)自行記錄的,收集過程相對容易, 這使得一元反饋在推薦系統(tǒng)中更為常見, 并且得到了更廣泛的應用。然而, 一元反饋建模存在一個巨大的挑戰(zhàn), 即用戶的反饋不一定能反映用戶的真實偏好, 比如點擊并不代表用戶一定喜歡, 而沒有反饋也不代表用戶不感興趣, 有可能只是物品沒有被用戶觀測到, 從而使得沒有瀏覽、點擊或購買等行為被系統(tǒng)記錄下來。

    現(xiàn)有的大部分推薦模型在建模的過程中, 往往忽略了一個重要問題, 即推薦系統(tǒng)中的偏置問題。因為推薦系統(tǒng)作為一個閉環(huán)的反饋系統(tǒng), 在用戶與系統(tǒng)的交互過程中容易出現(xiàn)多種偏置問題[5-8]。例如位置偏置, 它指的是用戶傾向于點擊展示位置靠前的物品[6]; 流行偏置, 它指的是系統(tǒng)傾向于向用戶推薦流行度較高的物品, 也就是越受歡迎的物品越可能被推薦給用戶[7]。除此之外, 還有選擇偏置、曝光偏置等等, 這些偏置使得系統(tǒng)收集到的用戶歷史行為數(shù)據(jù)存在有偏性, 而現(xiàn)有的大部分推薦模型都只基于這樣的有偏數(shù)據(jù)來構(gòu)建。一些研究工作從理論和實驗兩方面說明, 忽略偏置問題會導致得到次優(yōu)的推薦模型, 而解決這些偏置問題能夠提高推薦模型的性能[5,9-11]。因此, 基于這樣的背景, 本文重點研究了推薦系統(tǒng)中一元反饋的偏置問題, 旨在提出一種新的推薦模型。

    為了緩解這一偏置問題, 本文引入了無偏數(shù)據(jù),通過與有偏數(shù)據(jù)進行聯(lián)合建模, 來獲得更加精準的推薦模型。其中, 無偏數(shù)據(jù)指的是推薦系統(tǒng)通過采用隨機的推薦策略而收集到的反饋數(shù)據(jù), 因為推薦策略的隨機性, 故可以被認為是不受偏置影響的[10-12]。有偏數(shù)據(jù)指的是推薦系統(tǒng)通過采用常規(guī)的推薦策略而收集到的反饋數(shù)據(jù), 被認為是固有地受到偏置影響的。一般而言, 因為采用隨機策略的推薦結(jié)果較差,會帶來用戶的流失和平臺的損失, 所以無偏數(shù)據(jù)的收集規(guī)模通常都較小。因此, 如何有效地利用無偏數(shù)據(jù)是本文研究問題的挑戰(zhàn)之一。除此之外, 有偏數(shù)據(jù)的規(guī)模比無偏數(shù)據(jù)大得多, 且由于推薦策略的不同導致有偏數(shù)據(jù)和無偏數(shù)據(jù)之間存在異構(gòu)性, 如何有效地結(jié)合有偏數(shù)據(jù)和無偏數(shù)據(jù)進行聯(lián)合建模是本文研究問題的另一個挑戰(zhàn)。

    先前的研究工作表明引入無偏數(shù)據(jù)可以有效緩解偏置的影響[10-11]。在文獻[10]中, 作者提出了一種新的領域自適應算法, 通過正則化約束來糾正模型的參數(shù), 從而達到消除偏置的目的。但是, 當模型參數(shù)維度較高時, 參數(shù)對齊較難訓練, 使得模型不能取得很好的效果。在文獻[11]中, 作者提出了一個新的基于知識蒸餾的框架, 并從四個不同層面提出了多種策略, 旨在通過利用無偏數(shù)據(jù)或由無偏數(shù)據(jù)訓練的預訓練模型來消除偏置, 但是作者只是簡單地使用了某一種策略, 不能充分利用無偏數(shù)據(jù)中的信息。除此之外, 先前的大部分研究工作認為偏置隱式地反映在標簽或者模型參數(shù)上, 并且只在標簽或模型參數(shù)的層面上來緩解偏置問題[5,9-13], 很少有研究工作從特征的角度來解決偏置問題[14]。

    因此, 根據(jù)研究問題的挑戰(zhàn)和已有研究工作的局限, 本文提出了一種新的視角, 即從多任務學習的角度來解決偏置問題, 把有偏數(shù)據(jù)、無偏數(shù)據(jù)和聯(lián)合數(shù)據(jù)當作三種相互關聯(lián)的信號, 分別對應三個不同但相關的學習任務。其中, 聯(lián)合數(shù)據(jù)指的是有偏數(shù)據(jù)和無偏數(shù)據(jù)的并集。目前在一元反饋問題中, 變分自編碼器模型取得了非常好的推薦性能[15-16]。為此,本文基于變分自編碼器提出了一個新的模型, 即三任務變分自編碼器。該模型包含三個變分自編碼器,分別對這三種數(shù)據(jù)進行重構(gòu)。變分自編碼器之間共享同一個編碼器和同一個解碼器。此外, 在三個任務之間, 本文設計了特征校正模塊和標簽增強模塊來加強任務之間的關聯(lián)。其中, 特征校正模塊用于校正用戶的潛在特征, 得到更無偏的潛在特征, 進而從潛在特征的角度來緩解偏置的影響。標簽增強模塊通過無偏數(shù)據(jù)訓練的無偏模型來生成可靠性較高的偽標簽并加以利用, 從而更有效地利用無偏數(shù)據(jù)中的信息。

    本文的主要貢獻如下:

    1) 研究了推薦系統(tǒng)中的一個重要問題——一元反饋的偏置問題, 提出了一種新的解決方案, 將結(jié)合有偏數(shù)據(jù)和無偏數(shù)據(jù)的偏置消除問題建模成一個多任務學習問題, 即把有偏數(shù)據(jù)、無偏數(shù)據(jù)和聯(lián)合數(shù)據(jù)當作三種不同但相互關聯(lián)的數(shù)據(jù), 并為此設計了一個新的三任務變分自編碼器;

    2) 提出了特征校正模塊和標簽增強模塊, 其中,特征校正模塊用于獲得無偏的用戶潛在特征, 進而從潛在特征的角度緩解偏置的影響, 而標簽增強模塊能夠更加充分地利用無偏數(shù)據(jù)中的信息;

    3) 在兩個不同領域的真實數(shù)據(jù)集上進行了大量的實驗, 結(jié)果表明, 相比于現(xiàn)有最新的解決偏置的推薦模型, 本文提出的模型取得了更好的推薦效果。

    2 相關工作

    2.1 面向推薦系統(tǒng)中一元反饋建模的方法

    面向推薦系統(tǒng)中一元反饋建模的方法指的是通過一元反饋數(shù)據(jù)來學習用戶和物品之間的關系, 為每個用戶生成對應的個性化推薦列表。到目前為止,推薦系統(tǒng)中一元反饋方法大致可以劃分為基于鄰域的方法、基于分解的方法和基于神經(jīng)網(wǎng)絡的方法。

    基于鄰域的方法包括基于用戶鄰域的方法和基于物品鄰域的方法。基于用戶鄰域的方法通過計算用戶之間的相似度, 為每個用戶找到最相似的用戶集合, 并推薦與相似用戶有交互而與用戶本身未交互的物品[17-19]; 類似地, 基于物品鄰域的方法則是計算物品之間的相似度, 為每個用戶找到和他自身有交互的物品的相似物品, 并進行推薦[20-21]。常用的計算相似度的方法有余弦相似度、杰卡德指數(shù)和關聯(lián)規(guī)則[22]等等。此類算法計算簡單、可解釋性較好,但無法學習用戶與物品之間較為復雜的關系。

    基于分解的方法的主要思想是構(gòu)建低維度的數(shù)學模型來表示用戶與物品之間的關系, 再通過訓練數(shù)據(jù)來學習模型的參數(shù)。比較有代表性的工作有貝葉斯個性化排序[23]、分解的物品相似度模型(Factored Item Similarity Models, FISM)[24]和對數(shù)幾率矩陣分解(Logistic Matrix Factorization, LMF)[25]。貝葉斯個性化排序采用成對的思想來構(gòu)建形如三元組( u , i ,j)的訓練數(shù)據(jù), 并認為用戶u 對i 的喜歡程度大于j,其中u 表示用戶, i 表示與用戶u 有交互的物品, j表示與用戶u 沒有交互的物品。結(jié)合基于矩陣分解的思想, 即使用兩個維度更小的矩陣來表示用戶和物品的潛在特征, 通過使用三元組數(shù)據(jù)進行訓練, 學習用戶和物品的潛在特征。分解的物品相似度模型(FISM)創(chuàng)新性地提出物品之間的相似度可以通過學習得到, 并通過構(gòu)建物品的潛在特征向量, 利用訓練數(shù)據(jù)來學習用戶對物品的偏好程度。類似地, 對數(shù)幾率矩陣分解(LMF)結(jié)合矩陣分解的思想, 并利用對數(shù)幾率損失函數(shù)來擬合數(shù)據(jù), 學習用戶和物品的潛在特征。此類方法能夠有效學習用戶與物品之間的線性關系, 但無法學習它們之間更為復雜的非線性關系。

    基于神經(jīng)網(wǎng)絡的方法在近幾年才被提出, 通過利用深度學習技術來學習用戶與物品之間的高維度關系, 彌補了以往算法無法學習它們之間非線性關系的缺陷[16,26-27]。此類方法包括基于多層感知器的方法和基于自編碼器的方法, 其中比較有代表性的工作有神經(jīng)協(xié)同過濾(Neural Collaborative Filtering,NCF)[26]和變分自編碼器(Variational Autoencoder,VAE)[16]等。神經(jīng)協(xié)同過濾(NCF)使用多層感知器代替原本用戶和物品潛在特征之間的點乘操作, 從而實現(xiàn)非線性交互。此外, NCF 將矩陣分解和多層感知器統(tǒng)一在同一個框架下, 結(jié)合了它們之間的優(yōu)勢,同時捕獲用戶和物品的潛在特征之間的線性和非線性交互。變分自編碼器(VAE)是目前在一元反饋建模方法中推薦性能最好的方法之一。它首先將用戶與物品的交互記錄編碼成變分概率分布, 并使用多項式似然來模擬一元反饋數(shù)據(jù)的生成過程, 對原始輸入數(shù)據(jù)進行重構(gòu)。區(qū)別于以往的研究工作, 變分自編碼器學到的是用戶潛在特征的概率分布, 而不是用戶潛在特征的點值, 這也是該算法取得非常突出的性能的主要原因。

    2.2 面向推薦系統(tǒng)中有偏反饋建模的方法

    推薦系統(tǒng)中偏置消除問題起步較晚, 近幾年才逐漸被學術界和工業(yè)界重視。目前偏置消除的方法大致可以分為基于反事實學習的方法、基于啟發(fā)式的方法和基于無偏數(shù)據(jù)增強的方法[11]。

    基于反事實學習的方法主要是從因果推理的角度來緩解偏置問題, 目前其中一個主流的方法是引入逆傾向性得分(Inverse Propensity Score, IPS)評估器, 即給每一個觀測到的樣本都賦予一個傾向性得分, 從而學習一個更無偏的模型[9,28-29]。此類方法需要根據(jù)一些假設來設計傾向得分評估器, 因為真實的傾向性得分是無法求得的, 從而導致此類方法的準確性和穩(wěn)定性取決于評估方法本身。在文獻[28]中, 作者通過引入曝光概率, 根據(jù)物品的流行度來計算每個樣本的傾向性得分。在文獻[29]中, 作者通過神經(jīng)網(wǎng)絡模型來學習樣本的傾向性得分。但是, 這些傾向性得分的評估方法容易出現(xiàn)高方差等缺點,為了緩解這一問題, 在文獻[30]中, 作者提出了雙穩(wěn)健(Doubly Robust, DR)評估器, 利用插補模型來提高模型的穩(wěn)定性。除此之外, 在文獻[13]中, 作者提出了一個非對稱訓練框架, 利用兩個模型來產(chǎn)生更具無偏性的偽標簽, 以此加強第三個模型的訓練。但該方法的有效性取決于偽標簽的準確性, 而偽標簽的生成又受限于超參數(shù)的設置。在文獻[31]中, 作者建立了有關流行偏置產(chǎn)生的因果圖, 認為用戶對物品的反饋和用戶與物品之間的匹配程度、物品的流行度和用戶的活躍度有關, 并為此設計了一個多任務學習框架。但該方法僅用于解決流行偏置問題, 具有一定的局限性。

    基于啟發(fā)式的方法目前較少, 其主要思路是通過分析造成偏置的原因并作適當?shù)募僭O, 以此達到消除偏置的目的。但是偏置往往較為復雜, 并不是由單一因素造成的, 所以采用此類方法來解決偏置是也是比較困難的。在文獻[32]中, 作者假設推薦系統(tǒng)中偏置的產(chǎn)生和沉默的螺旋理論有關, 并提出了一種模擬沉默螺旋產(chǎn)生的概率模型。

    基于無偏數(shù)據(jù)增強的方法通過引入無偏數(shù)據(jù),對有偏數(shù)據(jù)和無偏數(shù)據(jù)進行聯(lián)合建模, 從而達到解決偏置問題的目的[10-11,33-35]。此類方法是目前穩(wěn)定性和準確性較好的方法, 因為與上述方法相比, 此類方法引入了更多真實的無偏信息。在文獻[34-35]中,作者利用無偏數(shù)據(jù)來協(xié)助傾向性得分的計算, 得到更加穩(wěn)定且準確的傾向性得分。同樣地, 此類方法也受限于傾向性得分評估方法的準確性。在文獻[10]中, 作者認為偏置的產(chǎn)生可以通過模型參數(shù)來進行糾正并提出了CauseE 算法, 通過引入額外的正則化項來約束有偏模型和無偏模型的參數(shù)。其中, 有偏模型是指使用有偏數(shù)據(jù)進行訓練得到的模型, 而無偏模型是指使用無偏數(shù)據(jù)進行訓練得到的模型。然而,當模型參數(shù)的維度較高時, 參數(shù)對齊本身也是一個較難的問題。在文獻[11]中, 作者提出了一個基于知識蒸餾的框架, 即利用無偏數(shù)據(jù)訓練得到一個無偏模型, 從蒸餾的角度提取無偏模型中的有效信息,進而和有偏數(shù)據(jù)進行聯(lián)合訓練來消除偏置的影響。但是, 該方法沒有充分利用無偏數(shù)據(jù)中蘊含的信息,因為僅僅是簡單地使用了某一種策略。在文獻[33]中, 作者先利用無偏數(shù)據(jù)訓練得到因果遷移隨機森林模型, 接著再利用有偏數(shù)據(jù)和無偏數(shù)據(jù)進行校正。該方法主要用于解決位置偏置問題, 且模型復雜度較高。因此, 為了更好地利用無偏數(shù)據(jù)中的信息, 本文從多任務學習的角度出發(fā), 聯(lián)合有偏數(shù)據(jù)和無偏數(shù)據(jù)進行建模, 并設計了特征校正模塊和標簽增強模塊來緩解偏置問題。

    3 問題描述

    3.1 定義

    本文使用 U = {u } = {1 ,2,… ,n}表示所有用戶的集合, I = {i} = {1 ,2, …,m}表示所有物品的集合,SA= {( u ,i)}和 ST= {( u ,i)}表示包含這些用戶對物品的一元反饋的兩個日志數(shù)據(jù)。其中, SA是系統(tǒng)使用常規(guī)的推薦策略進行推薦時產(chǎn)生的, 具有規(guī)模較大和相對有偏的特點; ST是系統(tǒng)使用隨機的推薦策略進行推薦時產(chǎn)生的, 具有規(guī)模較小和相對無偏的特點。本文使用 XA?{0 ,1}n×m和XT?{0 ,1}n×m分別表示由SA和ST構(gòu)成的用戶與物品的交互矩陣。此外, 本文使用SC表示聯(lián)合數(shù)據(jù), 即SC= SA∪ST,以及 XC?{ 0,1}n×m表示由SC構(gòu)成的用戶與物品的交互矩陣。本文的目標是在給定有偏數(shù)據(jù)SA和無偏數(shù)據(jù)ST的前提下, 如何對它們進行聯(lián)合建模來緩解偏置問題, 從而獲得一個更加精準的個性化推薦模型。

    3.2 挑戰(zhàn)

    本文研究的問題存在以下三個挑戰(zhàn):

    1) 通常情況下, 無偏數(shù)據(jù)的規(guī)模較小。為了盡可能地減少偏置的影響, 從推薦系統(tǒng)中收集無偏數(shù)據(jù)需要采用隨機的推薦策略。然而, 采用隨機策略的推薦結(jié)果往往很差, 這不僅會降低用戶的體驗, 而且會導致系統(tǒng)帶來的收益大幅下降。因此, 為了盡可能地減少損失, 無偏數(shù)據(jù)的收集過程不會持續(xù)很久,從而使得其數(shù)據(jù)規(guī)模是較為有限的。

    2) 有偏數(shù)據(jù)和無偏數(shù)據(jù)的規(guī)模差別較大, 有著嚴重的不平衡性。不同于無偏數(shù)據(jù), 獲取有偏數(shù)據(jù)是相對容易的, 從而導致了它們之間的數(shù)據(jù)規(guī)模的不一致性。

    3) 有偏數(shù)據(jù)和無偏數(shù)據(jù)具有異構(gòu)性, 因為它們分別是由兩組不同性質(zhì)的推薦策略產(chǎn)生的, 導致用戶對物品的反饋所代表的偏好信息有所不同。在有偏數(shù)據(jù)中, 用戶對物品的反饋不一定是因為用戶喜歡物品, 有可能是受到了偏置的影響; 而在無偏數(shù)據(jù)中, 這通常表示用戶喜歡相應的物品。

    4 三任務變分自編碼器

    4.1 概述

    針對上述挑戰(zhàn), 本文從一個新的角度對有偏數(shù)據(jù)和無偏數(shù)據(jù)進行聯(lián)合建模, 將有偏數(shù)據(jù)SA、無偏數(shù)據(jù)ST和聯(lián)合數(shù)據(jù)SC看作3 種不同但相互關聯(lián)的信號, 分別用于學習不同的用戶偏好, 并基于變分自編碼器, 提出了一種新的推薦模型, 即三任務變分自編碼器(Tri-VAE), 如圖1 所示。Tri-VAE 包含了3 個子模型, 分別記為MA、MT和MC。它們的作用分別是對SA、ST和SC進行重構(gòu)。在這個3 個子模型中, MC作為目標子模型, 其預測輸出作為最終的推薦結(jié)果, 而另外兩個子模型作為輔助子模型。3個子模型之間通過以下兩個方面進行關聯(lián), 一是它們共享同一個編碼器和同一個解碼器, 二是MA和MT通過特征校正模塊(Feature Calibration Module,FCM)和標簽增強模塊(Label Enhancement Module,LEM)來協(xié)助MC的學習。其中, 特征校正模塊指的是利用MA和MT的用戶潛在特征來校正MC的用戶潛在特征, 以獲得更無偏的用戶潛在特征; 標簽增強模塊則是進一步利用MT的預測輸出來訓練MC, 因為MT是重構(gòu)無偏數(shù)據(jù), 可以認為是相對無偏的模型, 其預測輸出包含了較為豐富的無偏信息。

    圖1 三任務變分自編碼器模型架構(gòu)。該模型包含三個子模型, 分別是MA 、MT 和MC , 其中MC 作為目標子模型, 旨在產(chǎn)生更精準的推薦結(jié)果。三個子模型之間共享同一個編碼器和同一個解碼器, 并通過特征校正模塊(Feature Calibration Module, FCM)和標簽增強模塊(Label Enhancement Module, LEM)進行關聯(lián)Figure 1 llustration of tri-task variational autoencoder (Tri-VAE). It contains three sub-models of MA , MT and MC , where MC is used as the target sub-model to produce more accurate recommendation results. The three sub-models share the same encoder and decoder, and are associated through the feature calibration module (FCM)and the label enhancement module (LEM).

    4.2 有偏數(shù)據(jù)重構(gòu)

    在Tri-VAE中, 子模型MA的作用是重構(gòu)有偏數(shù)據(jù)SA。該子模型是變分自編碼器, 其模型結(jié)構(gòu)和Mult-VAE[16]一樣, 包含編碼器和解碼器。其中, 編碼器是推理模型, 將輸入數(shù)據(jù)通過多層感知器壓縮成用戶潛在特征的變分分布, 得到均值和標準差; 解碼器則是生成模型, 從用戶潛在特征的變分分布中隨機采樣, 通過多層感知器對原始輸入數(shù)據(jù)進行重構(gòu)。在子模型MA中, 使用?R1×k表示用戶潛在特征,?R1×k和?R1×k分別表示用戶潛在特征的變分分布的均值和標準差, 其中k 指的是用戶潛在特征的維度。由XA可以得到每個用戶與所有物品產(chǎn)生的交互向量, 記為?{ 0,1}1×m, 并將其作為編碼器的輸入, 通過多層感知器可以得到用戶潛在特征的變分分布qφ(|), 從該變分分布隨機采樣可得到, 進而有

    其 中, Wμ?Rm×k和 Wσ?Rm×k指 的 是 權 重 矩 陣,bμ?R1×k和 bσ?R1×k指的是偏置向量。

    根據(jù)以上描述, 可以得到子模型MA總的損失函數(shù), 即

    其中, β 是超參數(shù)。

    4.3 無偏數(shù)據(jù)重構(gòu)

    在Tri-VAE中, 子模型MT的作用是重構(gòu)無偏數(shù)據(jù)ST。該子模型的模型結(jié)構(gòu)和MA一樣, 具有相同的編碼器和解碼器。在子模型MT中, 使用?R1×k表示用戶的潛在特征,?R1×k和?R1×k分別表示用戶潛在特征的變分分布的均值和標準差。在給定XT的情況下, 可以得出每個用戶和所有物品產(chǎn)生的交互向量, 記為?{ 0,1}1×m。具體而言, 將的潛在特征的變分分布并由該分布隨作為MT的輸入,通過多層感知器可以得到用戶機采樣得到, 即

    其中, β 是超參數(shù)。

    4.4 聯(lián)合數(shù)據(jù)重構(gòu)

    在Tri-VAE 中, 子模型MC的作用是重構(gòu)聯(lián)合數(shù)據(jù)SC, 即同時重構(gòu)SA和ST。與MA和MT一樣, 該子模型也是變分自編碼器, 有著相同的編碼器和解碼器。在子模型MC中, 使用?R1×k表示用戶的潛在特征,和分別表示用戶潛在特征的變分分布的均值和標準差。由XC可以得出每個用戶和所有物品產(chǎn)生的交互向量, 記為。將作為MC的輸入, 通過多層感知器來得到用戶潛在特征的變分分布, 并由該分布隨機采樣得到, 即有

    從信息的角度來看, 聯(lián)合數(shù)據(jù)是由有偏數(shù)據(jù)和無偏數(shù)據(jù)組成的, 那么它所包含的信息是最豐富的,故在Tri-VAE 中, 將MC作為目標子模型。然而, 因為有偏數(shù)據(jù)和無偏數(shù)據(jù)的規(guī)模不同, 有偏數(shù)據(jù)占據(jù)了大部分。因此, 為了獲得更精準的無偏的個性化推薦模型, MC應當有效地緩解偏置的影響。然而, 偏置本身是隱蔽的, 無法直接通過某種測量方式來衡量, 所以只能從間接的角度來解決這一問題。

    先前的大部分研究工作認為偏置隱式地反映在標簽或模型參數(shù)上[5,9-13], 并從標簽的角度或從模型參數(shù)的角度上來緩解偏置的影響。很少有研究工作從特征的角度、潛在特征的角度、或結(jié)合多個角度來解決偏置問題。

    受潛在特征的性質(zhì)的啟發(fā), 不同類型的數(shù)據(jù)所對應的潛在特征不同。故本文從潛在特征的角度來緩解偏置問題, 即認為偏置實際上隱藏在用戶的潛在特征中。也就是說, 由子模型MA和MC得到的和是相對有偏的, 而子模型MT得到的是相對無偏的。因為是從有偏數(shù)據(jù)學習得到的, 而是從無偏數(shù)據(jù)學習得到的。對于而言, 盡管它是從聯(lián)合數(shù)據(jù)學習而來, 但聯(lián)合數(shù)據(jù)中大部分都屬于有偏數(shù)據(jù)。那么此時, 可以通過衡量,和的之間的差異來間接地緩解偏置的影響。因此,基于這樣的動機, 本文設計了一個特征校正模塊(Feature Calibration Module, FCM), 即以為基準,利用和之間的差異來消除中的偏置特征,從而獲得無偏的用戶潛在特征。

    其中, d ?R1×k指的是和的差異。

    其中, g (?)指的是一個具體的激活函數(shù), Wf?R2k×k和 bf?R1×k分別是特征校正模塊的權重矩陣和偏置向量。

    在子模型MC中, 本文使用表示由解碼器生成的用戶和所有物品產(chǎn)生的交互向量, 其計算公式如(24)所示。之后再通過最小化重構(gòu)損失函數(shù)來優(yōu)化模型。但不同于子模型MA和MT直接對輸入的數(shù)據(jù)進行重構(gòu), 子模型MC在重構(gòu)過程中, 并沒有直接讓和盡可能地接近, 而是對有偏數(shù)據(jù)SA和無偏數(shù)據(jù)ST作了區(qū)別對待。理想情況下, MC的輸出應當更接近無偏, 而SA本身是有偏的。受偏置信息反映在標簽上的啟發(fā), 如果直接對SA進行重構(gòu)可能會影響模型最后的推薦性能。因此, 借鑒文獻[11]中的Weight 策略的思路, 本文在重構(gòu)SA時設置置信度來控制, 以保證模型的無偏性。具體而言, 本文為重構(gòu)的損失函數(shù)設置了權重 α ? ( 0,1), 而將重構(gòu)的損失函數(shù)的權重設置為1, 即有

    另外, 在本文提出的Tri-VAE 中, 由于MT是在重構(gòu)無偏數(shù)據(jù), 故MT的預測輸出可以被認為是相對無偏的標簽。受文獻[11]中的啟發(fā), MT的預測輸出包含了較為豐富的無偏信息。因此, 為了加強對無偏數(shù)據(jù)中的信息的利用, 借鑒于文獻[11]中的Bridge策略的思路, 本文設計了一個標簽增強模塊(Label Enhancement Module, LEM), 旨在訓練過程中加強利用MT的預測輸出。

    算法1. 三任務變分自編碼器的訓練過程

    輸入:用戶與物品的交互矩陣XA、XT和XC,用戶總數(shù)n, 物品總數(shù)m, 潛在特征維度rank, 正則化項權重λ, 重構(gòu)損失函數(shù)權重α 和γ , KL 約束項權 重 β , dropout rate ρ , 最 大 迭 代 次 數(shù)iteration number, 學習率learning rate, 一次訓練所選取的樣本數(shù)batch size

    輸出:編碼器φ, 解碼器θ , 特征校正模塊FCM

    1. 隨機初始化編碼器φ, 解碼器θ 和特征校正模塊FCM

    2. FOR iter = 1:iteration number DO

    3. 從D 中隨機采樣和SA規(guī)模大小一樣的(用戶,物品)對, 并對用戶ID 和物品ID 進行標記

    4. 根據(jù)n 和batch size, 按照用戶ID 順序分成多個batches

    5. FOR batch = 1: length(bacthes) DO

    6. FOR 對于batch 中的所有用戶 DO

    7. 分別從XA、XT和XC取出用戶u 對應的交互向量、和

    14. 根據(jù)公式(5)、(12)和(24)重構(gòu)輸入數(shù)據(jù), 即、和

    16. 根據(jù)公式(29)求出總的損失函數(shù) LTri-VAE, 進而求出梯度

    17. END FOR

    18. 對batch 中所求出的所有梯度進行平均

    19. 對編碼器φ, 解碼器θ 和特征校正模塊FCM進行更新

    20. END FOR

    21. END FOR

    22. RETURN 編碼器φ, 解碼器θ 和特征校正模塊FCM

    本文使用D 表示所有用戶和物品交互的集合,包括可觀測到的和不可觀測到的(用戶, 物品)對。在訓練過程中, 每一次迭代都從D 中隨機采樣和SA規(guī)模大小一樣的(用戶, 物品)對, 再利用MT對這些(用戶, 物品)對進行預測得到相應的偽標簽, 即用戶對物品的反饋。本文將這一個偽數(shù)據(jù)集記為。另外, 本文使用?{ 0,1}1×m表示由S~T 得到的每個用戶和所有物品產(chǎn)生的交互向量。本文期望MC的預測輸出和盡可能地接近, 為此構(gòu)造了它們之間的重構(gòu)損失函數(shù), 如公式(27)所示。類似地, 本文在該重構(gòu)損失函數(shù)設置了權重 γ ? ( 0,1), 因為無偏數(shù)據(jù)規(guī)模通常較小, 不足以讓無偏模型MT得到充分的訓練, 所以中的偽標簽不一定都是正確的。因此, 為了解決這一問題, 本文設置了權重γ加以調(diào)整。

    根據(jù)以上描述, 可以得到子模型MC總的損失函數(shù), 即

    其中, α , β 和γ 都是超參數(shù)。

    4.5 優(yōu)化

    結(jié)合以上所有描述, 本文采用聯(lián)合訓練的方式來訓練模型, 并采用批量梯度下降(BGD)來最小化各個子模型的損失函數(shù)之和, 即

    另外, 整個模型的訓練過程如算法1 所示。

    5 實驗結(jié)果與分析

    5.1 數(shù)據(jù)集

    本文對解決偏置問題的有效性進行評估, 故所采用的數(shù)據(jù)集必須包含無偏數(shù)據(jù)。目前已公開的數(shù)據(jù)集只有兩個, 即Yahoo! R3[38]和Coat Shopping[9],關于它們的具體信息如表1 所示。

    表1 實驗所采用的數(shù)據(jù)集的統(tǒng)計信息。其中“#Feedback”指的是反饋樣本的數(shù)量, “P/N”指的是數(shù)據(jù)集中正反饋和負反饋的比例Table1 Statistics of the datasets used in the experiments. Notice that #Feedback denotes the number of feedback samples and P/N denotes the ratio between the numbers of positive feedback and negative feedback

    · Yahoo! R3[38]: 這是一個關于用戶對音樂評分的數(shù)據(jù)集, 包含了一個有偏的常規(guī)數(shù)據(jù)子集和一個無偏的隨機數(shù)據(jù)子集。其中, 常規(guī)數(shù)據(jù)子集包含15400 個用戶, 1000 首歌曲和大約30 萬條評分記錄, 評分范圍是{1,2,3,4,5}。常規(guī)數(shù)據(jù)子集是由系統(tǒng)使用常規(guī)的推薦策略進行推薦, 用戶根據(jù)自身選擇來對歌曲進行評價而收集到的, 故被認為是有偏的。隨機數(shù)據(jù)子集是通過要求前5400 個用戶對10 首隨機選擇的歌曲進行評分收集而來的, 故被認為是無偏的。因為本文研究的問題是一元反饋的偏置問題, 故需將評分轉(zhuǎn)換成一元反饋。因此, 本文對數(shù)據(jù)集進行了預處理。如果評分大于3 分, 那么該記錄被認為是正反饋[10-11], 即 rui= 1。在實驗中,本文將常規(guī)數(shù)據(jù)子集作為有偏數(shù)據(jù)(SA), 并將隨機數(shù)據(jù)子集隨機劃分成3 個子集, 其中10%作為目標訓練的無偏數(shù)據(jù)(ST), 10%作為驗證集用以選擇超參數(shù), 最后的80%作為測試集用以評估模型的性能。

    · Coat Shopping[9]: 這是一個關于用戶對外衣(coat)評分的數(shù)據(jù)集, 是通過讓Amazon Mechanical Turk 平臺上的290 用戶對300 件外衣進行評分收集而來的。和Yahoo! R3 一樣, 該數(shù)據(jù)集包含了一個有偏的常規(guī)數(shù)據(jù)子集和一個無偏的隨機數(shù)據(jù)子集。其中, 常規(guī)數(shù)據(jù)子集是用戶根據(jù)自身選擇來對外衣進行評價而收集的, 大約有7000 條評分記錄, 評分范圍是{1,2,3,4,5}, 被認為是有偏的。隨機數(shù)據(jù)子集是通過要求所有用戶對16 件隨機選擇的外衣進行評分收集的, 被認為是無偏的。常規(guī)數(shù)據(jù)子集和隨機數(shù)據(jù)子集的預處理及劃分方式和Yahoo! R3 一樣。

    5.2 評價指標

    為了評估模型的推薦性能, 本文采用推薦系統(tǒng)中常用的評價指標進行評估, 包括ROC(Receiver Operating Characteristic, ROC)曲線下的面積(Area Under Roc Curve, AUC)、歸一化折損累積增益(Normalized Discounted Cumulative Gain, NDCG)、精確率(Precision@N, P@N)和召回率(Recall@N, R@N)4 個指標, 各個指標的定義如下所示。其中, 在實驗過程中, N 設置為10、20 和50。另外, 在實驗過程中, 本文將AUC 作為主要指標, 其他作為參考指標[10-12]。

    下面對4 個指標的定義進行一一闡述。

    · ROC 曲線下的面積(AUC): 其計算公式如下所示

    其中, Ω 指的是測試集上(在選擇參數(shù)過程中為驗證集)的所有正反饋的集合, Lp指的是Ω 中正反饋的總數(shù), Rankij指的是根據(jù)預測結(jié)果進行降序排列得到的正反饋(i , j) 在所有的反饋中的排序位置, L 指的是在測試集上(在選擇參數(shù)過程中為驗證集)的反饋總數(shù), 包括正反饋和負反饋。

    ·歸一化折損累積增益(NDCG): 其計算公式如下

    其中, Ute指的是測試集上(在選擇參數(shù)過程中為驗證集)的用戶集合, NDCGu@K 指的是用戶u 的歸一化折損累積增益, DCGu@K 指的是用戶u 的折損累積增益, IDCGu指的是理想情況下用戶u 的折損累積增益, 即根據(jù)返回的結(jié)果, 按照真實的相關性重新排序, 進而計算 DCGu@K 得來的, K 指的是推薦列表的長度, reli指的是推薦物品的相關性。在實驗過程中, K 設置為50。

    · 精確率(P@N): 其計算公式如下

    其中, R ( u )指的是模型給用戶生成的長度為N 的推薦列表, T ( u )指的是用戶在測試集上(在選擇參數(shù)過程中為驗證集)的反饋形成的推薦列表。

    · 召回率(R@N): 其計算公式如下

    其中, R ( u )指的是模型給用戶生成的長度為N 的推薦列表, T ( u )指的是用戶在測試集上(在選擇參數(shù)過程中為驗證集)的反饋形成的推薦列表。

    5.3 基線模型

    本文提出的模型是在VAE的基礎上進行改進的,故將VAE 作為最相關的基線模型。不同類型的數(shù)據(jù)進行訓練會產(chǎn)生不同版本的VAE。在本文中, 有以下3 個版本, 即分別使用有偏數(shù)據(jù)SA、無偏數(shù)據(jù)ST和聯(lián)合數(shù)據(jù)SC進行訓練, 本文將它們依次記為VAE(SA)、VAE(ST)和VAE(SC)。除此之外, 本文還將近年來提出的具有代表性的方法作為基線模型,分別是基于逆傾向性得分的模型(IPS)[9,28-29]、CausE[10]和KDCRec[11]。

    · 基于逆傾向性得分的模型(IPS)[9,28-29]: 基于逆傾向性得分消除偏置的算法是目前學術界比較主流的方法, 通過對訓練集中的每個樣本賦予一個傾向性得分, 從而來訓練一個無偏的模型。傾向性得分的計算方法有很多[13,28-29], 本文采用的是其中一個具有代表性的方法, 即樸素貝葉斯評估方法。該方法通過樸素貝葉斯來計算物品的曝光概率, 以此得到每個樣本的傾向性得分, 具體計算公式如下:

    其中, P( I=i |O =1)指的是在可觀測到的樣本中,所有用戶對物品i 產(chǎn)生交互的樣本所占的比例;P (O = 1)指的是在全部樣本中(包括未觀測樣本), 可觀測的樣本所占的比例; P( I=i)指的是在無偏數(shù)據(jù)中,所有用戶對物品i 產(chǎn)生交互的樣本所占的比例。另外,為了實驗的公平性, 本文使用VAE 作為基本模型。

    · CausE[10]: 其思想是通過正則化項來約束有偏模型和無偏模型的參數(shù), 進而緩解偏置的影響。首先通過無偏數(shù)據(jù)進行訓練得到無偏模型,接著使用有偏數(shù)據(jù)訓練新的模型, 同時以無偏模型的模型參數(shù)作為參考, 使用正則化項進行約束。同樣地, 為了公平比較, 本文使用VAE作為CasuE 的基本模型。

    · KDCRec[11]: 一個基于知識蒸餾的框架。作者在文中提出了多種策略, 其中最具有代表性的策略是Bridge 策略。因為從作者提供的實驗結(jié)果來看, 使用Bridge 策略訓練出來的模型的推薦性能表現(xiàn)最佳。因此, 本文采用Bridge 策略作為基線模型之一。類似地, 為了公平比較,本文使用VAE 作為基本模型。

    5.4 實驗設置

    本文使用Python 3.6 和TensorFlow 1.14 進行實驗, 模型訓練和測試都是在搭載了Ubuntu18.04 系統(tǒng)的計算機集群上進行的。該集群包含2 個26 核的CPU, 256GB 內(nèi)存和2 個Nvidia Tesla P100 GPU。在Tri-VAE 中, 對于特征校正模塊中的激活函數(shù) g(?),本文采用了tanh 函數(shù)和sigmoid 函數(shù)。本文使用網(wǎng)格搜索的方式對超參數(shù)進行搜索, 并通過驗證集上AUC 的值來確定最佳的超參數(shù)。其中, 超參數(shù)的設置范圍如表2 所示。另外, 對于Coat Shopping 數(shù)據(jù)集, 由于驗證集的規(guī)模較小, 為了讓實驗結(jié)果更具有說服力, 在選參的過程中, 先使用網(wǎng)格搜索的方式進行搜索, 再選擇在驗證集上AUC 性能最好的前5 組參數(shù), 讓每組參數(shù)運行5 遍, 最后選擇平均性能最好的那組參數(shù)作為最佳的超參數(shù)。此外, 在模型評估過程中, 本文通過改變隨機種子, 對每個模型分別進行10 次訓練和測試, 最后將平均值作為最終的測試結(jié)果。同時, 本文還使用雙樣本t 檢驗對各個指標進行了顯著性檢驗, 即在各個指標上檢驗比較本文提出的模型的結(jié)果和最好的基線模型的結(jié)果。本文所涉及的實驗數(shù)據(jù)、源代碼和腳本將會公開, 可從http://csse.szu.edu.cn/staff/panwk/Tri-VAE/獲得。

    5.5 實驗結(jié)果分析

    5.5.1 性能比較

    對于數(shù)據(jù)集Yahoo! R3和Coat Shopping, 本文提出的模型Tri-VAE 和基線模型的推薦性能比較如表3和表4 所示。其中, Tri-VAE-tanh 表示特征校正模塊使用tanh 函數(shù)作為激活函數(shù), Tri-VAE-sig 表示特征校正模塊使用sigmoid 函數(shù)作為激活函數(shù)。從實驗結(jié)果可以看出: (1)不管是Yahoo! R3 還是Coat Shopping,在絕大多數(shù)情況下, Tri-VAE 的推薦性能比所有基線模型都要好。注意AUC 是最關鍵的指標, 且模型參數(shù)是通過AUC 進行選擇的。另外, 本文通過雙樣本t 檢驗進行了顯著性檢驗, 發(fā)現(xiàn)大部分指標的p 值都小于0.01。這說明本文所提出的模型能夠更好地對有偏數(shù)據(jù)和無偏數(shù)據(jù)進行聯(lián)合建模, 有效地利用無偏數(shù)據(jù)中的信息來緩解偏置帶來的影響; (2)對于本文提出的特征校正模塊, 使用不同的激活函數(shù)對最終的推薦性能有一定的影響。從主要指標來看, 在Yahoo! R3 上, tanh 函數(shù)的推薦性能更好, 而在Coat Shopping 上, 則是sigmoid 函數(shù)的性能更好。造成這種差異的原因可能是不同的激活函數(shù)所提取到的偏置信息有所不同, 而這兩個數(shù)據(jù)集包含的偏置信息存在一定的差異; (3)關于使用不同類型的數(shù)據(jù)進行訓練產(chǎn)生的 3 個版本的 VAE, 其實驗效果是VAE(SC)> VAE(SA)> VAE(ST), 這說明有偏數(shù)據(jù)和無偏數(shù)據(jù)之間具有互補性。而本文提出的Tri-VAE比這三個基準模型的效果都要好, 說明Tri-VAE能更好地對有偏數(shù)據(jù)和無偏數(shù)據(jù)之間的互補性進行建模;(4)IPS-VAE 的實驗效果比較差, 這說明本文中所采用的利用無偏數(shù)據(jù)和樸素貝葉斯法來計算傾向性得分并不能很好地解決偏置問題; (5)CausE 和KDCRec的實驗效果比VAE(SA)要好, 但比VAE(SC)差, 這是因為這兩個基線模型都需要利用單獨使用無偏數(shù)據(jù)得到的預訓練模型, 而由于無偏數(shù)據(jù)的規(guī)模較小,導致預訓練模型不能得到充分的訓練。

    5.5.2 消融實驗

    為了進一步研究Tri-VAE, 本文設計了消融實驗。在本文所提出的模型中, 子模型之間通過特征校正模塊和標簽增強模塊進行關聯(lián)。簡而言之, 通過利用、和的信息來協(xié)助目標子模型MC的訓練。因此, 本文首先一一去除、和中的一個, 分別記為“-T”, “-A” 和“-P”, 接著再去除它們之間的組合, 包括同時去除和(記為“-TA”), 以及同時去除、和(記為“-TAP”)。從表3 和表4 的分析來看, 在Yahoo! R3 上采用tanh函數(shù)的推薦性能更好, 而在Coat Shopping 上則是采用sigmoid 函數(shù)。因此, 為了實驗的公平性, 在Yahoo!R3 上的消融實驗選擇tanh 函數(shù)作為激活函數(shù), 在Coat Shopping 上的消融實驗則選擇sigmoid 函數(shù)作為激活函數(shù), 具體的實驗結(jié)果如圖2 所示。從實驗結(jié)果可以看出, 去除Tri-VAE中的某一部分或者同時去除某幾部分, 都會使推薦性能變差。其中, 去除之后, 模型的推薦性能小幅度下降, 而去除或者之后, 模型的推薦性能大幅度下降。這說明特征校正模塊在Tri-VAE 中起到了重要的作用, 而標簽增強模塊是輔助作用, 同時也驗證了從潛在特征的角度來緩解偏置的有效性。另外, 對于特征校正模塊和標簽增強模塊對推薦性能的作用程度不同, 這是因為特征校正模塊是直接對用戶的潛在特征進行校正, 而標簽增強模塊通過標簽增強的方式間接地對用戶的潛在特征進行校正。

    圖2 消融實驗中推薦性能的比較Figure 2 Recommendation performance in ablation studi es

    表3 在數(shù)據(jù)集Yahoo! R3 上, 本文提出的模型和基線模型的推薦性能比較, 其中最佳結(jié)果用粗體標記, 次優(yōu)結(jié)果用下劃線標記。另外, 顯著性檢驗中p 值小于0.01 的最佳結(jié)果用星號(*)標記Table 3 Recommendation performance of our proposed model and the baselines on Yahoo! R3, where the best results are marked in bold and the second best results are marked underlined. In addition, the significantly best results are marked with a star (*), where the p-value is smaller than 0.01

    表4 在數(shù)據(jù)集Coat Shopping 上, 本文提出的模型和基線模型的推薦性能比較, 其中最佳結(jié)果用粗體標記, 次優(yōu)結(jié)果用下劃線標記。另外, 顯著性檢驗中p 值小于0.01 的最佳結(jié)果用星號(*)標記Table 4 Recommendation performance of our proposed model and the baselines on Coat Shopping, where the best results are marked in bold and the second best results are marked underlined. In addition, the significantly best results are marked with a star (*), where the p-value is smaller than 0.01

    5.5.3 超參數(shù)敏感性分析

    本文所提出的模型引入了兩個主要的超參數(shù),分別是α 和γ , 因此本文設計了以下實驗對超參數(shù)進行分析。首先, 為了分析α , 先固定其他超參數(shù),α 值依次從0.1變化到0.6, 重新訓練并測試模型, 最后的實驗結(jié)果如圖3 所示。從圖3 可以看出, 最優(yōu)的α 值在數(shù)據(jù)集Yahoo! R3 和Coat Shopping 上分別是0.1 和0.5。α 值的大小可能和有偏數(shù)據(jù)與無偏數(shù)據(jù)的數(shù)據(jù)規(guī)模之比(即|SA|/|ST|)有關系。因為有偏數(shù)據(jù)與無偏數(shù)據(jù)規(guī)模差異直接影響到對SA的重構(gòu)損失函數(shù)與對ST的重構(gòu)損失函數(shù)的差異。當有偏數(shù)據(jù)規(guī)模較大時, 對SA的重構(gòu)損失函數(shù)的影響相對會大一些, 此時為了削弱SA的重構(gòu)損失函數(shù)的影響, α值就應當相對小一些。接著分析γ , 類似地, 先固定其他超參數(shù), γ 值依次從0.0001 變化到0.1, 重新訓練并測試模型, 最后的實驗結(jié)果如圖4 所示。從圖4 可以看出, 最優(yōu)的γ 值在數(shù)據(jù)集Yahoo! R3 和Coat Shopping 上分別是0.001 和0.0001, γ 值越大, 最終的推薦性能越差。這和無偏數(shù)據(jù)的數(shù)據(jù)規(guī)模有關。盡管通過無偏數(shù)據(jù)可以訓練得到相對比較無偏的模型, 但由于無偏數(shù)據(jù)的規(guī)模較小, 較難充分訓練得到一個很準確的預測結(jié)果, 也就是說, 標簽增強模塊產(chǎn)生的偽標簽的可信度不會很高, 故γ 值不會很大。

    圖3 不同α 值對推薦性能的影響Figure 3 Recommendation performance of our proposed model with different values of α

    圖4 不同γ 值對推薦性能的影響Figure 4 Recommendation performance of our proposed model with different values of γ

    5.5.4 模型的收斂性分析

    為了進一步分析本文提出的模型Tri-VAE 的收斂性, 本文進行了實驗驗證。通過5.5.1 節(jié)的實驗結(jié)果可知, 在眾多的基線模型中, VAE(SC)的模型性能最好, 同時VAE 也是與Tri-VAE 最相關的基線模型。因此, 本文通過分析Tri-VAE 和VAE(SC)這兩個模型在訓練時總的損失和驗證集上的AUC 隨迭代次數(shù)的變化情況來驗證模型的收斂性。具體實驗結(jié)果如圖5 所示。從實驗結(jié)果可以看出, 本文提出的模型的收斂性較好, 收斂速度不會隨著模型復雜度的增加而減緩。首先, 在Yahoo! R3 數(shù)據(jù)集上, Tri-VAE 和VAE(SC)在訓練時總的損失的收斂趨勢較為相近。而對于驗證集上的AUC, Tri-VAE 的收斂性要優(yōu)于VAE(SC)。其次, 在Coat Shopping 數(shù)據(jù)集上, 與Yahoo! R3 數(shù)據(jù)集上的結(jié)果類似, Tri-VAE 和VAE(SC)在訓練時總的損失的收斂性相當。而在驗證集上的AUC, 卻表現(xiàn)出了不一樣的結(jié)果。通過比較發(fā)現(xiàn), VAE(SC)出現(xiàn)了過擬合的現(xiàn)象, 即在訓練集上總的損失越來越小, 但驗證集上的AUC 卻在變差。而本文提出的模型(Tri-VAE-sig)不僅能夠正常收斂, 而且沒有出現(xiàn)過擬合的現(xiàn)象。

    圖5 模型訓練時總的損失和驗證集上AUC 隨迭代次數(shù)的變化情況Figure 5 Variation of the total loss when training the model and the AUC on the validation set with the number of iterations

    5.5.5 關于特征校正模塊的進一步探討

    其中, g (?)指的是一個具體的激活函數(shù), Wf1?Rk×k和 bf1?R1×k分別指的是的權重矩陣和偏置向量。

    本文將使用上述公式的模型記為Tri-VAE-sub,并使用了tanh函數(shù)和sigmoid函數(shù)作為激活函數(shù)進行實驗, 最后的實驗結(jié)果如表5 所示。結(jié)合表3、表4和表5 的實驗結(jié)果可以看出, Tri-VAE-sub 的推薦性能比Tri-VAE 稍差一些, 但比所有基線模型都要好。這說明通過利用和之間的差異能夠糾正用戶的潛在特征, 進而有效緩解偏置帶來的影響。另外,對于衡量和差異的方式, 使用拼接的方法比作差的方法要好一點, 這是因為使用拼接能夠最大程度地保留兩者差異的信息, 更有利于神經(jīng)網(wǎng)絡對偏置信息的提取。

    表5 在數(shù)據(jù)集Yahoo! R3 和Coat Shopping 上,Tri-VAE 和它的變體Tri-VAE-sub 的推薦性能比較, 其中最佳結(jié)果用粗體標記Table 5 Recommendation performance between Tri-VAE and its variant Tri-VAE-sub on Yahoo! R3 and Coat Shopping, where the best results are marked in bold

    此外, 在Tri-VAE 中, 特征校正模塊使用了帶激活函數(shù)的單層全連接網(wǎng)絡提取偏置特征。因此, 接下來本文從網(wǎng)絡層數(shù)的角度來進一步探討特征校正模塊, 并先后使用了雙層全連接網(wǎng)絡和三層全連接網(wǎng)絡。本文將使用雙層全連接網(wǎng)絡的模型記為Tri-VAE(雙層), 將使用三層全連接網(wǎng)絡的模型記為Tri-VAE(三層)。同樣地, 使用了tanh 函數(shù)和sigmoid函數(shù)作為激活函數(shù)進行實驗。另外, 對于同一個模型,多層全連接網(wǎng)絡的設置相同, 比如在實驗過程中,模型選擇tanh 函數(shù), 則雙層全連接網(wǎng)絡都使用tanh函數(shù)。Tri-VAE(雙層)和Tri-VAE(三層)的推薦性能結(jié)果如表6 所示。從實驗結(jié)果可以看出, 對于數(shù)據(jù)集Yahoo! R3 而言, 增加網(wǎng)絡層數(shù)并不能提高模型的推薦性能, 而對于數(shù)據(jù)集Coat Shopping 而言, 增加網(wǎng)絡層數(shù)能夠進一步提高模型的推薦性能。這可能與數(shù)據(jù)集本身包含的偏置信息有關, 不同的數(shù)據(jù)集受偏置的影響程度不同。另外還有可能與無偏數(shù)據(jù)規(guī)模的大小有關, 對于Yahoo! R3 而言, 無偏數(shù)據(jù)的規(guī)模相對于有偏數(shù)據(jù)比Coat Shopping 更小, 在同樣的數(shù)據(jù)規(guī)模下, 增加網(wǎng)絡層數(shù)相當于增加了模型參數(shù),這使得模型的訓練更加困難。

    表6 在數(shù)據(jù)集Yahoo! R3 和Coat Shopping 上, 特征校正模塊網(wǎng)絡層數(shù)對推薦性能的影響, 其中最佳結(jié)果用粗體標記Table 6 Recommendation performance of our proposed model with different numbers of network layers on Yahoo! R3 and Coat Shopping, where the best results are marked in bold

    6 總結(jié)

    本文首先提出了推薦系統(tǒng)中一個重要且前沿的問題, 即一元反饋的偏置問題, 并對其進行了嚴格的定義和形式化。針對這一問題, 從一個新穎的角度提出了一種基于多任務學習和變分自編碼器的模型,即三任務變分自編碼器。該模型將有偏數(shù)據(jù)、無偏數(shù)據(jù)和聯(lián)合數(shù)據(jù)當作三個不同的學習任務, 同時任務之間通過特征校正模塊和標簽增強模塊進行關聯(lián)。其中, 特征校正模塊用于獲取無偏的用戶潛在特征, 而標簽增強模塊則是為了進一步利用無偏數(shù)據(jù)的信息。本文在兩個真實的數(shù)據(jù)集上進行實驗, 實驗結(jié)果表明該模型能夠有效緩解偏置的影響, 比現(xiàn)有的推薦模型有更好的推薦性能。此外, 為了進一步研究所提出的模型, 本文對其進行了消融實驗、超參數(shù)敏感性分析和收斂性分析, 同時還進一步對其中的特征校正模塊進行了探討。

    在推薦系統(tǒng)中, 保護用戶的隱私越來越受學術界和工業(yè)界的關注。在未來的工作中, 我們將進一步研究面向用戶反饋等隱私信息的保護技術[39], 以適應用戶對隱私和數(shù)據(jù)安全的需求。

    猜你喜歡
    偏置編碼器校正
    基于40%正面偏置碰撞的某車型仿真及結(jié)構(gòu)優(yōu)化
    基于雙向線性插值的車道輔助系統(tǒng)障礙避讓研究
    中國信息化(2022年5期)2022-06-13 11:12:49
    劉光第《南旋記》校正
    國學(2020年1期)2020-06-29 15:15:30
    基于FPGA的同步機軸角編碼器
    一類具有校正隔離率隨機SIQS模型的絕滅性與分布
    機內(nèi)校正
    基于PRBS檢測的8B/IOB編碼器設計
    一級旋流偏置對雙旋流杯下游流場的影響
    JESD204B接口協(xié)議中的8B10B編碼器設計
    電子器件(2015年5期)2015-12-29 08:42:24
    多總線式光電編碼器的設計與應用
    国产69精品久久久久777片| 亚洲成av人片在线播放无| 99久久成人亚洲精品观看| 国产麻豆成人av免费视频| 中亚洲国语对白在线视频| 制服丝袜大香蕉在线| 五月玫瑰六月丁香| 亚洲美女视频黄频| 精品人妻1区二区| 欧美+亚洲+日韩+国产| 999久久久精品免费观看国产| 欧美日韩国产亚洲二区| 看片在线看免费视频| 欧美另类亚洲清纯唯美| 国产精品久久久久久久久免 | 亚洲国产中文字幕在线视频| 国产97色在线日韩免费| 亚洲精品影视一区二区三区av| 美女高潮喷水抽搐中文字幕| 国产精品,欧美在线| 日本免费一区二区三区高清不卡| 精品不卡国产一区二区三区| 国产精品一区二区三区四区免费观看 | 床上黄色一级片| 香蕉av资源在线| 九九久久精品国产亚洲av麻豆| 一级a爱片免费观看的视频| 国产午夜精品久久久久久一区二区三区 | 青草久久国产| 老鸭窝网址在线观看| 99国产精品一区二区蜜桃av| 欧美成人性av电影在线观看| 嫩草影院精品99| 久久久久久久午夜电影| 亚洲片人在线观看| 欧美在线黄色| 免费看a级黄色片| 日韩欧美国产一区二区入口| 1000部很黄的大片| 1000部很黄的大片| 三级国产精品欧美在线观看| 中文亚洲av片在线观看爽| 女同久久另类99精品国产91| 婷婷精品国产亚洲av| 久久久久国产精品人妻aⅴ院| 欧美精品啪啪一区二区三区| 国产亚洲精品一区二区www| 9191精品国产免费久久| 18+在线观看网站| 波多野结衣巨乳人妻| 小蜜桃在线观看免费完整版高清| 啦啦啦韩国在线观看视频| 人妻丰满熟妇av一区二区三区| 中文字幕人妻熟人妻熟丝袜美 | 91av网一区二区| 97人妻精品一区二区三区麻豆| 悠悠久久av| 久久久久久九九精品二区国产| 午夜福利高清视频| 身体一侧抽搐| av在线蜜桃| 999久久久精品免费观看国产| 悠悠久久av| 日本免费一区二区三区高清不卡| 日本免费一区二区三区高清不卡| 一进一出抽搐gif免费好疼| 精品人妻偷拍中文字幕| 老熟妇仑乱视频hdxx| 国产高清视频在线播放一区| 成人av一区二区三区在线看| 日本免费一区二区三区高清不卡| 神马国产精品三级电影在线观看| 12—13女人毛片做爰片一| 亚洲精品亚洲一区二区| 欧美乱码精品一区二区三区| 亚洲成a人片在线一区二区| 精品久久久久久久毛片微露脸| 国产精品久久久久久亚洲av鲁大| 亚洲av中文字字幕乱码综合| 久久午夜亚洲精品久久| 长腿黑丝高跟| 不卡一级毛片| 丁香六月欧美| 非洲黑人性xxxx精品又粗又长| 亚洲无线在线观看| 欧美日本亚洲视频在线播放| www日本在线高清视频| 欧美日韩亚洲国产一区二区在线观看| 亚洲欧美一区二区三区黑人| 男女午夜视频在线观看| 欧美绝顶高潮抽搐喷水| 亚洲在线观看片| 日本一本二区三区精品| 久久久精品大字幕| 看免费av毛片| 看免费av毛片| 精品国内亚洲2022精品成人| 成人一区二区视频在线观看| 午夜免费男女啪啪视频观看 | 亚洲在线自拍视频| 久久国产精品人妻蜜桃| 亚洲在线观看片| 可以在线观看毛片的网站| 一级毛片高清免费大全| 国产熟女xx| 特级一级黄色大片| 国产精品乱码一区二三区的特点| 免费看光身美女| 精品福利观看| 日韩中文字幕欧美一区二区| 亚洲成人久久性| 一进一出抽搐gif免费好疼| 此物有八面人人有两片| 亚洲乱码一区二区免费版| 国产三级中文精品| 午夜影院日韩av| 亚洲成人精品中文字幕电影| 亚洲国产精品999在线| 少妇人妻一区二区三区视频| 欧美av亚洲av综合av国产av| 国产高清激情床上av| 日韩欧美精品v在线| 国产真人三级小视频在线观看| 国产高清激情床上av| 色综合亚洲欧美另类图片| 波多野结衣高清作品| 床上黄色一级片| 国产精品爽爽va在线观看网站| 观看美女的网站| 欧美成人a在线观看| 一本久久中文字幕| 在线观看日韩欧美| 在线看三级毛片| 成熟少妇高潮喷水视频| 夜夜躁狠狠躁天天躁| 亚洲国产欧美网| 一个人看视频在线观看www免费 | 少妇的逼好多水| 久久久久久大精品| 亚洲av一区综合| 免费看十八禁软件| 51国产日韩欧美| 欧美中文日本在线观看视频| 一卡2卡三卡四卡精品乱码亚洲| 欧美国产日韩亚洲一区| 啦啦啦韩国在线观看视频| 亚洲一区二区三区不卡视频| 在线观看66精品国产| 人妻夜夜爽99麻豆av| av天堂在线播放| 一区福利在线观看| 美女高潮喷水抽搐中文字幕| 黄色视频,在线免费观看| 欧美乱妇无乱码| av视频在线观看入口| 国产精品三级大全| 国产一区在线观看成人免费| 在线天堂最新版资源| 一区二区三区国产精品乱码| 亚洲不卡免费看| 狂野欧美白嫩少妇大欣赏| 色精品久久人妻99蜜桃| 国产一区二区在线av高清观看| 亚洲乱码一区二区免费版| 日本免费一区二区三区高清不卡| 色老头精品视频在线观看| 日日夜夜操网爽| 男女视频在线观看网站免费| 亚洲熟妇熟女久久| 色噜噜av男人的天堂激情| 久久久久久久久久黄片| 久久久国产精品麻豆| 亚洲欧美一区二区三区黑人| www.www免费av| 一进一出抽搐动态| 尤物成人国产欧美一区二区三区| av专区在线播放| 国语自产精品视频在线第100页| 1000部很黄的大片| 一a级毛片在线观看| 免费高清视频大片| 成人午夜高清在线视频| 别揉我奶头~嗯~啊~动态视频| 免费看日本二区| 国内精品久久久久精免费| 99国产精品一区二区三区| 身体一侧抽搐| 美女大奶头视频| 十八禁网站免费在线| 男女之事视频高清在线观看| 一本一本综合久久| 成人鲁丝片一二三区免费| 中文在线观看免费www的网站| 中文资源天堂在线| 黄色成人免费大全| 国产av在哪里看| 亚洲av免费在线观看| 欧美性感艳星| 99精品久久久久人妻精品| 国产v大片淫在线免费观看| 中文字幕久久专区| 亚洲国产精品合色在线| 国产爱豆传媒在线观看| av欧美777| 亚洲av电影在线进入| 日韩欧美精品免费久久 | 毛片女人毛片| 狂野欧美激情性xxxx| 日日摸夜夜添夜夜添小说| 国产精品1区2区在线观看.| 在线观看av片永久免费下载| 草草在线视频免费看| 99在线人妻在线中文字幕| 欧美激情在线99| 美女 人体艺术 gogo| 最近最新中文字幕大全电影3| 熟妇人妻久久中文字幕3abv| 免费在线观看影片大全网站| 久久99热这里只有精品18| 噜噜噜噜噜久久久久久91| 国产精华一区二区三区| 欧美另类亚洲清纯唯美| 中文字幕av在线有码专区| 亚洲国产高清在线一区二区三| 美女大奶头视频| 亚洲无线在线观看| tocl精华| 精品久久久久久久人妻蜜臀av| 又黄又爽又免费观看的视频| 国产爱豆传媒在线观看| 国产蜜桃级精品一区二区三区| 乱人视频在线观看| 亚洲欧美日韩高清专用| 人妻久久中文字幕网| 午夜日韩欧美国产| 国产精品久久久久久久电影 | 久久久久性生活片| 两个人看的免费小视频| 特级一级黄色大片| 国产精品综合久久久久久久免费| 精品国产美女av久久久久小说| 51午夜福利影视在线观看| 别揉我奶头~嗯~啊~动态视频| 亚洲第一电影网av| 欧美日韩瑟瑟在线播放| av天堂在线播放| 麻豆国产97在线/欧美| 国产成人影院久久av| 91麻豆av在线| 9191精品国产免费久久| 动漫黄色视频在线观看| 国产蜜桃级精品一区二区三区| 欧美在线一区亚洲| 免费在线观看亚洲国产| 国产欧美日韩精品一区二区| 亚洲一区二区三区色噜噜| 亚洲美女视频黄频| 性色av乱码一区二区三区2| 国产成人av教育| 日本一本二区三区精品| 在线观看免费视频日本深夜| 中文字幕人成人乱码亚洲影| 极品教师在线免费播放| 免费在线观看亚洲国产| 怎么达到女性高潮| 白带黄色成豆腐渣| 丁香欧美五月| 18禁美女被吸乳视频| 少妇人妻精品综合一区二区 | 亚洲精品在线美女| 久久99热这里只有精品18| 亚洲av第一区精品v没综合| e午夜精品久久久久久久| 午夜日韩欧美国产| 欧美一区二区精品小视频在线| 99热只有精品国产| 国产探花极品一区二区| 国产野战对白在线观看| or卡值多少钱| 国产精品美女特级片免费视频播放器| 人妻丰满熟妇av一区二区三区| 久久香蕉精品热| 久久精品国产亚洲av香蕉五月| 岛国在线免费视频观看| 欧美极品一区二区三区四区| 在线十欧美十亚洲十日本专区| 亚洲乱码一区二区免费版| 国产精品日韩av在线免费观看| 国产精品嫩草影院av在线观看 | 在线天堂最新版资源| 一区福利在线观看| 国产伦人伦偷精品视频| 夜夜夜夜夜久久久久| 在线国产一区二区在线| 在线观看av片永久免费下载| 亚洲国产欧美人成| 亚洲欧美日韩高清专用| 免费在线观看日本一区| 精品国产亚洲在线| 亚洲av美国av| 别揉我奶头~嗯~啊~动态视频| 亚洲在线观看片| 亚洲 国产 在线| 成年女人永久免费观看视频| 一本一本综合久久| xxx96com| 国产高清视频在线播放一区| 天堂动漫精品| 久久久国产成人免费| 欧美最黄视频在线播放免费| 国内精品美女久久久久久| 亚洲无线在线观看| 免费在线观看亚洲国产| 亚洲成av人片在线播放无| 国产av在哪里看| 亚洲性夜色夜夜综合| 99热6这里只有精品| 久久精品国产综合久久久| av天堂在线播放| 香蕉丝袜av| 久久久国产成人精品二区| 久久精品国产亚洲av涩爱 | 特大巨黑吊av在线直播| 国产精品乱码一区二三区的特点| 午夜福利欧美成人| 99久久无色码亚洲精品果冻| 久久伊人香网站| 欧美日韩综合久久久久久 | 色播亚洲综合网| 日本在线视频免费播放| 三级男女做爰猛烈吃奶摸视频| 宅男免费午夜| 成年人黄色毛片网站| 国内精品久久久久精免费| 国产高清视频在线播放一区| 亚洲熟妇中文字幕五十中出| 午夜精品久久久久久毛片777| 啦啦啦观看免费观看视频高清| av在线蜜桃| 亚洲av电影在线进入| 中出人妻视频一区二区| 免费无遮挡裸体视频| 久久久久久久久大av| 午夜福利视频1000在线观看| 看免费av毛片| 此物有八面人人有两片| 国内毛片毛片毛片毛片毛片| 国产单亲对白刺激| 又黄又爽又免费观看的视频| 午夜免费观看网址| 亚洲最大成人手机在线| 精品国内亚洲2022精品成人| 国产精品综合久久久久久久免费| 欧美性猛交黑人性爽| 亚洲欧美激情综合另类| 又黄又粗又硬又大视频| 亚洲成人精品中文字幕电影| 欧美激情在线99| 日韩欧美在线二视频| 亚洲 欧美 日韩 在线 免费| 亚洲熟妇熟女久久| 在线免费观看不下载黄p国产 | 制服丝袜大香蕉在线| 国产成人啪精品午夜网站| 欧美区成人在线视频| 深夜精品福利| 操出白浆在线播放| 韩国av一区二区三区四区| 欧美av亚洲av综合av国产av| av视频在线观看入口| 久久久久久久亚洲中文字幕 | 亚洲成人免费电影在线观看| 欧美黑人欧美精品刺激| 一级毛片高清免费大全| 90打野战视频偷拍视频| 特大巨黑吊av在线直播| 国产精品98久久久久久宅男小说| 88av欧美| 51国产日韩欧美| 亚洲一区二区三区不卡视频| 五月伊人婷婷丁香| 啪啪无遮挡十八禁网站| 高清在线国产一区| 亚洲人成网站在线播放欧美日韩| 国产一区二区亚洲精品在线观看| 成人鲁丝片一二三区免费| 亚洲色图av天堂| 宅男免费午夜| 女警被强在线播放| 又黄又粗又硬又大视频| 一进一出好大好爽视频| 操出白浆在线播放| 国产伦一二天堂av在线观看| 婷婷六月久久综合丁香| 禁无遮挡网站| 在线国产一区二区在线| 搡老岳熟女国产| 给我免费播放毛片高清在线观看| 中文字幕av在线有码专区| 国产成人系列免费观看| 日韩高清综合在线| 国产色婷婷99| 亚洲精品一区av在线观看| 久久久久久久精品吃奶| 欧美一级a爱片免费观看看| 免费看a级黄色片| av视频在线观看入口| 最近最新中文字幕大全电影3| 人妻夜夜爽99麻豆av| 乱人视频在线观看| 国产精品永久免费网站| 日韩欧美 国产精品| 国产精品日韩av在线免费观看| 狂野欧美激情性xxxx| 全区人妻精品视频| 欧美性猛交黑人性爽| 中出人妻视频一区二区| 999久久久精品免费观看国产| 香蕉丝袜av| xxx96com| 亚洲自拍偷在线| 午夜老司机福利剧场| 成人欧美大片| 在线视频色国产色| 成年人黄色毛片网站| 亚洲成av人片在线播放无| 国产精品av视频在线免费观看| 99精品久久久久人妻精品| 日本熟妇午夜| 色噜噜av男人的天堂激情| 禁无遮挡网站| 国产免费男女视频| 免费电影在线观看免费观看| 51国产日韩欧美| 国产乱人伦免费视频| 国产三级黄色录像| 亚洲国产中文字幕在线视频| av在线蜜桃| 嫩草影院入口| 少妇的逼水好多| 黄色女人牲交| 国产精品美女特级片免费视频播放器| 成年版毛片免费区| 欧美黑人欧美精品刺激| 狂野欧美激情性xxxx| 国产一区二区三区视频了| 亚洲av一区综合| 高清在线国产一区| 国产三级在线视频| 18禁裸乳无遮挡免费网站照片| 国产亚洲精品av在线| 丰满人妻一区二区三区视频av | 亚洲第一电影网av| 国产三级中文精品| 亚洲精华国产精华精| 日日摸夜夜添夜夜添小说| 中文字幕人成人乱码亚洲影| 一本一本综合久久| 婷婷亚洲欧美| 久久久久久国产a免费观看| 人妻久久中文字幕网| 日韩免费av在线播放| 久久精品91无色码中文字幕| 亚洲国产欧美网| 欧美黄色片欧美黄色片| 国产v大片淫在线免费观看| 亚洲一区二区三区色噜噜| 丝袜美腿在线中文| 人人妻人人看人人澡| 热99在线观看视频| 99热6这里只有精品| 久久香蕉精品热| 日韩欧美免费精品| 国产aⅴ精品一区二区三区波| 婷婷精品国产亚洲av| 88av欧美| 人妻夜夜爽99麻豆av| 亚洲无线在线观看| xxx96com| 亚洲精品成人久久久久久| 一级作爱视频免费观看| 欧美不卡视频在线免费观看| 国内毛片毛片毛片毛片毛片| 国内精品久久久久精免费| 日本 av在线| 夜夜夜夜夜久久久久| 色哟哟哟哟哟哟| 日本 欧美在线| 好看av亚洲va欧美ⅴa在| 国产高清视频在线观看网站| 国产精品久久电影中文字幕| 久久欧美精品欧美久久欧美| 最后的刺客免费高清国语| 无限看片的www在线观看| 亚洲国产欧美人成| www.熟女人妻精品国产| 一级a爱片免费观看的视频| 午夜福利在线观看免费完整高清在 | 一级作爱视频免费观看| 变态另类成人亚洲欧美熟女| 男女之事视频高清在线观看| 日日摸夜夜添夜夜添小说| 宅男免费午夜| 亚洲男人的天堂狠狠| 免费看a级黄色片| 别揉我奶头~嗯~啊~动态视频| 国产精品99久久99久久久不卡| 俄罗斯特黄特色一大片| 午夜精品一区二区三区免费看| 九九久久精品国产亚洲av麻豆| 美女高潮的动态| 人人妻,人人澡人人爽秒播| 99在线视频只有这里精品首页| 一个人看的www免费观看视频| 国产黄色小视频在线观看| 成人精品一区二区免费| 国产精品,欧美在线| 熟女少妇亚洲综合色aaa.| 婷婷精品国产亚洲av在线| 国产精品美女特级片免费视频播放器| 午夜两性在线视频| 亚洲国产精品成人综合色| 91九色精品人成在线观看| 少妇的逼好多水| 天堂网av新在线| 丰满人妻一区二区三区视频av | 免费看光身美女| 天天添夜夜摸| 国产精品野战在线观看| 亚洲18禁久久av| 国产精品 欧美亚洲| 午夜福利欧美成人| xxxwww97欧美| 中文字幕av成人在线电影| 麻豆成人午夜福利视频| 日本成人三级电影网站| 欧美在线一区亚洲| 亚洲va日本ⅴa欧美va伊人久久| 成年女人永久免费观看视频| 两个人看的免费小视频| 91麻豆精品激情在线观看国产| 久久精品国产99精品国产亚洲性色| 亚洲av成人不卡在线观看播放网| 亚洲欧美日韩高清专用| 小说图片视频综合网站| 久久天躁狠狠躁夜夜2o2o| 国语自产精品视频在线第100页| 搡老妇女老女人老熟妇| 波多野结衣巨乳人妻| 国产一区二区亚洲精品在线观看| 亚洲在线观看片| 丰满人妻一区二区三区视频av | 成人高潮视频无遮挡免费网站| 成人特级av手机在线观看| 天堂av国产一区二区熟女人妻| 19禁男女啪啪无遮挡网站| 高潮久久久久久久久久久不卡| 亚洲美女视频黄频| 日韩欧美在线二视频| 婷婷六月久久综合丁香| 日韩欧美在线二视频| 亚洲美女视频黄频| 亚洲欧美精品综合久久99| av国产免费在线观看| 99久久综合精品五月天人人| 日韩欧美精品v在线| 夜夜夜夜夜久久久久| 婷婷精品国产亚洲av在线| 在线看三级毛片| 人人妻,人人澡人人爽秒播| 一级黄片播放器| 精品人妻1区二区| 免费在线观看亚洲国产| 好男人电影高清在线观看| 国产美女午夜福利| 好男人电影高清在线观看| 一进一出抽搐动态| 中文字幕av成人在线电影| 在线观看免费午夜福利视频| 人妻夜夜爽99麻豆av| 在线观看日韩欧美| 中文字幕av成人在线电影| 国产麻豆成人av免费视频| 欧美+亚洲+日韩+国产| 国产美女午夜福利| 久久久久久九九精品二区国产| 国产精品嫩草影院av在线观看 | 欧美黑人欧美精品刺激| 欧美一级a爱片免费观看看| 一二三四社区在线视频社区8| 国产色婷婷99| 日本精品一区二区三区蜜桃| 日本一本二区三区精品| 国产高清视频在线观看网站| 国产探花在线观看一区二区| 国产黄a三级三级三级人| 亚洲av中文字字幕乱码综合| 欧美性猛交╳xxx乱大交人| 尤物成人国产欧美一区二区三区| 免费av毛片视频| 天堂影院成人在线观看| 久久久久久久久大av| 国产色爽女视频免费观看| 男女床上黄色一级片免费看| 高潮久久久久久久久久久不卡| 九色成人免费人妻av| 真人做人爱边吃奶动态| 欧美性猛交╳xxx乱大交人| 一个人看视频在线观看www免费 | 亚洲午夜理论影院| av在线天堂中文字幕| 欧美乱码精品一区二区三区| 欧美性感艳星| 日本熟妇午夜| 久久天躁狠狠躁夜夜2o2o|