• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多模態(tài)學(xué)習(xí)的深度玻爾茲曼機(jī)分析微博用戶的心理壓力

    2016-07-26 01:20:30杜文才

    楊 展,杜文才

    (海南大學(xué) 信息科學(xué)技術(shù)學(xué)院,海南 ???570228)

    ?

    基于多模態(tài)學(xué)習(xí)的深度玻爾茲曼機(jī)分析微博用戶的心理壓力

    楊展,杜文才

    (海南大學(xué) 信息科學(xué)技術(shù)學(xué)院,海南 ???570228)

    摘要:提出了利用基于多模態(tài)學(xué)習(xí)的深度玻爾茲曼機(jī)模型(DBM)對(duì)微博圖片和文本數(shù)據(jù)進(jìn)行處理和分析,在模型中可以實(shí)現(xiàn)文本和圖片的低層次特征向稀疏高層次抽象特征的轉(zhuǎn)變,最后用一個(gè)聯(lián)合層表示來自2種不同模態(tài)數(shù)據(jù)的融合特征.此外,該模型發(fā)現(xiàn)2種不同模態(tài)數(shù)據(jù)的輸入特征處在低層次時(shí)是高度非線性的.實(shí)驗(yàn)結(jié)果證明了本文所提出方法的有效性.

    關(guān)鍵詞:微博數(shù)據(jù); 多模態(tài)學(xué)習(xí); 玻爾茲曼機(jī); 心理壓力分析

    心理健康問題一直以來受到大眾的關(guān)注,過去對(duì)心理健康問題的研究主要通過心理學(xué)家和心理咨詢師的分析和評(píng)估.如今大數(shù)據(jù)時(shí)代,社交平臺(tái)數(shù)據(jù)呈爆炸式增長(zhǎng),2014年全球每個(gè)月活躍微博用戶數(shù)增長(zhǎng)0.74億,相對(duì)于2014年,2015年同比增長(zhǎng)1.76億.微博平臺(tái)是網(wǎng)絡(luò)虛擬平臺(tái),微博用戶可以通過文本和圖片信息表達(dá)其情感、體驗(yàn)、感受和意見,因此可以利用微博數(shù)據(jù)分析用戶的心理壓力.

    現(xiàn)階段針對(duì)社交平臺(tái)數(shù)據(jù)的分析方法包括文本分析和圖片分析.文本分析方法有:最大熵[1]、樸素貝葉斯、支持向量機(jī)(SVM, Support Vector Machine)和基于依存關(guān)系分析的極性分類等.白鴿[2]等利用SVM對(duì)漢語的句子級(jí)別和評(píng)論級(jí)別進(jìn)行分類;梁坤[3]等采用SVM對(duì)中文情感進(jìn)行分類研究,通過加入一些網(wǎng)絡(luò)評(píng)論判斷一篇評(píng)論為正面還是負(fù)面,采用具有語意傾向的詞并綜合其詞性作為特征項(xiàng),用TF-IDF值作為特征項(xiàng)權(quán)值,取得較好的結(jié)果;李超[4]等通過基于受限玻爾茲曼機(jī)(RBM)的分析模型對(duì)微博平臺(tái)上的短文本信息進(jìn)行建模,挖掘出潛在主題信息,并根據(jù)短文本潛在主題信息實(shí)現(xiàn)對(duì)短文本的分類以及找到用戶感興趣的信息;Dai[5]等提出用戶態(tài)度權(quán)重的概念,用情感權(quán)重計(jì)算器計(jì)算中國(guó)論壇用戶的情感指數(shù),了解公眾觀點(diǎn)以便做出相應(yīng)地決策;劉魯[6]等通過使用3種機(jī)器學(xué)習(xí)算法、3種特征選取算法和3種特征權(quán)重計(jì)算方法對(duì)微博評(píng)論進(jìn)行情感分類的實(shí)證研究,研究表明采用SVM和IG,TF-IDF作為權(quán)重的分類效果較優(yōu)秀;李培[7]等介紹一種利用句法依存關(guān)系對(duì)網(wǎng)絡(luò)評(píng)論的極性進(jìn)行自動(dòng)分類的方法,通過將評(píng)論中提出的依存關(guān)系和詞性構(gòu)成依存關(guān)系詞性對(duì),同時(shí)利用自定義的極性詞典進(jìn)行分類,其方法能有效地減少計(jì)算的復(fù)雜度和提高分類的精度,實(shí)驗(yàn)表明是一種可行且有效的對(duì)社交平臺(tái)文本數(shù)據(jù)極性分類的方法.圖片分析方法主要從圖片中識(shí)別人類情感的視覺特征,如,物體(球,生日賀卡,玩具等)、人物表情(哭,笑等)和其他特征比如色溫等分析預(yù)測(cè)人類情感[8-10].Borth[11]等在語義層面上提出一個(gè)新穎的視覺概念檢測(cè)庫(kù)SentiBank,用來檢測(cè)圖片中1 200個(gè)ANPs(Adjective Noun Pairs).

    目前社交平臺(tái)文本分析方法無論是智能算法還是傳統(tǒng)優(yōu)化算法都是通過純文本數(shù)據(jù)進(jìn)行分析,從而忽略了相關(guān)的圖片信息.圖片分析方法分析人類情感存在“視覺情感間隙”的問題[12],因?yàn)橥瑯拥奈矬w或人物表情在不同的環(huán)境中可能代表完全相反的意思,比如一張帶有“哭”的人類情感視覺特征的圖片,在不同的環(huán)境代表不同的“哭”:“高興的哭”或“悲傷的哭”,因此離開文本數(shù)據(jù)對(duì)圖片數(shù)據(jù)的視覺特征進(jìn)行分析也存在不足.以玻爾茲曼機(jī)為基礎(chǔ)的深度學(xué)習(xí)是機(jī)器學(xué)習(xí)中一個(gè)新的研究領(lǐng)域,能很好的解決自然語言理解等復(fù)雜問題.在深度學(xué)習(xí)基礎(chǔ)上多模態(tài)學(xué)習(xí)模型已經(jīng)廣泛用于各種復(fù)雜層次概率模型[13-18],并且多模態(tài)學(xué)習(xí)模型還有3個(gè)優(yōu)點(diǎn):處理自然語言,減少訓(xùn)練過擬合和避免誤差積累.針對(duì)上述研究缺陷,筆者建立一個(gè)能讓圖片和文本特征相互結(jié)合,減少“視覺情感間隙”的系統(tǒng)框架,采用多模態(tài)學(xué)習(xí)的深度玻爾茲曼機(jī)對(duì)含有多模態(tài)數(shù)據(jù)結(jié)構(gòu)的微博數(shù)據(jù)進(jìn)行分析.

    1原理與方法

    所涉及的微博數(shù)據(jù)包括2種數(shù)據(jù)模態(tài):文本數(shù)據(jù)和圖片數(shù)據(jù),2種數(shù)據(jù)模態(tài)有著不同的表現(xiàn)形式和結(jié)構(gòu),其中文本數(shù)據(jù)是稀疏和離散的,圖片數(shù)據(jù)是實(shí)值和密集的.通過Salakhutdinov[19]等研究表明,采用多模態(tài)學(xué)習(xí)的深度玻爾茲曼機(jī)模型可以發(fā)掘2種不同模態(tài)之間高度非線性關(guān)系,并且模型能提供一個(gè)從文本和圖片的子空間特征映射到概念級(jí)特征上的學(xué)習(xí)信號(hào),模型中各單元的連接都是無向的,因此模型在處理自然語言樣本時(shí)健壯性更強(qiáng).采用的多模態(tài)學(xué)習(xí)的深度玻爾茲曼機(jī)模型含有2個(gè)訓(xùn)練路徑,每個(gè)訓(xùn)練路徑中含有一個(gè)輸入層和2個(gè)隱藏層,隨著隱藏層深度增加,輸入層數(shù)據(jù)特征逐漸被放大,不相關(guān)的變量就能被更加準(zhǔn)確地識(shí)別和抑制,訓(xùn)練的數(shù)據(jù)越多,聯(lián)合層就越能真實(shí)和準(zhǔn)確的反映出數(shù)據(jù)的內(nèi)部信息、簡(jiǎn)化分析過程,系統(tǒng)本身就能獲得更多有用的特征向量[19].此外,針對(duì)不同的數(shù)據(jù)模態(tài),不同的路徑采用不同的模型進(jìn)行建模,文本處理路徑采用重復(fù)軟最大化模型RSM(Replicated Softmax Model)結(jié)構(gòu)[20],圖片處理路徑采用高斯伯努利受限玻爾茲曼機(jī)GRBM(Gaussian-Bernoulli Restricted Boltzmann Machines)結(jié)構(gòu)[21-22].RSM和GRBM都是基于常見的RBM[23].

    ERSM(v,h;θ),

    (1)

    其中,Wij表示連接可見單元和隱藏單元之間的權(quán)重,ai和bj分別是可見單元和隱藏單元的偏置,θ是RSM的參數(shù){W,a,b},i,j,l,分別表示可見層vi單元數(shù),隱藏層hj單元數(shù),隱藏層hl單元數(shù).根據(jù)式(1),模型能量函數(shù)的聯(lián)合分布定義為

    (2)

    通過式(2),條件分布為

    (3)

    (4)

    (5)

    其中,PData表示觀察數(shù)據(jù),PModel表示模型.

    (6)

    其中,Wij表示連接可見單元和隱藏單元之間的權(quán)重,ai和bj分別是可見單元和隱藏單元的偏置,θ是GRBM的參數(shù){W,a,b,σ}.根據(jù)式(6),v,h的聯(lián)合密度概率為

    (7)

    (8)

    (9)

    其中,i,j,l分別表示可見層vi單元數(shù),隱藏層hj單元數(shù),隱藏層hl單元數(shù),σ表示可見單元高斯分布的方差.GRBM的最終權(quán)重可以通過給定一組圖片樣本的實(shí)值向量{vn}N由式(10)獲得

    (10)

    其中,PData表示觀察數(shù)據(jù),PModel表示模型.

    式(5)和(10)采用最大似然學(xué)習(xí)法求模型的最終權(quán)重Wij是非常復(fù)雜的,因?yàn)镻Model的期望復(fù)雜度是呈指數(shù)級(jí),當(dāng)樣本非常大時(shí),計(jì)算的效率非常低.Hinton提出采用對(duì)比散度算法通過接近最小化KL散度目標(biāo)求數(shù)據(jù)的最大似然函數(shù)達(dá)到接近目標(biāo)解[24]

    (11)

    其中,?0表示可見數(shù)據(jù),?1表示模型經(jīng)過多次吉布斯采樣(Gibbs sample)后的分布.

    根據(jù)1.1,文本訓(xùn)練路徑中vt的概率函數(shù)為

    (12)

    根據(jù)1.2,圖片訓(xùn)練路徑中vm的概率函數(shù)為

    (13)

    在2個(gè)不同模型結(jié)構(gòu)訓(xùn)練路徑的頂端設(shè)置一個(gè)聯(lián)合層,聯(lián)合層的輸入是文本和圖片訓(xùn)練路徑上頂端隱藏層h(2t)和h(2m)的輸出.用h3代表聯(lián)合層,整個(gè)網(wǎng)絡(luò)用h={h(1m),h(2m),h(1t),h(1t),h3}定義,聯(lián)合層的密度分布由式(12)、(13)和h(2t),h(2m)得到

    (14)

    在含有不同模態(tài)數(shù)據(jù)輸入和多層隱藏層的模型中,直接訓(xùn)練網(wǎng)絡(luò)是非常困難的.那么訓(xùn)練過程將分為2步(如圖2b和c所示),第1步使用layer-wise進(jìn)行預(yù)訓(xùn)練,預(yù)訓(xùn)練能保證每個(gè)隱藏單元的期望輸入;第2步將已學(xué)習(xí)到的參數(shù)用于初始化深度玻爾茲曼機(jī)模型的每一層,用增強(qiáng)輸入q(h(3)|v)代理聯(lián)合層h(3),這一步保證當(dāng)預(yù)訓(xùn)練結(jié)束后模型能從相同的層進(jìn)行微調(diào)(fine-tune)[19,23].預(yù)訓(xùn)練是采用Hinton提出的CD-n(n次吉布斯采樣),大多數(shù)情況下CD-1訓(xùn)練的效果比較理想[24].

    對(duì)于聯(lián)合層特征的提取,通過式(14)得到聯(lián)合層的條件分布為

    (15)

    針對(duì)系統(tǒng)出現(xiàn)某一模態(tài)數(shù)據(jù)輸入缺失的情況,Salakhutdinov等提出采用mean-field更新法近似所提取特征的真實(shí)后驗(yàn)分布概率,同時(shí)也能生成和得到聯(lián)合層的特征[23].各層更新的條件分布可以通過式(16)~(21)得到

    (16)

    (17)

    (18)

    (19)

    (20)

    (21)

    2實(shí)驗(yàn)與結(jié)果

    2.1數(shù)據(jù)處理與實(shí)驗(yàn)設(shè)置實(shí)驗(yàn)所采用的數(shù)據(jù)來自新浪微博平臺(tái)從2014年8月到2014年10月的1 000條含有圖片和文本的微博數(shù)據(jù),其中包括600條(無心理壓力的)數(shù)據(jù)和400條(有心理壓力的)數(shù)據(jù).

    對(duì)于實(shí)驗(yàn)文本數(shù)據(jù)的預(yù)處理,首先將每條微博文本進(jìn)行分段,通過使用NLPIR/ICTCLAS進(jìn)行特征提取[25].此外,文本字典是從Hownet和NTUSD字典里選出256個(gè)頻率較高的詞匯.圖片數(shù)據(jù)預(yù)處理有許多方法,如,MPEG-7[26], PHOW[27], SSIM[28].在本文中,使用VLFeat 0.9.23對(duì)圖片特征進(jìn)行提取,圖片特征向量為3 509維度.

    模型的框架結(jié)構(gòu)及處理過程如圖3所示,其中采用RSM的文本數(shù)據(jù)訓(xùn)練路徑中包括一個(gè)神經(jīng)元為256個(gè)的輸入層和2個(gè)隱藏層,其中每個(gè)隱藏層神經(jīng)元為1 024個(gè);采用GRBM的圖片數(shù)據(jù)訓(xùn)練路徑中包括3 509個(gè)線性神經(jīng)元輸入層和2個(gè)隱藏層,每個(gè)隱藏層神經(jīng)元為1 024個(gè).聯(lián)合層神經(jīng)元設(shè)置為2 048個(gè).模型的訓(xùn)練算法見算法1(見附錄),預(yù)訓(xùn)練采用CD-1,為了避免運(yùn)行分離馬克爾夫鏈時(shí)每個(gè)詞匯計(jì)數(shù)獲得模型分布的充分統(tǒng)計(jì)量,將詞匯向量的和設(shè)置為1[19].

    圖3 多模態(tài)學(xué)習(xí)的深度玻爾茲曼機(jī)的框架和訓(xùn)練過程

    微博用戶心理壓力的分析是使用邏輯回歸分類器(LR-classifier)對(duì)聯(lián)合層輸出的特征向量進(jìn)行分類.

    2.2分類性能針對(duì)2種不同的訓(xùn)練方式對(duì)模型進(jìn)行分類性能測(cè)試.

    2.2.1多模態(tài)輸入在實(shí)驗(yàn)中,用N(0,0.12)隨機(jī)化模型初始參數(shù),并將實(shí)驗(yàn)數(shù)據(jù)分為5份,隨機(jī)選出4份作為訓(xùn)練數(shù)據(jù),剩下1份作為測(cè)試數(shù)據(jù),每次向模型中輸入一組數(shù)據(jù),訓(xùn)練完4份數(shù)據(jù)稱為一個(gè)訓(xùn)練周期.首先運(yùn)行mean-field更新和微調(diào)(fine-tune)前饋網(wǎng)絡(luò),運(yùn)行mean-field更新次數(shù)為5次[19].為了確定學(xué)習(xí)速率,將學(xué)習(xí)速率設(shè)置在0.001~0.1之間進(jìn)行測(cè)試.測(cè)試結(jié)果見表1.本模型對(duì)用戶心理壓力分析的準(zhǔn)確度最高可以達(dá)到88.16%,平均準(zhǔn)確度為86.09%.實(shí)驗(yàn)結(jié)果表明學(xué)習(xí)速率選擇在0.008~0.01是最優(yōu)的,雖然小于0.008會(huì)增加模型精確度,但訓(xùn)練時(shí)間過長(zhǎng),大于0.01則精確度會(huì)下降.訓(xùn)練的周期選擇6次,超過6次分類精準(zhǔn)度幾乎保持不變(如圖4所示).分別測(cè)試了從3層網(wǎng)絡(luò)結(jié)構(gòu)和2層網(wǎng)絡(luò)結(jié)構(gòu)的模型中提取出每一層的特征向量用邏輯回歸分類器分類的性能.圖5可得出聯(lián)合層能更好地發(fā)現(xiàn)并融合2種不同模態(tài)數(shù)據(jù)中有用的特征,從而達(dá)到最高分類性能;3層網(wǎng)絡(luò)結(jié)構(gòu)的模型分類性能高于2層網(wǎng)絡(luò)結(jié)構(gòu)的模型分類性能,原因是隱藏層越多則越能表示更加復(fù)雜的函數(shù),提高特征表現(xiàn)的能力.實(shí)驗(yàn)結(jié)果證明聯(lián)合層能非常有效地平衡并融合文本和圖片特征.

    表1 不同學(xué)習(xí)速率下模型的訓(xùn)練耗時(shí)和精確度

    2.2.2單模態(tài)輸入對(duì)于單模態(tài)輸入的性能評(píng)估,將模型針對(duì)僅輸入文本數(shù)據(jù)的條件下進(jìn)行測(cè)試.模型訓(xùn)練的步驟是首先將處理圖片數(shù)據(jù)的GRBM訓(xùn)練路徑初始化為零,這條路徑的特征通過mean-field進(jìn)行更新,采用標(biāo)準(zhǔn)吉布斯采樣[23].文本數(shù)據(jù)vt作為輸入,其他隱藏單元都隨機(jī)初始化,用吉布斯采樣通過模型中相鄰的層更新并生成圖片的代理樣本P(vm|vt).將相同的文本數(shù)據(jù)用Xiang[29]等提出的VSM進(jìn)行分析,VSM模型算法不僅采用一系列過濾器把文本中含有情感的詞匯全部過濾掉,還結(jié)合個(gè)人輸入習(xí)慣,而且VSM模型對(duì)于文本的特征提取非常全面,采用2種規(guī)則解決分詞中標(biāo)點(diǎn)符號(hào)和一些錯(cuò)誤詞匯的分割.表2中給出了單模態(tài)輸入和目前流行的VSM算法的分析結(jié)果.

    表2 多模態(tài)/單模態(tài)輸入及VSM處理的總體精度

    2.3 實(shí)驗(yàn)結(jié)果從表2中得出多模態(tài)學(xué)習(xí)的深度玻爾茲曼機(jī)處理多模態(tài)數(shù)據(jù)時(shí)性能最好,其次是VSM,多模態(tài)學(xué)習(xí)的深度玻爾茲曼機(jī)處理單模態(tài)數(shù)據(jù)時(shí)性能最差.表3給出了傳統(tǒng)微博文本分析模型和多模態(tài)學(xué)習(xí)的深度玻爾茲曼機(jī)模型處理微博多模態(tài)數(shù)據(jù)分類結(jié)果的部分例子,在第3個(gè)例子中用戶心理壓力狀態(tài)被傳統(tǒng)微博文本分析模型錯(cuò)誤分類了,但多模態(tài)學(xué)習(xí)的深度玻爾茲曼機(jī)結(jié)合用戶所發(fā)的圖片信息能正確識(shí)別用戶的心理壓力狀態(tài).但在第2和第4個(gè)例子中多模態(tài)學(xué)習(xí)的深度玻爾茲曼機(jī)將用戶的心理壓力狀態(tài)錯(cuò)誤分類了,其原因是用戶使用了譏諷的表達(dá)手法,模型中沒有加入人類邏輯思考,且附帶的是中性、無感情色彩的圖片.在表3中,-1代表有心理壓力;1代表無心理壓力;真實(shí)為用戶心理壓力的真實(shí)情況.

    表3 多模態(tài)學(xué)習(xí)的深度玻爾茲曼機(jī)模型和傳統(tǒng)微博文本分析模型對(duì)部分微博數(shù)據(jù)分類的結(jié)果

    3結(jié)束語

    提出了通過微博平臺(tái)多模態(tài)數(shù)據(jù)分析用戶的心理壓力,與現(xiàn)有分析模型不同的是,采用多模態(tài)學(xué)習(xí)的深度玻爾茲曼機(jī)模型將文本信息和圖片信息結(jié)合分析,并解決了跨模態(tài)數(shù)據(jù)特征向量融合的問題,實(shí)驗(yàn)結(jié)果得出了多模態(tài)學(xué)習(xí)的深度玻爾茲曼機(jī)處理純文本數(shù)據(jù)時(shí)性能低于VSM,但處理多模態(tài)數(shù)據(jù)時(shí)性能高于VSM.因此隨著社交平臺(tái)上傳感器和插件的增多,越來越多不同模態(tài)的數(shù)據(jù)出現(xiàn)在微博平臺(tái)上,合理結(jié)合不同模態(tài)的數(shù)據(jù)提高分類精確度是未來微博數(shù)據(jù)挖掘的一個(gè)熱點(diǎn),但仍有一些問題值得考慮:1)如何加入視頻模態(tài)的數(shù)據(jù)進(jìn)行分析;2)在實(shí)時(shí)的微博海量數(shù)據(jù)中怎樣智能地找出存在心理壓力的用戶.下一步的工作將針對(duì)以上2個(gè)問題進(jìn)行研究.

    參考文獻(xiàn):

    [1] Pang B, Lee L, Vaithyanathan S. Thumbs up Sentiment classification using machine learning techniques: proceedings of the Conference on Empirical Methods in Natural Language Processing, Philadelphia, July 6-7, 2002[C]. New York:[s.n.],2002.

    [2] 白鴿,左萬利,趙乾坤,等.使用機(jī)器學(xué)習(xí)對(duì)漢語評(píng)論進(jìn)行情感分類[J].吉林大學(xué)學(xué)報(bào)(理學(xué)版), 2009,47(6):1 260-1 263.

    [3] 梁坤,古麗拉·阿東別克.基于SVM的中文新聞評(píng)論的情感自動(dòng)分類研究[J].電腦知識(shí)與技術(shù),2009,5(13):3 496-3 498.

    [4] 李超,李昂,朱耿良.基于限制性玻爾茲曼機(jī)的微博主題分類[J].電信網(wǎng)技術(shù),2014(7):26-29.

    [5] Dai L, Ding L. Sentiment analysis in Chinese BBS: proceedings of the International Conference of Intelligence Computation and Evolutionary Computation ICEC 2012, Wuhan, July 7, 2012 [C]. Heidelberg: Springer-Verlag,2013.

    [6] 劉魯,劉志明.基于機(jī)器學(xué)習(xí)的中文微博情感分類實(shí)證研究[J].計(jì)算機(jī)工程與應(yīng)用,2012,48(1):1-4.

    [7] 李培,何中市,黃永文.基于依存關(guān)系分析的網(wǎng)絡(luò)評(píng)論極性分類研究[J].計(jì)算機(jī)工程與應(yīng)用,2010,46(11):138-141.

    [8] You Q, Luo J, Jin H, et al. Robust image sentiment analysis using progressively trained and domain transferred deep networks:proceedings of the Twenty Ninth AAAI Conference on Artificial Intelligence, Austin, January 25-30, 2015[C]. [S.l.]:[s.n.],2015.

    [9] Borth D, Ji R, Chen T, et al. Large-scale visual sentiment ontology and detectors using adjective noun pairs: proceedings of the 21st ACM international conference on Multimedia, Barcelona, October 21-25, 2013[C]. New York: [s.n.], 2013.

    [10] Yuan J, Mcdonough S, You Q, et al. Sentribute: image sentiment analysis from a mid-level perspective: proceeding of the Second International workshop on Issues of Sentiment Discovery and Opinion Mining, Chicago, August 11, 2013[C]. New York: [s.n.],2013.

    [11] Jia J, Wu S, Wang X, et al. Can we understand van gogh’s mood?: learning to infer affects from images in social networks:proceedings of the 20th ACM international conference on Multimedia, Nara, October 29-November 2, 2012[C]. New York: ACM press,2012.

    [12] Machajdik J, Hanbury A. Affective image classification using features inspired by psychology and art theory: proceedings of the 18th International Conference on Multimedea 2010, Firenze, October 25-29, 2010[C]. Piscataway: [s.n.],2010.

    [13] 劉建偉, 劉媛, 羅雄麟.玻爾茲曼機(jī)研究進(jìn)展[J].計(jì)算機(jī)研究與發(fā)展,2014,51(1):1-16.

    [14] 胡曉林,朱軍.深度學(xué)習(xí)—機(jī)器學(xué)習(xí)領(lǐng)域的新熱點(diǎn)[J].中國(guó)計(jì)算機(jī)學(xué)會(huì)通信,2013,9(7):64-69.

    [15] Ngiam J, Khosla A, Kim M, et al. Multimodal deep learning:proceedings of the 28th International Conference on Machine Learning, ICML 2011, Bellevue, June 28-July 2, 2011[C]. Massachusetts: [s.n.],2011.

    [16] Ouyang W, Chu X, Wang X. Multi-source deep learning for human pose estimation:proceedings of the Computer Vision and Pattern Recognition (CVPR) 2014, Columbus, June 24-27, 2014[C]. Piscataway:[s.n.],2014.

    [17] 邱立達(dá),劉天鍵,林南,等.基于深度學(xué)習(xí)模型的無線傳感器網(wǎng)絡(luò)數(shù)據(jù)融合算法[J].傳感技術(shù)學(xué)報(bào),2014(12):1 704-1 709.

    [18] Kiros R, Salakhutdinov R, Zemel R. Multimodal neural language models:proceedings of the 31st International Conference on Machin Leraning, Beijing, June 21-June 26, 2014[C]. [S.l.]:[s.n.],2014.

    [19] Srivastava N, Salakhutdinov R. Multimodal learning with deep boltzmann machines[J]. Journal of Machine Learning Research,2014,15(8):1 967-2 006.

    [20] Salakhutdinov R, Hinton G E. Replicated softmax: an undirected topic model: proceedings of the Neural Information Processing Systems 2009, Vancouver, December 7-10, 2009[C]. Massachusetts:[s.n.],2009.

    [21] Freund Y, Haussler D. Unsupervised learning of distributions on binary vectors using two layer networks:proceedings of the Advances in Neural Information Processing Systems 1992, Denver, November 30-December 3, 1992[C]. San Francisco: Morgan Kaufmann Publishers,1993.

    [22] Hinton G E, Salakhutdinov R R. Reducing the dimensionality of data with neural networks[J]. Science,2006,313(5786):504-507.

    [23] Salakhutdinov R, Hinton G E. Deep boltzmann machines[J]. Journal of Machine Learning Research,2009,5(2):1 967-2 006.

    [24] Hinton G. Training products of experts by minimizing contrastive divergence[J]. Neural Computation,2002,14(8):1 771-1 800.

    [25] Zhang H P, Yu H K, Xiong D Y, et al. HHMM-based Chinese lexical analyzer ICTCLAS:proceedings of the second SIGHAN workshop on Chinese language processing, Sapporo, July 11-12, 2003[C]. [S.l.]:Association for Computational Linguistics,2003.

    [26] Manjunath B S, Ohm J R, Vasudevan V V, et al. Color and texture descriptors[J]. Circuits & Systems for Video Technology IEEE Transactions on,2001,11(6):703-715.

    [27] Bosch A, Zisserman A, Munoz X. Image classification using random forests and ferns:proceedings of the IEEE International Conference on Computer Vision 2007, Rio de Janeiro, October 14-20, 2007[C]. Piscataway: IEEE Computer Society,2007.

    [28] Shechtman E, Irani M. Matching local self-similarities across images and videos:proceedings of the Conference on Computer Vision and Pattern Recognition 2007, Minneapolis, June 18, 2007[C]. Piscataway: [s.n.],2007.

    [29] Xiang Z Q, Zou Y X, Wang X. Sentiment analysis of Chinese micro-blog using vector space model:proceedings of the Asia-pacific Signal and Information Processing Association Annual Summit and Conference 2014, Siem Reap, December 9-12, 2014[C]. Piscataway: [s.n.],2014.

    附錄:

    算法1:整個(gè)模型的學(xué)習(xí)訓(xùn)練學(xué)習(xí)算法

    1. 輸入:一組N個(gè)集合的向量vn={vm,vt},其中n=1,…,N,用S表示馬爾科夫鏈,Λ為對(duì)角矩陣且Λ=1/σi,h={h(1m),h(2m),h(1t),h(1t),h3}, T為迭代次數(shù).

    3. For t=0 to T do

    4. // 變分推理

    5. For each vn,n=1toN do

    6. 運(yùn)行mean-field更新直至收斂[15].

    7. End for

    8. // 隨機(jī)近似

    9. For s=1 to S do

    10. 樣本:(vt+1,S,ht+1,S)→(vt,S,ht,S) 通過式(16)~(21)進(jìn)行一次吉布斯采樣.

    11. End for

    12. // 參數(shù)更新:

    13. // 圖片路徑參數(shù)更新

    16. // 文本路徑參數(shù)更新

    19. // 聯(lián)合層參數(shù)更新

    22. α↓

    23. End for

    收稿日期:2016-02-21

    基金項(xiàng)目:海南省應(yīng)用技術(shù)研發(fā)與示范推廣專項(xiàng)(ZDXM2015105)

    作者簡(jiǎn)介:楊展(1990—),男,湖南衡陽人,海南大學(xué)2013級(jí)研究生,研究方向:計(jì)算機(jī)應(yīng)用,E-mail:zhanyang1122@outlook.com 通信作者: 杜文才(1953—),男,江蘇徐州人,海南大學(xué)信息科學(xué)技術(shù)學(xué)院,澳門城市大學(xué)博士,教授,E-mail:wencai@hainu.edu.cn

    文章編號(hào):1004-1729(2016)02-0121-10

    中圖分類號(hào):TP 391

    文獻(xiàn)標(biāo)志碼:ADOl:10.15886/j.cnki.hdxbzkb.2016.0019

    Mental Stress State Analysis of Microblog User Based on Multimodal Learning with Deep Boltzmann Machine

    Yang Zhan, Du Wencai

    (College of Information Science and Technology, Hainan University, Haikou 570228, China)

    Abstract:In the study, Deep Boltzmann Machine (DBM) based on multimodal learning algorithm was used to analyze microblog image and textual data. The model can transform low-level features of images and texts to sparse high-level abstract concepts. A joint representation layer was employed to fuse common features derived from the two different input modalities. Additionally, the model can detect that the input characteristic of two different model data at low-level was non-linear relations. The experiment results suggested that the proposed method is effective.

    Keywords:microblog; multimodal learning; Boltzmann Machine; mental state analysis

    国产精品福利在线免费观看| 亚洲无线观看免费| 99riav亚洲国产免费| 国产av不卡久久| 国产三级在线视频| 成年版毛片免费区| 亚洲精品乱码久久久v下载方式| 国产精品久久视频播放| 国产精品国产三级国产av玫瑰| 九九在线视频观看精品| 最近最新中文字幕大全电影3| 久久午夜福利片| 麻豆国产97在线/欧美| 日日啪夜夜撸| 国内精品一区二区在线观看| 夜夜夜夜夜久久久久| 一夜夜www| 国产色婷婷99| 日本黄色片子视频| 欧美成人a在线观看| 九九久久精品国产亚洲av麻豆| 婷婷精品国产亚洲av| 日本三级黄在线观看| 老司机影院成人| 我要看日韩黄色一级片| av国产免费在线观看| 高清午夜精品一区二区三区 | 老司机午夜福利在线观看视频| 狠狠狠狠99中文字幕| 香蕉av资源在线| 我的老师免费观看完整版| 真人做人爱边吃奶动态| 精品日产1卡2卡| 日韩亚洲欧美综合| 国产av不卡久久| 大型黄色视频在线免费观看| 一个人看视频在线观看www免费| 国产在线精品亚洲第一网站| 一进一出抽搐动态| 91久久精品国产一区二区三区| 精品人妻视频免费看| 国产视频一区二区在线看| 国内精品久久久久精免费| 非洲黑人性xxxx精品又粗又长| 丝袜美腿在线中文| 亚洲熟妇中文字幕五十中出| 日日啪夜夜撸| 大香蕉久久网| 中文字幕久久专区| 性欧美人与动物交配| 欧美成人一区二区免费高清观看| 少妇的逼好多水| 欧美日韩精品成人综合77777| 身体一侧抽搐| 午夜日韩欧美国产| 久久精品国产亚洲av天美| 午夜老司机福利剧场| or卡值多少钱| 日本 av在线| 免费av不卡在线播放| 亚洲av中文字字幕乱码综合| 能在线免费观看的黄片| 久久久精品94久久精品| 午夜福利18| 欧美日韩一区二区视频在线观看视频在线 | 最后的刺客免费高清国语| 欧美精品国产亚洲| 成人三级黄色视频| 悠悠久久av| 亚洲国产精品合色在线| 成人欧美大片| 午夜爱爱视频在线播放| 两个人视频免费观看高清| 国产精品久久久久久精品电影| 亚洲激情五月婷婷啪啪| 免费观看在线日韩| 日韩国内少妇激情av| 精品国内亚洲2022精品成人| 亚洲欧美精品综合久久99| 99热全是精品| 春色校园在线视频观看| 亚洲av第一区精品v没综合| 国产精品,欧美在线| 人人妻人人澡欧美一区二区| 国产精品一区二区三区四区免费观看 | 精品久久久久久成人av| 18禁裸乳无遮挡免费网站照片| 国产精品,欧美在线| 少妇被粗大猛烈的视频| 中文亚洲av片在线观看爽| 可以在线观看毛片的网站| 欧美成人精品欧美一级黄| 一级毛片电影观看 | 日韩欧美三级三区| 欧美三级亚洲精品| 人人妻人人看人人澡| 欧美一区二区亚洲| 美女大奶头视频| 色哟哟哟哟哟哟| 黄色日韩在线| 国产精品亚洲美女久久久| 色尼玛亚洲综合影院| 简卡轻食公司| 91久久精品国产一区二区成人| 国产精品人妻久久久影院| 国产三级中文精品| 国产精品久久久久久久电影| 青春草视频在线免费观看| 99久久精品国产国产毛片| 久久久精品欧美日韩精品| 免费不卡的大黄色大毛片视频在线观看 | 成年女人永久免费观看视频| 男人舔奶头视频| 全区人妻精品视频| 国产成人freesex在线 | 深夜a级毛片| 亚洲中文字幕日韩| 黄色配什么色好看| 亚洲,欧美,日韩| 亚洲人成网站在线观看播放| 国产精品永久免费网站| 久久精品国产亚洲网站| 一级毛片我不卡| 久久久久久大精品| 九色成人免费人妻av| 高清日韩中文字幕在线| 日韩精品有码人妻一区| 日本黄大片高清| 成年免费大片在线观看| 美女内射精品一级片tv| 最近中文字幕高清免费大全6| 美女cb高潮喷水在线观看| 99热6这里只有精品| 国产中年淑女户外野战色| 亚洲av免费高清在线观看| 1024手机看黄色片| 美女 人体艺术 gogo| 非洲黑人性xxxx精品又粗又长| 日本黄色片子视频| 欧美国产日韩亚洲一区| a级毛色黄片| 69人妻影院| 国产乱人视频| 欧美区成人在线视频| 十八禁国产超污无遮挡网站| 中国国产av一级| 欧美高清性xxxxhd video| 偷拍熟女少妇极品色| 成人三级黄色视频| 美女免费视频网站| 黄片wwwwww| 精品久久久久久久久亚洲| 亚洲自拍偷在线| 色噜噜av男人的天堂激情| 午夜福利18| 一进一出抽搐gif免费好疼| 精品不卡国产一区二区三区| 九九在线视频观看精品| 婷婷精品国产亚洲av| 国语自产精品视频在线第100页| 国产成人一区二区在线| 欧美日韩国产亚洲二区| 熟妇人妻久久中文字幕3abv| 免费人成在线观看视频色| 日本三级黄在线观看| 日韩欧美国产在线观看| 老女人水多毛片| 久久久精品大字幕| 精品久久久久久久久久久久久| 亚洲精品456在线播放app| 亚洲久久久久久中文字幕| 亚洲国产精品久久男人天堂| 乱码一卡2卡4卡精品| 日韩欧美在线乱码| 亚洲av中文字字幕乱码综合| 午夜免费男女啪啪视频观看 | av在线观看视频网站免费| 99久久久亚洲精品蜜臀av| 亚洲乱码一区二区免费版| 亚洲国产精品合色在线| 成人亚洲欧美一区二区av| 中国美白少妇内射xxxbb| 日韩在线高清观看一区二区三区| 丝袜喷水一区| 亚洲成a人片在线一区二区| 精品久久久噜噜| 日韩高清综合在线| 国产精品久久久久久av不卡| a级毛片免费高清观看在线播放| or卡值多少钱| 99riav亚洲国产免费| 久久99热6这里只有精品| 亚洲在线自拍视频| 特级一级黄色大片| 永久网站在线| 久久亚洲精品不卡| 国产成人福利小说| av视频在线观看入口| 日韩欧美精品免费久久| 99热这里只有是精品在线观看| 成人综合一区亚洲| 成熟少妇高潮喷水视频| 又爽又黄a免费视频| 日日摸夜夜添夜夜添小说| 亚洲中文字幕一区二区三区有码在线看| 欧美+亚洲+日韩+国产| 国产真实伦视频高清在线观看| 亚洲国产精品合色在线| 国产精品1区2区在线观看.| 女同久久另类99精品国产91| 寂寞人妻少妇视频99o| 国产三级在线视频| 免费av毛片视频| a级毛片免费高清观看在线播放| 欧美在线一区亚洲| 日韩亚洲欧美综合| 国产精品永久免费网站| 欧美日本视频| 在线a可以看的网站| 国产 一区精品| 久久久久久国产a免费观看| 插阴视频在线观看视频| 亚洲欧美日韩高清专用| 秋霞在线观看毛片| 久久久国产成人精品二区| 久久久久久久久久久丰满| 日韩欧美在线乱码| 亚洲精品一卡2卡三卡4卡5卡| 亚洲国产高清在线一区二区三| 国产精品综合久久久久久久免费| 午夜福利在线在线| 看非洲黑人一级黄片| 97超视频在线观看视频| 欧美一区二区国产精品久久精品| 日日干狠狠操夜夜爽| 日本欧美国产在线视频| av在线老鸭窝| 在线播放无遮挡| 99视频精品全部免费 在线| 亚洲精品日韩在线中文字幕 | 亚洲成人av在线免费| 无遮挡黄片免费观看| 国产精品爽爽va在线观看网站| 最近手机中文字幕大全| 精品久久久久久成人av| 国产精品乱码一区二三区的特点| 成人毛片a级毛片在线播放| 日韩中字成人| 精品免费久久久久久久清纯| 99久久精品国产国产毛片| 秋霞在线观看毛片| 高清毛片免费看| 99久久精品一区二区三区| 亚洲人成网站在线播放欧美日韩| 成人三级黄色视频| 国产成人91sexporn| 久久久久久国产a免费观看| 亚洲七黄色美女视频| 在现免费观看毛片| 性欧美人与动物交配| 一本精品99久久精品77| 亚洲人成网站在线观看播放| 看十八女毛片水多多多| 男女啪啪激烈高潮av片| 少妇被粗大猛烈的视频| 色哟哟·www| 天天躁日日操中文字幕| 少妇人妻精品综合一区二区 | 97在线视频观看| 卡戴珊不雅视频在线播放| 熟女人妻精品中文字幕| 乱码一卡2卡4卡精品| 欧美潮喷喷水| 在线观看免费视频日本深夜| 久久热精品热| АⅤ资源中文在线天堂| 毛片女人毛片| 国产精品一区二区免费欧美| 日韩在线高清观看一区二区三区| av天堂中文字幕网| 成人三级黄色视频| 欧美性猛交黑人性爽| 亚洲欧美清纯卡通| 乱码一卡2卡4卡精品| 色综合色国产| 日韩一本色道免费dvd| 免费av毛片视频| 一区二区三区四区激情视频 | 久久午夜福利片| 免费在线观看成人毛片| 尾随美女入室| 亚洲精品一区av在线观看| 亚洲熟妇中文字幕五十中出| 日日干狠狠操夜夜爽| 成人美女网站在线观看视频| 国产综合懂色| 国产伦一二天堂av在线观看| 22中文网久久字幕| 国产一区二区亚洲精品在线观看| 国产成人aa在线观看| 亚洲丝袜综合中文字幕| 日产精品乱码卡一卡2卡三| 久久久久久国产a免费观看| 久久九九热精品免费| 午夜福利成人在线免费观看| 99精品在免费线老司机午夜| 免费av不卡在线播放| 国产真实伦视频高清在线观看| 变态另类丝袜制服| 亚洲精品久久国产高清桃花| 久久精品国产99精品国产亚洲性色| 中文字幕久久专区| 亚洲国产高清在线一区二区三| 国产 一区精品| 久久久久久大精品| 国产亚洲精品久久久com| 久久精品国产鲁丝片午夜精品| 亚洲专区国产一区二区| 国产精品一及| 男女之事视频高清在线观看| 18禁在线播放成人免费| 在现免费观看毛片| 亚洲在线自拍视频| 女同久久另类99精品国产91| 欧美一区二区精品小视频在线| 中国国产av一级| 性色avwww在线观看| 男人狂女人下面高潮的视频| 伊人久久精品亚洲午夜| 欧美bdsm另类| 成人无遮挡网站| 精品久久久久久久久久久久久| 成年版毛片免费区| 精品一区二区免费观看| 亚洲最大成人手机在线| 成人美女网站在线观看视频| 亚洲欧美精品自产自拍| 亚洲av免费在线观看| 午夜精品在线福利| 男女那种视频在线观看| 国内少妇人妻偷人精品xxx网站| 日韩强制内射视频| 99热6这里只有精品| 青春草视频在线免费观看| 亚洲国产高清在线一区二区三| 九九久久精品国产亚洲av麻豆| 一区二区三区四区激情视频 | 久久久久国内视频| 蜜桃久久精品国产亚洲av| 日本熟妇午夜| 国产真实伦视频高清在线观看| 嫩草影院精品99| 少妇人妻精品综合一区二区 | 最近手机中文字幕大全| 国产av一区在线观看免费| 一个人看的www免费观看视频| 久久精品国产自在天天线| 69人妻影院| 极品教师在线视频| 伊人久久精品亚洲午夜| 少妇人妻一区二区三区视频| 天美传媒精品一区二区| 久久久国产成人精品二区| 精品少妇黑人巨大在线播放 | 国产成人aa在线观看| 国产亚洲精品av在线| 最新中文字幕久久久久| 俄罗斯特黄特色一大片| 在线看三级毛片| 欧美高清成人免费视频www| 日本五十路高清| 两个人视频免费观看高清| 亚洲国产精品久久男人天堂| 免费无遮挡裸体视频| 男人舔女人下体高潮全视频| 亚洲aⅴ乱码一区二区在线播放| 亚洲美女搞黄在线观看 | 搡老岳熟女国产| 深爱激情五月婷婷| aaaaa片日本免费| 色5月婷婷丁香| 国产精品无大码| 精品免费久久久久久久清纯| 老司机午夜福利在线观看视频| 伊人久久精品亚洲午夜| 亚洲精品成人久久久久久| 69人妻影院| 一卡2卡三卡四卡精品乱码亚洲| 国产精品一区二区三区四区免费观看 | av免费在线看不卡| 午夜福利视频1000在线观看| 国产高清三级在线| 人妻夜夜爽99麻豆av| 亚洲国产欧美人成| 久久人人爽人人片av| 91狼人影院| 美女免费视频网站| 99久久无色码亚洲精品果冻| 国产精品永久免费网站| 亚洲人成网站在线播放欧美日韩| 在线免费观看的www视频| 日本欧美国产在线视频| 免费人成在线观看视频色| 自拍偷自拍亚洲精品老妇| 超碰av人人做人人爽久久| 欧美3d第一页| 国产精品1区2区在线观看.| 有码 亚洲区| 中文字幕免费在线视频6| 欧美日韩一区二区视频在线观看视频在线 | 日本黄色视频三级网站网址| 亚洲内射少妇av| 亚洲成a人片在线一区二区| 少妇高潮的动态图| 日本熟妇午夜| 无遮挡黄片免费观看| 99久久无色码亚洲精品果冻| 精品国内亚洲2022精品成人| 黄片wwwwww| 禁无遮挡网站| 欧美人与善性xxx| 久久久久久久久大av| 97超级碰碰碰精品色视频在线观看| 黄色一级大片看看| 高清日韩中文字幕在线| 精品无人区乱码1区二区| 伦理电影大哥的女人| 色综合站精品国产| 久久久久性生活片| 网址你懂的国产日韩在线| 亚洲熟妇中文字幕五十中出| 少妇人妻精品综合一区二区 | 在线观看午夜福利视频| 又黄又爽又刺激的免费视频.| 国产精品综合久久久久久久免费| 我要看日韩黄色一级片| 精品日产1卡2卡| 日本成人三级电影网站| 国产亚洲91精品色在线| 少妇猛男粗大的猛烈进出视频 | 国产成年人精品一区二区| 久久人人爽人人片av| 色综合色国产| 长腿黑丝高跟| 成年女人毛片免费观看观看9| 国内精品美女久久久久久| 日韩成人av中文字幕在线观看 | 日韩中字成人| 一个人观看的视频www高清免费观看| 黄色欧美视频在线观看| 国产精品久久久久久亚洲av鲁大| 日日干狠狠操夜夜爽| 国产高清三级在线| 深夜a级毛片| 国产精品美女特级片免费视频播放器| 日韩精品中文字幕看吧| 少妇的逼好多水| 精品久久久久久成人av| 人妻夜夜爽99麻豆av| 一级毛片久久久久久久久女| 一本精品99久久精品77| 亚洲婷婷狠狠爱综合网| 麻豆国产av国片精品| 国产精品99久久久久久久久| 精品一区二区免费观看| 三级毛片av免费| 少妇高潮的动态图| 哪里可以看免费的av片| 晚上一个人看的免费电影| 身体一侧抽搐| 亚洲高清免费不卡视频| 天天一区二区日本电影三级| 国产av不卡久久| 国产精品久久久久久久久免| 全区人妻精品视频| 亚洲av一区综合| 成人美女网站在线观看视频| 亚洲欧美日韩无卡精品| 99久国产av精品国产电影| 日韩国内少妇激情av| 亚洲18禁久久av| 久久久国产成人精品二区| 亚洲欧美精品自产自拍| 成人午夜高清在线视频| 亚洲丝袜综合中文字幕| avwww免费| 狂野欧美白嫩少妇大欣赏| 免费av不卡在线播放| 成人特级av手机在线观看| 欧洲精品卡2卡3卡4卡5卡区| 97碰自拍视频| 亚洲精品久久国产高清桃花| 日日摸夜夜添夜夜添av毛片| 免费电影在线观看免费观看| av黄色大香蕉| av免费在线看不卡| 桃色一区二区三区在线观看| 日韩精品青青久久久久久| 欧美日韩精品成人综合77777| aaaaa片日本免费| 99国产极品粉嫩在线观看| 午夜激情福利司机影院| 夜夜看夜夜爽夜夜摸| 日本爱情动作片www.在线观看 | 精品熟女少妇av免费看| 99国产精品一区二区蜜桃av| 亚洲人成网站在线观看播放| 国产私拍福利视频在线观看| 久久精品国产99精品国产亚洲性色| 免费在线观看影片大全网站| 亚洲欧美日韩高清专用| 免费在线观看影片大全网站| 国产成人aa在线观看| 日韩av不卡免费在线播放| 51国产日韩欧美| 又粗又爽又猛毛片免费看| aaaaa片日本免费| 此物有八面人人有两片| 非洲黑人性xxxx精品又粗又长| 午夜福利在线在线| aaaaa片日本免费| 国产午夜精品久久久久久一区二区三区 | 日本欧美国产在线视频| 99视频精品全部免费 在线| 成人无遮挡网站| 在线a可以看的网站| 国产成人影院久久av| 中文亚洲av片在线观看爽| 午夜老司机福利剧场| 亚洲av二区三区四区| 在线观看午夜福利视频| 国产白丝娇喘喷水9色精品| av视频在线观看入口| 人妻制服诱惑在线中文字幕| 嫩草影院新地址| 不卡视频在线观看欧美| 最近中文字幕高清免费大全6| 欧美人与善性xxx| or卡值多少钱| 成人精品一区二区免费| 天堂√8在线中文| 乱码一卡2卡4卡精品| 久久久久久久久大av| 日本一本二区三区精品| 亚洲18禁久久av| 国产激情偷乱视频一区二区| 久久久久久大精品| 国产欧美日韩精品一区二区| 免费高清视频大片| 日韩大尺度精品在线看网址| 国产精品一区二区三区四区久久| 国产成人a区在线观看| 国产精品av视频在线免费观看| 性欧美人与动物交配| 2021天堂中文幕一二区在线观| 麻豆av噜噜一区二区三区| 国产男靠女视频免费网站| 国产淫片久久久久久久久| 国产高清视频在线播放一区| 男人和女人高潮做爰伦理| 中文亚洲av片在线观看爽| 高清毛片免费观看视频网站| 日本-黄色视频高清免费观看| 日本一二三区视频观看| 国产午夜福利久久久久久| 久久国内精品自在自线图片| 精品一区二区三区视频在线观看免费| 一本久久中文字幕| 亚洲电影在线观看av| 午夜爱爱视频在线播放| 亚洲激情五月婷婷啪啪| 狂野欧美白嫩少妇大欣赏| 日本-黄色视频高清免费观看| 97热精品久久久久久| 欧美最新免费一区二区三区| 99国产精品一区二区蜜桃av| 欧美不卡视频在线免费观看| 毛片一级片免费看久久久久| 免费av不卡在线播放| 亚洲婷婷狠狠爱综合网| 免费无遮挡裸体视频| 亚洲aⅴ乱码一区二区在线播放| 搞女人的毛片| 我要搜黄色片| 欧美人与善性xxx| 一夜夜www| 欧美不卡视频在线免费观看| 性插视频无遮挡在线免费观看| 三级经典国产精品| 亚洲精品久久国产高清桃花| av.在线天堂| 麻豆国产av国片精品| 成人毛片a级毛片在线播放| 麻豆成人午夜福利视频| 国产爱豆传媒在线观看| 麻豆国产av国片精品| 人人妻人人澡人人爽人人夜夜 | 久久久久国产网址| 国产一区二区三区在线臀色熟女| 人人妻人人看人人澡| 亚洲国产欧洲综合997久久,| 人妻久久中文字幕网| 日本与韩国留学比较| 免费看日本二区| 日韩精品有码人妻一区| 尤物成人国产欧美一区二区三区| 我的女老师完整版在线观看| 精品久久久久久久久久免费视频| 国产一区亚洲一区在线观看| 日韩一区二区视频免费看| 国产精品精品国产色婷婷| 搞女人的毛片| 91久久精品国产一区二区成人| 精品福利观看| 久久久久国内视频|