• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于圖文融合的情感分析研究綜述

    2021-03-07 05:15:58孟祥瑞楊文忠
    計算機應(yīng)用 2021年2期
    關(guān)鍵詞:圖文模態(tài)特征

    孟祥瑞,楊文忠*,王 婷

    (1.新疆大學(xué)信息科學(xué)與工程學(xué)院,烏魯木齊 830046;2.新疆大學(xué)軟件學(xué)院,烏魯木齊 830046)

    (*通信作者電子郵箱ywz_xy@163.com)

    0 引言

    社交媒體的飛速發(fā)展導(dǎo)致用戶信息逐漸增加,用戶所發(fā)表的內(nèi)容也逐漸呈現(xiàn)多元化的趨勢,數(shù)據(jù)已經(jīng)不再是單一的文本形式,而是轉(zhuǎn)化為圖片與短文本這種多模態(tài)形式,例如:Twitter中的圖文博客、貼吧中的圖文信息、淘寶評論中的圖文信息等。這些圖文結(jié)合的多模態(tài)數(shù)據(jù)為情感分析方面的研究提供了新角度,挖掘用戶所發(fā)圖文的情感成為新的研究重點。同時,由于圖文情感分析研究時間較短、數(shù)據(jù)集較少等問題,也使得圖文情感分析存在一定的困難與挑戰(zhàn)。

    在早期的情感研究中,主要研究的是較為單一的文本或者圖像,采用的方法主要是傳統(tǒng)的機器學(xué)習(xí)分類算法[1],例如:K近鄰算法、支持向量機、最大熵分類器和貝葉斯分類器等。然而近年來,深度學(xué)習(xí)體現(xiàn)出較為優(yōu)異的學(xué)習(xí)表現(xiàn),越來越多的研究人員開始傾向使用深度神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)文本或者圖像的特征表示,用于情感分類[2-5];但是具有單一模態(tài)信息量不足,并且容易受到其他因素干擾的問題,例如:圖片含義或文字語義模糊等情況。鑒于社交平臺中圖片與文本存在一定的互補性,圖片與文本融合的研究逐漸成為當(dāng)前的研究熱點。蔡國永等[6]采用了基于卷積神經(jīng)網(wǎng)絡(luò)的情感分析方法,分別進行文本、圖片、圖文融合的情感分析,比較圖文單獨模態(tài)與圖文多模態(tài)的實驗效果,實驗證明圖像特征與文本特征具有聯(lián)系,文本與圖像也具有一定的互補作用。

    圖文融合的情感分析是多模態(tài)情感分析的子領(lǐng)域,針對多模態(tài)情感分析,最早研究可以追溯至2011 年。陽鋒等[7]提出了一種觀點挖掘原型系統(tǒng)(MicroblogItem Crawling and Analyzing,MICA),這是一個面向微博數(shù)據(jù)流的觀點挖掘原型系統(tǒng),利用微博數(shù)據(jù)爬取模塊對數(shù)據(jù)(文本、圖片、共享視頻等)進行下載,構(gòu)建新的情感詞典,其中圖片特征提取主要采用尺度不變特征轉(zhuǎn)換(Scale-Invariant Feature Transform,SIFT)算法。Morency 等[8]首次提出三模態(tài)情感分析任務(wù),自動提取文本、視頻、語音的特征,集成特征后得出任務(wù)結(jié)果。

    要對圖文融合的內(nèi)容進行情感分析,首要的任務(wù)就是提取文本特征與圖像特征,然后依據(jù)圖文融合策略及方法,判斷情感類型,而情感類型一般會分為積極、中性和消極三類。目前,在情感計算領(lǐng)域中的圖文融合情感分析研究主要是集中于圖文信息融合與圖文相關(guān)性的融合[9]。常見的融合策略可以劃分為三種:特征層融合策略、決策層融合策略和一致性回歸融合策略。

    情感主要包括圖片、文本、語音、視頻、面部表情等多種模態(tài),鑒于當(dāng)前主流社交平臺主要集中于文本與圖片的發(fā)布,所以本文重點介紹這兩者的特征提取方法與融合方法,并從以下四個方面進行綜述:圖文分析數(shù)據(jù)庫、圖文情感特征提取技術(shù)、圖文特征融合方式以及總結(jié)與展望。

    1 圖文情感分析數(shù)據(jù)庫

    在國內(nèi)外基于圖文的多模態(tài)情感數(shù)據(jù)集一般是來源于網(wǎng)絡(luò)爬蟲或者人為制作,對于科研方面仍是半公開或者不公開,導(dǎo)致研究人員使用的數(shù)據(jù)庫一般為自己爬取建立的,創(chuàng)建過程耗費時間。本章主要介紹當(dāng)前應(yīng)用的幾個基于圖文的情感分析數(shù)據(jù)庫。

    1.1 Flickr數(shù)據(jù)集

    文獻[10]中公開了帶有標(biāo)注的Flickr 圖像ID,標(biāo)注為積極、消極、中性三種詞性,F(xiàn)lickr 提供了應(yīng)用程序接口(Application Programming Interface,API),通過ID 可以獲得相應(yīng)的元數(shù)據(jù),例如:圖像的描述、上傳日期、標(biāo)簽等。同時,文獻[10]中還提出了Instagram 數(shù)據(jù)集,使用SentiWordNET 中的每一個情感詞作為查詢關(guān)鍵字,可以抓取一組圖像,圖像總數(shù)為12 萬張,該數(shù)據(jù)集更多地包含了用戶的日常生活圖像,其中最常用的詞為:“l(fā)ove”“l(fā)ike”“l(fā)ife”“day”等。文獻[11]使用公開的ID 在Flickr 網(wǎng)站中可以爬取6 萬余張圖像及其對應(yīng)的描述、上傳日期、標(biāo)簽等。

    1.2 VCGⅠ及VCGⅡ數(shù)據(jù)集

    VCGⅠ及VCGⅡ數(shù)據(jù)集[12]主要是利用不同的情感關(guān)鍵詞在中國視覺網(wǎng)站上建造的數(shù)據(jù)集。VCGⅠ數(shù)據(jù)集是利用視覺情感本體庫(Visual Sentiment Ontology,VSO)中的形容詞-名詞對(Adjective Noun Pairs,ANP)作為情感的關(guān)鍵詞爬取數(shù)據(jù),其中,ANP 的數(shù)量為3 244,爬取了38 363 條圖像-文本對。VCGⅡ數(shù)據(jù)集是從3 244 個ANP 中隨機選擇300 個ANP 作為情感關(guān)鍵詞爬取數(shù)據(jù),爬取了37 158條圖像-文本對。

    1.3 MVSO數(shù)據(jù)集

    文獻[13]主要收集當(dāng)前流行的社交多媒體平臺Yahoo 數(shù)據(jù),構(gòu)成多語言視覺情感本體(Multilingual Visual Sentiment Ontology,MVSO),類似于VSO 數(shù)據(jù)集,收集2014 年11 月至2015 年2 月的公共數(shù)據(jù)。主要選擇12 種語言,分別為:阿拉伯語、漢語、荷蘭語、英語、法語、德語、意大利語、波斯語、波蘭語、俄語、西班牙語和土耳其語。MVSO 主要由15 600 個概念構(gòu)成,這些概念同圖像中表達的情感息息相關(guān)。這些概念主要是以ANP 的形式進行定義,利用MVSO 所提供的情感分?jǐn)?shù)大于1 的ANP 作為關(guān)鍵詞,社交網(wǎng)站中爬取了75 516 條圖像及其所對應(yīng)的標(biāo)題、描述與標(biāo)簽,其中英文數(shù)據(jù)集稱為MVSOEN數(shù)據(jù)集。

    1.4 MVSA數(shù)據(jù)集

    文獻[14]引入了多視圖情感分析數(shù)據(jù)集(Multi-View Sentiment Analysis,MVSA),采用了一個公共的流媒體Twitter API(Twitter4J),為了收集具有代表性的推文,研究人員使用了406 個情感詞匯對這些推文進行了過濾。MVSA 數(shù)據(jù)集主要包括一組從Twitter中收集的帶有手動注釋的圖像-文本對,可以作為單視圖情感分析與多視圖情感分析的有效基準(zhǔn)。MVSA 數(shù)據(jù)集中有兩種獨立的Twitter 數(shù)據(jù):一種為MVSASingle,包含5 129 條Twitter 圖像-文本數(shù)據(jù)對,每條數(shù)據(jù)對都有對應(yīng)的情感標(biāo)注,標(biāo)注主要分為積極、消極、中立三類;另一種為MVSA-Multi,包含19 600 條圖像-文本數(shù)據(jù)對,每條數(shù)據(jù)有3 個互相獨立的情感標(biāo)注,來自三名不同的標(biāo)注者。在文獻[15]中,采用投票方式綜合MVSA-Multi 中每條Twitter 的三條標(biāo)注,每條得出一個總標(biāo)注。

    1.5 Yelp數(shù)據(jù)集

    文獻[16]使用來自Yelp.com 中關(guān)于食品和餐館的在線評論數(shù)據(jù)集,主要涵蓋美國的5 個主要城市,包括:波士頓(Boston,BO)、芝加哥(Chicago,CH)、洛杉磯(Los Angeles,LA)、紐約(New York,NY)和舊金山(San Francisco,SF)。統(tǒng)計數(shù)據(jù)如表1 所示,其中:洛杉磯評論數(shù)是最多的,有最多的文件和圖像;波士頓評論數(shù)是最少的。然而,就句子數(shù)量(#s)和單詞數(shù)量(#w)而言,這5 個城市的文檔長度非常相似。該數(shù)據(jù)集總共有超過4.4萬條評論,其中包括24.4萬張圖片,每條數(shù)據(jù)至少有3幅圖像。

    1.6 Multi-ZOL數(shù)據(jù)集

    Multi-ZOL 數(shù)據(jù)集[17]收集整理了IT 信息和商業(yè)門戶網(wǎng)站ZOL.com 上的關(guān)于手機的評論。原始數(shù)據(jù)有12 587 條評論(7 359 條單模態(tài)評論,5 288 條多模態(tài)評論),覆蓋114 個品牌和1 318 種手機。其中的5 288 多模態(tài)評論構(gòu)成了Multi-ZOL數(shù)據(jù)集。在這個數(shù)據(jù)集中,每條多模態(tài)數(shù)據(jù)包含1 個文本內(nèi)容、1個圖像集,以及至少1個但不超過6個評價方面。這6個方面分別是性價比、性能配置、電池壽命、外觀與感覺、拍攝效果、屏幕。總共得到28 469 個方面,對于每個方面,都有一個從1 到10 的情感得分。Twitter-15 和Twitter-17 是包含文本和文本對應(yīng)圖片的多模態(tài)數(shù)據(jù)集,數(shù)據(jù)集標(biāo)注了目標(biāo)實體及對其圖文中表達的情感傾向。整個的數(shù)據(jù)規(guī)模是Twitter-15 有5 338條帶圖片推文,Twitter-17有5 972條帶圖片推文,情感標(biāo)注為三分類。

    1.7 基于文本與表情的Twitter數(shù)據(jù)集

    文獻[18]中使用標(biāo)記數(shù)據(jù)主要來自Prettenhofer 和Stein創(chuàng)建的Amazon review 數(shù)據(jù)集。該數(shù)據(jù)集具有代表性,包含四種語言:英語、日語、法語、德語。對于每種語言和領(lǐng)域,該數(shù)據(jù)集包含1 000 條正面評論與1 000 條負面評論。同時,提取帶有表情符號的推文[19],用來學(xué)習(xí)基于表情符號的句子表示。對于每種語言,提取包含該語言中使用的前64 個表情符號的推文,為每個獨特的表情符號創(chuàng)建單獨的標(biāo)簽,使得表情符號預(yù)測成為一個單標(biāo)簽的分類任務(wù)。

    1.8 Task-4數(shù)據(jù)集

    文獻[20]中創(chuàng)建了Task-4 數(shù)據(jù)集,收集時間為2015 年10月至12 月的推文。主要使用公共流媒體Twitter API 來下載推特數(shù)據(jù),然后手動篩選產(chǎn)生的數(shù)據(jù),以獲得一組200 個有意義的主題,每個主題至少包含100 條數(shù)據(jù)。數(shù)據(jù)處理過程主要是排除了一些難以理解、含糊不清的話題(比如巴塞羅那,它既是一個城市的名字,也是一個運動隊的名字),或者過于籠統(tǒng)的話題(比如巴黎,它是一個大城市的名字);然后,丟棄那些僅僅提及某個主題但實際上與該主題無關(guān)的數(shù)據(jù)。Task-4 數(shù)據(jù)集主要包括四個部分:TRAIN(用于培訓(xùn)模型)、DEV(用于調(diào)優(yōu)模型)、DEVTEST(用于開發(fā)時間評估)和TEST(用于官方評估)。前三個數(shù)據(jù)集使用Amazon 的Mechanical Turk進行注釋,而測試數(shù)據(jù)集則在CrowdFlower上進行注釋。

    2 文本及圖片的情感分析

    2.1 文本情感分析

    傳統(tǒng)的提取情感特征的方法是應(yīng)用情感詞典,基于情感知識構(gòu)建情感詞典,對文本的情感極性進行判斷,其中,大部分情感詞典是人為構(gòu)建的。Whissell[21]要求148名人員用5個附加單詞對相應(yīng)術(shù)語進行描述,如:數(shù)學(xué)、電視等,然后同情感詞典中的情感詞進行匹配。Whissell[22]對原本構(gòu)建的情感詞典進行更新,加入第三等級維度(圖像),增加了情感詞典的適用范圍。李壽山等[23]利用英文情感詞典,借助翻譯系統(tǒng)構(gòu)建了中文情感詞典。王志濤[24]等提出了基于詞典及規(guī)則集的微博情感分析方法,使用40 余萬條的微博數(shù)據(jù)構(gòu)建情感詞典,對于基礎(chǔ)情感詞典資源進行擴展,將表情符號添加為語義信息,為情感分析提供幫助。Cai等[25]提出了一個三層的情感詞典,可以將情感詞同其對應(yīng)的實體聯(lián)系在一起,減少情感詞的多重含義,主要使用一個疊加混合模型支持向量機(Support Vector Machine,SVM)與梯度提升樹(Gradient Boosting Decision Tree,GBDT)相結(jié)合,克服二者自身的缺點,通過實驗發(fā)現(xiàn),混合模型的效果優(yōu)于單模型效果。栗雨晴等[26]使用微博及現(xiàn)有的知識庫構(gòu)建了雙語情感詞典,提高分類器的性能,主要提出了基于半監(jiān)督高斯混合模型以及K近鄰算法的情感分類;實驗結(jié)果表明,提出的分類方法準(zhǔn)確率高于傳統(tǒng)的分類方法。Xu等[27]構(gòu)建了一個擴展的情感詞典,該詞典主要包含基本情感詞、領(lǐng)域情感詞及多義情感詞,提高了情感分析的準(zhǔn)確性;使用樸素貝葉斯(Na?ve Bayesian,NB)分類器確定一詞多義的位置,得出對應(yīng)的情感值;利用擴展的情感詞典與情感評分規(guī)則,實現(xiàn)文本的情感分類。

    基于機器學(xué)習(xí)的文本情感分析[28]主要是人工提取文本特征,然后由計算機按照特定的算法進行文本處理與情感分類。這種方法具有兩個方面的優(yōu)勢:第一,能夠減少研究人員的工作負擔(dān)、減少非理性的判斷;第二,能夠根據(jù)數(shù)據(jù)庫的變化對詞庫不斷進行更新。楊爽等[29]提出了一種基于SVM 多特征融合的情感五級分類方法,從詞性特征、情感特征、句式特征、語義特征四個方面,提取動詞、名詞、情感詞、否定詞等14 個特征,實現(xiàn)非常正面、正面、中立、負面、非常負面五級的分類。Pang等[30]以電影評論為數(shù)據(jù),使用三種機器學(xué)習(xí)方法(NB、最大熵分類、SVM)對其進行情感分類,采用一元模型進行特征的構(gòu)建,進行篇章級的情感分類判定,實驗結(jié)果表示SVM 和NB具有較好的情感分類效果。Kamal等[31]提出了一個基于特征的意見挖掘與情感分析系統(tǒng),豐富了自然語言處理的特征集,并將這些特征進行有效組合,生成了一個詞級的情感分析系統(tǒng),實現(xiàn)了對不同電子產(chǎn)品中用戶評價的情感極性的劃分。Rong 等[32]基于文本文檔的高維特性,采用自編碼器進行降維與特征提取,提出了一種基于自編碼器的bagging 預(yù)測體系結(jié)構(gòu),在數(shù)據(jù)集實驗中具有性能的提升。Dai等[33]通過增加權(quán)重突出情感特征,使用bagging來構(gòu)造不同特征空間上的分類器,將分類器組合成為一個聚合分類器,提高了情感分類的性能。

    基于深度學(xué)習(xí)的文本情感分析主要是通過構(gòu)建網(wǎng)絡(luò)模擬人腦神經(jīng)系統(tǒng),對文本進行特征提取、自動化學(xué)習(xí)與模型優(yōu)化,最后進行情感分析,能提升文本情感分析的準(zhǔn)確性。神經(jīng)網(wǎng)絡(luò)的模型主要使用詞嵌入技術(shù),例如:使用Word2Vec 將人類語言轉(zhuǎn)化成機器語言[34]。Tang 等[35]提出學(xué)習(xí)情感特定詞嵌入模型解決詞表示只模擬句法環(huán)境而忽略文本感情的問題,開發(fā)了三種神經(jīng)網(wǎng)絡(luò),有效地將文本的情感極性納入到損失函數(shù)中。為了獲得大規(guī)模的訓(xùn)練語料庫,從大量正向情感和負向情感中收集遠距離監(jiān)督的推文,從推文中學(xué)習(xí)情感特定詞嵌入模型。將情感特定詞嵌入(Sentiment-Specific Word Embedding,SSWE)應(yīng)用到Twitter 情感分析數(shù)據(jù)集中,實驗結(jié)果表明,在性能最好的系統(tǒng)中,SSWE 功能與手工特征的功能具有可比性;將SSWE 同現(xiàn)有的特征集進行連接,能夠進一步提升性能。Kim[36]提出了一系列使用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)在預(yù)先訓(xùn)練的詞向量上訓(xùn)練句子級分類任務(wù)的方法,使用簡單CNN、靜態(tài)CNN、非靜態(tài)CNN 和多通道CNN 在數(shù)據(jù)集上進行實驗,其中使用靜態(tài)CNN、非靜態(tài)CNN 和多通道CNN 在部分?jǐn)?shù)據(jù)集上能夠取得很好的實驗結(jié)果。Shin等[37]提出了幾種有效地將詞嵌入和注意力機制整合到CNN 中進行情感分析的方法,這些方法可以提高傳統(tǒng)CNN 模型的準(zhǔn)確率、穩(wěn)定性和效率,是具有健壯性的集成學(xué)習(xí)方法。Li 等[38]為了實現(xiàn)文本情感的多分類,提出了一種基于長短時記憶(Long Short-Term Memory,LSTM)的循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)語言模型,該模型能有效地獲取完整的序列信息,能夠更好地分析長句的情感;實驗結(jié)果表明,該方法相較傳統(tǒng)的RNN 具有更高的準(zhǔn)確率和召回率。羅帆等[39]提出一種結(jié)合RNN 和CNN 的層次化網(wǎng)絡(luò)(Hierarchical RNN-CNN,H-RNN-CNN)模型,將文本的句子作為中間層,改善了文本過長帶來的信息丟失問題。周泳東等[40]為解決在文本情感分析的任務(wù)中傳統(tǒng)CNN 沒有考慮句子結(jié)構(gòu)和過度依賴所輸入的詞向量的問題,提出了一種基于特征融合的分段CNN(Piecewise Features-CNN,PF-CNN)模型。同傳統(tǒng)的文本CNN 相比,PF-CNN 模型在情感分析任務(wù)上的準(zhǔn)確率、召回率和F1 值等指標(biāo)都有顯著提升。Graves等[41]提出雙向長短期記憶(Bi-Long Short-Term Memory,Bi-LSTM)網(wǎng)絡(luò)以及一個改進的LSTM學(xué)習(xí)算法的全梯度版本,主要發(fā)現(xiàn)雙向網(wǎng)絡(luò)優(yōu)于單向網(wǎng)絡(luò),且LSTM 網(wǎng)絡(luò)比標(biāo)準(zhǔn)RNN 和有時間窗的多層感知機(Multi-Layer Perceptron,MLP)網(wǎng)絡(luò)更快、更準(zhǔn)確,實驗表明Bi-LSTM 網(wǎng)絡(luò)是一種有效利用上下文信息的體系結(jié)構(gòu)。Hyun 等[42]提出了針對目標(biāo)層次情感分析(Target-Level Sentiment Analysis,TLSA)任務(wù)相關(guān)的一種依賴于目標(biāo)的容量神經(jīng)網(wǎng)絡(luò)(Target-dependent Convolutional Neural Network,TCNN)。TCNN 主要是利用目標(biāo)詞與鄰近詞之間的距離信息來了解每個詞對目標(biāo)詞的重要性,能在單目標(biāo)數(shù)據(jù)集和多目標(biāo)數(shù)據(jù)集上都獲得較好的性能。

    2.2 圖片情感分析

    在圖片情感分析中,一般是基于圖片整體的視覺特征,從底層視覺特征到高級語義的映射,大致可以分為三種:基于傳統(tǒng)分析方法、基于圖片中層語義的表達以及基于深度學(xué)習(xí)技術(shù)。

    早期圖片情感分析主要關(guān)注圖片的底層客觀視覺特征,使用機器學(xué)習(xí)技術(shù)對圖片情感進行分類,其中,底層特征主要包括:顏色特征、紋理特征以及形狀輪廓特征。Machajdik等[43]提出了一些方法提取和組合代表圖像情感內(nèi)容的底層特征,并將其用于圖像的情感分類,這些方法主要利用心理學(xué)和藝術(shù)理論中的理論和經(jīng)驗概念來提取具有情感表達的藝術(shù)作品領(lǐng)域特有的圖像特征,將Tamura 紋理特征、基于小波變換的紋理特征以及灰度共生矩陣應(yīng)用到了情感分類中,實驗結(jié)果表明在國際情感圖片系統(tǒng)(International Affective Picture System,IAPS)上,與現(xiàn)有的藝術(shù)作品相比,分類結(jié)果得到了改善。Jia 等[44]對顏色的基本屬性進行衡量,例如:飽和度、色調(diào)、顏色、明亮度等,利用圖像的基礎(chǔ)特征,使用半監(jiān)督學(xué)習(xí)框架自動預(yù)測藝術(shù)作品的情感。Yanulevskaya 等[45]將顏色空間量化為343種不同的顏色,將每個顏色通道均勻地劃分為7個不同的級別,進而將色彩模型描述映射到可視單詞,表達藝術(shù)化作品的情感;同時,也使用SIFT 描述符捕獲圖像中的輪廓、紋理及邊緣,并使用K-means 聚類創(chuàng)建可視化詞匯表。李娉婷等[46]提出了一種基于顏色特征的家居設(shè)計圖情感分類方法,通過人們對于顏色的理解與感知,建立設(shè)計圖顏色特征同語義的關(guān)系模型,基于徑向基函數(shù)(Radial Basis Function,RBF)網(wǎng)絡(luò)分類器對家居設(shè)計圖進行情感分類。王上飛等[47]抽取圖像的顏色與形狀作為圖像的感性特征,采用RBF 神經(jīng)網(wǎng)絡(luò),由特征空間映射到情感空間,在情感空間內(nèi)實現(xiàn)圖像的感性檢索。Yanulevskaya 等[48]利用傳統(tǒng)的場景描述符Wiccest、Gabor特征,使用具有RBF的SVM 的框架用于情感類別的監(jiān)督學(xué)習(xí)。Lu 等[49]研究了自然圖像的形狀特征對人類情感的影響,例如:線條的圓度、棱角、簡單性、復(fù)雜性等特征都被認(rèn)為是影響人類情感反應(yīng)的重要因素。該方法能夠?qū)σ曈X形狀與情感間的相關(guān)性進行系統(tǒng)分析,強烈或簡單的圓或角可以預(yù)測圖像的情感極性。

    由于圖片底層特征與高層情感語義之間具有較大的距離,所以很多研究人員開始逐漸嘗試構(gòu)建中層語義來表達圖片情感[50]。Borth 等[12]提出將形容詞-名詞對(Adjective Noun Pairs,ANP)作為情感中層語義。同時,文獻[12]中也提出了一種新的視覺概念檢測器庫SentiBank,利用彩色直方圖、局部二值模式(Local Binary Pattern,LBP)描述符、場景特征描述符等特征來進行視覺情感分類,可用于檢測圖像中存在的1 200 個ANP;實驗表明,該方法在檢測的精度與準(zhǔn)確度方面均有較大的提升。Zhao 等[51]使用特征描述符、方向梯度直方圖并結(jié)合手工特征,將多個圖合并在一個正則化框架中,學(xué)習(xí)每個圖的最優(yōu)權(quán)值,使不同特征互補,進而更好地應(yīng)用在情感圖像檢索中。Chen 等[52]提出了基于對象的視覺建模,從圖片中提取情感相關(guān)信息;該方法使用ANP 的方式進行圖像標(biāo)記,將抽象的情感表達具體化。

    隨著深度學(xué)習(xí)技術(shù)的發(fā)展與進步,在圖片分類、圖片識別[53]以及圖片檢索[54]等方面均有了重大進展。2006 年,Hinton 教授[55]提出了深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN),使用多個隱層神經(jīng)網(wǎng)絡(luò)訓(xùn)練原始數(shù)據(jù),將數(shù)據(jù)中不易理解的高維數(shù)據(jù)轉(zhuǎn)化為容易理解的低維數(shù)據(jù),對于數(shù)據(jù)特征能夠更好地理解,進而應(yīng)用在數(shù)字識別分類任務(wù)中。Keyvanrad 等[56]在DBN的基礎(chǔ)上對受限玻爾茲曼機(Restricted Boltzmann Machine,RBM)的采樣方法進行改進,利用數(shù)據(jù)集創(chuàng)建了一個強大的生成模型,能獲取數(shù)據(jù)中的精英樣本,更準(zhǔn)確地計算訓(xùn)練數(shù)據(jù)的對數(shù)概率梯度,減小分類的錯誤率。Zhou 等[57]基于DBN 提出了判別深度信念網(wǎng)絡(luò)(Discriminative Deep Belief Network,DDBN),該方法通過貪婪逐層無監(jiān)督學(xué)習(xí),利用標(biāo)記數(shù)據(jù)和大量的未標(biāo)記數(shù)據(jù),初步確定了深層體系結(jié)構(gòu)的參數(shù)空間,然后通過基于梯度下降的監(jiān)督學(xué)習(xí),利用指數(shù)損失函數(shù)對整個深度網(wǎng)絡(luò)進行微調(diào),以最大限度地提高標(biāo)記數(shù)據(jù)的可分離性。實驗結(jié)果表明,尤其在困難的分類任務(wù)中,DDBN 的性能較好。Krizhevsky 等[58]使用CNN 處理圖像數(shù)據(jù),也取得了較好實驗效果。CNN 通過反向傳播(Back Propagation,BP)算法,能夠自動從大量的強標(biāo)記數(shù)據(jù)中學(xué)習(xí)到同任務(wù)有關(guān)的特征,比手工標(biāo)記特征更具有魯棒性。Chen 等[59]提出了一種基于CNN 的視覺情感概念分類法,從網(wǎng)絡(luò)照片標(biāo)簽中發(fā)現(xiàn)ANP,再對圖像情感進行有效統(tǒng)計,并使用基于深度學(xué)習(xí)框架Caffe 訓(xùn)練的深度卷積神經(jīng)網(wǎng)絡(luò)模型,實驗結(jié)果表示該方法在標(biāo)注精度和檢索性能上都有顯著提高。You 等[60]提出了一種逐步訓(xùn)練及域轉(zhuǎn)移的深度神經(jīng)網(wǎng)絡(luò),稱為脈沖耦合神經(jīng)網(wǎng)絡(luò)(Pulse Coupled Neural Network,PCNN),使用兩層卷積層與四個全連接層,實驗結(jié)果也驗證了PCNN 模型的有效性。Mittal 等[61]介紹了在圖像情感分析中的DNN、CNN、基于區(qū)域的CNN(Regional CNN,R-CNN)和Fast R-CNN,并研究了它們的適應(yīng)性與局限性。曹建芳等[62]以自然圖像為例,提出了一種基于Adaboost-BP的圖像情感分析方法,通過幾何模型(OpenCasCade,OCC)對圖片的情感進行描述,使用Adaboost算法,結(jié)合BP 神經(jīng)網(wǎng)絡(luò)的弱分類器,構(gòu)成了一個強分類器,也取得了良好的實驗效果。蔡國永等[63]提出一種圖像整體與局部區(qū)域嵌入的圖像情感分析方法,利用對象探測模型對包含對象的區(qū)域進行定位,通過深度神經(jīng)網(wǎng)絡(luò)對定位區(qū)域的情感特征進行表示,最后使用整體特征與局部特征對情感分類器進行訓(xùn)練,并預(yù)測圖像的情感極性;實驗結(jié)果表明,基于圖像整體與局部區(qū)域嵌入的情感分析方法優(yōu)于基于圖像整體或局部區(qū)域嵌入的情感分析方法。

    3 圖文特征融合

    在社交媒體中,文本與圖像共同出現(xiàn)的情況和數(shù)據(jù)逐漸增加,文本與圖像的組合成為情感分析又一重要數(shù)據(jù)源。但是,當(dāng)前關(guān)于社交媒體情感分析主要是基于圖片或者文本,尤其文本情感分析,研究人員較多,這就導(dǎo)致圖片與文本的融合分析必要性逐漸增強。在基于圖文的情感分析領(lǐng)域,圖片與文本需要進行融合,融合方式主要分為特征層融合、決策層融合和一致性回歸融合三種,如圖1所示。

    3.1 特征層融合

    特征層融合主要是指對多源傳感器不同的信息(文本、表情、圖像等)進行特征提取,得到i個特征,分別表示為特征v1,v2,…,vi,然后對多個傳感器的信息特征直接連接或者加權(quán)連接,對特征進行結(jié)合。特征層融合屬于圖文特征融合的中間層,對信息進行有效壓縮,為最后的情感特征分類做準(zhǔn)備。

    在特征層融合中,首先,Wang 等[64]提出了一種新的跨媒體詞袋模型(Cross-media Bag-of-words Model,CBM),使用一個統(tǒng)一的詞包對將微博的文本與圖像進行表示,使用邏輯回歸對微博情感進行分析。實驗結(jié)果顯示,基于圖文方法的準(zhǔn)確率相較于基于文本方法的準(zhǔn)確率提高了4 個百分點。Zhang等[65]使用Bi-gram方法采集文本特征,使用互信息、信息增益等方法進行選擇特征,圖像特征選擇主要是基于圖像的顏色與紋理特征。基于文本和圖像特征的融合,提出了一種新的基于相似度的鄰域分類器,對文本-圖像的情感進行二分類。同樣為二分類,Cai 等[66]提出了一種基于CNN 的多媒體情感分析方法,使用兩個獨立的CNN 分別學(xué)習(xí)文本特征與圖像特征,將學(xué)習(xí)到的特征作為Multi-CNN 架構(gòu)的輸入,挖掘文本與圖像之間的內(nèi)在聯(lián)系。Niu 等[67]將不同類型的數(shù)據(jù)轉(zhuǎn)換成特征向量,采用詞袋模型(Bag-of-Words,BOW)訓(xùn)練文本特征,采用SIFT 訓(xùn)練圖像特征,采用深度玻爾茲曼機(Deep Boltzmann Machine,DBM)訓(xùn)練融合特征,最后使用SVM 將文本、圖像、融合的特征進行融合與學(xué)習(xí),進而進行情感分析。然后,基于BOW、連續(xù)詞袋模型(Continuous-Bag-Of-Words,CBOW),Baecchi 等[68]對CBOW 模型加以擴展,提出了一種新的連續(xù)詞袋學(xué)習(xí)表示模型CBOW-LR(CBOW-Learning Representation),不僅可以學(xué)習(xí)向量表示,還可以學(xué)習(xí)情感極性分類器。與CBOW 模型相比,CBOW-LR模型具有更高的極性分類精度與準(zhǔn)確性,在處理句法和語義的相似性時有很好的表現(xiàn)。CBOW-LR 模型是具有魯棒視覺特征的非監(jiān)督學(xué)習(xí)(具有神經(jīng)網(wǎng)絡(luò)),視覺特征可從部分觀察中恢復(fù),這些觀察可能是由于遮擋或噪聲或大量修改圖像造成的。同時,CBOWLR 模型已經(jīng)擴展到使用去噪的自動編碼器來處理視覺信息。連續(xù)詞袋去噪自動編碼器學(xué)習(xí)表示模型(CBOW-Denoising Autoencoder-Learning Representation,CBOW-DA-LR)以無監(jiān)督和半監(jiān)督的方式工作,學(xué)習(xí)文本和圖像表示,以及包含圖像的Tweet 情緒極性分類器,具有很好的實驗效果。Ortis 等[69]提取和使用一個客觀的文字描述圖像自動提取的視覺內(nèi)容,該方法基于視覺特征和文本特征的貢獻,定義了多模態(tài)嵌入空間;然后,在得到的嵌入空間的表象上訓(xùn)練一個監(jiān)督SVM來推斷情緒極性,所提出的客觀文本的開發(fā)有助于超越主觀的情緒極性估計。

    金志剛等[70]提出了一種基于CNN 的多維特征微博情感分析模型,使用詞向量計算文本的語義特征,集合表情符號所具有的情感特征,利用CNN 挖掘文本特征與情感特征的深層關(guān)聯(lián),訓(xùn)練相應(yīng)的情感分類器,提升了情感分類器的性能。該模型使用了BP算法進行訓(xùn)練,采用隨機梯度下降算法計算梯度,使用批標(biāo)準(zhǔn)化(Batch Normalization,BN)算法進行正則化處理與歸一化處理。劉星[15]提出了一種融合局部語義信息的多模態(tài)輿情分析模型,能解決忽略圖像局部的高維語義信息等問題。圖像特征方面首先使用CNN 進行卷積,采用多示例學(xué)習(xí)(Multiple Instance Learning,MIL)方法以及目標(biāo)檢測方法(Single Shot MultiBox Detector,SSD)對圖像的全局特征與語義特征進行提取,最后將特征輸入到Bi-LSTM 以及注意力模型中對圖像特征進行提取,文本特征提取方面主要使用CNN與最大池化操作;模型融合過程主要是將圖像特征與文本特征進行拼接,輸入到全連接層進行決策,最后使用Softmax 得出情感結(jié)果??娫G嗟龋?1]提出了一種圖文融合的情感分析方法,該方法主要通過訓(xùn)練詞向量模型將文本表示為包含豐富語義信息的詞向量,并將其輸入到Bi-LSTM 中,訓(xùn)練文本情感分類模型(Word-embedding Bidirectional LSTM,WBLSTM),該方法對大規(guī)模數(shù)據(jù)集上預(yù)訓(xùn)練CNN 模型的參數(shù)進行遷移,使用全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Neural Network,F(xiàn)CNN)得到訓(xùn)練圖片情感分類;最后,根據(jù)late fusion 對兩個模型進行融合,進行圖文情感分析。

    Xu等[72]提出一種新的共記憶網(wǎng)絡(luò)(Co-Memory Network),在情感分析中,模擬視覺信息與文本信息的相互影響,捕捉圖像內(nèi)容與文本詞語之間的相互作用,通過迭代的方式提供文本信息尋找圖像關(guān)鍵詞,通過圖像信息來定位文本詞語。其中,在圖片特征與文本特征提取的過程中,加入了注意力權(quán)重,得出文本表示向量與圖像表示向量,最后使用softmax 得出情感極性。Truong等[16]提出了利用視覺信息進行情感分析的方法——視覺方面注意網(wǎng)絡(luò)(Visual aspect attention Network,VistaNet)。該方法具有三層架構(gòu),分別是從單詞到句子,再到特定圖像的文檔表示,最后進行綜合文檔表示,得出情感分析的結(jié)果。Nemati[73]等提出了一種混合多通道數(shù)據(jù)融合方法,采用線性映射,研究結(jié)果顯示,使用邊際Fisher 分析(Marginal Fisher Analysis,MFA)進行特征級視聽融合的效果優(yōu)于交叉模態(tài)因素分析(Cross-modal Factor Analysis,CFA)和典型相關(guān)分析(Canonical Correlation Analysis,CCA)。

    Zhang 等[74]為了獲取圖像和字幕之間的語義聯(lián)系,提出了一種同時考慮圖像和文字的交叉模態(tài)圖像情感極性分類方法。該方法將文本內(nèi)容之間的相關(guān)性轉(zhuǎn)換為圖像:首先,將圖像及其對應(yīng)的標(biāo)題發(fā)送到一個映射模型中,將其轉(zhuǎn)換為空間中的向量,通過計算最大平均偏差(Maximum Mean Discrepancy,MMD)得到其標(biāo)簽;然后,使用基于類感知注意的門控循環(huán)單元(Gated Recurrent Unit,GRU)將分布的表示分配給標(biāo)簽;最后,使用LSTM 對情緒極性進行分類。在Getty Images 數(shù)據(jù)集和Twitter 1 269 數(shù)據(jù)集上進行的實驗證明了此模型優(yōu)于基線解決方案。

    綜上所述,特征層融合中,使用CNN 及注意力機制對于圖片的分析會較為精準(zhǔn),能夠?qū)D片與文本的信息進行綜合考慮;但是,在圖片與文本所具有的特征差異問題上,實驗效果不夠好。這種方法優(yōu)點是在初期就可以進行融合,后期只需要進行學(xué)習(xí)與分類即可;缺點則是圖文兩種模態(tài)來自不同的語義空間,在時間維度上和語義維度上具有差異,不能直接合并,難度較大。表2 列舉了特征層融合不同模型策略的實驗結(jié)果。

    表2 特征層融合方法的實驗結(jié)果Tab.2 Experimental results of feature layer fusion methods

    3.2 決策層融合

    決策層融合主要是提取文本與圖像的情感特征vi(i∈N)和vg(g∈N),將每個情感特征分別輸入到各自的情感分類器中進行情感分類,得到文本情感分析結(jié)果si和圖片情感分析結(jié)果sg,最后選擇合適的融合規(guī)則進行決策與融合。

    2013 年,Borth 等[12]引入了APN 的概念,引入概念檢測庫,提供中級的可視化表示。這種基于感知庫的情感預(yù)測方法在檢測精度方面有顯著的提升。該研究也為研究者提供一個大型的公共資源,包括一個視覺情感本體以及一個大型檢測庫。2016 年,Yu 等[75]將訓(xùn)練好的詞向量在CNN 上進行文本情感分析,使用DNN 和廣義的Dropout 進行圖像情感分析,最后將預(yù)測的概率進行加權(quán)平均取得情感二分類與三分類的結(jié)果。蔡國永等[6]提出了一種基于CNN的圖文融合媒體的情感分析方法,該方法融合了三個不同文本特征(詞語級、短語級、句子級)與圖像特征所構(gòu)建的CNN 模型,將不同的分類結(jié)果相加求和,采用多數(shù)投票規(guī)則得出輸出結(jié)果,并分析不同表征能力所帶來不同的效果,最后實驗結(jié)果顯示,融合三種分類結(jié)果的集成分類器分類效果最好。

    基于相關(guān)數(shù)據(jù)集,Saini 等[76]設(shè)計一個情感識別系統(tǒng),采用雙峰方法,將用戶的情緒分為高興、悲傷與中性,系統(tǒng)可以用來銷售用戶所喜歡的產(chǎn)品,推薦合適的服務(wù),甚至檢測心理健康問題。鄧佩等[77]針對傳統(tǒng)微博情感分析方法對圖片、特殊符號以及上下文信息的忽略而導(dǎo)致的問題,提出了一種基于轉(zhuǎn)移變量的圖文融合微博情感分析方法。首先,構(gòu)建基于轉(zhuǎn)移變量的無監(jiān)督情感分析模型(Unsupervised Sentiment Analysis Model based on Transition Variable,USAMTV),主要使用分層貝葉斯模型,由微博、情感、主題、詞組組成;然后,在該模型中融入了表情符號,引入了主題與上下文信息,能獲取文本的情感分布,考慮圖片情感濃度對于文本情感分布所產(chǎn)生的影響;最后,對微博整體情感進行計算。

    基于多模態(tài)注意模型,Huang 等[78]提出一種新的圖像-文本情感分析模型,稱為深度多模態(tài)注意融合模型(Deep Multimodal Attentive Fusion,DMAF)。DMAF 主要利用混合融合框架挖掘圖片內(nèi)容與文本內(nèi)容的區(qū)別與聯(lián)系,進而進行情感分析。該模型中具有兩種獨立的單模態(tài)注意模型對文本情感與圖片情感進行分類;同時提出了一種基于中間融合的多模態(tài)注意模型,利用圖像與文本之間的特征進行聯(lián)合并進行情緒分類;最后將文本、圖像、文本-圖像融合三種注意力模型進行結(jié)合,進行情感預(yù)測。Xu等[17]提出一種多交互記憶網(wǎng)絡(luò)(Multi-Interactive Memory Network,MIMN)模型,該模型主要包括兩個交互式的模型網(wǎng)絡(luò),不僅學(xué)習(xí)了交叉模態(tài)數(shù)據(jù)所造成的交互影響,還學(xué)習(xí)了單模態(tài)數(shù)據(jù)所造成的自我影響。該模型利用遞歸神經(jīng)網(wǎng)絡(luò)建立多模態(tài)記憶,以掌握文本和圖像中的短語類特征;同時,遞歸記憶網(wǎng)絡(luò)還可以增強全局記憶抽象的記憶屬性。Kumar等[79]提出了一種混合深度學(xué)習(xí)模型用于實時多模態(tài)數(shù)據(jù)的細粒度情緒預(yù)測,模型分別對文本與圖像數(shù)據(jù)進行處理,然后使用決策級多模態(tài)融合的方法。Kumar 等[79]使用的CNN-SVM 模型中有四個模塊,分別是離散化模塊、文本分析模塊、圖像分析模塊和決策模塊,實驗結(jié)果分為非常積極、積極、中性、消極、非常消極五種,模型準(zhǔn)確率也得到了提升。

    綜上所述,決策層融合具有捕獲多重相關(guān)性的能力。在決策層融合策略中,雖然避免了圖文兩種模態(tài)特征由于本質(zhì)的不同而對結(jié)果帶來的干擾,但是對于特征之間的互補關(guān)系,無法進行學(xué)習(xí)。相較于特征層融合,決策層融合更加簡單,針對情感結(jié)果進行融合即可,具有最優(yōu)的局部決策結(jié)果。但是,可能需要學(xué)習(xí)所有模態(tài)的分類器,提高分析成本。表3 列舉了決策層融合不同模型策略的實驗結(jié)果。

    3.3 一致性回歸融合

    一致性回歸融合主要是對圖文兩種模態(tài)的進行相關(guān)性分析,輸入特征分布的協(xié)方差結(jié)構(gòu),考慮不同模態(tài)之間的相關(guān)性及其特征分布的差異,以文本vi(i∈N)及圖像vg(g∈N)為基礎(chǔ)構(gòu)成文本-圖像對。提取圖文兩種模態(tài)的情感特征,將提取的特征輸入到構(gòu)建的回歸模型中,模型中一般會加入相關(guān)性算法,學(xué)習(xí)圖片與文本的相關(guān)性權(quán)重,最后進行情感分析。

    表3 決策層融合方法的實驗結(jié)果Tab.3 Experimental results of decision layer fusion methods

    首先,由Chen 等[80]提出使用超圖結(jié)構(gòu)來組合文本、視覺和表情信息來進行情感預(yù)測。他構(gòu)造的超圖捕捉了不同模式下推文的相似性,其中每個頂點代表一個推文,超邊由每個模式上的“質(zhì)心”頂點及其k個最近鄰組成;然后學(xué)習(xí)推文之間的關(guān)聯(lián)得分,用于情感預(yù)測。這樣,在情感預(yù)測中既考慮了模內(nèi)依賴,也考慮了模間依賴。

    基于一致性回歸模型與卷積模型,You 等[81]提出了一種跨模態(tài)一致性回歸(Cross-modality Consistent Regression,CCR)模型,利用大型社交多媒體內(nèi)容進行情感分析的需要,對CNN 視覺情緒分析模型進行微調(diào),提取圖像的視覺特征;然后,訓(xùn)練了一個分布式的段落向量模型來學(xué)習(xí)圖像的相關(guān)標(biāo)題和描述,從而學(xué)習(xí)文本的特征;最后,對提出的跨模態(tài)一致性回歸模型進行視覺和文本特征訓(xùn)練,學(xué)習(xí)最終的情感分類器,進行圖文情感分析。Zhang 等[82]采用語義嵌入、情感嵌入以及詞匯嵌入三種不同的注意力機制進行文本編碼,并將注意向量、LSTM注意力機制與注意力池化三種不同的注意力方式同CNN 模型相結(jié)合。該方法研究了詞語及其上下文的聯(lián)系,消除歧義,豐富段落表示。為了提高三種不同注意力CNN 模型的性能,使用CCR 模型和轉(zhuǎn)移學(xué)習(xí)方法,使用于篇章級的情感分析中,相較于傳統(tǒng)的一致性回歸模型,提升了圖文情感分析的準(zhǔn)確性。Chen 等[83]提出了一種弱監(jiān)督的多模態(tài)深度學(xué)習(xí)(Weakly Supervised Multi-modal Deep Learning,WS-MDL)的魯棒可伸縮情感預(yù)測方案。這種情感預(yù)測方案對于CNN 的學(xué)習(xí)是迭代的,有選擇地從低成本的具有噪聲的情感標(biāo)簽特征中學(xué)習(xí)。該方案首先從預(yù)訓(xùn)練的CNN 和DCNN模型中計算情感概率分布和多模態(tài)語句的一致性;然后,訓(xùn)練一個概率圖形模型來區(qū)分噪聲標(biāo)簽的貢獻權(quán)值,這些貢獻權(quán)值被進一步發(fā)送回來分別更新CNN和DCNN模型的參數(shù)。實驗結(jié)果顯示,該方案在情感預(yù)測方面具有較好的效果。

    基于多層深度融合,Ji 等[84]提出了一種新的雙層多模態(tài)超圖學(xué)習(xí)(Bi-layer Multimodal HyperGraph learning,Bi-MHG)算法對模態(tài)之間的依賴性問題進行解決。在Bi-MHG 模型中,具有一個兩層的結(jié)構(gòu):第一層結(jié)構(gòu)為推文級超圖學(xué)習(xí),對推文特征的相關(guān)性與推文相關(guān)性進行學(xué)習(xí),預(yù)測推文情緒;第二層結(jié)構(gòu)為特征級超圖學(xué)習(xí),利用多模態(tài)情感詞典學(xué)習(xí)多個模態(tài)之間的相關(guān)性。該模型突出一種用于Bi-MHG 參數(shù)學(xué)習(xí)的嵌套交替優(yōu)化方法,實驗中證明該模型具有較好的性能。蔡國永等[11]為了解決圖文之間語義匹配的問題,提出了一種基于層次化深度關(guān)聯(lián)融合網(wǎng)絡(luò)模型,能夠利用圖像的中層語義特征,采用VCG 提取特征、CNN 提取圖像中的ANP,使用Bi-LSTM 提取文本特征;最后,兩個特征融合主要是基于典型相關(guān)分析(CCA)和線性判別分析(Linear Discriminant Analysis,LDA)展開的,使用Multi-DCCA 和Multi-DeepLDA 進行相關(guān)性分析與判別性分析,將兩個分析結(jié)果進行融合,得出情感分析結(jié)果。Xu 等[85]提出了一種新的層次深度融合模型來對文本、圖像以及社會鏈接之間的相關(guān)性進行探索,該模型可以全面且互補地學(xué)習(xí)文本、圖像與社會鏈接之間的特征,進而進行有效的情感分析。該模型將文本特征與圖像特征輸入到一個分層的長短期記憶(Hierarchical LSTM,H-LSTM)神經(jīng)網(wǎng)絡(luò)中,將圖片與文本不同的語義片段進行結(jié)合,學(xué)習(xí)文本與圖像之間的相關(guān)性。同時,該模型利用鏈接信息,將社會圖像之間的聯(lián)系使用加權(quán)關(guān)系網(wǎng)絡(luò)進行建模,將每個節(jié)點嵌入到一個分布向量中,利用多層感知器MLP 對圖像文本特征與節(jié)點進行融合,捕獲情感預(yù)測過程中的模態(tài)關(guān)聯(lián)。該模型同CCR、T-LSTM等模型相比,準(zhǔn)確性得到了提升。

    綜上所述,在一致性回歸融合模型中,雖然考慮文本與圖像情感特征所具有的一致性、圖文語義特征,也融合了特種層融合與決策層融合的優(yōu)點,但是不能夠考慮到文本與情感特征之間存在的異性。表4 列舉了一致性回歸融合不同模型策略的實驗結(jié)果。

    表4 一致性融合方法的實驗結(jié)果Tab.4 Experimental results of consistent fusion methods

    4 總結(jié)與展望

    隨著人工智能的發(fā)展與應(yīng)用,圖文情感分析逐漸受到越來越多研究人員的關(guān)注,近些年來也取得較大的進展,本文通過對文本情感、圖片情感以及圖文情感研究現(xiàn)狀的認(rèn)識,總結(jié)出當(dāng)前圖文情感分析還存在以下幾個問題:1)由于部分?jǐn)?shù)據(jù)集是小數(shù)據(jù)集,雖然考慮了圖文信息的差異,但是由于數(shù)據(jù)集數(shù)量不足,對于一些隱藏信息無法進行分析;2)不同用戶表述情感的方式不同,在研究過程中,忽略了用戶之間存在的差異;3)不同模態(tài)之間的交互信息較少,無法充分發(fā)揮模式間的互補關(guān)系;4)社交媒體的隨意性與主觀性,會導(dǎo)致圖文之間出現(xiàn)互斥問題??偨Y(jié)出其面臨的挑戰(zhàn)與發(fā)展趨勢如下:

    1)當(dāng)前圖文融合方面的數(shù)據(jù)集數(shù)量較少,數(shù)據(jù)不完整,數(shù)據(jù)內(nèi)容涵蓋范圍單一,需要更大規(guī)模的數(shù)據(jù)集,提升實驗的準(zhǔn)確性。

    2)對圖文數(shù)據(jù)集進行標(biāo)注也是當(dāng)前研究的重要工作之一,但是標(biāo)注會耗費一定的時間且需要一定的技巧,這就限制了圖文情感數(shù)據(jù)集的建立。因此,使用半監(jiān)督或者無監(jiān)督學(xué)習(xí)來進行情感預(yù)測是下一步研究要點。

    3)圖文特征一般是通過不同的模型獲取的,圖文特征存在不一致性,如何將兩個模態(tài)信息互相補充、互為印證,進而建立更完善的圖文融合情感分析模型,是當(dāng)前具有挑戰(zhàn)的一個問題。

    4)當(dāng)前研究中,文本語言類型一般為單一的,可以考慮不同的文本語言類型,面向更加廣泛的媒體數(shù)據(jù)。

    5)通過圖文融合的情感分析數(shù)據(jù)可見,三分類甚至多分類的情感分析模型實驗效果一般,需要進一步研究圖片與文本二者的相關(guān)性與異性,提升情感分析的準(zhǔn)確率。

    6)在圖文融合的過程中,考慮得更多的是圖片與文字,對于信息發(fā)布的時間、地點、用戶關(guān)系并未進行充分考慮,這些信息發(fā)布特性對于提升分析的進度具有一定的作用,是圖文情感分析的研究方向。

    5 結(jié)語

    本文對圖文融合的情感分析進行了綜述,包括圖文數(shù)據(jù)集的介紹,文本、圖片情感分析的研究現(xiàn)狀和圖文融合情感分析的研究現(xiàn)狀。其中,圖文融合情感分析的研究現(xiàn)狀主要從三個模塊進行展開,分別為特征層融合、決策層融合和一致性回歸融合,并將各種方法進行數(shù)據(jù)對比與分析。當(dāng)前,多模態(tài)融合的情感分析逐漸成為情感分析研究者的主要研究方面,具有十分重要的意義。在研究的過程中,許多相關(guān)領(lǐng)域的研究都值得借鑒,如:文本挖掘、圖像處理、自然語言處理等方法與技術(shù)。由于部分技術(shù)與方法不夠成熟,通過對于相關(guān)文獻展開的研究與分析,提出了當(dāng)前圖文情感分析存在的問題。針對現(xiàn)有工作的不足,探討進一步的研究方向:1)更大的數(shù)據(jù)集與高質(zhì)量的注釋能夠有助于提高實驗性能;2)使用半監(jiān)督或者無監(jiān)督的學(xué)習(xí)來進行情感分析,減少人工標(biāo)注的壓力;3)建立更完善的圖文融合模型,尤其是考慮圖文的相關(guān)性、異性、一致性;4)能夠分析更多不同文本語言類型的情感,可以面向更多的圖文數(shù)據(jù);5)在進行圖文情感分析的同時,考慮用戶發(fā)布內(nèi)容的時間、地點、用戶關(guān)系等信息狀態(tài)。

    猜你喜歡
    圖文模態(tài)特征
    畫與理
    如何表達“特征”
    不忠誠的四個特征
    抓住特征巧觀察
    國內(nèi)多模態(tài)教學(xué)研究回顧與展望
    基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識別
    由單個模態(tài)構(gòu)造對稱簡支梁的抗彎剛度
    計算物理(2014年2期)2014-03-11 17:01:39
    線性代數(shù)的應(yīng)用特征
    河南科技(2014年23期)2014-02-27 14:19:15
    圖文配
    海外英語(2013年9期)2013-12-11 09:03:36
    圖文配
    海外英語(2013年10期)2013-12-10 03:46:22
    一个人看视频在线观看www免费| 亚洲欧美精品专区久久| 内射极品少妇av片p| 深夜a级毛片| 波多野结衣巨乳人妻| 99在线视频只有这里精品首页| 久久99精品国语久久久| 国产高清三级在线| 久久久色成人| 久久久久久久午夜电影| 亚洲国产高清在线一区二区三| 久久久久久久亚洲中文字幕| 亚洲欧美日韩高清专用| 亚洲av免费在线观看| 免费观看精品视频网站| 我要搜黄色片| 波多野结衣高清作品| 亚洲真实伦在线观看| 国产成人精品久久久久久| 亚洲最大成人中文| 欧美变态另类bdsm刘玥| 九九爱精品视频在线观看| 欧美色欧美亚洲另类二区| 日韩高清综合在线| 嫩草影院新地址| 精品午夜福利在线看| 美女大奶头视频| 男人舔奶头视频| 两性午夜刺激爽爽歪歪视频在线观看| 人妻久久中文字幕网| 一进一出抽搐动态| 日韩av在线大香蕉| 久久久久久大精品| 国产私拍福利视频在线观看| 亚洲自拍偷在线| 中文亚洲av片在线观看爽| 老熟妇乱子伦视频在线观看| 国产精品电影一区二区三区| 久99久视频精品免费| 国模一区二区三区四区视频| 18禁在线播放成人免费| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 99热只有精品国产| 只有这里有精品99| 老熟妇乱子伦视频在线观看| 在线播放无遮挡| 亚洲在线自拍视频| 亚洲不卡免费看| 久久精品久久久久久久性| 51国产日韩欧美| 91久久精品国产一区二区成人| 99在线人妻在线中文字幕| 亚洲内射少妇av| a级毛片免费高清观看在线播放| 中文字幕熟女人妻在线| 久久久久久国产a免费观看| 日韩av在线大香蕉| 少妇熟女欧美另类| 国产av一区在线观看免费| 欧美最黄视频在线播放免费| 国产伦理片在线播放av一区 | 午夜a级毛片| 中文精品一卡2卡3卡4更新| or卡值多少钱| 欧美zozozo另类| 国产亚洲精品久久久com| 国产精品一二三区在线看| 直男gayav资源| 久久这里有精品视频免费| 国产免费男女视频| 三级经典国产精品| 久久精品人妻少妇| 免费观看a级毛片全部| 99热网站在线观看| 最近视频中文字幕2019在线8| 久久久精品94久久精品| 精品免费久久久久久久清纯| 日本一二三区视频观看| 人妻少妇偷人精品九色| 精品日产1卡2卡| 天堂网av新在线| 伦精品一区二区三区| 国产亚洲精品久久久久久毛片| 此物有八面人人有两片| 久久精品国产亚洲av香蕉五月| 色哟哟·www| 色播亚洲综合网| 日韩 亚洲 欧美在线| 欧美高清性xxxxhd video| 老女人水多毛片| 国产av麻豆久久久久久久| 国产免费男女视频| 久久精品91蜜桃| 美女大奶头视频| 哪里可以看免费的av片| 欧美在线一区亚洲| 日本撒尿小便嘘嘘汇集6| 日韩视频在线欧美| 欧美人与善性xxx| 亚洲第一区二区三区不卡| 亚洲自拍偷在线| 久久人人爽人人爽人人片va| 国产黄片视频在线免费观看| 亚洲国产色片| 精品久久久久久成人av| 久久99热6这里只有精品| 男人狂女人下面高潮的视频| 丝袜喷水一区| 少妇高潮的动态图| 国产精品久久久久久亚洲av鲁大| 深爱激情五月婷婷| 99久久无色码亚洲精品果冻| 久久人人爽人人片av| 又爽又黄a免费视频| 国产探花极品一区二区| 精品熟女少妇av免费看| eeuss影院久久| 国产精品日韩av在线免费观看| 天天躁日日操中文字幕| 精品人妻熟女av久视频| 日本三级黄在线观看| 日韩成人伦理影院| 色哟哟哟哟哟哟| 国内揄拍国产精品人妻在线| 国产一区二区三区在线臀色熟女| 成人午夜高清在线视频| 给我免费播放毛片高清在线观看| 99久国产av精品| 中文字幕久久专区| 欧美不卡视频在线免费观看| 国内精品美女久久久久久| 3wmmmm亚洲av在线观看| 久久精品影院6| 国产精品久久视频播放| 麻豆成人午夜福利视频| 色尼玛亚洲综合影院| 亚洲欧美成人精品一区二区| 两个人的视频大全免费| 国产伦精品一区二区三区视频9| 丰满乱子伦码专区| 亚洲av免费高清在线观看| 亚洲国产精品久久男人天堂| 久久亚洲国产成人精品v| 成年女人看的毛片在线观看| 亚洲成人中文字幕在线播放| 久久久精品欧美日韩精品| 亚洲国产色片| 久久人妻av系列| 少妇熟女aⅴ在线视频| 欧美又色又爽又黄视频| 一边亲一边摸免费视频| 日本一二三区视频观看| 成人亚洲精品av一区二区| 国产午夜精品一二区理论片| 天堂中文最新版在线下载 | 26uuu在线亚洲综合色| 亚洲最大成人av| 男人和女人高潮做爰伦理| 国产久久久一区二区三区| 日韩成人伦理影院| 日日啪夜夜撸| 波多野结衣高清作品| 日韩欧美精品免费久久| 免费看日本二区| 十八禁国产超污无遮挡网站| 一级毛片aaaaaa免费看小| 欧美不卡视频在线免费观看| 三级国产精品欧美在线观看| 久久精品国产亚洲av香蕉五月| 亚洲av一区综合| 日本撒尿小便嘘嘘汇集6| 国产在线精品亚洲第一网站| 波野结衣二区三区在线| 久久精品国产自在天天线| 亚洲av第一区精品v没综合| 日日撸夜夜添| 亚洲熟妇中文字幕五十中出| av视频在线观看入口| 最后的刺客免费高清国语| 精品一区二区三区视频在线| 国产久久久一区二区三区| 国产精品人妻久久久久久| 国产精品.久久久| 欧美+亚洲+日韩+国产| 色综合亚洲欧美另类图片| 黄色视频,在线免费观看| 亚洲精品国产av成人精品| 久久久国产成人精品二区| 国产又黄又爽又无遮挡在线| 日日摸夜夜添夜夜添av毛片| 国产三级中文精品| 国产蜜桃级精品一区二区三区| 91久久精品国产一区二区三区| 一区二区三区免费毛片| 日韩 亚洲 欧美在线| 亚洲图色成人| 国产伦在线观看视频一区| 亚洲成人久久性| 哪个播放器可以免费观看大片| 欧美在线一区亚洲| 十八禁国产超污无遮挡网站| 人人妻人人澡人人爽人人夜夜 | 成人午夜高清在线视频| 春色校园在线视频观看| 亚洲图色成人| 欧美激情久久久久久爽电影| 村上凉子中文字幕在线| 成人特级av手机在线观看| 国产精品嫩草影院av在线观看| 别揉我奶头 嗯啊视频| 成人高潮视频无遮挡免费网站| 欧美日本亚洲视频在线播放| 青春草亚洲视频在线观看| 可以在线观看的亚洲视频| 99热这里只有是精品50| 日本成人三级电影网站| 午夜a级毛片| 一级毛片久久久久久久久女| 亚洲人与动物交配视频| 国产成人午夜福利电影在线观看| 寂寞人妻少妇视频99o| 亚洲av免费在线观看| 91在线精品国自产拍蜜月| 成年免费大片在线观看| 亚洲av中文字字幕乱码综合| 国内少妇人妻偷人精品xxx网站| 波多野结衣高清作品| 亚洲av免费高清在线观看| 内地一区二区视频在线| 在线观看免费视频日本深夜| 男人舔女人下体高潮全视频| 亚洲七黄色美女视频| 又爽又黄无遮挡网站| 亚洲在久久综合| 中文欧美无线码| 嫩草影院新地址| 非洲黑人性xxxx精品又粗又长| 免费人成在线观看视频色| 1000部很黄的大片| 精品久久久久久久久av| 亚洲av免费高清在线观看| av专区在线播放| 精品人妻偷拍中文字幕| 一级毛片电影观看 | 91久久精品国产一区二区成人| 国产乱人偷精品视频| 成人亚洲欧美一区二区av| 亚洲美女视频黄频| 最近中文字幕高清免费大全6| 狂野欧美白嫩少妇大欣赏| 久久久欧美国产精品| 欧美又色又爽又黄视频| 最近中文字幕高清免费大全6| 亚洲美女搞黄在线观看| 欧美区成人在线视频| 国产男人的电影天堂91| 午夜激情欧美在线| 麻豆成人av视频| 2022亚洲国产成人精品| 亚洲精品粉嫩美女一区| 日本免费a在线| 别揉我奶头 嗯啊视频| 亚洲性久久影院| 国产精品久久久久久亚洲av鲁大| 亚洲国产欧美人成| 狂野欧美白嫩少妇大欣赏| 麻豆成人av视频| 亚洲欧美成人综合另类久久久 | 国产精品美女特级片免费视频播放器| 免费人成在线观看视频色| 我的老师免费观看完整版| 国产一区二区激情短视频| 午夜激情欧美在线| 国产精品99久久久久久久久| 最新中文字幕久久久久| 97热精品久久久久久| 久久久成人免费电影| 给我免费播放毛片高清在线观看| 观看免费一级毛片| 亚洲欧美精品自产自拍| 国国产精品蜜臀av免费| 国产淫片久久久久久久久| 午夜视频国产福利| 午夜福利在线在线| 一级毛片久久久久久久久女| 嘟嘟电影网在线观看| 夫妻性生交免费视频一级片| 日韩欧美三级三区| 日本欧美国产在线视频| 亚洲成av人片在线播放无| 国产一区二区在线观看日韩| 97热精品久久久久久| 午夜视频国产福利| 国产一区二区三区av在线 | 黄色配什么色好看| 精品国产三级普通话版| 亚洲精品国产av成人精品| av专区在线播放| 日日啪夜夜撸| 一区二区三区四区激情视频 | 97人妻精品一区二区三区麻豆| 日本爱情动作片www.在线观看| 亚洲一区高清亚洲精品| 搞女人的毛片| 日韩精品有码人妻一区| 午夜免费激情av| 国产成人午夜福利电影在线观看| 亚洲成人精品中文字幕电影| 亚洲aⅴ乱码一区二区在线播放| 亚洲天堂国产精品一区在线| 成人毛片60女人毛片免费| 一级毛片电影观看 | 18禁裸乳无遮挡免费网站照片| 精品久久久久久久久久久久久| 国产成人精品久久久久久| 久久久精品欧美日韩精品| 午夜精品国产一区二区电影 | 91精品一卡2卡3卡4卡| 久久国产乱子免费精品| 两个人视频免费观看高清| 亚洲第一电影网av| 少妇熟女aⅴ在线视频| 爱豆传媒免费全集在线观看| 亚洲人与动物交配视频| 搞女人的毛片| 久久久久久久久大av| 乱系列少妇在线播放| 亚洲性久久影院| 中文精品一卡2卡3卡4更新| 亚洲精品影视一区二区三区av| 大又大粗又爽又黄少妇毛片口| 男人舔奶头视频| 欧美zozozo另类| 国产色婷婷99| 国产午夜精品久久久久久一区二区三区| 夜夜爽天天搞| 精品久久久久久久久久免费视频| 国产爱豆传媒在线观看| 超碰av人人做人人爽久久| 特大巨黑吊av在线直播| 麻豆久久精品国产亚洲av| 欧美激情在线99| 国产av麻豆久久久久久久| 久久亚洲精品不卡| 国产美女午夜福利| 欧美不卡视频在线免费观看| 精品久久久久久久久av| 国产精品久久久久久久久免| 夜夜看夜夜爽夜夜摸| 久久久精品欧美日韩精品| 亚洲最大成人手机在线| 成人美女网站在线观看视频| 国产午夜精品久久久久久一区二区三区| 一级毛片我不卡| 成人综合一区亚洲| avwww免费| 国产中年淑女户外野战色| 成年版毛片免费区| 国产精品日韩av在线免费观看| 老师上课跳d突然被开到最大视频| 久久人人精品亚洲av| 欧美成人一区二区免费高清观看| 在线国产一区二区在线| 男女做爰动态图高潮gif福利片| 可以在线观看的亚洲视频| 九九在线视频观看精品| 成人漫画全彩无遮挡| 精品久久久噜噜| 国产精品福利在线免费观看| 欧美xxxx黑人xx丫x性爽| 99久久人妻综合| 在线观看av片永久免费下载| 一个人观看的视频www高清免费观看| 精品久久久久久久人妻蜜臀av| 日韩精品有码人妻一区| 日本爱情动作片www.在线观看| 美女被艹到高潮喷水动态| 97人妻精品一区二区三区麻豆| 久久久国产成人免费| 三级经典国产精品| 淫秽高清视频在线观看| 国产又黄又爽又无遮挡在线| 久久久午夜欧美精品| 日本欧美国产在线视频| 欧美不卡视频在线免费观看| 国产一区二区激情短视频| 国产精品永久免费网站| 自拍偷自拍亚洲精品老妇| 女人十人毛片免费观看3o分钟| 可以在线观看毛片的网站| 97超视频在线观看视频| 女的被弄到高潮叫床怎么办| 国产乱人视频| 国产精品久久视频播放| 中文字幕av在线有码专区| 久久中文看片网| 晚上一个人看的免费电影| 亚洲成人久久性| 18禁在线无遮挡免费观看视频| 在线播放无遮挡| 黑人高潮一二区| 精品99又大又爽又粗少妇毛片| 91午夜精品亚洲一区二区三区| 一边摸一边抽搐一进一小说| 亚洲国产日韩欧美精品在线观看| 国产成年人精品一区二区| 亚洲一区高清亚洲精品| 天天躁夜夜躁狠狠久久av| 国产亚洲精品久久久com| 国产精品一区二区在线观看99 | 如何舔出高潮| 国内少妇人妻偷人精品xxx网站| 一边摸一边抽搐一进一小说| 亚洲精华国产精华液的使用体验 | 99热这里只有是精品50| 日本色播在线视频| 久99久视频精品免费| 国产成人freesex在线| 淫秽高清视频在线观看| 午夜久久久久精精品| 少妇丰满av| 99热这里只有是精品在线观看| 久久久久久九九精品二区国产| 高清毛片免费观看视频网站| 特级一级黄色大片| 男女边吃奶边做爰视频| 国产又黄又爽又无遮挡在线| 亚洲欧美成人综合另类久久久 | 99热这里只有精品一区| 国产三级中文精品| 高清毛片免费观看视频网站| 黄色配什么色好看| 久久久久久久午夜电影| 亚洲在线自拍视频| 男女做爰动态图高潮gif福利片| 成人鲁丝片一二三区免费| 久久热精品热| 亚洲最大成人手机在线| 国产白丝娇喘喷水9色精品| 黄色视频,在线免费观看| 日韩大尺度精品在线看网址| 久久精品国产亚洲av香蕉五月| 性欧美人与动物交配| 久久精品人妻少妇| 亚洲精品国产av成人精品| 久久午夜亚洲精品久久| 一级毛片我不卡| 黄色配什么色好看| 变态另类丝袜制服| 国产在线精品亚洲第一网站| 男女做爰动态图高潮gif福利片| 国产精品美女特级片免费视频播放器| 美女脱内裤让男人舔精品视频 | 国产一级毛片在线| 波多野结衣高清无吗| 精品一区二区三区视频在线| 欧美日韩综合久久久久久| 日韩av在线大香蕉| 亚洲无线观看免费| 成年女人永久免费观看视频| 十八禁国产超污无遮挡网站| 国产精品av视频在线免费观看| 国产单亲对白刺激| 小说图片视频综合网站| av卡一久久| 看十八女毛片水多多多| 国产黄色小视频在线观看| 免费观看精品视频网站| av免费在线看不卡| 九九爱精品视频在线观看| 欧洲精品卡2卡3卡4卡5卡区| 插逼视频在线观看| 女人十人毛片免费观看3o分钟| 熟妇人妻久久中文字幕3abv| 嫩草影院精品99| 国产探花在线观看一区二区| 美女黄网站色视频| 欧美高清性xxxxhd video| 亚洲精品日韩av片在线观看| 麻豆精品久久久久久蜜桃| 国产极品天堂在线| 久久精品国产亚洲网站| 最近的中文字幕免费完整| 亚洲中文字幕日韩| 亚洲最大成人手机在线| 熟女电影av网| 好男人视频免费观看在线| 婷婷精品国产亚洲av| 卡戴珊不雅视频在线播放| 久久久久久久久久久免费av| 99国产精品一区二区蜜桃av| 久久精品国产亚洲av涩爱 | 亚洲精华国产精华液的使用体验 | 久久久久久久亚洲中文字幕| 丰满的人妻完整版| 国产av一区在线观看免费| 成人国产麻豆网| 亚洲美女搞黄在线观看| 男女下面进入的视频免费午夜| 免费看日本二区| 免费观看a级毛片全部| 美女 人体艺术 gogo| 欧美精品一区二区大全| 亚洲最大成人手机在线| 不卡一级毛片| 老司机影院成人| 三级国产精品欧美在线观看| 免费人成视频x8x8入口观看| 少妇高潮的动态图| 最近中文字幕高清免费大全6| 成人高潮视频无遮挡免费网站| 男人舔女人下体高潮全视频| 午夜福利成人在线免费观看| 只有这里有精品99| 久久99热6这里只有精品| 亚洲精品久久久久久婷婷小说 | 日日干狠狠操夜夜爽| 亚洲最大成人中文| 少妇裸体淫交视频免费看高清| 欧美日本视频| 舔av片在线| 国产成人一区二区在线| 淫秽高清视频在线观看| 国产精品不卡视频一区二区| 美女xxoo啪啪120秒动态图| 麻豆成人av视频| 搡老妇女老女人老熟妇| 国产伦一二天堂av在线观看| 欧美一区二区亚洲| kizo精华| 嫩草影院新地址| 少妇高潮的动态图| 亚洲精品影视一区二区三区av| 校园春色视频在线观看| 身体一侧抽搐| 99久国产av精品国产电影| 日韩欧美 国产精品| 国产老妇伦熟女老妇高清| 一区二区三区高清视频在线| 久久久国产成人免费| 亚洲精品亚洲一区二区| 久久人人爽人人片av| 中文欧美无线码| 亚洲av不卡在线观看| 少妇丰满av| 国产精品永久免费网站| 久久精品国产清高在天天线| 高清在线视频一区二区三区 | 22中文网久久字幕| 男人和女人高潮做爰伦理| 91久久精品电影网| 中文字幕精品亚洲无线码一区| 2022亚洲国产成人精品| 色视频www国产| 亚洲精品日韩av片在线观看| 亚洲人成网站在线播| 国产高清激情床上av| 级片在线观看| 亚洲国产欧洲综合997久久,| 成人一区二区视频在线观看| 欧美性猛交黑人性爽| 日日摸夜夜添夜夜添av毛片| av在线天堂中文字幕| 伊人久久精品亚洲午夜| 一区二区三区免费毛片| 国产精品久久久久久久电影| 亚洲国产精品成人久久小说 | 久久精品夜色国产| 国产精品无大码| 午夜福利成人在线免费观看| 久久精品国产亚洲av香蕉五月| 国产综合懂色| 精品午夜福利在线看| 国产激情偷乱视频一区二区| 我要看日韩黄色一级片| 伦精品一区二区三区| 女人十人毛片免费观看3o分钟| av天堂中文字幕网| 国内精品宾馆在线| 亚洲av中文av极速乱| 久久久国产成人精品二区| 最新中文字幕久久久久| 男女那种视频在线观看| 男女边吃奶边做爰视频| 国产伦在线观看视频一区| 欧美成人a在线观看| 精品一区二区三区人妻视频| 狂野欧美白嫩少妇大欣赏| 中文欧美无线码| 国产乱人偷精品视频| 一边亲一边摸免费视频| 国产伦一二天堂av在线观看| 亚洲精品影视一区二区三区av| 麻豆久久精品国产亚洲av| 少妇熟女欧美另类| 亚洲精品日韩av片在线观看| 国内久久婷婷六月综合欲色啪| 国产国拍精品亚洲av在线观看| 久久亚洲国产成人精品v| 欧美zozozo另类| 日本黄色视频三级网站网址| 午夜福利视频1000在线观看| 91久久精品电影网| 日本撒尿小便嘘嘘汇集6| 久久精品国产自在天天线| 国产又黄又爽又无遮挡在线| 精品久久久久久久久av| 91精品一卡2卡3卡4卡| 69av精品久久久久久| 国产高清不卡午夜福利| 国产精品久久久久久精品电影小说 | 久久久久久久久大av| 成人欧美大片| 青春草亚洲视频在线观看| 国产精品.久久久|