• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    圖像整體與局部區(qū)域嵌入的視覺(jué)情感分析

    2019-10-23 12:23蔡國(guó)永賀歆灝儲(chǔ)陽(yáng)陽(yáng)
    計(jì)算機(jī)應(yīng)用 2019年8期
    關(guān)鍵詞:情感分析社交媒體神經(jīng)網(wǎng)絡(luò)

    蔡國(guó)永 賀歆灝 儲(chǔ)陽(yáng)陽(yáng)

    摘 要:目前多數(shù)圖像視覺(jué)情感分析方法主要從圖像整體構(gòu)建視覺(jué)情感特征表示,然而圖像中包含對(duì)象的局部區(qū)域往往更能突顯情感色彩。針對(duì)視覺(jué)圖像情感分析中忽略局部區(qū)域情感表示的問(wèn)題,提出一種嵌入圖像整體特征與局部對(duì)象特征的視覺(jué)情感分析方法。該方法結(jié)合整體圖像和局部區(qū)域以挖掘圖像中的情感表示,首先利用對(duì)象探測(cè)模型定位圖像中包含對(duì)象的局部區(qū)域,然后通過(guò)深度神經(jīng)網(wǎng)絡(luò)抽取局部區(qū)域的情感特征,最后用圖像整體抽取的深層特征和局部區(qū)域特征來(lái)共同訓(xùn)練圖像情感分類器并預(yù)測(cè)圖像的情感極性。實(shí)驗(yàn)結(jié)果表明,所提方法在真實(shí)數(shù)據(jù)集TwitterⅠ和TwitterⅡ上的情感分類準(zhǔn)確率分別達(dá)到了75.81%和78.90%,高于僅從圖像整體特征和僅從局部區(qū)域特征分析情感的方法。

    關(guān)鍵詞:社交媒體;情感分析;圖像局部對(duì)象檢測(cè);深度學(xué)習(xí);神經(jīng)網(wǎng)絡(luò)

    中圖分類號(hào):?TP181

    文獻(xiàn)標(biāo)志碼:A

    Visual sentiment analysis by combining global and local regions of image

    CAI Guoyong, HE Xinhao*, CHU Yangyang

    Guangxi Key Laboratory of Trusted Software (Guilin University of Electronic Technology), Guilin Guangxi 541004, China

    Abstract:?Most existing visual sentiment analysis methods mainly construct visual sentiment feature representation based on the whole image. However, the local regions with objects in the image are able to highlight the sentiment better. Concerning the problem of ignorance of local regions sentiment representation in visual sentiment analysis, a visual sentiment analysis method by combining global and local regions of image was proposed. Image sentiment representation was mined by combining a whole image with local regions of the image. Firstly, an object detection model was used to locate the local regions with objects in the image. Secondly, the sentiment features of the local regions with objects were extracted by deep neural network. Finally, the deep features extracted from the whole image and the local region features were utilized to jointly train the image sentiment classifier and predict the sentiment polarity of the image. Experimental results show that the classification accuracy of the proposed method reaches 75.81% and 78.90% respectively on the real datasets TwitterⅠand TwitterⅡ, which is higher than the accuracy of sentiment analysis methods based on features extracted from the whole image or features extracted from the local regions of image.

    Key words:?social media; sentiment analysis; image local object detection; deep learning; neural network

    0 引言

    當(dāng)前,越來(lái)越多社交媒體用戶喜歡用視覺(jué)圖像來(lái)表達(dá)情感或觀點(diǎn),相較于文本,視覺(jué)圖像更易于直觀表達(dá)個(gè)人情感,由此,對(duì)圖像的視覺(jué)情感分析引起了人們的廣泛關(guān)注和研究[1-2]。視覺(jué)情感分析是一項(xiàng)研究人類對(duì)視覺(jué)刺激(如圖像和視頻)做出的情感反應(yīng)的任務(wù)[3],其關(guān)鍵挑戰(zhàn)問(wèn)題是情感空間與視覺(jué)特征空間之間存在的巨大鴻溝問(wèn)題。

    早期的視覺(jué)情感分類主要采用特征工程的方法來(lái)構(gòu)造圖像情感特征,如采用顏色、紋理和形狀等特征[4-6]。深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)因其能夠進(jìn)行魯棒且準(zhǔn)確的特征學(xué)習(xí),近年來(lái)在計(jì)算機(jī)視覺(jué)領(lǐng)域取得了巨大成功[7-9]。特別是卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)能夠自動(dòng)地從大規(guī)模圖像數(shù)據(jù)中學(xué)習(xí)穩(wěn)健的特征且展示了優(yōu)異的性能,在圖像分類以及目標(biāo)檢測(cè)等圖像相關(guān)任務(wù)上得到了廣泛應(yīng)用,因此基于CNN的方法也被提出用于預(yù)測(cè)圖像情感[10]。盡管基于深度神經(jīng)網(wǎng)絡(luò)相關(guān)的模型已經(jīng)取得了不錯(cuò)的效果,但是現(xiàn)有方法基本是從圖像整體提取特征來(lái)預(yù)測(cè)視覺(jué)情感,對(duì)圖像中局部情感突出的區(qū)域并沒(méi)有區(qū)別對(duì)待,因此情感分類效果還有提升空間。

    針對(duì)現(xiàn)有研究中通常只利用整張圖像學(xué)習(xí)情感表示而忽略了圖中情感突出的局部區(qū)域的問(wèn)題,本文提出了一種新穎的嵌入包含對(duì)象的局部區(qū)域特征到圖像整體特征的視覺(jué)情感分析方法。該方法首先利用目標(biāo)檢測(cè)模型探測(cè)對(duì)象局部區(qū)域,然后利用深度神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí)從局部區(qū)域抽取局部區(qū)域視覺(jué)特征并嵌入圖像整體情感特征來(lái)訓(xùn)練情感分類器。

    1 相關(guān)工作

    視覺(jué)情感分析方法的特征工程主要基于特征選擇或特征抽取方法。如呂鵬霄[11]基于尺度不變特征變換(Scale-Invariant Feature Transform, SIFT)引入具有表征感情色彩的顏色特征,分別提取RGB三個(gè)顏色通道的SIFT特征,串聯(lián)在一起形成384維的顏色尺度不變特征變換(Color SIFT, C-SIFT)特征來(lái)預(yù)測(cè)圖像的情感。

    Yanulevskaya等[12]通過(guò)提取圖像的紋理特征,然后使用支持向量機(jī)將情感圖像進(jìn)行分類從而預(yù)測(cè)圖像情感。文獻(xiàn)[13]中構(gòu)建了一個(gè)由1200個(gè)形容詞名詞對(duì)(Adjective Noun Pair, ANP)組成的大型視覺(jué)情感本體庫(kù),同時(shí)在該本體庫(kù)的基礎(chǔ)上分別提出了情感銀行(Sentiment bank, Sentibank)和視覺(jué)情感本題庫(kù)(Visual Sentiment Ontology, VSO)的情感探測(cè)器來(lái)提取輸入圖像的中層表示,并把這些中層表示視為圖像特征來(lái)學(xué)習(xí)情感分類器。

    文獻(xiàn)[2]中采用了與文獻(xiàn)[13]相似的策略,區(qū)別在于使用102個(gè)預(yù)定義場(chǎng)景屬性取代了ANP作為中層表示。

    近年來(lái),隨著社交網(wǎng)絡(luò)上的視覺(jué)內(nèi)容不斷增加,傳統(tǒng)方法難以應(yīng)對(duì)大規(guī)模數(shù)據(jù)的伸縮性和泛化性問(wèn)題[14],研究者開(kāi)始采用深度模型自動(dòng)地從大規(guī)模圖像數(shù)據(jù)中學(xué)習(xí)情感表示,且效果良好。如文獻(xiàn)[14]中研究了視覺(jué)情感概念的分類,并在文獻(xiàn)[13]中給出的大型數(shù)據(jù)集上進(jìn)行訓(xùn)練得到了SentiBank的升級(jí)版本DeepSentiBank。

    You等[15]定義了一個(gè)CNN架構(gòu)用于視覺(jué)情感分析,而且為解決在大規(guī)模且有噪聲的數(shù)據(jù)集上進(jìn)行訓(xùn)練的問(wèn)題,他們采用逐步訓(xùn)練的策略對(duì)網(wǎng)絡(luò)架構(gòu)進(jìn)行微調(diào),即漸進(jìn)卷積神經(jīng)網(wǎng)絡(luò)(Progressive CNN, PCNN)。

    Campos等[16-17]利用遷移學(xué)習(xí)和來(lái)自于預(yù)訓(xùn)練的權(quán)重與偏置,通過(guò)用Flickr數(shù)據(jù)集微調(diào)分類網(wǎng)絡(luò),然后再用于圖像情感分類。

    盡管上述方法都取得了一定的效果,但是基本都是考慮從圖像整體抽取特征,很少有人關(guān)注到圖像局部區(qū)域情感信息表達(dá)的差異性。文獻(xiàn)[18]中利用深度學(xué)習(xí)框架自動(dòng)發(fā)現(xiàn)包含物體并攜帶大量情感的局部區(qū)域用于視覺(jué)情感分析,Li等[19]則提出了一種兼顧局部和局部 整體的上下文情境感知分類模型。不同于已有研究,本文的關(guān)注點(diǎn)是:1)獲得定位精確的攜帶情感對(duì)象的局部區(qū)域;2)在深度網(wǎng)絡(luò)結(jié)構(gòu)中,利用特征嵌入的方法同時(shí)考慮整體圖像與局部區(qū)域。即將圖像整體特征和局部區(qū)域特征嵌入到一個(gè)統(tǒng)一的優(yōu)化目標(biāo)中,使整合后的特征具有更好的判別性。

    2 方法描述

    為了從圖像中誘發(fā)情感的顯著對(duì)象局部區(qū)域和整體圖像中學(xué)習(xí)具有判別性的情感表示,本文方法的整體框架如圖1所示,包括以下四個(gè)部分:1)圖像整體特征提取;2)目標(biāo)檢測(cè)模型預(yù)訓(xùn)練;3)圖像中包含對(duì)象的局部區(qū)域特征提取;4)整體與局部區(qū)域特征整合及視覺(jué)情感分類。

    其中,利用Simonyan等[20]提出的VGGNet-16提取來(lái)自整張圖像的全局特征表示(如圖1(a))。

    目標(biāo)檢測(cè)模型Faster R-CNN[21]作為時(shí)下流行且性能出色的目標(biāo)檢測(cè)框架,利用全卷積網(wǎng)絡(luò)將對(duì)象定位和對(duì)象分類兩個(gè)任務(wù)整合到一個(gè)端到端的深層網(wǎng)絡(luò)架構(gòu)中,通過(guò)共享網(wǎng)絡(luò)模型參數(shù)以增強(qiáng)特征映射的魯棒性同時(shí)減少定位對(duì)象所花費(fèi)的時(shí)間,能極大地提高目標(biāo)檢測(cè)效果。 這里上下文的邏輯在哪

    為了提取局部區(qū)域特征,本文首先利用目標(biāo)檢測(cè)數(shù)據(jù)集預(yù)訓(xùn)練目標(biāo)檢測(cè)模型,獲得模型參數(shù)(如圖1(c));隨后利用情感圖像數(shù)據(jù)集再次訓(xùn)練目標(biāo)檢測(cè)模型,從而獲得更好的、能檢測(cè)出圖像中攜帶情感的物理對(duì)象區(qū)域,并學(xué)習(xí)包含對(duì)象的局部區(qū)域情感表示(如圖1(b));最后結(jié)合圖像整體特征與局部區(qū)域特征,并用于訓(xùn)練情感分類器(如圖1(d))。

    2.1 圖像局部區(qū)域特征提取

    局部區(qū)域特征通常包含圖像中對(duì)象的細(xì)粒度信息,本文關(guān)注檢測(cè)社交網(wǎng)絡(luò)圖像中出現(xiàn)頻率高且能突顯情感的多個(gè)對(duì)象,并對(duì)這些包含對(duì)象的局部區(qū)域提取深層特征。假定一張圖像中探測(cè)到的某一個(gè)局部區(qū)域表示為特征向量 L fi,則檢測(cè)到的所有局部區(qū)域可表示為特征向量集{ L f1, L f2,…, L fm},m為檢測(cè)到的局部區(qū)域個(gè)數(shù)。局部特征提取基于目標(biāo)檢測(cè)模型進(jìn)行,即首先將圖像輸入該模型后生成一個(gè)多通道的特征映射,利用一個(gè)滑動(dòng)窗口遍歷已生成的特征映射獲得一系列候選框;然后通過(guò)對(duì)比各個(gè)候選框與目標(biāo)檢測(cè)圖像真實(shí)標(biāo)簽的交疊率來(lái)判定候選框內(nèi)是否存在檢測(cè)對(duì)象,從而獲得本文所需的局部區(qū)域;最后再利用深層神經(jīng)網(wǎng)絡(luò)提取該局部區(qū)域情感特征。本文利用遷移學(xué)習(xí)的策略來(lái)克服目標(biāo)檢測(cè)數(shù)據(jù)集與圖像情感數(shù)據(jù)集之間的差異。首先利用Faster R-CNN模型在目標(biāo)檢測(cè)數(shù)據(jù)集PASCAL VOC 2007上進(jìn)行預(yù)訓(xùn)練,然后將已經(jīng)學(xué)習(xí)好的模型參數(shù)遷移到情感分析的目標(biāo)區(qū)域檢測(cè)中。下面首先介紹如何利用Faster R-CNN生成目標(biāo)區(qū)域候選框。

    2.1.1 候選框生成

    候選框生成網(wǎng)絡(luò)的輸入是任意大小的圖像,輸出是一組矩形候選框。假設(shè)輸入圖像尺寸為M×N,圖像經(jīng)過(guò)一系列卷積層變換之后得到卷積特征映射 F ∈ R w×h×n,其中:w和h為卷積特征映射的寬度和高度,n表示卷積特征映射的通道個(gè)數(shù)。設(shè)卷積特征映射 F 大小為(M/16)×(N/16),即輸入圖像與輸出特征映射的寬和高均縮放到1/16。為生成候選框,F(xiàn)aster R-CNN在卷積特征映射上利用了一個(gè)兩層的CNN,第一層包含c個(gè)大小為a×a的濾波器 g ∈ R a×c,濾波器 g 在輸入的卷積特征映射上進(jìn)行滑動(dòng),生成一個(gè)較低維的特征 F ′∈ R w′×h′×l,計(jì)算式如式(1):

    F ′=δ( g ?F +b)?? (1)

    其中:是卷積操作;b∈ R 是一個(gè)偏置項(xiàng), R 為實(shí)數(shù)集;δ(·)是一個(gè)非線性激活函數(shù)。對(duì)于 F ′上的每一個(gè)位置考慮k種可能的候選框尺寸以更好地檢測(cè)出不同大小的對(duì)象,假設(shè) F ′的寬度和高度分別為w′、h′,即 F ′的尺寸為w′×h′,則可得到w′h′k個(gè)候選框。隨后該特征 F ′被送入兩個(gè)并列的全連接層:一個(gè)用于分類,即判定候選框中是否存在對(duì)象;另一個(gè)用于回歸,即預(yù)測(cè)候選框的中心點(diǎn)坐標(biāo)以及尺寸,如圖1(c)中最右側(cè)的兩個(gè)分支所示。因此,對(duì)于k個(gè)候選框,分類層輸出2k個(gè)評(píng)估候選框是否存在對(duì)象的概率得分,即對(duì)應(yīng)二分類問(wèn)題:候選框存在對(duì)象或不存在;回歸層輸出4k個(gè)候選框?qū)?yīng)坐標(biāo)值,即輸出為候選框中心點(diǎn)二維坐標(biāo)以及候選框的寬度和高度。分類層與回歸層損失函數(shù)的加權(quán)表達(dá)式如下:

    L({pi},{ti})=? 1 Ncls ∑ k i=1 Lcls(pi,p*i)+λ 1 Nreg ∑ k i=1 p*iLreg(ti,t*i)??(2)

    其中:pi表示第i個(gè)候選框的預(yù)測(cè)結(jié)果。p*i表示第i個(gè)候選框的真實(shí)標(biāo)簽:p*i=1則為正樣本,即候選框內(nèi)存在對(duì)象;反之p*i=0則為負(fù)樣本,即候選框?yàn)楸尘?。Ncls表示一個(gè)Minibatch產(chǎn)生的所有候選框數(shù)量,因?yàn)榕袛嗪蜻x框內(nèi)是否存在對(duì)象屬于二分類問(wèn)題,所以Lcls采用常用于二分類問(wèn)題的對(duì)數(shù)損失函數(shù)Log Loss,計(jì)算公式如式(3)。

    Lreg采用衡量預(yù)測(cè)值與真實(shí)標(biāo)簽偏差程度的常見(jiàn)的損失函數(shù)Smooth L1 Loss,計(jì)算公式如式(4),其中ti表示候選框的大小尺寸,t*i則是ti對(duì)應(yīng)的真實(shí)標(biāo)簽,Smooth L1 Loss計(jì)算公式如式(5)。λ為超參數(shù)。

    參數(shù)所處級(jí)別不一致,導(dǎo)致公式 解釋的位置怎么放都有點(diǎn)問(wèn)題;4、5這兩個(gè)公式 在這里到底表達(dá)什么?

    l(θ)=p*ilnpi+(1-p*i)ln(1-pi)??(3)

    Lreg(ti,ti)=∑smoothL1(ti-ti)??(4)

    smoothL1(x)= 0.5x2,???? ?| x | <1 | x | -0.5, 其他? (5)

    2.1.2 候選框特征提取

    假設(shè)L={r1,r2,…,rn}為生成的包含對(duì)象的候選框集合,將矩形框集合L投影到卷積特征映射 F ∈ R w×h×n上再進(jìn)行局部區(qū)域特征提取,從而避免對(duì)矩形框進(jìn)行裁剪或縮放導(dǎo)致的圖像信息缺失,同時(shí)可以減少大量卷積運(yùn)算花費(fèi)的時(shí)間[22]。候選框集合中的任意一個(gè)元素ri={( x i,yi)}ni=1作為情感圖像中生成的候選框樣本,如圖2(a)中的矩形框ri所示。其中 x i通常表示為四維向量,分別表示候選框的中心點(diǎn)坐標(biāo)和寬高;yi∈{0,1}表示候選框內(nèi)對(duì)象對(duì)應(yīng)的情感標(biāo)簽。對(duì)于每一個(gè)候選框樣本,為獲取矩形框內(nèi)多個(gè)層次的語(yǔ)義信息,對(duì)候選框進(jìn)行m種不同粒度的劃分,如圖2(b)中所示。隨后對(duì)劃分的每一子塊bj進(jìn)行最大池化操作得到一系列具有區(qū)分性的特征映射{ f 1,? f 2,…,? f d},d表示劃分后的子塊個(gè)數(shù),計(jì)算式如式(6):

    f i=Gmax(bj)?? (6)

    其中:bj表示劃分后的某一子塊;? f i表示子塊bj對(duì)應(yīng)的特征映射;Gmax(·)表示最大池化操作。最后將所有子塊的特征映射相加從而得到固定維度的局部區(qū)域特征向量,具體表示如式(7):

    L fi=∑ d i=1? f i?? (7)

    本文考慮對(duì)候選框同時(shí)設(shè)置3種劃分尺寸,分別為{3×3,2×2,1×1},最大池化過(guò)程中的步長(zhǎng)和窗口由輸入的矩形框決定。

    2.2 整體圖像特征提取

    整體圖像特征是與圖像的情感表示相關(guān)的重要因素,通常包含圖像整體外觀信息和圖中對(duì)象周?chē)纳舷挛男畔?。本文采用如圖3所示的VGGNet-16框架提取整體圖像特征。VGGNet-16由5個(gè)卷積塊和3個(gè)全連接層組成,作為牛津大學(xué)和DeepMind公司共同研發(fā)的深層神經(jīng)網(wǎng)絡(luò),它比普通的卷積神經(jīng)網(wǎng)絡(luò)擁有更深層的網(wǎng)絡(luò)結(jié)構(gòu)和統(tǒng)一的網(wǎng)絡(luò)配置,使得它在減少參數(shù)的同時(shí)能進(jìn)行更多的非線性變換,從而具備更加出色的特征提取能力。

    具體地,從VGGNet-16的最后一個(gè)全連接層fc7提取圖像整體特征,得到一個(gè)4096維的特征向量,記為 G f,如圖3所示。

    2.3 圖像整體與局部區(qū)域嵌入的情感分類

    深度圖像整體特征和包含對(duì)象的局部區(qū)域特征通過(guò)對(duì)應(yīng)的網(wǎng)絡(luò)架構(gòu)提取到的特征表示分別為 G f和{ L f1, L f2,…, L fm},選擇檢測(cè)到的前m個(gè)對(duì)象來(lái)表示重要的局部區(qū)域信息,因此每張圖像最終可被表示為一組情感信息更加豐富的特征向量 U ={ G f, L f1, L f2,…, L fm}。為了將圖像整體特征與局部區(qū)域特征相結(jié)合,本文采用特征拼接的方法對(duì)兩種特征進(jìn)行融合,具體表示如式(8):

    φ( U )= G f⊕ L f1⊕ L f2⊕…⊕ L fm

    (8)

    其中⊕表示整體特征和局部特征的拼接。

    對(duì)于視覺(jué)情感分類而言,情感標(biāo)簽在訓(xùn)練過(guò)程中的作用不容忽視。本文選擇一種較為簡(jiǎn)單的處理方法,即對(duì)相應(yīng)圖像中檢測(cè)到的局部對(duì)象區(qū)域均賦予與原圖一致的情感極性。在獲得拼接好的聯(lián)合特征向量φ( U )之后,將其送到全連接層,并通過(guò)softmax分類到輸出類別中。為衡量模型損失,本文使用交叉熵定義損失函數(shù),softmax層解釋聯(lián)合特征向量φ( U )到輸出的類別中且分配一個(gè)相對(duì)應(yīng)的概率分?jǐn)?shù)qi,若輸出的情感類別的數(shù)量為s,則:

    qi=exp(φ( U )i) / ∑ s i=1 exp(φ( U )i)?(9)

    l=-∑ s i=1 hi ln(qi)?(10)

    其中:l是網(wǎng)絡(luò)的交叉熵?fù)p失;hi為圖像的真實(shí)情感標(biāo)簽。

    3 實(shí)驗(yàn)結(jié)果及分析

    本章主要評(píng)估本文所提出的方法,并對(duì)比其他通過(guò)整體圖像特征進(jìn)行情感分類的方法,以驗(yàn)證本文方法對(duì)于視覺(jué)情感分析的有效性。

    3.1 數(shù)據(jù)集

    在2個(gè)公共數(shù)據(jù)集TwitterⅠ、TwitterⅡ上對(duì)本文方法進(jìn)行評(píng)估。TwitterⅠ是從社交軟件Twitter中收集的881張包含兩類情感極性(積極和消極)的圖像及其對(duì)應(yīng)的基于群智策略的人工標(biāo)注的情感標(biāo)簽;TwitterⅡ由文獻(xiàn)[15]提供,包含1269張同樣來(lái)自于Twitter中的圖像,由5名亞馬遜勞務(wù)眾包平臺(tái)(Amazon Mechanical Turk, AMT)

    為對(duì)應(yīng)的圖像標(biāo)注兩類情感極性標(biāo)簽。這兩個(gè)數(shù)據(jù)集均采用隨機(jī)劃分的方式將80%的樣本作為訓(xùn)練集,剩下的20%作為測(cè)試集。

    3.2 實(shí)驗(yàn)設(shè)置

    實(shí)驗(yàn)開(kāi)發(fā)環(huán)境為L(zhǎng)inux-Ubuntu14.04, Python 2.7, Tensorflow 1.3.0,開(kāi)發(fā)工具為PyCharm。TwitterⅠ和TwitterⅡ數(shù)據(jù)集均在Tesla P100-PCIE GPU工作站上完成。提取圖像整體特征采用的網(wǎng)絡(luò)架構(gòu)為CNN框架VGGNet-16,與Faster R-CNN模型生成卷積特征映射的網(wǎng)絡(luò)架構(gòu)一致,這是為后續(xù)進(jìn)行特征向量拼接做準(zhǔn)備。輸入圖像尺寸為224×224,選擇MomentumOptimizer優(yōu)化器對(duì)模型進(jìn)行優(yōu)化, Momentum表示動(dòng)能優(yōu)化,非變量,是代碼中的概念名稱 Momentum設(shè)為0.9,學(xué)習(xí)率設(shè)為0.001。模型采用Dropout策略,Dropout值設(shè)為0.5。選用交叉熵作為模型損失函數(shù),并利用L2范式防止過(guò)擬合,訓(xùn)練迭代次數(shù)共100個(gè)epochs。提取局部區(qū)域特征則利用Faster R-CNN模型,采用大規(guī)模檢測(cè)數(shù)據(jù)集PASCAL VOC 2007進(jìn)行預(yù)訓(xùn)練并初始化模型權(quán)重,接著利用ImageLab標(biāo)注工具對(duì)情感圖像數(shù)據(jù)集中的人、車(chē)等5類對(duì)象進(jìn)行目標(biāo)檢測(cè)標(biāo)簽標(biāo)注,此時(shí)數(shù)據(jù)集既包含情感標(biāo)簽也包含目標(biāo)檢測(cè)標(biāo)簽(包含對(duì)象的矩形框的中心點(diǎn)坐標(biāo)和寬高)。利用該數(shù)據(jù)集對(duì)已訓(xùn)練好的Faster R-CNN模型進(jìn)行微調(diào),從而獲得包含對(duì)象的局部區(qū)域。Faster R-CNN的初步特征提取網(wǎng)絡(luò)同樣選擇VGGNet-16,調(diào)整其候選框區(qū)域池化層,池化核采用3×3,2×2,1×1,以適應(yīng)本文數(shù)據(jù)集。

    3.3 對(duì)比方法

    為驗(yàn)證本文方法的有效性,將本文方法與特征工程方法和基于CNN框架提取圖像整體特征的方法進(jìn)行對(duì)比,包括

    SentiBank模型、DeepSentiBank模型以及ImageNet數(shù)據(jù)集微調(diào)的AlexNet和VGGNet-16模型。對(duì)比方法均在本文的兩個(gè)情感圖像數(shù)據(jù)集TwitterⅠ、TwitterⅡ上進(jìn)行測(cè)試評(píng)估,輸入圖像尺寸均為224×224。此外,本文考慮忽略整體圖像的情況,僅采用局部對(duì)象區(qū)域特征提取網(wǎng)絡(luò)進(jìn)行情感二分類實(shí)驗(yàn)。具體說(shuō)明如下:

    SentiBank:通過(guò)組建形容詞名詞短語(yǔ)對(duì)(ANP)提取圖像中的視覺(jué)概念中層表示,該表示被視為圖像特征來(lái)學(xué)習(xí)情感預(yù)測(cè)分類器[12]。

    DeepSentiBank:利用深度卷積神經(jīng)網(wǎng)絡(luò)在大型數(shù)據(jù)集上訓(xùn)練的視覺(jué)情感概念分類器,即SentiBank的改良版[14]。

    ImageNet-AlexNet:利用遷移學(xué)習(xí)的思想,將AlexNet在ImageNet數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練并在情感數(shù)據(jù)集上進(jìn)行微調(diào),用于視覺(jué)情感分析[23]。

    ImageNet-VGGNet-16:與ImageNet-AlexNet模型思路相同,區(qū)別在于網(wǎng)絡(luò)換成了更深層的VGGNet-16[20]。

    Local regions-Net:忽略圖像整體特征提取,利用Faster R-CNN直接捕捉圖像中的局部對(duì)象區(qū)域,然后通過(guò)全連接網(wǎng)絡(luò)學(xué)習(xí)局部對(duì)象區(qū)域的情感表示,將該表示作為圖像情感特征訓(xùn)練情感分類器。

    3.4 結(jié)果分析

    表1是本文方法與對(duì)比方法在兩個(gè)真實(shí)數(shù)據(jù)集TwitterⅠ、TwitterⅡ上得到的分類準(zhǔn)確率。由表1可知:本文方法在數(shù)據(jù)集TwitterⅠ和TwitterⅡ上的分類準(zhǔn)確率分別達(dá)到了7581%和78.90%,而對(duì)比方法SentiBank模型在數(shù)據(jù)集TwitterⅠ和TwitterⅡ上的準(zhǔn)確率僅為66.63%和65.93%;同時(shí),本文方法在數(shù)據(jù)集TwitterⅠ、TwitterⅡ上的分類效果相比DeepSentibank模型分別提高了4.56個(gè)百分點(diǎn)和8.67個(gè)百分點(diǎn)。這表明本文方法在視覺(jué)情感分析中能夠?qū)W習(xí)更具區(qū)分性的表示。

    如圖4所示,本文方法對(duì)來(lái)自TwitterⅡ數(shù)據(jù)集中的驗(yàn)證樣例進(jìn)行情感極性預(yù)測(cè),通過(guò)檢測(cè)圖中突顯情感的物理對(duì)象來(lái)加強(qiáng)視覺(jué)情感分類的效果。圖4(a)通過(guò)檢測(cè)微笑的人臉,提取該區(qū)域特征然后結(jié)合圖像整體特征和局部對(duì)象區(qū)域特征以加強(qiáng)情感表示,最后預(yù)測(cè)圖像情感極性為積極,與圖像原始標(biāo)簽一致,即正確樣例;圖4(b)檢測(cè)出圖中舉手示意的人,但忽略了圖中背景中燃燒的火焰,最后預(yù)測(cè)圖像情感為積極,即錯(cuò)誤樣例。

    此外,本文還對(duì)比了微調(diào)之后的深度神經(jīng)網(wǎng)絡(luò)AlexNet和VGGNet-16架構(gòu),在相同的參數(shù)設(shè)置下,微調(diào)后的VGGNet-16在數(shù)據(jù)集TwitterⅠ、TwitterⅡ上準(zhǔn)確率均提高了約10個(gè)百分點(diǎn)。實(shí)驗(yàn)結(jié)果驗(yàn)證了結(jié)合局部對(duì)象區(qū)域表示的有效性。

    同樣還對(duì)比了僅考慮局部區(qū)域提取網(wǎng)絡(luò),仍采用相同的參數(shù)設(shè)置,它們?cè)跀?shù)據(jù)集TwitterⅠ、TwitterⅡ上的情感分類準(zhǔn)確率同樣低于本文方法,且同樣低于特征工程方法和基于CNN框架提取圖像整體特征的方法。

    本文方法還與基于CNN框架提取圖像整體特征的方法進(jìn)行了算法效率比較,如表1最后一列所示,該列表示本文方法與對(duì)比方法在TwitterⅠ數(shù)據(jù)集上進(jìn)行迭代訓(xùn)練時(shí)的收斂速度??梢钥吹?,本文方法在進(jìn)行80次迭代后即達(dá)到收斂,且準(zhǔn)確率達(dá)到75.81%,而ImageNet-AlexNet模型和ImageNet-VGGNet-16模型分別需要進(jìn)行150次和100次的迭代訓(xùn)練才能達(dá)到收斂,且分類準(zhǔn)確率要低于本文方法。這表明本文方法能夠更快速地學(xué)習(xí)具有判別性的情感表示,同時(shí)能獲得更好的分類效果。

    最后,我們對(duì)利用情感圖像訓(xùn)練目標(biāo)檢測(cè)模型的遷移參數(shù)策略進(jìn)行了收斂實(shí)驗(yàn)分析,選擇目標(biāo)檢測(cè)數(shù)據(jù)集PASCAL VOC 2007迭代70000次訓(xùn)練后的Faster R-CNN模型參數(shù)作為模型初始化參數(shù),然后利用情感圖像再次訓(xùn)練Faster R-CNN,訓(xùn)練得到的平均準(zhǔn)確率為62.8%,而Faster R-CNN模型在PASCAL VOC 2007測(cè)試集上的平均準(zhǔn)確率為68.5%??紤]到目標(biāo)檢測(cè)圖像比情感圖像要多4倍左右,且目標(biāo)檢測(cè)真實(shí)標(biāo)簽更加精確,因此6個(gè)百分點(diǎn)左右的差距是可以接受的,同時(shí)也說(shuō)明利用參數(shù)遷移策略是行之有效的。

    4 結(jié)語(yǔ)

    視覺(jué)情感分析正在獲得越來(lái)越多的關(guān)注,考慮到圖像的情感不僅僅來(lái)自于圖像整體,圖像中包含對(duì)象的局部區(qū)域同樣能誘發(fā)情感,本文提出了一個(gè)新穎的圖像整體與局部區(qū)域嵌入的方法以加強(qiáng)圖像情感表示并用于視覺(jué)情感分析。該方法首先利用Faster R-CNN模型檢測(cè)圖像中的對(duì)象,通過(guò)深層神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)圖像局部區(qū)域的情感表示,并將其與圖像整體特征進(jìn)行融合,從而獲得更具有判別性的情感表示。在兩個(gè)真實(shí)數(shù)據(jù)集TwitterⅠ和TwitterⅡ上評(píng)估驗(yàn)證了本文方法的有效性,且實(shí)驗(yàn)結(jié)果表明本文提出的圖像整體與局部區(qū)域嵌入的視覺(jué)情感分析方法要優(yōu)于僅從圖像整體和僅從局部區(qū)域?qū)W習(xí)情感表示的方法。

    然而在本文研究中僅考慮利用圖像中包含對(duì)象的局部區(qū)域情感來(lái)加強(qiáng)視覺(jué)情感分析,并沒(méi)有考慮捕捉圖像中能誘發(fā)情感的其他區(qū)域。因此在未來(lái)的工作中將考慮通過(guò)弱監(jiān)督學(xué)習(xí)等方法更精確地發(fā)現(xiàn)視覺(jué)圖像中的情感區(qū)域,設(shè)計(jì)更合理的特征提取網(wǎng)絡(luò)以進(jìn)一步提高視覺(jué)情感分析的效果。

    參考文獻(xiàn) (References)

    [1]? JIN X, GALLAGHER A, CAO L, et al. The wisdom of social multimedia: using flickr for prediction and forecast [C]// Proceedings of the 18th ACM International Conference on Multimedia. New York:ACM, 2010: 1235-1244.

    [2]? YUAN J, MCDONOUGH S, YOU Q, et al. Sentribute: image sentiment analysis from a mid-level perspective [C]// Proceedings of the 2nd International Workshop on Issues of Sentiment Discovery and Opinion Mining. New York: ACM, 2013: Article No.10.

    [3]? YANG J, SHE D, LAI Y, et al. Weakly supervised coupled networks for visual sentiment analysis [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2018: 7584-7592.

    [4]? WANG X, JIA J, HU P, et al. Understanding the emotional impact of images [C]// Proceedings of the 20th ACM International Conference on Multimedia. New York: ACM, 2012: 1369-1370.

    [5]? CHENG Y, CHEN S. Image classification using color, texture and regions [J]. Image & Vision Computing, 2003, 21(9): 759-776.

    [6]IQBAL Q, AGGARWAL J K. Retrieval by classification of images containing large manmade objects using perceptual grouping [J]. Pattern Recognition, 2002, 35(7): 1463-1479.

    [7] ?KARPATHY A, TODERICI G, SHETTY S, et al. Large-scale ?video classification with convolutional neural networks [C]// Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2014: 1725-1732.

    [8]? CHEN M, ZHANG L, ALLEBACH J P. Learning deep features for image emotion classification [C]// Proceedings of the 2015 IEEE International Conference on Image Processing. Piscataway, NJ: IEEE, 2015:4491-4495.

    [9]? SZEGEDY C, LIU W, JIA Y, et al. Going deeper with convolutions [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC:IEEE Computer Society, 2015: 1-9.

    [10] YOU Q, LUOO J, JIN H, et al. Building a large scale dataset for image emotion recognition: the fine print and the benchmark [J]. arXiv E-print, 2018: arXiv:1605.02677.

    Proceedings of the 13th AAAI Conference on Artificial Intelligence. Barcelona: AAAI Press, 2016: 308-314.沒(méi)查到這個(gè)信息

    [11] 呂鵬霄.圖像情感分類研究[D].秦皇島:燕山大學(xué),2014:1-15. (LYU P X. Research on image emotion categorization [D]. Qinhuangdao: Yanshan University, 2014:1-15.)

    [12]? YANULEVSKAYA V, van GEMERT J C, ROTH K, et al. Emotional valence categorization using holistic image features [C]// Proceedings of the 2008 15th IEEE International Conference on Image Processing. Piscataway, NJ: IEEE, 2008: 101-104.

    [13]? BORTH D, JI R, CHEN T, et al. Large-scale visual sentiment ontology and detectors using adjective noun pairs [C]// Proceedings of the 21st ACM International Conference on Multimedia. New York:ACM, 2013: 223-232.

    [14]? CHEN T, BORTH D, DARRELL T, et al. DeepSentiBank: visual sentiment concept classification with deep convolutional neural networks [J]. arXiv E-print, 2014: arXiv:1410.8586.

    [EB/OL]. [2018-10-18]. https://arxiv.org/pdf/1410.8586.pdf.

    [15]? YOU Q, LUO J, JIN H, et al. Robust image sentiment analysis using progressively trained and domain transferred deep networks [C]// Proceedings of the Twenty-Ninth AAAI Conference on Artificial Intelligence. Menlo Park, CA: AAAI, 2015: 381-388.

    [16]? ?CAMPOS V, SALVADOR A, GIRO-I-NIETO X, et al. Diving? deep into sentiment: understanding fine-tuned CNNs for visual sentiment prediction [C]// Proceedings of the 1st International Workshop on Affect and Sentiment in Multimedia. New York: ACM, 2015: 57-62.

    [17]? CAMPOS V, JOU B, GIRó-I-NIETO X. From pixels to sentiment: fine-tuning CNNs for visual sentiment prediction [J]. Image & Vision Computing, 2017, 65: 15-22.

    [18] SUN M, YANG J, WANG K, et al. Discovering affective regions in deep convolutional neural networks for visual sentiment prediction [C]// Proceedings of the 2016 IEEE International Conference on Multimedia and Expo. Piscataway, NJ: IEEE, 2016:1-6.

    [19] LI B, XIONG W, HU W, et al. Context-aware affective images classification based on bilayer sparse representation [C]// Proceedings of the 2012 ACM International Conference on Multimedia. New York: ACM, 2012: 721-724.

    [20] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition [J]. arXiv E-print, 2018: arXiv:1409.1556.?[EB/OL]. [2018-11-15]. https://arxiv.org/abs/1409.1556.

    [21]? REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks [C]// Proceedings of the 2015 International Conference on Neural Information Processing Systems. Cambridge, MA: MIT Press, 2015: 91-99.

    [22]? HE K, ZHANG X, REN S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2015, 37(9):1904-1916.

    [23]? KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks [C]// Proceedings of the 25th International Conference on Neural Information Processing Systems. North Miami Beach, FL: Curran Associates Inc., 2012: 1097-1105.

    猜你喜歡
    情感分析社交媒體神經(jīng)網(wǎng)絡(luò)
    基于人工智能LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)成績(jī)預(yù)測(cè)
    基于圖像處理與卷積神經(jīng)網(wǎng)絡(luò)的零件識(shí)別
    基于自適應(yīng)神經(jīng)網(wǎng)絡(luò)的電網(wǎng)穩(wěn)定性預(yù)測(cè)
    三次樣條和二次刪除相輔助的WASD神經(jīng)網(wǎng)絡(luò)與日本人口預(yù)測(cè)
    基于SVM的產(chǎn)品評(píng)論情感分析系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
    基于詞典與機(jī)器學(xué)習(xí)的中文微博情感分析
    在線評(píng)論情感屬性的動(dòng)態(tài)變化
    基于社交媒體的廣告學(xué)專業(yè)教學(xué)改革與實(shí)踐
    “雙微時(shí)代”的危機(jī)傳播趨勢(shì)和影響因素研究
    文本觀點(diǎn)挖掘和情感分析的研究
    日韩欧美国产在线观看| 欧美最新免费一区二区三区| 免费看a级黄色片| 91麻豆精品激情在线观看国产| 国产精品av视频在线免费观看| 麻豆国产97在线/欧美| 国产精品人妻久久久影院| 国国产精品蜜臀av免费| 色综合站精品国产| 我要搜黄色片| 久久久国产成人精品二区| 最近最新中文字幕大全电影3| 久久久久免费精品人妻一区二区| 亚洲一区二区三区色噜噜| 国产av在哪里看| 色吧在线观看| 亚洲高清免费不卡视频| 午夜久久久久精精品| 亚洲精华国产精华液的使用体验 | 深夜a级毛片| 日韩制服骚丝袜av| 男女之事视频高清在线观看| 国产精品一区www在线观看| 午夜福利成人在线免费观看| 日本熟妇午夜| 2021天堂中文幕一二区在线观| 变态另类丝袜制服| 午夜精品在线福利| 丝袜喷水一区| 成人av一区二区三区在线看| 国产成人91sexporn| 国产精品爽爽va在线观看网站| 黄色视频,在线免费观看| 少妇的逼好多水| 性插视频无遮挡在线免费观看| 韩国av在线不卡| 久久人妻av系列| 联通29元200g的流量卡| 亚洲国产日韩欧美精品在线观看| 尾随美女入室| 高清午夜精品一区二区三区 | 大香蕉久久网| 91av网一区二区| 亚洲内射少妇av| 1024手机看黄色片| 日本一本二区三区精品| 免费观看在线日韩| 97在线视频观看| 春色校园在线视频观看| 久久久久久久久久久丰满| 亚洲av二区三区四区| 人人妻人人澡欧美一区二区| 99热只有精品国产| 久久九九热精品免费| 亚洲人成网站在线播| 国产精品不卡视频一区二区| 国产av在哪里看| 亚洲精品粉嫩美女一区| 一级毛片久久久久久久久女| 天美传媒精品一区二区| 男女之事视频高清在线观看| 超碰av人人做人人爽久久| 日日干狠狠操夜夜爽| 久久久国产成人免费| 99久久成人亚洲精品观看| 国产高清不卡午夜福利| 免费av毛片视频| 变态另类丝袜制服| 狂野欧美白嫩少妇大欣赏| 精品久久久噜噜| 精品福利观看| 国产精品一及| 99久久无色码亚洲精品果冻| 最近在线观看免费完整版| 精品99又大又爽又粗少妇毛片| 人人妻人人看人人澡| 熟妇人妻久久中文字幕3abv| 国产一区二区三区av在线 | 99在线人妻在线中文字幕| 好男人在线观看高清免费视频| 女人被狂操c到高潮| 小蜜桃在线观看免费完整版高清| 婷婷亚洲欧美| 国产蜜桃级精品一区二区三区| 日日干狠狠操夜夜爽| 夜夜夜夜夜久久久久| 国产探花极品一区二区| 91午夜精品亚洲一区二区三区| 亚洲18禁久久av| 1024手机看黄色片| a级一级毛片免费在线观看| 成年版毛片免费区| 国产高清视频在线观看网站| 好男人在线观看高清免费视频| 国产又黄又爽又无遮挡在线| 男女啪啪激烈高潮av片| 国产精品人妻久久久影院| 男女视频在线观看网站免费| 亚洲三级黄色毛片| 99久久久亚洲精品蜜臀av| 国产午夜精品久久久久久一区二区三区 | 久久久精品94久久精品| 午夜福利高清视频| 深爱激情五月婷婷| 老司机影院成人| 国产美女午夜福利| 久久久精品大字幕| 国产精品人妻久久久久久| av中文乱码字幕在线| 国国产精品蜜臀av免费| a级毛色黄片| 一个人看视频在线观看www免费| 国产乱人视频| 超碰av人人做人人爽久久| 亚洲人成网站在线播| 少妇熟女aⅴ在线视频| 国产三级在线视频| 毛片一级片免费看久久久久| 亚洲人成网站高清观看| 国产女主播在线喷水免费视频网站 | 蜜桃亚洲精品一区二区三区| 九九爱精品视频在线观看| 天堂影院成人在线观看| 亚洲人成网站在线播| 极品教师在线视频| 亚洲欧美精品综合久久99| 国产综合懂色| 国产色婷婷99| 日韩成人伦理影院| 人人妻人人看人人澡| 亚洲av二区三区四区| 国产女主播在线喷水免费视频网站 | 成人鲁丝片一二三区免费| 久久久久精品国产欧美久久久| 波多野结衣巨乳人妻| 99久久久亚洲精品蜜臀av| 99热只有精品国产| 欧美xxxx性猛交bbbb| 麻豆一二三区av精品| 精品人妻偷拍中文字幕| 美女黄网站色视频| 亚洲四区av| 精品久久久久久久久久免费视频| 22中文网久久字幕| 男女视频在线观看网站免费| 午夜精品一区二区三区免费看| 三级男女做爰猛烈吃奶摸视频| 亚洲av美国av| 最近的中文字幕免费完整| 丝袜喷水一区| 国产三级中文精品| 欧美激情在线99| 成年女人毛片免费观看观看9| av福利片在线观看| 波多野结衣高清作品| 一本一本综合久久| 国产精品人妻久久久久久| av在线观看视频网站免费| 成人漫画全彩无遮挡| 中出人妻视频一区二区| 人妻制服诱惑在线中文字幕| 91麻豆精品激情在线观看国产| 免费人成视频x8x8入口观看| 老女人水多毛片| 欧美日韩一区二区视频在线观看视频在线 | 天堂av国产一区二区熟女人妻| 91午夜精品亚洲一区二区三区| 日日干狠狠操夜夜爽| 真实男女啪啪啪动态图| 亚洲精品日韩在线中文字幕 | 俺也久久电影网| 国产又黄又爽又无遮挡在线| 97碰自拍视频| 中国美女看黄片| 最近最新中文字幕大全电影3| 国产午夜福利久久久久久| av免费在线看不卡| 18禁裸乳无遮挡免费网站照片| 春色校园在线视频观看| 中文字幕av在线有码专区| 婷婷精品国产亚洲av在线| 天堂动漫精品| 久久99热6这里只有精品| 欧美日韩综合久久久久久| 久久久久久久久久黄片| 亚洲国产精品成人综合色| 欧美成人a在线观看| 最近最新中文字幕大全电影3| 亚洲成人av在线免费| 国产精品av视频在线免费观看| 乱人视频在线观看| 精品午夜福利视频在线观看一区| av.在线天堂| 国产精品一区二区三区四区久久| 午夜老司机福利剧场| 久99久视频精品免费| 国产黄色视频一区二区在线观看 | 看片在线看免费视频| 老司机影院成人| 国产亚洲欧美98| 99热这里只有精品一区| 高清毛片免费看| 精品久久久久久久久久免费视频| 一本精品99久久精品77| h日本视频在线播放| 久久精品夜夜夜夜夜久久蜜豆| 久久久精品欧美日韩精品| 久久午夜福利片| 久久久色成人| 欧美一级a爱片免费观看看| 欧美最新免费一区二区三区| 日韩人妻高清精品专区| 久久99热这里只有精品18| 在线观看一区二区三区| 高清日韩中文字幕在线| av在线天堂中文字幕| 亚洲四区av| 亚洲国产精品国产精品| 日韩成人伦理影院| 12—13女人毛片做爰片一| 国产精品国产三级国产av玫瑰| 最近中文字幕高清免费大全6| av女优亚洲男人天堂| 中文在线观看免费www的网站| 人人妻人人看人人澡| av天堂中文字幕网| 亚洲美女黄片视频| 亚洲精品粉嫩美女一区| 午夜精品在线福利| 十八禁国产超污无遮挡网站| 久久人人精品亚洲av| av卡一久久| 99热这里只有是精品50| 午夜a级毛片| 亚洲av免费高清在线观看| 久久亚洲国产成人精品v| 91麻豆精品激情在线观看国产| 国产精品美女特级片免费视频播放器| 亚洲色图av天堂| 久久久久久久午夜电影| 国产91av在线免费观看| 亚洲激情五月婷婷啪啪| 欧美色视频一区免费| 搡老熟女国产l中国老女人| avwww免费| 欧美成人a在线观看| 精品久久久噜噜| 2021天堂中文幕一二区在线观| 一夜夜www| 中文字幕久久专区| eeuss影院久久| 午夜免费激情av| 久久久久久久久久成人| 亚洲18禁久久av| 麻豆av噜噜一区二区三区| 欧美三级亚洲精品| 女人十人毛片免费观看3o分钟| 精品一区二区三区av网在线观看| 色噜噜av男人的天堂激情| 亚洲欧美日韩高清专用| 老熟妇乱子伦视频在线观看| a级毛片免费高清观看在线播放| 国产v大片淫在线免费观看| 国产视频一区二区在线看| 观看美女的网站| 最近最新中文字幕大全电影3| 日韩人妻高清精品专区| 亚洲av熟女| 99热这里只有是精品50| 国产一区二区在线观看日韩| 少妇熟女欧美另类| 99视频精品全部免费 在线| 久久久久久国产a免费观看| 国产大屁股一区二区在线视频| 精品人妻偷拍中文字幕| 99riav亚洲国产免费| 精品少妇黑人巨大在线播放 | 久久午夜福利片| 久久久久久久亚洲中文字幕| 亚洲av中文av极速乱| 免费搜索国产男女视频| 国产精品人妻久久久久久| 黑人高潮一二区| 成人二区视频| 国产高清视频在线播放一区| 免费人成视频x8x8入口观看| 97超碰精品成人国产| 九九久久精品国产亚洲av麻豆| 可以在线观看的亚洲视频| 天天一区二区日本电影三级| 97在线视频观看| 国产91av在线免费观看| 欧美又色又爽又黄视频| 观看美女的网站| 男女那种视频在线观看| 久久精品久久久久久噜噜老黄 | 久久这里只有精品中国| 99在线视频只有这里精品首页| 国产精品乱码一区二三区的特点| 国产私拍福利视频在线观看| 欧美中文日本在线观看视频| 精品人妻偷拍中文字幕| 麻豆国产av国片精品| 国产老妇女一区| 亚洲av熟女| 国产伦一二天堂av在线观看| 狂野欧美激情性xxxx在线观看| 级片在线观看| 日本 av在线| 日本黄色片子视频| 亚洲精品一区av在线观看| 国产欧美日韩一区二区精品| 人妻夜夜爽99麻豆av| 男插女下体视频免费在线播放| 三级经典国产精品| 综合色丁香网| 欧美最黄视频在线播放免费| 国产精品久久久久久精品电影| 97超级碰碰碰精品色视频在线观看| 两性午夜刺激爽爽歪歪视频在线观看| 天堂动漫精品| 久久久久精品国产欧美久久久| 中文亚洲av片在线观看爽| 我要搜黄色片| 日韩欧美在线乱码| 美女黄网站色视频| 色尼玛亚洲综合影院| 天天躁夜夜躁狠狠久久av| 国产精品久久视频播放| 亚洲av中文字字幕乱码综合| eeuss影院久久| 亚洲国产精品成人久久小说 | 悠悠久久av| av在线播放精品| 亚洲丝袜综合中文字幕| 国产一区二区在线观看日韩| 精品人妻熟女av久视频| 高清午夜精品一区二区三区 | 又黄又爽又刺激的免费视频.| 亚洲精品在线观看二区| 午夜老司机福利剧场| 欧美激情国产日韩精品一区| 99热只有精品国产| 一卡2卡三卡四卡精品乱码亚洲| 22中文网久久字幕| 亚洲精品久久国产高清桃花| 国产成人freesex在线 | 淫妇啪啪啪对白视频| 亚洲欧美日韩无卡精品| 熟女人妻精品中文字幕| 精品一区二区三区视频在线观看免费| 亚洲婷婷狠狠爱综合网| 亚洲最大成人中文| 激情 狠狠 欧美| 免费av观看视频| 色综合站精品国产| 91在线观看av| 免费大片18禁| 久久久欧美国产精品| 日韩欧美一区二区三区在线观看| 精品久久久久久久末码| 免费看av在线观看网站| 少妇熟女aⅴ在线视频| 久久久精品94久久精品| 十八禁国产超污无遮挡网站| 最新中文字幕久久久久| 在线看三级毛片| 亚洲中文字幕一区二区三区有码在线看| а√天堂www在线а√下载| 国产激情偷乱视频一区二区| 免费高清视频大片| 欧美成人免费av一区二区三区| 三级国产精品欧美在线观看| 99riav亚洲国产免费| 久久久久国产精品人妻aⅴ院| 九色成人免费人妻av| 欧美成人精品欧美一级黄| 国产精品久久久久久亚洲av鲁大| 欧美xxxx性猛交bbbb| 亚洲经典国产精华液单| 长腿黑丝高跟| 午夜福利在线观看吧| 国产v大片淫在线免费观看| 老熟妇乱子伦视频在线观看| 国产精品av视频在线免费观看| 美女高潮的动态| 男女啪啪激烈高潮av片| 老司机影院成人| 九九在线视频观看精品| av视频在线观看入口| 精品国内亚洲2022精品成人| 婷婷六月久久综合丁香| 如何舔出高潮| 91av网一区二区| 男插女下体视频免费在线播放| 日韩精品中文字幕看吧| 嫩草影院新地址| 欧美高清成人免费视频www| 久久精品夜夜夜夜夜久久蜜豆| 一级黄片播放器| 一区二区三区高清视频在线| 亚洲最大成人手机在线| 你懂的网址亚洲精品在线观看 | 亚洲人成网站高清观看| 91麻豆精品激情在线观看国产| 精品99又大又爽又粗少妇毛片| 亚洲中文字幕一区二区三区有码在线看| 一区二区三区免费毛片| 美女被艹到高潮喷水动态| 99热只有精品国产| 老女人水多毛片| 草草在线视频免费看| 欧美中文日本在线观看视频| 日日啪夜夜撸| 精品无人区乱码1区二区| 1000部很黄的大片| 久久久色成人| 国产精品久久久久久久电影| 国产成人影院久久av| 国产精品乱码一区二三区的特点| 国产精品精品国产色婷婷| 国产精品野战在线观看| 亚洲av免费在线观看| av黄色大香蕉| 男女做爰动态图高潮gif福利片| 干丝袜人妻中文字幕| 午夜福利在线在线| 少妇人妻精品综合一区二区 | 性欧美人与动物交配| 此物有八面人人有两片| 国产麻豆成人av免费视频| 亚洲国产高清在线一区二区三| 久久午夜福利片| 亚洲人成网站在线观看播放| 精品乱码久久久久久99久播| 国产高清三级在线| 五月玫瑰六月丁香| 午夜精品一区二区三区免费看| 九色成人免费人妻av| 91在线观看av| 1024手机看黄色片| 18+在线观看网站| 久久久久久久午夜电影| 免费一级毛片在线播放高清视频| or卡值多少钱| 免费无遮挡裸体视频| 亚洲va在线va天堂va国产| 身体一侧抽搐| 在线看三级毛片| 成人三级黄色视频| 99热这里只有精品一区| 美女黄网站色视频| 久久久久久久久中文| 亚洲av第一区精品v没综合| 婷婷精品国产亚洲av| 男人的好看免费观看在线视频| av在线蜜桃| 国产日本99.免费观看| 一a级毛片在线观看| 国产色爽女视频免费观看| 97在线视频观看| 内射极品少妇av片p| 少妇猛男粗大的猛烈进出视频 | 18禁黄网站禁片免费观看直播| 亚洲av免费在线观看| 欧美极品一区二区三区四区| 国产私拍福利视频在线观看| 麻豆一二三区av精品| 一个人免费在线观看电影| 变态另类成人亚洲欧美熟女| 麻豆国产av国片精品| 三级国产精品欧美在线观看| 最近手机中文字幕大全| h日本视频在线播放| 深爱激情五月婷婷| 国产伦精品一区二区三区四那| 一区福利在线观看| 99热全是精品| 国产精品久久久久久亚洲av鲁大| 亚洲精品成人av观看孕妇| 日产精品乱码卡一卡2卡三| 国产中年淑女户外野战色| 中文天堂在线官网| 插阴视频在线观看视频| av天堂中文字幕网| 性色avwww在线观看| av有码第一页| av国产精品久久久久影院| 伊人久久精品亚洲午夜| 亚洲av电影在线观看一区二区三区| 日韩在线高清观看一区二区三区| √禁漫天堂资源中文www| 午夜免费男女啪啪视频观看| 黑人猛操日本美女一级片| 精品一区二区三卡| 亚洲美女视频黄频| 亚洲av不卡在线观看| 国产午夜精品久久久久久一区二区三区| 国产黄色视频一区二区在线观看| 夫妻性生交免费视频一级片| 91在线精品国自产拍蜜月| 麻豆成人av视频| 99九九线精品视频在线观看视频| 另类亚洲欧美激情| 国产男女内射视频| 欧美一级a爱片免费观看看| 久久精品久久久久久噜噜老黄| 91精品国产九色| 成人黄色视频免费在线看| 麻豆精品久久久久久蜜桃| 日韩av不卡免费在线播放| 曰老女人黄片| 免费观看av网站的网址| 中文字幕精品免费在线观看视频 | 在线 av 中文字幕| 街头女战士在线观看网站| 精品亚洲乱码少妇综合久久| 国产视频首页在线观看| 亚洲成人av在线免费| 一级黄片播放器| 视频区图区小说| 亚洲丝袜综合中文字幕| 啦啦啦视频在线资源免费观看| 午夜福利在线观看免费完整高清在| 在线免费观看不下载黄p国产| 国产一区二区在线观看日韩| 免费少妇av软件| 国产精品女同一区二区软件| 精品国产露脸久久av麻豆| 国产精品国产三级国产专区5o| 一区二区av电影网| 国产精品国产av在线观看| 国产成人免费无遮挡视频| 欧美精品人与动牲交sv欧美| 蜜桃久久精品国产亚洲av| 国产亚洲91精品色在线| 不卡视频在线观看欧美| 五月天丁香电影| 国产真实伦视频高清在线观看| 午夜影院在线不卡| 人人妻人人添人人爽欧美一区卜| 大话2 男鬼变身卡| 三上悠亚av全集在线观看 | 国产伦在线观看视频一区| 精品国产国语对白av| 日产精品乱码卡一卡2卡三| 乱码一卡2卡4卡精品| 我要看日韩黄色一级片| 肉色欧美久久久久久久蜜桃| 亚洲精品456在线播放app| 大码成人一级视频| 黄色配什么色好看| 简卡轻食公司| 99久久精品热视频| 国产成人午夜福利电影在线观看| 毛片一级片免费看久久久久| 日韩人妻高清精品专区| 久久久久久久久久久丰满| 青春草亚洲视频在线观看| 人体艺术视频欧美日本| 婷婷色av中文字幕| 国产亚洲欧美精品永久| 久久久久久久久久久免费av| 久久精品国产亚洲网站| 爱豆传媒免费全集在线观看| 欧美日本中文国产一区发布| 免费观看的影片在线观看| 国产黄频视频在线观看| 国产免费又黄又爽又色| 久久久久久久精品精品| 我的老师免费观看完整版| 女的被弄到高潮叫床怎么办| 国产亚洲欧美精品永久| 色94色欧美一区二区| 三级国产精品片| av又黄又爽大尺度在线免费看| 免费大片黄手机在线观看| 丝袜脚勾引网站| www.色视频.com| 日日摸夜夜添夜夜添av毛片| 色婷婷久久久亚洲欧美| 久久精品国产自在天天线| 国产午夜精品一二区理论片| 婷婷色综合www| 日韩中字成人| 另类亚洲欧美激情| 99久久精品国产国产毛片| 少妇被粗大猛烈的视频| 国产精品人妻久久久久久| 久久国内精品自在自线图片| 99热国产这里只有精品6| 国产又色又爽无遮挡免| 插阴视频在线观看视频| 69精品国产乱码久久久| 亚洲人成网站在线观看播放| 中文字幕精品免费在线观看视频 | 自拍偷自拍亚洲精品老妇| 又黄又爽又刺激的免费视频.| 国精品久久久久久国模美| 国产黄色免费在线视频| 国产成人精品一,二区| 午夜福利视频精品| 国产精品成人在线| 国产色婷婷99| 久久午夜福利片| 国产 一区精品| 国产在线男女| 大香蕉97超碰在线| 视频区图区小说| 国产伦在线观看视频一区| 人妻少妇偷人精品九色| 色婷婷av一区二区三区视频| 国产一区二区三区综合在线观看 | 亚洲精品日本国产第一区| 国产一区二区在线观看av|