• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)的圖像標(biāo)注方法

    2017-04-17 05:18:48高耀東侯凌燕楊大利
    計(jì)算機(jī)應(yīng)用 2017年1期
    關(guān)鍵詞:池化標(biāo)簽準(zhǔn)確率

    高耀東,侯凌燕,楊大利

    (北京信息科技大學(xué) 計(jì)算機(jī)學(xué)院,北京 100101)

    (*通信作者電子郵箱bistu2015@gmail.com)

    基于多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)的圖像標(biāo)注方法

    高耀東*,侯凌燕,楊大利

    (北京信息科技大學(xué) 計(jì)算機(jī)學(xué)院,北京 100101)

    (*通信作者電子郵箱bistu2015@gmail.com)

    針對(duì)圖像自動(dòng)標(biāo)注中因人工選擇特征而導(dǎo)致信息缺失的缺點(diǎn),提出使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)樣本進(jìn)行自主特征學(xué)習(xí)。為了適應(yīng)圖像自動(dòng)標(biāo)注的多標(biāo)簽學(xué)習(xí)的特點(diǎn)以及提高對(duì)低頻詞匯的召回率,首先改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的損失函數(shù),構(gòu)建一個(gè)多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)(CNN-MLL)模型,然后利用圖像標(biāo)注詞間的相關(guān)性對(duì)網(wǎng)絡(luò)模型輸出結(jié)果進(jìn)行改善。通過(guò)在IAPR TC-12標(biāo)準(zhǔn)圖像標(biāo)注數(shù)據(jù)集上對(duì)比了其他傳統(tǒng)方法,實(shí)驗(yàn)得出,基于采用均方誤差函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)(CNN-MSE)的方法較支持向量機(jī)(SVM)方法在平均召回率上提升了12.9%,較反向傳播神經(jīng)網(wǎng)絡(luò)(BPNN)方法在平均準(zhǔn)確率上提升了37.9%;基于標(biāo)注結(jié)果改善的CNN-MLL方法較普通卷積神經(jīng)網(wǎng)絡(luò)的平均準(zhǔn)確率和平均召回率分別提升了23%和20%。實(shí)驗(yàn)結(jié)果表明基于標(biāo)注結(jié)果改善的CNN-MLL方法能有效地避免因人工選擇特征造成的信息缺失同時(shí)增加了對(duì)低頻詞匯的召回率。

    圖像自動(dòng)標(biāo)注;多標(biāo)簽學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);損失函數(shù)

    0 引言

    隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展以及個(gè)人手持設(shè)備的普及,互聯(lián)網(wǎng)上的圖像、視頻數(shù)據(jù)正呈指數(shù)增長(zhǎng)?;ヂ?lián)網(wǎng)公司一方面希望能夠方便有效地管理互聯(lián)網(wǎng)上的海量圖像數(shù)據(jù);另一方面希望適應(yīng)用戶(hù)的搜索習(xí)慣,即基于文本的圖像搜索(Text-Based Image Retrieval, TBIR)方式?;ヂ?lián)網(wǎng)公司為每張圖像添加相應(yīng)的標(biāo)簽信息,即圖像標(biāo)注。目前采用的比較成熟的方法是提取圖片所在網(wǎng)頁(yè)的上下文信息作為標(biāo)簽信息[1],但是存在噪聲多、沒(méi)有上下文文本信息等諸多問(wèn)題。與此同時(shí),在城市安全中,對(duì)監(jiān)控視頻的場(chǎng)景的標(biāo)注也得到越來(lái)越多的關(guān)注,進(jìn)而有專(zhuān)家學(xué)者提出根據(jù)圖像本身的視覺(jué)信息進(jìn)行圖像自動(dòng)標(biāo)注的方法。

    目前圖像自動(dòng)標(biāo)注的方法主要分為兩大類(lèi):一是基于統(tǒng)計(jì)分類(lèi)的圖像標(biāo)注方法;二是基于概率模型的圖像標(biāo)注方法?;诜诸?lèi)的標(biāo)注方法是將圖像的每一個(gè)標(biāo)注詞看成一個(gè)分類(lèi),這樣圖像標(biāo)注問(wèn)題就可以看作是圖像的分類(lèi)問(wèn)題,但是由于每張圖片包含多個(gè)不同的標(biāo)注詞,因而圖像標(biāo)注問(wèn)題又屬于一個(gè)多標(biāo)簽學(xué)習(xí)(Multi-label Learning)問(wèn)題。主要的方法有基于支持向量機(jī)(Support Vector Machine, SVM)的方法[2-5]、K最近鄰(K-Nearest Neighbor,KNN)分類(lèi)方法[6-7]、基于決策樹(shù)的方法[8-9]、基于BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network, BPNN)[10]以及深度學(xué)習(xí)的方法[11-12]等?;诟怕实姆椒ㄖ饕峭ㄟ^(guò)提取圖像(或者圖像區(qū)域)的視覺(jué)信息(如顏色、形狀、紋理、空間關(guān)系等),然后計(jì)算圖像的視覺(jué)特征與圖像標(biāo)注詞之間的聯(lián)合概率分布,最后利用該概率分布對(duì)未標(biāo)注圖像(圖像區(qū)域)進(jìn)行標(biāo)注。主要的方法有Duygulu等[13]和Ballan等[14]提出的機(jī)器翻譯模型以及主題相關(guān)模型[15-17]等。

    傳統(tǒng)的方法在圖像標(biāo)注領(lǐng)域取得了一定的進(jìn)展,但是因?yàn)樾枰斯みx擇特征,從而造成信息缺失,導(dǎo)致標(biāo)注精度不夠,召回率低;而深度學(xué)習(xí)模型雖然在圖像識(shí)別分類(lèi)領(lǐng)域取得了比較高的成就,但是大部分都是針對(duì)網(wǎng)絡(luò)本身或者是針對(duì)單標(biāo)簽學(xué)習(xí)的改進(jìn),而針對(duì)屬于多標(biāo)簽學(xué)習(xí)的圖像標(biāo)注的應(yīng)用和改進(jìn)較少。因此本文根據(jù)多標(biāo)簽學(xué)習(xí)的特點(diǎn),同時(shí)考慮到標(biāo)注詞的分布不均問(wèn)題,提出基于標(biāo)注結(jié)果改善的多標(biāo)簽學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)模型方法。首先,修改了卷積神經(jīng)網(wǎng)絡(luò)的誤差函數(shù);然后,構(gòu)建一個(gè)適合圖像自動(dòng)標(biāo)注的多標(biāo)簽學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò);最后,利用標(biāo)注詞的共生關(guān)系對(duì)標(biāo)注結(jié)果進(jìn)行改善。

    1 卷積神經(jīng)網(wǎng)絡(luò)

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是Fukushima等[18]基于感受野概念提出的神經(jīng)認(rèn)知機(jī),并由Le Cun等[19]在MNIST(Mixed National Institute of Standards and Technology database)手寫(xiě)數(shù)字?jǐn)?shù)據(jù)集上取得突破性進(jìn)展。卷積神經(jīng)網(wǎng)絡(luò)采用的局部連接、下采樣以及權(quán)值共享,一方面能夠保留圖像的邊緣模式信息和空間位置信息,另一方面降低了網(wǎng)絡(luò)的復(fù)雜性。另外卷積神經(jīng)網(wǎng)絡(luò)可以通過(guò)網(wǎng)絡(luò)訓(xùn)練出圖像特征,很大程度上解決了傳統(tǒng)方法中因?yàn)槿斯みx擇特征導(dǎo)致信息丟失的問(wèn)題。之后大量科研人員通過(guò)調(diào)整網(wǎng)絡(luò)模型結(jié)構(gòu)、修改激活函數(shù)、改變池化方法、增加多尺度處理、Dropout方法、mini-batch正則化方法等[20-24]一系列措施使得卷積神經(jīng)網(wǎng)絡(luò)的效果更加顯著,例如2015年微軟亞洲院在ILSVRC(ImageNet Large Scale Visual Recognition Challenge database)圖像數(shù)據(jù)集上的分類(lèi)錯(cuò)誤率首次達(dá)到了比人眼識(shí)別效果還要低[25]。因此本文嘗試?yán)镁矸e神經(jīng)網(wǎng)絡(luò)在圖像特征自學(xué)習(xí)方面的優(yōu)勢(shì),對(duì)圖像進(jìn)行自動(dòng)標(biāo)注。

    1.1 卷積層與池化層

    一個(gè)典型的卷積神經(jīng)網(wǎng)絡(luò),通常是由輸入層、多個(gè)交替出現(xiàn)的卷積層和池化層(Pooling)、全連接層以及輸出層構(gòu)成。卷積層是卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征抽取的關(guān)鍵部分,每個(gè)卷積層可以使用多個(gè)不同的卷積核(Kernel),從而得到多個(gè)不同的特征圖(Feature map)。卷積層的輸出如式(1):

    (1)

    由于在卷積操作過(guò)程中存在重復(fù)卷積的元素,因此為了減少冗余信息以及快速減低特征維數(shù),在卷積操作之后進(jìn)行一次池化操作,常用的操作有最大池化、均值池化以及金字塔池化[20]等。經(jīng)過(guò)一次池化操作,特征圖維度會(huì)減低到原來(lái)1/n,n代表池化規(guī)模,如圖1所示。

    圖1 規(guī)模為2×2的最大池化示意圖

    可以看出,在每一個(gè)2×2的池化窗口中選擇一個(gè)最大的值輸出,再經(jīng)過(guò)激活函數(shù)(圖1中省略了激活函數(shù)),得到一個(gè)池化層的特征圖。

    1.2 基于多標(biāo)簽學(xué)習(xí)的損失函數(shù)

    在監(jiān)督學(xué)習(xí)問(wèn)題中通過(guò)損失函數(shù)(lossfunction)來(lái)度量輸出的預(yù)測(cè)值與真實(shí)值之間的錯(cuò)誤的程度,并且通過(guò)求解最小化損失函數(shù),來(lái)調(diào)整權(quán)值。卷積神經(jīng)網(wǎng)絡(luò)同樣是一種監(jiān)督學(xué)習(xí),通常情況下使用均方誤差(MeanSquaredError,MSE)函數(shù)作為損失函數(shù),如式(2)~(3):

    (2)

    (3)

    其中:E(i)是單個(gè)樣本的訓(xùn)練誤差;d(i)是對(duì)應(yīng)輸入x(i)的期望輸出;y(i)是對(duì)應(yīng)輸入x(i)的網(wǎng)絡(luò)預(yù)測(cè)輸出;m為樣本數(shù)量。

    但是包括該損失函數(shù)在內(nèi)的大多數(shù)的損失函數(shù)只是等價(jià)地考慮某個(gè)標(biāo)簽是否屬于某一個(gè)樣本x,而沒(méi)有區(qū)別對(duì)待屬于樣本x的標(biāo)簽和不屬于樣本x的標(biāo)簽。因此,為了讓卷積神經(jīng)網(wǎng)絡(luò)能更好地適用于圖像自動(dòng)標(biāo)注,本文將文獻(xiàn)[10]提出的一種排序損失的損失函數(shù)(式(4))應(yīng)用到卷積神經(jīng)網(wǎng)絡(luò):

    (4)

    然而在圖像標(biāo)注問(wèn)題中,由于一個(gè)圖片樣本往往對(duì)應(yīng)多個(gè)標(biāo)注詞,而有些標(biāo)注詞會(huì)出現(xiàn)在各種不同的場(chǎng)景中,而有些標(biāo)注詞只會(huì)在特定的場(chǎng)合才會(huì)出現(xiàn),從而造成各標(biāo)注詞分布是不均勻的。例如:藍(lán)天、樹(shù)木等詞出現(xiàn)的頻率要遠(yuǎn)遠(yuǎn)高于其他標(biāo)注詞,而像蜥蜴、老虎等詞出現(xiàn)的頻率則少于其他標(biāo)注詞。因此為了提高對(duì)低頻詞匯的召回率,本文對(duì)式(4)進(jìn)行了修改:

    (5)

    其中αk是一個(gè)與詞頻有關(guān)的系數(shù):

    (6)

    2 基于標(biāo)注詞共生矩陣的標(biāo)注改善

    在圖像標(biāo)注中,同一張圖片包含著多個(gè)事物(標(biāo)注詞),反之就是說(shuō)出現(xiàn)在同一張圖片中的標(biāo)注詞它們之間是存在某種相關(guān)性的,比如說(shuō),太陽(yáng)和藍(lán)天、沙灘和大海等。同樣這些標(biāo)注詞之間的相關(guān)性有強(qiáng)有弱,本文對(duì)所有的樣本的標(biāo)注信息進(jìn)行統(tǒng)計(jì),得到一個(gè)標(biāo)注詞的共生矩陣R:

    Rij=S(i,j)/S(i)

    (7)

    其中:S(i,j)代表標(biāo)注詞i和標(biāo)注詞j同時(shí)出現(xiàn)的次數(shù),S(i)表示標(biāo)注詞i出現(xiàn)的次數(shù)。通過(guò)式(7)可以看出得到的共生矩陣不是一個(gè)對(duì)稱(chēng)的矩陣,也就是說(shuō)標(biāo)注詞i與標(biāo)注詞j之前存在某種聯(lián)系,但是可能標(biāo)注詞i對(duì)標(biāo)注詞j的依賴(lài)性更大。例如,有太陽(yáng)則必然有天空,而出現(xiàn)天空不一定會(huì)有太陽(yáng)的出現(xiàn)。因此本文結(jié)合標(biāo)注詞的相關(guān)性對(duì)網(wǎng)絡(luò)預(yù)測(cè)出的結(jié)果進(jìn)行相關(guān)性的調(diào)整。對(duì)卷積神經(jīng)網(wǎng)絡(luò)輸出的結(jié)果C,通過(guò)式(8),得到最終的模型標(biāo)注結(jié)果O:

    O=R*C

    (8)

    3 本文的卷積神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)

    本文采用如圖2所示的一種卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),輸入層是一張完整的圖像,分別是R、G、B三個(gè)通道;然后通過(guò)4個(gè)卷積層,卷積核大小分別為11,9,7,5,卷積核個(gè)數(shù)分別為20,40,60,80;4個(gè)采用最大池采樣的池化層,池化大小分別為3,3,3,2;最后是兩個(gè)全連接層,并且為了防止過(guò)擬合使用Dropout,概率設(shè)置為0.6;輸出層節(jié)點(diǎn)是224個(gè)節(jié)點(diǎn)。所有的激活函數(shù)均采用的是ReLU激活函數(shù),學(xué)習(xí)率初始化為0.01。

    圖2 本文使用的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

    4 實(shí)驗(yàn)與結(jié)果分析

    本文采用的是由imageCLEF組織提供的公開(kāi)圖像標(biāo)注數(shù)據(jù)集IAPRTC-12,包含18 000張圖片,圖片大小為480×360,其中訓(xùn)練集包含14 000張圖片,測(cè)試集為4 000張圖片,包含276個(gè)標(biāo)注詞,但是由于某些標(biāo)注詞沒(méi)有在測(cè)試集或者是訓(xùn)練集中出現(xiàn),所以本文實(shí)際用到的標(biāo)注詞是224個(gè),平均每個(gè)圖片包含4.1個(gè)標(biāo)簽。同時(shí)該數(shù)據(jù)集中各標(biāo)注詞分布不均勻,最少的標(biāo)注詞訓(xùn)練樣本量只有1個(gè),最大的標(biāo)注詞訓(xùn)練樣本量有3 834個(gè)。

    本文首先驗(yàn)證卷積神經(jīng)網(wǎng)絡(luò)在特征學(xué)習(xí)方面要優(yōu)于傳統(tǒng)的人工選擇特征,使用SVM、BPNN以及采用MSE誤差函數(shù)的CNN(ConvolutionalNeuralNetworkusingMeanSquareErrorfunction,CNN-MSE)進(jìn)行對(duì)比實(shí)驗(yàn);然后測(cè)試基于多標(biāo)簽學(xué)習(xí)的卷積網(wǎng)絡(luò)的方法(Multi-LabelLearningConvolutionNeuralNetwork,CNN-MLL)以及基于標(biāo)注詞共生關(guān)系的標(biāo)注結(jié)果改善的方法(下文簡(jiǎn)稱(chēng)改善的CNN-MLL)有效性與近幾年在該數(shù)據(jù)集上取得效果較好的算法(SparseKernelwithContinuousRelevanceModel(SKL-CRM)[14]、DiscreteMultipleBernoulliRelevanceModelwithSupportVectorMachine(SVM-DMBRM)[4]、KernelCanonicalCorrelationAnalysisandtwo-stepvariantoftheclassicalK-NearestNeighbor(KCCA-2PKNN)[6]、NeighborhoodSetbasedonImageDistanceMetricLearning(NSIDML)[7]等)進(jìn)行對(duì)比。

    4.1 評(píng)價(jià)指標(biāo)

    本文采用的是平均準(zhǔn)確率P、平均召回率R以及F1,作為實(shí)驗(yàn)結(jié)果的評(píng)價(jià)標(biāo)準(zhǔn),計(jì)算式如下:

    F1=2PR/(P+R)

    4.2 實(shí)驗(yàn)結(jié)果

    由于BP神經(jīng)網(wǎng)絡(luò)以及SVM需要人工提取圖像特征進(jìn)行訓(xùn)練和測(cè)試,所以本文參考其他文獻(xiàn)[5,8,17]中常用的圖像特征提取方法,分別提取了圖像的Gist特征(特征向量維度為500)、SIFT(Scale-InvariantFeatureTransform)特征(特征向量維度為3 250)、小波紋理特征(向量維度為500)以及顏色直方圖(特征向量維度250),并全部經(jīng)由詞包形式轉(zhuǎn)換,組合共5 000維特征,并對(duì)數(shù)據(jù)進(jìn)行歸一化處理。

    其中SVM采用的核函數(shù)是徑向基核函數(shù),該核函數(shù)在本數(shù)據(jù)集中表現(xiàn)最好,懲罰系數(shù)為0.3;BP神經(jīng)網(wǎng)絡(luò)采用的4層的網(wǎng)絡(luò)結(jié)構(gòu)輸入層5 000個(gè)節(jié)點(diǎn),兩個(gè)隱藏層節(jié)點(diǎn)數(shù)分別為3 000,1 000。

    因?yàn)闃颖镜钠骄鶚?biāo)注詞的個(gè)數(shù)是4.1,向上取整,所以本文選擇5個(gè)概率輸出值最高的標(biāo)注詞作為每個(gè)測(cè)試樣本的標(biāo)注結(jié)果,然后計(jì)算平均準(zhǔn)確率和平均召回率。本實(shí)驗(yàn)平臺(tái)處理器采用的是酷睿I5,代碼是基于Theano庫(kù)開(kāi)發(fā)的,基于CNN-MLL方法的網(wǎng)絡(luò)訓(xùn)練時(shí)間與CNN-MSE方法的訓(xùn)練時(shí)間相差不大,兩種方法的訓(xùn)練時(shí)間都在一天左右。各方法實(shí)驗(yàn)結(jié)果如表1。

    表1 各圖像標(biāo)注方法實(shí)驗(yàn)結(jié)果 %

    表1中有參考文獻(xiàn)的算法的各項(xiàng)數(shù)據(jù)來(lái)源于其文獻(xiàn)。通過(guò)表1,可以看出基于CNN-MSE的標(biāo)注方法在平均準(zhǔn)確率和平均召回率上都有很大的提高,平均準(zhǔn)確率較BPNN提高了37.9%,平均召回率較SVM提高了12.9%。表明在大數(shù)據(jù)量的圖像數(shù)據(jù)集中卷積神經(jīng)網(wǎng)絡(luò)在特征學(xué)習(xí)方面要比傳統(tǒng)的手工選擇特征要好很多,區(qū)分度更大。同時(shí)通過(guò)CNN-MSE和CNN-MLL的實(shí)驗(yàn)結(jié)果可以看出,采用改進(jìn)的多標(biāo)簽排序策略的損失函數(shù)要比常用的均方誤差函數(shù)要好,在平均準(zhǔn)確率和平均召回率上分別提升15.0%和17.1%。而最后采用標(biāo)注詞間的共生關(guān)系對(duì)網(wǎng)絡(luò)標(biāo)注進(jìn)行改善,使得平均準(zhǔn)確率和平均召回率再次提升6.5%和2.5%。從整體改進(jìn)上來(lái)看本文的方法較普通卷積神經(jīng)網(wǎng)絡(luò)平均準(zhǔn)確率和平均召回率分別提升了22.5%和20.0%,改進(jìn)效果明顯。另外本文方法在平均準(zhǔn)確率上雖然低于其他方法,但是在平均召回率上有很大提升,較2PKNN-ML方法提高了13.5%,同時(shí)F1的值也是最高的。

    另外為了驗(yàn)證本文對(duì)式(3)的改進(jìn)的有效性,本文對(duì)比了式(3)的誤差函數(shù)跟式(4)的誤差函數(shù)對(duì)低頻詞匯的召回率情況,這里分別統(tǒng)計(jì)了樣本量在150以下的標(biāo)簽的平均準(zhǔn)確率、平均召回率以及總的平均準(zhǔn)確率,結(jié)果如表2。

    表2 兩種多標(biāo)簽學(xué)習(xí)誤差函數(shù)實(shí)驗(yàn)結(jié)果 %

    Tab.2 Experimental results of two kinds of multi-label learning error function %

    使用的誤差公式樣本量低于150準(zhǔn)確率召回率總體準(zhǔn)確率召回率式(4)34294641式(3)29214338

    由表2可知經(jīng)過(guò)改進(jìn)的誤差函數(shù)(式(4))對(duì)低頻詞匯的標(biāo)注準(zhǔn)確率和召回率均遠(yuǎn)高于沒(méi)有改進(jìn)的誤差函數(shù)(式(3)),而總體的平均準(zhǔn)確率以及平均召回率也稍高于沒(méi)有改進(jìn)的誤差函數(shù)。因此改進(jìn)方法有效。

    本文考慮到樣本的不平衡性,這里給出了基于標(biāo)注結(jié)果改善的CNN-MLL方法得到的每個(gè)標(biāo)注詞的準(zhǔn)確率和召回率曲線,如圖3所示。

    圖3 數(shù)據(jù)集中每個(gè)標(biāo)簽的準(zhǔn)確率、召回率和F1的值

    圖3中的標(biāo)簽序號(hào)是根據(jù)標(biāo)簽對(duì)應(yīng)的訓(xùn)練樣本的數(shù)量從小到大排序得到的順序號(hào)。當(dāng)訓(xùn)練樣本數(shù)量只有1~10時(shí)(1~17號(hào)標(biāo)簽),曲線的值都是0,主要是這里的訓(xùn)練樣本數(shù)量占比太少,在訓(xùn)練的時(shí)候基本被忽略了;樣本數(shù)量在100~300時(shí)(101~181號(hào)標(biāo)簽),曲線的值基本要高于其他部分的值,平均能達(dá)到60%以上,這部分樣本數(shù)量分布比較均勻,測(cè)試樣本數(shù)量也基本維持在50左右,同時(shí)這部分詞匯大都是一些具體的事物,特征比較明顯。但是也有例外的像110號(hào)、135號(hào)、153號(hào)等標(biāo)簽分別是generic-objects、construction-other以及mammal-other等,這些標(biāo)簽雖然也是具體事物但是包含的東西較廣泛,而且與其他標(biāo)注詞偶有類(lèi)似,因此導(dǎo)致識(shí)別度也較低。而在181號(hào)標(biāo)簽往后,曲線的值開(kāi)始下降但是較穩(wěn)定,主要是這部分標(biāo)注詞對(duì)應(yīng)的訓(xùn)練樣本的數(shù)據(jù)量較大,且各樣本的數(shù)量差距較大(在300~3 000),同樣的這些標(biāo)注詞對(duì)應(yīng)的測(cè)試樣本的數(shù)據(jù)量也較大且不均勻;同時(shí)這些詞匯都是一些高頻詞匯像藍(lán)天、樹(shù)木、人群以及一些抽象的詞匯等,雖然訓(xùn)練樣本多,但是同一標(biāo)注詞在不同樣本中彼此視覺(jué)差異性較大,因此誤判的較多。另外通過(guò)圖3還可以看出在142號(hào)標(biāo)簽之后召回率開(kāi)始比準(zhǔn)確率的值要高。

    通過(guò)上述分析,不難看出標(biāo)注圖像樣本庫(kù)的人工標(biāo)注精度、樣本差異性大小以及樣本數(shù)量分布均衡性等,對(duì)標(biāo)注實(shí)驗(yàn)影響很大。

    5 結(jié)語(yǔ)

    本文提出的基于多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)以及結(jié)合標(biāo)注詞共生關(guān)系對(duì)標(biāo)注結(jié)果進(jìn)行改善的模型,在IAPR TC-12大規(guī)模圖像自動(dòng)標(biāo)注數(shù)據(jù)集的實(shí)驗(yàn)中,本文方法較SVM以及BPNN方法標(biāo)注的準(zhǔn)確率和召回率均有明顯提高,相比與目前標(biāo)注效果較好算法在準(zhǔn)確率有所下降,但是在召回率上有一定的提升。綜合準(zhǔn)確率和召回率來(lái)看,本文方法在標(biāo)注性能上有所提升,證明本文方法是有效的。

    進(jìn)一步的工作擬在以下兩方面進(jìn)行:1)針對(duì)卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)作優(yōu)化調(diào)整;2)嘗試在全連接層添加人工特征,補(bǔ)充特征信息以提高標(biāo)注的準(zhǔn)確率。

    References)

    [1] 許紅濤,周向東,向宇,等.一種自適應(yīng)的Web圖像語(yǔ)義自動(dòng)標(biāo)注方法[J].軟件學(xué)報(bào),2010,21(9):2183-2195.(XU H T, ZHOU X D, XIANG Y, et al.Adaptive model for Web image semantic automatic annotation [J].Journal of Software, 2010, 21(9): 2186-2195.)

    [2] YANG C B, DONG M, HUA J.Region-based image annotation using asymmetrical support vector machine-based multiple instance learning [C]// Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington, DC: IEEE Computer Society, 2006: 2057-2063.

    [3] GAO Y, FAN J, XUE X, et al.Automatic image annotation by incorporating feature hierarchy and boosting to scale up SVM classifiers [C]// Proceedings of the 2006 ACM International Conference on Multimedia.New York: ACM, 2006: 901-910.

    [4] MURTHY V N, CAN E F, MANMATHA R.A hybrid model for automatic image annotation [C]// Proceedings of the 2014 ACM International Conference on Multimedia Retrieval.New York: ACM, 2014: 369.

    [5] 吳偉,聶建云,高光來(lái).一種基于改進(jìn)的支持向量機(jī)多分類(lèi)器圖像標(biāo)注方法[J].計(jì)算機(jī)工程與科學(xué),2015,37(7):1338-1343.(WU W, NIE J Y, GAO G L.Improved SVM multiple classifiers for image annotation [J].Computer Engineering & Science, 2015, 37(7): 1338-1343.)

    [6] MORAN S, LAVRENKO V.Sparse kernel learning for image annotation [C]// Proceedings of the 2014 International Conference on Multimedia Retrieval.New York: ACM, 2014: 113.

    [7] VERMA Y, JAWAHAR C V.Image annotation using metric learning in semantic neighbourhoods [M]// ECCV’12: Proceedings of the 12th European Conference on Computer Vision.Berlin: Springer, 2012: 836-849.

    [8] HOU J, CHEN Z, QIN X, et al.Automatic image search based on improved feature descriptors and decision tree [J].Integrated Computer Aided Engineering, 2011, 18(2): 167-180.

    [9] 蔣黎星,侯進(jìn).基于集成分類(lèi)算法的自動(dòng)圖像標(biāo)注[J].自動(dòng)化學(xué)報(bào),2012,38(8):1257-1262.(JIANG L X, HOU J.Image annotation using the ensemble learning [J].Acta Automatica Sinica, 2012, 38(8): 1257-1262.)

    [10] ZHANG M L, ZHOU Z H.Multilabel neural networks with applications to functional genomics and text categorization [J].IEEE Transactions on Knowledge & Data Engineering, 2006, 18(10): 1338-1351.

    [11] READ J, PEREZCRUZ F.Deep learning for multi-label classification [J].Machine Learning, 2014, 85(3): 333-359.

    [12] WU F, WANG Z H, ZHANG Z F, et al.Weakly semi-supervised deep learning for multi-label image annotation [J].IEEE Transactions on Big Data, 2015, 1(3): 109-122.

    [13] DUYGULU P, BARNARD K, DE FREITAS J F G, et al.Object recognition as machine translation: learning a lexicon for a fixed image vocabulary [C]// ECCV 2002: Proceedings of the 7th European Conference on Computer Vision.Berlin: Springer, 2002: 97-112.

    [14] BALLAN L, URICCHIO T, SEIDENARI L, et al.A cross-media model for automatic image annotation [C]// Proceedings of the 2014 International Conference on Multimedia Retrieval.New York: ACM, 2014: 73.

    [15] WANG C, BLEI D, LI F F.Simultaneous image classification and annotation [C]// Proceedings of the 2009 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington, DC: IEEE Computer Society, 2009: 1903-1910.

    [16] 李志欣,施智平,李志清,等.融合語(yǔ)義主題的圖像自動(dòng)標(biāo)注[J].軟件學(xué)報(bào),2011,22(4):801-812.(LI Z X, SHI Z P, LI Z Q, et al.Automatic image annotation by fusing semantic topics[J].Journal of Software, 2011, 22(4): 801-812.)

    [17] 劉凱,張立民,孫永威,等.利用深度玻爾茲曼機(jī)與典型相關(guān)分析的自動(dòng)圖像標(biāo)注算法[J].西安交通大學(xué)學(xué)報(bào),2015,49(6):33-38.(LIU K, ZHANG L M, SUN Y W, et al.An automatic image algorithm using deep Boltzmann machine and canonical correlation analysis [J].Journal of Xi’an Jiaotong University, 2015, 49(6): 33-38.)

    [18] FUKUSHIMA K, MIYAKE S.Neocognitron: a new algorithm for pattern recognition tolerant of deformations and shifts in position [J].Pattern Recognition, 1982, 15(6): 455-469.

    [19] LE CUN Y, BOSER B, DENKER J S, et al.Handwritten digit recognition with a back-propagation network [M]// Advances in Neural Information Processing Systems.San Francisco, CA: Morgan Kaufmann Publishers, 1990: 396-404.

    [20] KRIZHEVSKY A, SUTSKEVER I, HINTON G E.ImageNet classification with deep convolutional neural networks [EB/OL].[2016-04-10].https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf.

    [21] HE K, ZHANG X, REN S, et al.Spatial pyramid pooling in deep convolutional networks for visual recognition [C]// ECCV 2014: Proceedings of the 13th European Conference on Computer Vision.Berlin: Springer, 2014: 346-361.

    [22] SZEGEDY C, LIU W, JIA Y, et al.Going deeper with convolutions [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition.Piscataway, NJ: IEEE, 2015: 1-9.

    [23] HE K, ZHANG X, REN S, et al.Delving deep into rectifiers: surpassing human-level performance on ImageNet classification [C]// Proceedings of the 2015 IEEE International Conference on Computer Vision.Washington, DC: IEEE Computer Society, 2015: 1026-1034.

    [24] IOFFE S, SZEGEDY C.Batch normalization: accelerating deep network training by reducing internal covariate shift [C]// Proceedings of the 32nd International Conference on Machine Learning.Washington, DC: IEEE Computer Society, 2015: 448-456.

    [25] JIN C, JIN S W.Image distance metric learning based on neighborhood sets for automatic image annotation [J].Journal of Visual Communication and Image Representation, 2016, 34: 167-175.

    This work is supported by the Key Projects in the National Science and Technology Pillar Program during the Twelfth Five-year Plan Period of China (2015BAK12B00).

    GAO Yaodong, born in 1991, M.S.candidate.His research interests include machine learning, pattern recognition.

    HOU Lingyan, born in 1964, M.S., associate professor.Her research interests include multimedia technology, pattern recognition.

    YANG Dali, born in 1963, Ph.D., associate professor.His research interests include pattern recognition, signal enhancement.

    Automatic image annotation method using multi-label learning convolutional neural network

    GAO Yaodong*, HOU Lingyan, YANG Dali

    (CollegeofComputer,BeijingInformationScienceandTechnologyUniversity,Beijing100101,China)

    Focusing on the shortcoming of the automatic image annotation, the lack of information caused by artificially selecting features, convolutional neural network was used to learn the characteristics of samples.Firstly, in order to adapt to the characteristics of multi label learning of automatic image annotation and increase the recall rate of the low frequency words, the loss function of convolutional neural network was improved and a Convolutional Neural Network of Multi-Label Learning (CNN-MLL) model was constructed.Secondly, the correlation between the image annotation words was used to improve the output of the network model.Compared with other traditional methods on the Technical Committee 12 of the International Association for Pattern Recognition (IAPR TC-12) benchmark image annotation database, the experimental result show that the Convolutional Neural Network using Mean Square Error function (CNN-MSE) method achieves the average recall rate of 12.9% more than the Support Vector Machine (SVM) method, the average accuracy of 37.9% more than the Back Propagation Neural Network (BPNN) method.And the average accuracy rate and average recall rate of marked results improved CNN-MLL method is 23% and 20% higher than those of the traditional CNN.The results show that the marked results improved CNN-MLL method can effectively avoid the information loss caused by the artificially selecting features, and increase the recall rate of the low frequency words.

    automatic image annotation; multi-label learning; Convolution Neural Network (CNN); loss function

    2016-06-15;

    2016-09-12。 基金項(xiàng)目:“十二五”國(guó)家科技支撐計(jì)劃項(xiàng)目(2015BAK12B00)。

    高耀東(1991—),男,安徽合肥人,碩士研究生,主要研究方向:機(jī)器學(xué)習(xí)、模式識(shí)別; 侯凌燕(1964—),女,湖南長(zhǎng)沙人,副教授,碩士,主要研究方向:多媒體技術(shù)、模式識(shí)別; 楊大利(1963—),男,河北陽(yáng)原人,副教授,博士,主要研究方向:模式識(shí)別、信號(hào)增強(qiáng)。

    1001-9081(2017)01-0228-05

    10.11772/j.issn.1001-9081.2017.01.0228

    TP391.41; TP18

    A

    猜你喜歡
    池化標(biāo)簽準(zhǔn)確率
    基于緊湊型雙線性網(wǎng)絡(luò)的野生茵識(shí)別方法研究
    基于Sobel算子的池化算法設(shè)計(jì)
    卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
    乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
    健康之家(2021年19期)2021-05-23 11:17:39
    不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
    2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
    基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識(shí)別研究
    無(wú)懼標(biāo)簽 Alfa Romeo Giulia 200HP
    車(chē)迷(2018年11期)2018-08-30 03:20:32
    高速公路車(chē)牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
    不害怕撕掉標(biāo)簽的人,都活出了真正的漂亮
    海峽姐妹(2018年3期)2018-05-09 08:21:02
    综合色av麻豆| 亚洲精华国产精华精| 日本一二三区视频观看| 高清在线国产一区| 亚洲欧美日韩东京热| 久久欧美精品欧美久久欧美| 麻豆国产97在线/欧美| a在线观看视频网站| 国产精品久久电影中文字幕| 欧美不卡视频在线免费观看| 男女下面进入的视频免费午夜| 免费大片18禁| 亚洲一区高清亚洲精品| 久久久久免费精品人妻一区二区| 少妇人妻一区二区三区视频| 欧美激情在线99| 精品一区二区三区四区五区乱码| 可以在线观看毛片的网站| 亚洲国产高清在线一区二区三| 国产伦精品一区二区三区视频9 | 欧美黄色片欧美黄色片| 十八禁人妻一区二区| 欧美国产日韩亚洲一区| 又紧又爽又黄一区二区| 美女黄网站色视频| 精品一区二区三区视频在线 | 成年女人看的毛片在线观看| 国产精品一区二区三区四区久久| 欧美色视频一区免费| 国产又黄又爽又无遮挡在线| 国产视频一区二区在线看| 亚洲美女视频黄频| 久久天躁狠狠躁夜夜2o2o| 欧美极品一区二区三区四区| 国语自产精品视频在线第100页| 午夜福利欧美成人| 欧美xxxx黑人xx丫x性爽| 欧美极品一区二区三区四区| 精品不卡国产一区二区三区| 国产精品一及| 日韩高清综合在线| 脱女人内裤的视频| www.自偷自拍.com| 俄罗斯特黄特色一大片| 两人在一起打扑克的视频| 久久久久久久久中文| 97碰自拍视频| 中文字幕熟女人妻在线| 又爽又黄无遮挡网站| 香蕉久久夜色| 好男人电影高清在线观看| 日本与韩国留学比较| 男女下面进入的视频免费午夜| 国产成人系列免费观看| 美女大奶头视频| 久久久精品欧美日韩精品| bbb黄色大片| 国产伦精品一区二区三区四那| 精品电影一区二区在线| 亚洲九九香蕉| 欧美极品一区二区三区四区| 黄色日韩在线| 老汉色av国产亚洲站长工具| 免费在线观看亚洲国产| 成人国产综合亚洲| 美女黄网站色视频| 后天国语完整版免费观看| 精品国产乱子伦一区二区三区| 亚洲精品在线美女| 久久久久久大精品| 国产单亲对白刺激| h日本视频在线播放| 男女做爰动态图高潮gif福利片| 老鸭窝网址在线观看| 色尼玛亚洲综合影院| 日本成人三级电影网站| 久久精品影院6| 最近在线观看免费完整版| 成人欧美大片| 日韩精品青青久久久久久| 中文字幕熟女人妻在线| 午夜福利成人在线免费观看| 国产乱人伦免费视频| 亚洲美女视频黄频| 午夜精品久久久久久毛片777| 夜夜躁狠狠躁天天躁| 免费在线观看影片大全网站| 国产精品自产拍在线观看55亚洲| 成人三级做爰电影| 午夜福利在线观看免费完整高清在 | 一级毛片女人18水好多| 男女午夜视频在线观看| 麻豆av在线久日| 真实男女啪啪啪动态图| 国产高清视频在线播放一区| 草草在线视频免费看| 国模一区二区三区四区视频 | 亚洲av日韩精品久久久久久密| 午夜激情欧美在线| 亚洲成av人片在线播放无| 日韩成人在线观看一区二区三区| 天天躁日日操中文字幕| xxx96com| 国产三级中文精品| 夜夜爽天天搞| 国内精品久久久久精免费| 亚洲成人久久性| 国产精品日韩av在线免费观看| 老司机午夜十八禁免费视频| 一二三四在线观看免费中文在| 久久精品国产清高在天天线| 亚洲色图 男人天堂 中文字幕| 国产欧美日韩精品一区二区| 亚洲国产精品999在线| 我要搜黄色片| 91麻豆av在线| 国产极品精品免费视频能看的| 国产成人福利小说| 99久久综合精品五月天人人| av福利片在线观看| 成年女人永久免费观看视频| 婷婷丁香在线五月| 亚洲中文字幕日韩| 舔av片在线| 国产v大片淫在线免费观看| 国内精品一区二区在线观看| 宅男免费午夜| e午夜精品久久久久久久| 少妇熟女aⅴ在线视频| 国产免费av片在线观看野外av| 久久午夜亚洲精品久久| 亚洲av成人一区二区三| 久久这里只有精品中国| 高清毛片免费观看视频网站| 国产亚洲精品综合一区在线观看| 丰满的人妻完整版| 在线观看免费午夜福利视频| 国产精品一区二区三区四区免费观看 | 中文字幕人妻丝袜一区二区| 首页视频小说图片口味搜索| 国产亚洲av高清不卡| 中文字幕人妻丝袜一区二区| 99久久综合精品五月天人人| 每晚都被弄得嗷嗷叫到高潮| 两个人视频免费观看高清| 黄色丝袜av网址大全| 国产精品99久久久久久久久| 好男人电影高清在线观看| 精品乱码久久久久久99久播| 日韩av在线大香蕉| 99精品久久久久人妻精品| av黄色大香蕉| 国产视频一区二区在线看| 在线永久观看黄色视频| 九九热线精品视视频播放| 免费搜索国产男女视频| 国产69精品久久久久777片 | 午夜影院日韩av| 在线永久观看黄色视频| 国产欧美日韩精品亚洲av| 亚洲欧美一区二区三区黑人| 久久久国产成人免费| 亚洲avbb在线观看| 色综合婷婷激情| 精品福利观看| 国产三级在线视频| 亚洲熟妇中文字幕五十中出| 精品国产乱码久久久久久男人| 国产精品 国内视频| www国产在线视频色| 99精品在免费线老司机午夜| 亚洲人成网站在线播放欧美日韩| 少妇裸体淫交视频免费看高清| 亚洲精品乱码久久久v下载方式 | 国产三级黄色录像| www.精华液| 12—13女人毛片做爰片一| 日韩欧美免费精品| 夜夜躁狠狠躁天天躁| 精品久久久久久,| 叶爱在线成人免费视频播放| 免费在线观看亚洲国产| 精品久久久久久久久久久久久| 天堂影院成人在线观看| 国产伦一二天堂av在线观看| 每晚都被弄得嗷嗷叫到高潮| 少妇丰满av| 淫秽高清视频在线观看| 成年人黄色毛片网站| 国内精品久久久久久久电影| 高潮久久久久久久久久久不卡| 国产精品一区二区精品视频观看| 美女午夜性视频免费| 19禁男女啪啪无遮挡网站| 老鸭窝网址在线观看| 狂野欧美激情性xxxx| 亚洲av中文字字幕乱码综合| 女人高潮潮喷娇喘18禁视频| 在线观看午夜福利视频| 无限看片的www在线观看| 99热只有精品国产| 校园春色视频在线观看| av中文乱码字幕在线| 免费看十八禁软件| 欧美日韩瑟瑟在线播放| 成人特级av手机在线观看| 欧洲精品卡2卡3卡4卡5卡区| 日本与韩国留学比较| 黄片大片在线免费观看| 欧美日韩国产亚洲二区| 久久香蕉国产精品| 欧美另类亚洲清纯唯美| 亚洲 国产 在线| a级毛片在线看网站| 丁香六月欧美| 色吧在线观看| 国产v大片淫在线免费观看| 麻豆久久精品国产亚洲av| 一夜夜www| 亚洲欧美日韩高清在线视频| 国产主播在线观看一区二区| 又爽又黄无遮挡网站| 亚洲一区二区三区色噜噜| 91在线精品国自产拍蜜月 | 不卡一级毛片| 国产精品久久视频播放| 日韩精品中文字幕看吧| 极品教师在线免费播放| 欧美大码av| 国产野战对白在线观看| 51午夜福利影视在线观看| 两个人看的免费小视频| 成人三级黄色视频| 午夜激情福利司机影院| av在线蜜桃| 99国产精品一区二区蜜桃av| 在线观看舔阴道视频| 亚洲av免费在线观看| 欧美丝袜亚洲另类 | 日本一二三区视频观看| 国产乱人伦免费视频| or卡值多少钱| 国产精品野战在线观看| 欧美黄色片欧美黄色片| 亚洲第一电影网av| 午夜福利18| 最近在线观看免费完整版| 成年版毛片免费区| 亚洲欧美一区二区三区黑人| 中文资源天堂在线| 亚洲中文av在线| 午夜久久久久精精品| 亚洲国产精品sss在线观看| 国产淫片久久久久久久久 | 在线播放国产精品三级| 美女午夜性视频免费| 无人区码免费观看不卡| 人妻夜夜爽99麻豆av| 久久久久久久精品吃奶| 超碰成人久久| 久久中文字幕一级| 色综合婷婷激情| 深夜精品福利| av黄色大香蕉| 日韩 欧美 亚洲 中文字幕| 亚洲人与动物交配视频| 日韩中文字幕欧美一区二区| 天天躁日日操中文字幕| 国产毛片a区久久久久| or卡值多少钱| 99久久精品一区二区三区| 日韩欧美一区二区三区在线观看| 亚洲第一欧美日韩一区二区三区| 村上凉子中文字幕在线| x7x7x7水蜜桃| 国产爱豆传媒在线观看| 真人一进一出gif抽搐免费| 老熟妇乱子伦视频在线观看| 欧美成人性av电影在线观看| 久久精品国产综合久久久| 久久精品影院6| www.熟女人妻精品国产| 精品国产三级普通话版| 欧美日韩亚洲国产一区二区在线观看| 亚洲国产精品999在线| 国产成人aa在线观看| 成人特级黄色片久久久久久久| 岛国在线免费视频观看| 日韩国内少妇激情av| 老汉色av国产亚洲站长工具| 一本精品99久久精品77| 一a级毛片在线观看| 亚洲成a人片在线一区二区| 亚洲成人久久性| 男人的好看免费观看在线视频| 国产精品乱码一区二三区的特点| 俄罗斯特黄特色一大片| 麻豆一二三区av精品| 在线免费观看的www视频| 精品99又大又爽又粗少妇毛片 | 久久久久久久久久黄片| 999精品在线视频| 欧美黄色片欧美黄色片| 欧美成狂野欧美在线观看| 国产熟女xx| 午夜a级毛片| 欧美黑人巨大hd| 99在线视频只有这里精品首页| 欧美日本视频| 国产欧美日韩一区二区三| av片东京热男人的天堂| 欧美三级亚洲精品| 麻豆国产97在线/欧美| 国产成人一区二区三区免费视频网站| 夜夜躁狠狠躁天天躁| 国内少妇人妻偷人精品xxx网站 | 免费在线观看亚洲国产| 国产精品亚洲美女久久久| 村上凉子中文字幕在线| 色播亚洲综合网| av黄色大香蕉| 黄色 视频免费看| 天天添夜夜摸| 久久久国产成人精品二区| 夜夜看夜夜爽夜夜摸| 成年女人永久免费观看视频| 欧美日韩乱码在线| 亚洲国产欧美一区二区综合| 日韩欧美在线二视频| 日韩免费av在线播放| 亚洲黑人精品在线| 伦理电影免费视频| 国产精品影院久久| 久久久久国内视频| 国产精品亚洲美女久久久| 亚洲av免费在线观看| 可以在线观看的亚洲视频| 欧美激情久久久久久爽电影| 久久久水蜜桃国产精品网| 色av中文字幕| 又粗又爽又猛毛片免费看| www.www免费av| 亚洲中文日韩欧美视频| 久久久久久久久久黄片| 精品日产1卡2卡| 2021天堂中文幕一二区在线观| 亚洲色图 男人天堂 中文字幕| 99国产精品一区二区三区| 亚洲精品美女久久久久99蜜臀| 欧洲精品卡2卡3卡4卡5卡区| av天堂在线播放| 操出白浆在线播放| 麻豆成人av在线观看| 中文字幕熟女人妻在线| 久久热在线av| 搡老岳熟女国产| 麻豆国产av国片精品| 国产成人精品久久二区二区免费| 午夜福利在线在线| 18禁美女被吸乳视频| www.精华液| 日韩免费av在线播放| 51午夜福利影视在线观看| 色尼玛亚洲综合影院| 日本黄色视频三级网站网址| 国产午夜精品久久久久久| 欧美丝袜亚洲另类 | 黄色日韩在线| 国产三级黄色录像| 亚洲第一欧美日韩一区二区三区| 亚洲成人免费电影在线观看| or卡值多少钱| 中文字幕最新亚洲高清| 精品电影一区二区在线| 色播亚洲综合网| 9191精品国产免费久久| 两人在一起打扑克的视频| 日韩欧美在线乱码| 最好的美女福利视频网| 免费看十八禁软件| 中文字幕久久专区| 国产精品久久久久久久电影 | 少妇丰满av| 免费在线观看成人毛片| 三级国产精品欧美在线观看 | av天堂中文字幕网| 成在线人永久免费视频| 最新美女视频免费是黄的| 国产野战对白在线观看| 又大又爽又粗| 欧美最黄视频在线播放免费| 日本五十路高清| 免费人成视频x8x8入口观看| 国产综合懂色| 亚洲成人精品中文字幕电影| a级毛片在线看网站| 成人国产综合亚洲| 国内毛片毛片毛片毛片毛片| 国产成人av激情在线播放| 男女下面进入的视频免费午夜| 国产精品美女特级片免费视频播放器 | 日韩欧美国产一区二区入口| a在线观看视频网站| 少妇熟女aⅴ在线视频| 色综合站精品国产| 一本精品99久久精品77| 搡老岳熟女国产| 一进一出抽搐动态| 日韩中文字幕欧美一区二区| 欧美激情在线99| 好看av亚洲va欧美ⅴa在| 色综合站精品国产| 国产激情偷乱视频一区二区| 99热只有精品国产| 精品99又大又爽又粗少妇毛片 | 亚洲在线自拍视频| 欧美性猛交黑人性爽| 国产亚洲精品av在线| 搡老妇女老女人老熟妇| 又紧又爽又黄一区二区| 午夜精品久久久久久毛片777| 成人国产一区最新在线观看| 久久久国产成人精品二区| 男女下面进入的视频免费午夜| 在线播放国产精品三级| 九色成人免费人妻av| 99久久99久久久精品蜜桃| 精品国产乱码久久久久久男人| 日韩精品中文字幕看吧| 禁无遮挡网站| 波多野结衣高清无吗| www国产在线视频色| 久久这里只有精品中国| 高潮久久久久久久久久久不卡| 琪琪午夜伦伦电影理论片6080| 在线观看舔阴道视频| 日日干狠狠操夜夜爽| 黄色成人免费大全| 搡老妇女老女人老熟妇| 色综合婷婷激情| 精品久久久久久久久久免费视频| 国产一级毛片七仙女欲春2| 欧美日韩乱码在线| 精品久久久久久久久久免费视频| 少妇人妻一区二区三区视频| 麻豆av在线久日| 757午夜福利合集在线观看| 亚洲性夜色夜夜综合| 久久伊人香网站| 久久久国产欧美日韩av| 久久久久九九精品影院| 国产午夜精品论理片| 久久香蕉国产精品| 男女那种视频在线观看| 国产高清激情床上av| 性欧美人与动物交配| 亚洲专区中文字幕在线| 亚洲色图 男人天堂 中文字幕| av天堂中文字幕网| 国产成人精品无人区| 国产亚洲精品av在线| 成年女人永久免费观看视频| 观看免费一级毛片| 色综合亚洲欧美另类图片| 黑人欧美特级aaaaaa片| 噜噜噜噜噜久久久久久91| www日本在线高清视频| 欧美xxxx黑人xx丫x性爽| 我的老师免费观看完整版| 99热6这里只有精品| 精华霜和精华液先用哪个| 国产精品 欧美亚洲| 国产高清视频在线观看网站| 成人精品一区二区免费| 久久久国产精品麻豆| 成人欧美大片| 极品教师在线免费播放| 99热精品在线国产| 搡老岳熟女国产| 女人高潮潮喷娇喘18禁视频| 精品国产乱码久久久久久男人| 一区二区三区国产精品乱码| 国产精品久久久久久精品电影| 国产av一区在线观看免费| 国产免费av片在线观看野外av| 99久久综合精品五月天人人| 色噜噜av男人的天堂激情| 精品日产1卡2卡| 成人三级黄色视频| 久久精品国产99精品国产亚洲性色| 神马国产精品三级电影在线观看| 一进一出抽搐动态| 日本免费一区二区三区高清不卡| 99在线视频只有这里精品首页| 欧美日韩黄片免| 免费观看的影片在线观看| 一区二区三区激情视频| 嫁个100分男人电影在线观看| 黄色成人免费大全| 色精品久久人妻99蜜桃| 一个人看的www免费观看视频| 国产精品久久久久久人妻精品电影| 欧美激情久久久久久爽电影| 两个人视频免费观看高清| 在线十欧美十亚洲十日本专区| 一夜夜www| 欧美日韩瑟瑟在线播放| 亚洲欧美日韩卡通动漫| 国产毛片a区久久久久| 91久久精品国产一区二区成人 | 亚洲人与动物交配视频| 日韩人妻高清精品专区| 成人av在线播放网站| 亚洲专区中文字幕在线| 午夜激情福利司机影院| 人人妻人人澡欧美一区二区| 亚洲一区高清亚洲精品| 色在线成人网| 国产单亲对白刺激| 18禁黄网站禁片免费观看直播| 国产v大片淫在线免费观看| 国产又色又爽无遮挡免费看| 精品99又大又爽又粗少妇毛片 | 国产午夜精品久久久久久| 99热精品在线国产| 国产三级黄色录像| 久久久久久久久中文| 舔av片在线| 国产免费男女视频| 51午夜福利影视在线观看| 欧美激情久久久久久爽电影| 亚洲黑人精品在线| 麻豆成人av在线观看| 午夜福利视频1000在线观看| 国产一级毛片七仙女欲春2| 麻豆国产av国片精品| 国产爱豆传媒在线观看| 在线免费观看不下载黄p国产 | 国产精品一及| 99久久成人亚洲精品观看| 香蕉av资源在线| 淫妇啪啪啪对白视频| 麻豆国产97在线/欧美| 久久久久久久久中文| 偷拍熟女少妇极品色| 亚洲va日本ⅴa欧美va伊人久久| 日韩av在线大香蕉| 国产亚洲av高清不卡| 欧美色视频一区免费| 男人舔奶头视频| 国产单亲对白刺激| 亚洲片人在线观看| 欧美大码av| 99在线人妻在线中文字幕| 少妇的逼水好多| 舔av片在线| 欧美激情久久久久久爽电影| 最近最新免费中文字幕在线| 亚洲成人免费电影在线观看| 后天国语完整版免费观看| 亚洲 国产 在线| 美女高潮的动态| 热99在线观看视频| 久久久久久久久免费视频了| 国产三级黄色录像| 欧美日韩国产亚洲二区| cao死你这个sao货| 午夜两性在线视频| 成人av在线播放网站| 2021天堂中文幕一二区在线观| 老司机午夜福利在线观看视频| 国产高清激情床上av| 国产成人av激情在线播放| 久久久国产精品麻豆| 国产精品乱码一区二三区的特点| 国产精品 国内视频| 国产99白浆流出| 精品无人区乱码1区二区| 最好的美女福利视频网| 国产精品久久电影中文字幕| 日韩欧美三级三区| 麻豆一二三区av精品| 搡老妇女老女人老熟妇| 小说图片视频综合网站| 精品一区二区三区视频在线 | avwww免费| 黑人欧美特级aaaaaa片| 久久久久久久午夜电影| 日韩国内少妇激情av| 一边摸一边抽搐一进一小说| 黄色 视频免费看| 夜夜夜夜夜久久久久| 日本 av在线| 国产探花在线观看一区二区| 黄色视频,在线免费观看| 白带黄色成豆腐渣| 久久九九热精品免费| 成人国产一区最新在线观看| 91麻豆av在线| 欧美黑人欧美精品刺激| 少妇的逼水好多| 国产精品 国内视频| 又粗又爽又猛毛片免费看| 成人三级做爰电影| 精品乱码久久久久久99久播| 一级毛片高清免费大全| 我要搜黄色片| 在线观看免费视频日本深夜| 99在线视频只有这里精品首页| 男女午夜视频在线观看| 日本三级黄在线观看| 一二三四社区在线视频社区8| 国产熟女xx| 一边摸一边抽搐一进一小说| 精品电影一区二区在线|