• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    網(wǎng)絡(luò)媒體大數(shù)據(jù)流異構(gòu)多模態(tài)目標(biāo)識別策略

    2017-02-21 11:44:55文孟飛劉偉榮
    計算機(jī)研究與發(fā)展 2017年1期
    關(guān)鍵詞:異構(gòu)模態(tài)神經(jīng)網(wǎng)絡(luò)

    文孟飛 劉偉榮 胡 超

    1(中南大學(xué)信息科學(xué)與工程學(xué)院 長沙 410083)2(中南大學(xué)信息與網(wǎng)絡(luò)中心 長沙 410083)3(醫(yī)學(xué)信息研究湖南省普通高等學(xué)校重點實驗室(中南大學(xué)) 長沙 410083)4 (湖南省教育科學(xué)研究院 長沙 410005)(wmfdcf@126.com)

    網(wǎng)絡(luò)媒體大數(shù)據(jù)流異構(gòu)多模態(tài)目標(biāo)識別策略

    文孟飛1,4劉偉榮1胡 超2,3

    1(中南大學(xué)信息科學(xué)與工程學(xué)院 長沙 410083)2(中南大學(xué)信息與網(wǎng)絡(luò)中心 長沙 410083)3(醫(yī)學(xué)信息研究湖南省普通高等學(xué)校重點實驗室(中南大學(xué)) 長沙 410083)4(湖南省教育科學(xué)研究院 長沙 410005)(wmfdcf@126.com)

    如何對海量的網(wǎng)絡(luò)媒體大數(shù)據(jù)進(jìn)行準(zhǔn)確地目標(biāo)識別,是當(dāng)前的一個研究熱點和難點.針對此問題提出一種利用媒體流時間相關(guān)特性的異構(gòu)多模態(tài)目標(biāo)識別策略.首先基于媒體流中同時存在音頻和視頻信息的特征,建立一種異構(gòu)多模態(tài)深度學(xué)習(xí)結(jié)構(gòu);結(jié)合卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)和限制波爾茲曼機(jī)(restricted Boltzmann machine, RBM)的算法優(yōu)點,對音頻信息和視頻信息分別并行處理,這種異構(gòu)模式可以充分利用不同深度神經(jīng)網(wǎng)絡(luò)的特點;然后生成基于典型關(guān)聯(lián)分析的共享特征表示,并進(jìn)一步利用時間相關(guān)特性進(jìn)行參數(shù)的優(yōu)化.3種對比實驗用來驗證所提策略的效果,首先將策略與單一模態(tài)算法進(jìn)行對比;然后再在復(fù)合的數(shù)據(jù)庫上建立對比實驗;最后在網(wǎng)絡(luò)視頻庫上建立對比實驗,這些對比實驗驗證了策略的有效性.

    目標(biāo)識別;深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);限制玻爾茲曼機(jī);典型關(guān)聯(lián)分析

    網(wǎng)絡(luò)技術(shù)的發(fā)展使互聯(lián)網(wǎng)上各種結(jié)構(gòu)化、非結(jié)構(gòu)化的海量大數(shù)據(jù)應(yīng)運(yùn)而生[1].如何建立起一種高效、準(zhǔn)確的網(wǎng)絡(luò)大數(shù)據(jù)目標(biāo)識別策略已成為國內(nèi)外學(xué)者的研究熱點[2].現(xiàn)今互聯(lián)網(wǎng)上85%以上已捕獲的都是非結(jié)構(gòu)化的文件、圖像、視頻、點擊流和地理空間數(shù)據(jù)[3].迫切需要找尋網(wǎng)絡(luò)大數(shù)據(jù)的共性規(guī)律,實現(xiàn)網(wǎng)絡(luò)大數(shù)據(jù)的特征提取和目標(biāo)識別[4].機(jī)器學(xué)習(xí)是目標(biāo)識別的主要方法,目前已經(jīng)從淺層學(xué)習(xí)發(fā)展到深度學(xué)習(xí).

    淺層結(jié)構(gòu)模型通常包含單層或雙層的非線性特征變換[5],如高斯混合模型(Gaussian mixture model, GMM)[6]、條件隨機(jī)場(conditional random fields, CRF)[7]模型、支持向量機(jī)(support vector machine, SVM[8])模型以及含有單隱層的多層感知機(jī)(multi-layer perceptron, MLP)[9]模型等.淺層結(jié)構(gòu)能有效地解決許多簡單的或具有明確約束的問題,但需要依靠人工來抽取樣本的特征,難以將其擴(kuò)展到視頻的特征提取[10],而且淺層模型的自糾錯能力比較有限[11].

    針對上述問題,Hinton等人[12]于2006年提出深度置信網(wǎng)絡(luò)(deep belief network, DBN)結(jié)構(gòu)和非監(jiān)督貪心逐層訓(xùn)練算法,可表征復(fù)雜高維函數(shù),提取多重水平的特征,獲得更多的有用信息[13].

    深度學(xué)習(xí)的2種典型結(jié)構(gòu)為限制波爾茲曼機(jī)(restricted Boltzmann machine, RBM)和卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN).RBM在語音識別體現(xiàn)了較好的優(yōu)勢[14],而LeCun等研究者[15]使用CNN在處理識別圖像信息取得了比其他學(xué)習(xí)方法更好的結(jié)果.

    目前,隨著互聯(lián)網(wǎng)的發(fā)展以及視頻編解碼技術(shù)的成熟,視頻數(shù)據(jù)呈現(xiàn)出爆炸式的增長[16].出現(xiàn)了如優(yōu)酷、土豆、Youtube等資源豐富且訪問量巨大的視頻網(wǎng)站,為視頻數(shù)據(jù)的目標(biāo)識別提出了新的需求.目前已經(jīng)有將深度學(xué)習(xí)方法應(yīng)用到視頻數(shù)據(jù)目標(biāo)識別的若干研究成果[17-19].

    上述的研究成果往往針對視頻的視覺信號進(jìn)行單一模態(tài)的處理.但對于一段視頻來說,視覺和聽覺信號都能夠為目標(biāo)識別提供重要的信息.因此出現(xiàn)了結(jié)合各種不同的模態(tài)之間的有效信息的多模態(tài)學(xué)習(xí)方法.如Leonardi等人在文獻(xiàn)[20]中使用了底層的視覺和音頻特征來檢測足球視頻中的進(jìn)球鏡頭.文獻(xiàn)[21]使用多模態(tài)方法并行處理人物口型和所發(fā)出的音節(jié).

    目前這2種多模態(tài)學(xué)習(xí)方法都采用同一種深層結(jié)構(gòu)處理音頻和視頻信號.但在多模態(tài)方法中使用不同深層結(jié)構(gòu)將會取得更好的效果.如RBM對聲音的識別具有較好的識別效果,而CNN對時間相關(guān)的動態(tài)視覺信號有較強(qiáng)的魯棒性[22].

    基于以上討論,本文提出一種針對媒體大數(shù)據(jù)流的異構(gòu)多模態(tài)目標(biāo)識別策略,綜合RBM的語音識別能力和CNN的圖像處理能力,并建立RBM和CNN的共享關(guān)聯(lián)表示,以更有效地識別視頻中的目標(biāo).在對視覺信號進(jìn)行處理時,進(jìn)一步利用視頻中相鄰2幀的時間相關(guān)性,優(yōu)化神經(jīng)網(wǎng)絡(luò)多層結(jié)構(gòu)的參數(shù),提高目標(biāo)識別的準(zhǔn)確度.

    1 異構(gòu)多模態(tài)深度學(xué)習(xí)的目標(biāo)識別策略

    多媒體數(shù)據(jù)中目標(biāo)識別的關(guān)鍵是能夠獲取數(shù)據(jù)的主要特征.網(wǎng)絡(luò)資源中的多媒體視頻數(shù)據(jù)具有較大的復(fù)雜性與多樣性.僅僅利用視頻數(shù)據(jù)中單一模態(tài)進(jìn)行處理往往難以得到較好的效果.使用多模態(tài)結(jié)合的方法提取數(shù)據(jù)特征能夠更有效應(yīng)用于媒體數(shù)據(jù)流的特征提?。簩⒁曈X圖像和音頻數(shù)據(jù)分別作為2種模態(tài)輸入,并行進(jìn)行處理,同時得到2種模態(tài)的高層特征,進(jìn)而通過最大化2種模態(tài)之間的關(guān)聯(lián)性建立模態(tài)間的共享表示,可得到更好的識別效果.

    由于視頻信息中視覺信息和聽覺信息的特點不同,本文建立了多模態(tài)的異構(gòu)深度學(xué)習(xí)框架,該框架結(jié)合了不同類別的深度網(wǎng)絡(luò)分別對視覺信息和聽覺信息進(jìn)行處理,而不同類別的深度網(wǎng)絡(luò)會對視覺信息和聽覺信息分別具有各自的優(yōu)勢.這種處理將會增加結(jié)構(gòu)的復(fù)雜程度,但是可針對不同模態(tài)的數(shù)據(jù)提取出更有效的特征,從而增加目標(biāo)識別的精度.本文分別利用RBM和CNN處理視頻數(shù)據(jù)流的音頻信號和視頻圖像信號.

    RBM是一種特殊形式的玻爾茲曼機(jī),可通過輸入數(shù)據(jù)集學(xué)習(xí)概率分布隨機(jī)生成神經(jīng)網(wǎng)絡(luò),具有較好的泛化能力.而由多個RBM結(jié)構(gòu)堆疊而成的深度信念網(wǎng)絡(luò)能提取出多層抽象的特征,從而用于分類和目標(biāo)識別.

    本文我們采用RBM模型進(jìn)行音頻處理,RBM的結(jié)構(gòu)如圖1所示,整體是一個二分圖的結(jié)構(gòu),分為2層,一層為可見層(visible units),一層為隱層(hidden units),可見層也稱為輸入層.

    Fig. 1 Structure of RBM圖1 RBM的結(jié)構(gòu)圖

    Fig. 2 Multiple convolution operation and sample process of the convolutional neural network圖2 卷積神經(jīng)網(wǎng)絡(luò)多層卷積運(yùn)算和采樣過程圖

    RBM的隱藏向量h和可見向量v之間存在對稱性的連接Wi,j,但是隱藏向量之間或者可見向量之間沒有連接.該模型通過模擬熱力學(xué)能量定義了基于h,v的聯(lián)合概率分布,如式(1)所示.由于同層變量之間沒有連接,因此根據(jù)聯(lián)合概率分布可方便計算出每一個單元的激發(fā)概率.

    -lgP(v,h)∝E(v,h)=

    (1)

    其中,c,b為偏置參數(shù)向量,W為RBM連接權(quán)值矩陣,E(·)為RBM能量函數(shù).

    根據(jù)式(1),可定義隱層和可見層的概率分布:

    (2)

    (3)

    (4)

    每一個單元的激發(fā)概率為

    (5)

    (6)

    CNN是多層感知機(jī)(MLP)的一個變種模型,是近幾年來快速發(fā)展并引起廣泛重視的一種高效識別方法,它是從生物學(xué)概念中演化而來的.20世紀(jì)60年代,Hubel和Wiesel在研究貓腦皮層中用于局部敏感和方向選擇的神經(jīng)元時發(fā)現(xiàn)其獨特的網(wǎng)絡(luò)結(jié)構(gòu)可以有效地降低反饋神經(jīng)網(wǎng)絡(luò)的復(fù)雜性,繼而LeCun等人以此為基礎(chǔ)提出了CNN[15].

    一般來說,CNN的基本結(jié)構(gòu)包括2層:1)特征提取層,每個神經(jīng)元的輸入與前一層的局部接受域相連,并提取該局部的特征.一旦該局部特征被提取后,它與其他特征間的位置關(guān)系也隨之確定下來.2)特征映射層,網(wǎng)絡(luò)的每個計算層由多個特征映射組成,每個特征映射是一個平面,平面上所有神經(jīng)元的權(quán)值相等.特征映射結(jié)構(gòu)采用sigmoid函數(shù)作為卷積網(wǎng)絡(luò)的激活函數(shù),使得特征映射具有位移不變性.此外,由于一個映射面上的神經(jīng)元共享權(quán)值,因而減少了網(wǎng)絡(luò)自由參數(shù)的個數(shù).卷積神經(jīng)網(wǎng)絡(luò)中的每一個卷積層都緊跟著一個用來求局部平均與2次提取的計算層,這種特有的2次特征提取結(jié)構(gòu)減小了特征分辨率.其具體結(jié)構(gòu)圖如圖2所示:

    (7)

    子抽樣層Sl在每個出入位面上使用Kl×Kl平滑濾波:

    (8)

    首先將視頻模型描述為視聽雙模態(tài),其中該模型的信號是視頻幀和與視頻幀同步的連續(xù)聲譜.本文采用了基于稀疏理論深度自動編碼器的異構(gòu)多模態(tài)深度學(xué)習(xí)策略.

    深度自動編碼器是一種利用無監(jiān)督逐層貪心預(yù)訓(xùn)練和系統(tǒng)性參數(shù)優(yōu)化的多層非線性網(wǎng)絡(luò),能夠從無標(biāo)簽數(shù)據(jù)中提取高維復(fù)雜輸入數(shù)據(jù)的分層特征,并得到原始數(shù)據(jù)的分布式特征表示的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),其由編碼器、解碼器和隱含層組成.

    基于稀疏理論的深度自動編碼器[10]對原始自動編碼器的隱含層添加了約束條件并增加了隱含層數(shù)量,能提取高維數(shù)據(jù)向量的稀疏解釋性因子,保留原始輸入的非零特征,增加表示算法的魯棒性,增強(qiáng)數(shù)據(jù)的線性可分性,使物體邊界變得更加清晰.

    該識別模型分為輸入層、共享表示層以及輸出層.

    1) 輸入層.為視頻資源的2個模態(tài),即聲譜和視頻幀,其中聲譜采用RBM訓(xùn)練,視頻幀采用CNN訓(xùn)練.

    2) 共享表示層.這一層的關(guān)鍵是找到特征模態(tài)的轉(zhuǎn)換表示從而最大化模態(tài)之間的關(guān)聯(lián)性.本文采用典型關(guān)聯(lián)分析(canonical correlation analysis, CCA)的方法尋找聲譜波和視頻幀數(shù)據(jù)的線性轉(zhuǎn)換從而形成性能優(yōu)良的共享表示.

    其中,CCA是一種先將較多變量轉(zhuǎn)化為少數(shù)幾個典型變量,再通過其間的典型相關(guān)系數(shù)來描述2組多元隨機(jī)變量之間關(guān)系的統(tǒng)計方法.有助于綜合地描述2組變量之間的典型相關(guān)關(guān)系.基本過程是從2組變量各自的線性函數(shù)中各抽取一個組成一對,它們應(yīng)是相關(guān)系數(shù)達(dá)到最大值的一對,稱為第1對典型變量,類似地就可以求出第2對、第3對,……,這些成對變量之間互不相關(guān),各對典型變量的相關(guān)系數(shù)稱為典型相關(guān)系數(shù).所得到的典型相關(guān)系數(shù)的數(shù)目不超過原2組變量中任何一組變量的數(shù)目.

    3) 輸出層.這一層為聲譜和視頻的重構(gòu).還原視頻信息的同時,識別視頻中的物體.

    2 基于視頻時間相關(guān)特性的參數(shù)優(yōu)化

    2.1 視頻相關(guān)性描述

    視頻是由一系列圖像所組成,圖像中目標(biāo)識別的方法可以用來對視頻進(jìn)行識別,一段視頻可以分解成很多幀,同一視頻中連續(xù)的2個視頻幀很有可能表示同樣的內(nèi)容,視頻的這種特性我們稱之為相關(guān)特性.將這視頻的這種特性用于視頻的目標(biāo)識別,可以使識別效果得到很大程度的提高[22].

    利用視頻的時間相關(guān)性來提高識別準(zhǔn)確性已成功用于視頻的動作識別[23].實驗表明具有時間相關(guān)性視頻卷積網(wǎng)絡(luò)的識別效果明顯比采用視頻單幀進(jìn)行訓(xùn)練的卷積網(wǎng)絡(luò)效果優(yōu)越.

    2.2 利用視頻相關(guān)特性的優(yōu)化

    CNN中在每個卷積層和子采樣層之后都運(yùn)用了一個非線性函數(shù)tanh(·),最后使用經(jīng)典的全連接層輸出識別標(biāo)簽向量,我們引入了softmax層,向量的概率計算為

    (9)

    在普通CNN對視頻的處理過程中,我們從視頻的全部圖像幀中抽取一部分作為訓(xùn)練樣本,{(xn,yn)}n=1,2,…,N,xn代表二維的輸入圖像,yn為分類或識別的標(biāo)簽.對CNN網(wǎng)絡(luò)中的相鄰幀參數(shù)θ,以最小化似然函數(shù)L(θ)為目標(biāo),優(yōu)化參數(shù)θ.似然函數(shù)L(θ)的表達(dá)式如下:

    (10)

    為達(dá)到這個目的,采用隨機(jī)梯度下降算法對式(10)中的參數(shù)θ進(jìn)行訓(xùn)練,從訓(xùn)練樣本中取一個隨機(jī)樣本(x,y),計算出梯度?L(θ)?θ后,按照式(11)更新參數(shù)θ.

    (11)

    得到的新參數(shù)θ能使CNN對視頻中目標(biāo)識別的性能更準(zhǔn)確.其中λ是根據(jù)實驗選擇的學(xué)習(xí)率.

    為了使CNN更好地訓(xùn)練θ,以達(dá)到更好的識別正確率,我們利用視頻中存在的時間相關(guān)性進(jìn)一步對似然函數(shù)L(θ)進(jìn)行優(yōu)化.

    Lcoh(θ,x1,x2)=

    (12)

    其中,δ為邊緣尺寸,是一個提前選取好的參數(shù),例如δ=1.

    Fig. 3 Parameter optimization by utilizing the coherence圖3 利用相關(guān)特性優(yōu)化學(xué)習(xí)參數(shù)示意圖

    上述的CNN自身對目標(biāo)識別的任務(wù)和使用視頻時間相關(guān)性對網(wǎng)絡(luò)進(jìn)行優(yōu)化是同時進(jìn)行的,最后我們得到一個優(yōu)化后的參數(shù):

    (13)式(13)最小的參數(shù)θ即是我們要訓(xùn)練的θ值.在式(13)中,為了限制參數(shù)的數(shù)量,為相關(guān)似然函數(shù)Lcoh(θ,x1,x2)設(shè)置了相同的γ,如可令γ=1.

    2.3 基于時間相關(guān)的異構(gòu)多模態(tài)深度學(xué)習(xí)算法

    基于時間相關(guān)性的異構(gòu)多模態(tài)的結(jié)構(gòu)如圖4所示,我們將視頻中的2個模態(tài)視頻和音頻分別采用CCN和RBM進(jìn)行處理得到相應(yīng)的識別標(biāo)簽向量.

    RBM網(wǎng)絡(luò)的輸入為與視頻幀相對應(yīng)的同步連續(xù)聲譜,我們采用深度自動編碼器的學(xué)習(xí)模型對音頻進(jìn)行處理,該學(xué)習(xí)模型仍然與第1節(jié)類似,分為輸入層、共享表示層以及輸出層.

    1) 輸入層.為視頻資源的2個模態(tài),即聲譜波和視頻幀,其中聲譜采用RBM訓(xùn)練,視頻幀采用CNN訓(xùn)練.

    2) 共享表示層.這一層的關(guān)鍵是找到特征模態(tài)的轉(zhuǎn)換表示從而最大化模態(tài)之間的關(guān)聯(lián)性.與第1節(jié)不同的是,該共享層的視頻部分的特征由并行CNN產(chǎn)生.本文采用CCA的方法尋找聲譜數(shù)據(jù)的線性轉(zhuǎn)換從而形成性能優(yōu)良的共享表示.

    3) 輸出層.為該深度學(xué)習(xí)模型的識別標(biāo)簽向量.

    RBM的目標(biāo)是最大化訓(xùn)練樣本集V中的概率之積:

    (14)

    CNN的優(yōu)化目標(biāo)則是最大化式(9)中的概率,基于時間相關(guān)的異構(gòu)多模態(tài)深度學(xué)習(xí)算法的目的就是對參數(shù)w,θ優(yōu)化RBM和CNN的聯(lián)合概率:

    (15)

    具體的算法如算法1所示.

    算法1. 利用時間相關(guān)性的學(xué)習(xí)參數(shù)優(yōu)化算法.

    輸入:標(biāo)簽數(shù)據(jù)(an,xn,yn),n=1,2,…,N,非標(biāo)簽視頻數(shù)據(jù)an,xn,n=N+1,N+2,…,N+U;

    輸出:神經(jīng)網(wǎng)絡(luò)的參數(shù)w,θ和識別標(biāo)簽label.

    Repeat:

    Step1. 取一個隨機(jī)標(biāo)簽樣本(an,xn,yn);

    Step2. 針對音頻輸入an,執(zhí)行一次梯度下降迭代優(yōu)化RBM的連接參數(shù)w;

    Step3. 對視頻輸入幀中連續(xù)的xn,yn和似然函數(shù)L(θ,xn,yn),執(zhí)行1次梯度下降迭代;

    Step4. 對視頻輸入幀中不連續(xù)的xm,xn和相關(guān)似然函數(shù)Lcoh(θ,xm,xn),執(zhí)行1次梯度下降迭代;

    Fig. 4 Structure of heterogeneous multimodal deep learning based on temporal coherence圖4 基于時間相關(guān)的異構(gòu)多模態(tài)深度學(xué)習(xí)結(jié)構(gòu)圖

    Step5. 針對音頻輸入an,再執(zhí)行1次梯度下降迭代優(yōu)化RBM的連接參數(shù)w,選擇參數(shù)w,θ最大化式(15)中的聯(lián)合概率.

    Until迭代誤差小于設(shè)置的閾值.

    上述算法就是通過交替更新目標(biāo)識別任務(wù)的聲譜識別和視頻圖像幀識別的參數(shù)來實現(xiàn)優(yōu)化,在視頻圖像幀中同時利用了連續(xù)幀和非連續(xù)幀的特征進(jìn)行優(yōu)化,以達(dá)到提高識別效率的目的.

    3 實驗與分析

    為了驗證本文提出的異構(gòu)多模態(tài)深度學(xué)習(xí)的目標(biāo)識別方法的性能,構(gòu)造了3組對比實驗:組1的測試數(shù)據(jù)來自于單一的數(shù)據(jù)庫,主要說明異構(gòu)架構(gòu)結(jié)合多種神經(jīng)網(wǎng)絡(luò)的有效性;組2的測試數(shù)據(jù)來自不同的數(shù)據(jù)庫,主要說明算法的適應(yīng)性;組3的測試數(shù)據(jù)來自視頻網(wǎng)站的電影視頻,說明算法的實際應(yīng)用性.

    對比實驗采用了高性能雙CPU服務(wù)器硬件配置,帶有128 GB內(nèi)存,并配備一塊雙GPU加速卡.基于caffe開源平臺進(jìn)行深度學(xué)習(xí)異構(gòu)平臺的搭建,使用了其中的CNN工具,并加入了多層RBM神經(jīng)網(wǎng)絡(luò)和共享的關(guān)聯(lián)分析.

    3.1 對比實驗1

    為說明異構(gòu)深度學(xué)習(xí)架構(gòu)的有效性,將本文提出的異構(gòu)多模態(tài)策略與分別基于單一神經(jīng)網(wǎng)絡(luò)CNN和RBM的算法進(jìn)行對比.選用BANCA[24]數(shù)據(jù)庫中的視頻作為測試數(shù)據(jù)來源,該數(shù)據(jù)庫由26個被測對象(13個男性和13個女性)的發(fā)音視頻組成.每個被測對象記錄24段視頻,每段視頻大致延續(xù)15 s.在這段視頻中被測對象要么讀數(shù)字,要么讀他們自己或別人的名字與地址.某些片段會加入噪聲.

    對每個被測對象的24段視頻,其中8段作為訓(xùn)練組,16段作為測試組,對比的結(jié)果如表1所示.由表1可以看出,基于異構(gòu)多模態(tài)的神經(jīng)網(wǎng)絡(luò)架構(gòu)的深度學(xué)習(xí)目標(biāo)識別結(jié)果比基于單一網(wǎng)絡(luò)的深度學(xué)習(xí)的目標(biāo)識別結(jié)果有了顯著提高.

    Table 1 Comparison of Neural Network Algorithms withDifferent Structures Based on BANCA

    3.2 對比實驗2

    為了說明算法的適應(yīng)性,在這組實驗中分別采用來自不同的數(shù)據(jù)庫作為測試視頻的聲音和圖像幀信息,使用的數(shù)據(jù)庫如下:

    1) Stanford Dataset.該數(shù)據(jù)庫是來自于斯坦福大學(xué)的一個網(wǎng)絡(luò)數(shù)據(jù)庫.我們選用其中的語音數(shù)據(jù)部分,使用庫中23名志愿者朗讀從0~9的數(shù)字、從A~Z的字母和從TIMIT標(biāo)準(zhǔn)語音庫里挑選的語句,以作為聲音訓(xùn)練和測試數(shù)據(jù).

    2) Olivetti Faces.該數(shù)據(jù)庫是紐約大學(xué)的一個人臉數(shù)據(jù)庫,由40個人的400張圖片構(gòu)成,即每個人的人臉圖片為10張.每張圖片的灰度級為8 b,每個像素的灰度大小位于0~255之間,每張圖片大小為64×64.使用圖片構(gòu)造被測視頻的圖像幀,采用人工設(shè)定視頻中的人臉視頻與語音數(shù)據(jù)的對應(yīng)關(guān)系.視頻幀中的幀1,4,5作為標(biāo)簽數(shù)據(jù),其余的圖像作為非標(biāo)簽數(shù)據(jù).

    此外,為了驗證算法的有效性,我們將所提出異構(gòu)多模態(tài)深度學(xué)習(xí)方法同已有的近鄰取樣、支持向量機(jī)和傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)和玻爾茲曼機(jī)等目標(biāo)識別方法進(jìn)行比較.我們將所用圖像和語音數(shù)據(jù)平均分成6組,分為訓(xùn)練組L和測試組T,進(jìn)行如下操作:1)L=1,T=5; 2)L=2,T=4; 3)L=5,T=1,測試結(jié)果如表2所示:

    Table 2 Comparison of Algorithms Based on StanfordDataset and Olivetti Faces

    由實驗結(jié)果可以看出隨著訓(xùn)練集的規(guī)模增大,所有目標(biāo)識別方法的測試精度都得到了顯著提高.跟傳統(tǒng)的4種目標(biāo)識別方法相比,由于本文提出的異構(gòu)多模態(tài)深度學(xué)習(xí)方法能夠抽象學(xué)習(xí)目標(biāo)與時間相關(guān)的特性信息,能不依賴大量對象集進(jìn)行目標(biāo)識別訓(xùn)練,所以異構(gòu)多模態(tài)深度學(xué)習(xí)方法能始終獲得最高的訓(xùn)練精度.在訓(xùn)練組較小L=1,T=5時,異構(gòu)多模態(tài)深度學(xué)習(xí)方法的測試精度是90.35%;在訓(xùn)練組較多L=5,T=1時,測試精度提升了8.51%,誤差率只有1.14%.

    3.3 對比實驗3

    此外,我們利用以下3種具有復(fù)雜場景和多種表情動作的視頻數(shù)據(jù)集以驗證本算法的有效性:UCF sport actions, Hollywood2和YouTube action.這些數(shù)據(jù)集提取自實際場景,具有場景復(fù)雜、待識別目標(biāo)具有移動性、目標(biāo)捕捉困難、面對干擾較大等特性.

    由于使用了帶有GPU的高性能服務(wù)器,所有的算法在訓(xùn)練后都可以在連續(xù)播放5~10幀的時間內(nèi)完成目標(biāo)識別.而本文所提出異構(gòu)算法所需要的時間略高,較所有算法的平均時間大約高出7%,但仍然對所測試的視頻基本上可以滿足實時性的要求.

    在本次實驗中我們利用較多訓(xùn)練組L=5,T=1來驗證目標(biāo)識別精度.比較結(jié)果如表3所示.由仿真結(jié)果可以看出在更復(fù)雜的場景下,所有4種方法的目標(biāo)識別都更加困難.特別是針對高度復(fù)雜的好萊塢電影場景,目標(biāo)識別精度最高只有63.86%.

    Table 3 Comparison of Algorithms Based on UCF, Hollywood2and YouTube Action

    由于4種數(shù)據(jù)集場景具有較大的干擾,所以具有濾波作用的玻爾茲曼機(jī)方法和異構(gòu)多模態(tài)深度學(xué)習(xí)方法具有更高的識別精度.此外本文提出的異構(gòu)多模態(tài)深度學(xué)習(xí)方法能夠抽象的學(xué)習(xí)目標(biāo)與時間相關(guān)的特性信息,特別適用于移動場景目標(biāo)的識別,能始終獲得最高的目標(biāo)識別精度.

    4 結(jié)束語

    本文針對網(wǎng)絡(luò)媒體數(shù)據(jù)中同時包含音頻信號和時間相關(guān)的視頻圖像信號的特點,提出一種異構(gòu)多模態(tài)目標(biāo)識別的策略,結(jié)合RBM和CNN分別處理媒體數(shù)據(jù)的音頻和視頻信息,并進(jìn)一步根據(jù)視頻幀之間的時間相關(guān)性優(yōu)化神經(jīng)網(wǎng)絡(luò)的參數(shù),所提出的策略將2種模態(tài)特征進(jìn)行共享學(xué)習(xí)表示.通過結(jié)合2種模態(tài)之間的特征,對視頻數(shù)據(jù)進(jìn)行更為準(zhǔn)確的目標(biāo)識別.本文給出的算法實驗和比較結(jié)果,顯示了本文算法的有效性與優(yōu)越性.在下一步的研究中,將會考慮更為復(fù)雜的視頻場景和充分的噪聲干擾,并考慮不同分辨率視頻信息的融合,以增加算法在實際應(yīng)用場景的識別能力和適應(yīng)性能.

    [1]Yu Wei, Li Shijun, Yang Sha, et al. Automatically discovering of inconsistency among cross-source data based on Web big data[J]. Journal of Computer Research and Development, 2015, 52(2): 295-308 (in Chinese)(余偉, 李石君, 楊莎, 等. Web大數(shù)據(jù)環(huán)境下的不一致跨源數(shù)據(jù)發(fā)現(xiàn)[J]. 計算機(jī)研究與發(fā)展, 2015, 52(2): 295-308)

    [2]Chen X W, Lin X. Big data deep learning: Challenges and perspectives[J]. IEEE Access, 2014, 2: 514-525

    [3]Li Guojie. The scientific value in the study of the big data[J]. Communications of CCF, 2012, 8(9): 8-15 (in Chinese)(李國杰. 大數(shù)據(jù)研究的科學(xué)價值[J]. 中國計算機(jī)學(xué)會通訊, 2012, 8(9): 8-15)

    [4]Lowe D G. Object recognition from local scale-invariant features[C]Proc of the 7th IEEE Int Conf on Computer Vision. Piscataway, NJ: IEEE, 1999: 1150-1157

    [5]Deng L, Yu D. Deep learning: Methods and applications[J]. Foundations and Trends in Signal Processing, 2014, 7(34): 197-387

    [6]Zivkovic Z. Improved adaptive Gaussian mixture model for background subtraction[C]Proc of the 17th Int Conf on Pattern Recognition. Piscataway, NJ: IEEE, 2004: 28-31

    [7]Quattoni A, Collins M, Darrell T. Conditional random fields for object recognition[C]Proc of the Advances in Neural Information Processing Systems. Cambridge, MA: MIT Press, 2004: 1097-1104

    [8]Suykens J A K, Vandewalle J. Least squares support vector machine classifiers[J]. Neural Processing Letters, 1999, 9(3): 293-300

    [9]Morgan N, Bourlard H. Continuous speech recognition using multilayer perceptrons with hidden Markov models[C]Proc of Int Conf on Acoustics, Speech, and Signal Processing. Piscataway, NJ: IEEE, 1990: 413-416

    [10]Le Q V, Zou W Y, Yeung S Y, et al. Learning hierarchical invariant spatio-temporal features for action recognition with independent subspace analysis[C]Proc of IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2011: 3361-3368

    [11]Arel I, Rose D C, Karnowski T P. Deep machine learning-a new frontier in artificial intelligence research[J]. IEEE Computational Intelligence Magazine, 2010, 5(4): 13-18

    [12]Hinton G E, Salakhutdinov R R. Reducing the dimensionality of data with neural networks[J]. Science, 2006, 313(5786): 504-507

    [13]Liu Jianwei, Liu Yuan, Luo Xionglin. The research and progress of deep learning[J]. Application Research of Computers, 2014, 31(7): 1921-1930 (in Chinese)(劉建偉, 劉媛, 羅雄麟. 深度學(xué)習(xí)研究進(jìn)展[J]. 計算機(jī)應(yīng)用研究, 2014, 31(7): 1921-1930)

    [14]Hinton G, Deng L, Yu D, et al. Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups[J]. IEEE Signal Processing Magazine, 2012, 29(6): 82-97

    [15]LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324

    [16]Cheng Dongyang. Multimedia content analysis based on unsupervised feature learning[D]. Shanghai: Shanghai Jiao Tong University, 2014: 1-93 (in Chinese)(程東陽. 基于無監(jiān)督特征學(xué)習(xí)的多媒體內(nèi)容算法研究[D]. 上海: 上海交通大學(xué), 2014: 1-93)

    [17]You Qingzhen. The radio face recognition method based on the deep learning[D]. Harbin: Harbin Institute of Technology, 2012: 3-20 (in Chinese)(由清圳. 基于深度學(xué)習(xí)的視頻人臉識別[D]. 哈爾濱: 哈爾濱工業(yè)大學(xué), 2012: 3-20)

    [18]Wang Y S, Fu H, Sorkine O, et al. Motion-aware temporal coherence for video resizing[J]. ACM Trans on Graphics, 2009, 28(5): 127-127

    [19]Zou W, Zhu S, Yu K, et al. Deep learning of invariant features via simulated fixations in video[C]Proc of the Advances in Neural Information Processing Systems. Cambridge, MA: MIT Press, 2012: 3212-3220

    [20]Leonardi R, Migliorati P, Prandini M. Semantic indexing of soccer audio-visual sequences: A multimodal approach based on controlled Markov chains[J]. IEEE Trans on Circuits and Systems for Video Technology, 2004, 14(5): 634-643

    [21]Ngiam J, Khosla A, Kim M, et al. Multimodal deep learning[C]Proc of the 28th Int Conf on Machine Learning. New York: ACM, 2011: 689-696

    [22]Mobahi H, Collobert R, Weston J. Deep learning from temporal coherence in video[C]Proc of the 26th Int Conf on Machine Learning. New York: ACM, 2009: 737-744

    [23]Simonyan K, Zisserman A. Two-stream convolutional networks for action recognition in videos[C]Proc of the Advances in Neural Information Processing Systems. Cambridge, MA: MIT Press, 2014: 568-576

    [24]Bailly-Baillie`re E, Bengio S, Bimbot F, et al. The BANCA database and evaluation protocol[G]LNCS 2688: Proc of the 4th Int Conf on Audio-and Video-Based Biometric Person Authentication. Berlin: Springer, 2003: 625-638

    Wen Mengfei, born in 1975. Associate professor. PhD from Central South University, postdoctor of Hunan Provincial Research Institute of Education. His main research interests include automation control, computer science and multi-agent system.

    Liu Weirong, born in 1976. PhD. Associate professor of Central South University. Member of CCF. His main research interests include computer science, machine learning, big data, cooperative communication and cooperative control.

    Hu Chao, born in 1980. PhD from Central South University. Associate dean of Information and Network Center of Central South University. His main research interests include computer science, network management and regional medical informationization (huchao@csu.edu.cn).

    A Heterogeneous Multimodal Object Recognition Strategy of the Massive Network Data Flow

    Wen Mengfei1,4, Liu Weirong1, and Hu Chao2,3

    1(SchoolofInformationScienceandEngineering,CentralSouthUniversity,Changsha410083)2(InformationandNetworkCenter,CentralSouthUniversity,Changsha410083)3(KeyLaboratoryofMedicalInformationResearch(CentralSouthUniversity),CollegeofHunanProvince,Changsha4100834(HunanProvincialResearchInstituteofEducation,Changsha410005)

    It is a research hot to achieve the object recognition of the massive network media data nowadays. To address the problem, an object recognition strategy is proposed to handle the massive network media data flow which adopts heterogeneous multimodal structure while utilizing the temporal coherence. Firstly, based on the video and audio co-existing feature of media network data, a heterogeneous multimodal structure is constructed to incorporate the convolutional neural network(CNN) and the restricted Boltzmann machine(RBM). The audio information is processed by restricted Boltzmann machine and the video information is processed by convolutional neural network respectively. The heterogeneous multimodal structure can exploit the merits of different deep learning neural networks. After that, the share characteristic representation are generated by using the canonical correlation analysis(CCA). Then the temporal coherence of video frame is utilized to improve the recognizing accuracy further. There kinds of experiments are adopted to validate the effectiveness of the proposed strategy. The first type of experiment compares the proposed strategy with single-mode algorithm. The second type of experiment illustrates the result based on composite database. Finally the videos coming from real websites are extracted to compare the proposed strategy with other algorithms. These experiments prove the effectiveness of the proposed heterogeneous multimodal strategy.

    object recognition; deep learning; convolutional neural network (CNN); restricted Boltzmann machine (RBM); canonical correlation analysis (CCA)

    2015-08-03;

    2015-12-16

    湖南省教育科學(xué)“十二五”規(guī)劃重點資助項目(XJK014AJC001);國家自然科學(xué)基金項目(61379111,61672539,61202342) This work was supported by the Key Project of Educational and Scientific Foundation of Hunan Province During the 12th Five-Year Plan Period(XJK014AJC001) and the National Natural Science Foundation of China (61379111,61672539,61202342).

    劉偉榮(frat@csu.edu.cn)

    TP391

    猜你喜歡
    異構(gòu)模態(tài)神經(jīng)網(wǎng)絡(luò)
    試論同課異構(gòu)之“同”與“異”
    神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
    電子制作(2019年19期)2019-11-23 08:42:00
    overlay SDN實現(xiàn)異構(gòu)兼容的關(guān)鍵技術(shù)
    LTE異構(gòu)網(wǎng)技術(shù)與組網(wǎng)研究
    基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
    國內(nèi)多模態(tài)教學(xué)研究回顧與展望
    復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
    基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識別
    基于支持向量機(jī)回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
    在新興異構(gòu)SoCs上集成多種系統(tǒng)
    精品无人区乱码1区二区| 色综合欧美亚洲国产小说| 欧美中文日本在线观看视频| 校园春色视频在线观看| 色av中文字幕| 亚洲天堂国产精品一区在线| 亚洲美女搞黄在线观看 | 久久久久久国产a免费观看| 国产精品三级大全| 成年女人永久免费观看视频| av在线观看视频网站免费| 精品久久久久久,| 亚洲内射少妇av| 国产精品自产拍在线观看55亚洲| 色精品久久人妻99蜜桃| 成人鲁丝片一二三区免费| 校园春色视频在线观看| 看黄色毛片网站| 国产视频一区二区在线看| 深夜a级毛片| 精品久久久久久久久av| 色播亚洲综合网| 国产视频内射| 亚洲三级黄色毛片| .国产精品久久| 日韩人妻高清精品专区| 免费av毛片视频| 偷拍熟女少妇极品色| 在线观看午夜福利视频| 18禁黄网站禁片午夜丰满| 美女 人体艺术 gogo| 国产欧美日韩一区二区精品| 国产亚洲精品久久久com| 一区二区三区免费毛片| 一级av片app| 老女人水多毛片| 亚洲成av人片在线播放无| 三级国产精品欧美在线观看| 久久久久久久久大av| 制服丝袜大香蕉在线| 精品熟女少妇八av免费久了| 校园春色视频在线观看| 成人精品一区二区免费| 亚洲人成网站在线播放欧美日韩| 色在线成人网| 久久人人爽人人爽人人片va | 熟女人妻精品中文字幕| 中文字幕人妻熟人妻熟丝袜美| 欧美+日韩+精品| 在线观看av片永久免费下载| 久久精品久久久久久噜噜老黄 | 国产视频一区二区在线看| 国产毛片a区久久久久| 日韩免费av在线播放| 我的女老师完整版在线观看| 岛国在线免费视频观看| 熟女人妻精品中文字幕| www.熟女人妻精品国产| 99久久九九国产精品国产免费| 日本五十路高清| 国产欧美日韩精品亚洲av| 国产一区二区在线av高清观看| 99久久精品热视频| www日本黄色视频网| 亚洲自拍偷在线| 久久热精品热| 国产野战对白在线观看| 97人妻精品一区二区三区麻豆| 91av网一区二区| 18禁黄网站禁片免费观看直播| 亚洲av美国av| 国产欧美日韩精品亚洲av| 亚州av有码| 男女做爰动态图高潮gif福利片| 久久天躁狠狠躁夜夜2o2o| av视频在线观看入口| 成人午夜高清在线视频| 女人十人毛片免费观看3o分钟| 国产亚洲欧美在线一区二区| 亚洲av免费在线观看| 国产黄a三级三级三级人| 亚洲熟妇中文字幕五十中出| 精品国产三级普通话版| 国产av在哪里看| 国产三级中文精品| 亚洲美女黄片视频| 天堂动漫精品| 亚洲七黄色美女视频| av女优亚洲男人天堂| 99热这里只有精品一区| 亚洲av中文字字幕乱码综合| av福利片在线观看| 好男人电影高清在线观看| 丰满人妻一区二区三区视频av| а√天堂www在线а√下载| 热99re8久久精品国产| 欧美成人免费av一区二区三区| 丁香六月欧美| 又紧又爽又黄一区二区| 国产精品一区二区性色av| 久久精品91蜜桃| 全区人妻精品视频| 婷婷精品国产亚洲av| 国产高清视频在线播放一区| 久久婷婷人人爽人人干人人爱| 亚洲av第一区精品v没综合| 国产麻豆成人av免费视频| 成年女人毛片免费观看观看9| 亚洲av不卡在线观看| 99热这里只有是精品在线观看 | 熟妇人妻久久中文字幕3abv| 国产伦一二天堂av在线观看| 内射极品少妇av片p| 亚洲国产高清在线一区二区三| 一区二区三区高清视频在线| 亚洲人成网站在线播放欧美日韩| 欧美日韩综合久久久久久 | 18禁黄网站禁片午夜丰满| 国产精品久久久久久久久免 | 三级男女做爰猛烈吃奶摸视频| 国产乱人伦免费视频| 一个人看视频在线观看www免费| 91狼人影院| 国产精品99久久久久久久久| 91狼人影院| 一区二区三区激情视频| 亚洲自拍偷在线| av国产免费在线观看| av在线观看视频网站免费| 免费看a级黄色片| 最好的美女福利视频网| av天堂在线播放| 色吧在线观看| 日本免费a在线| 在现免费观看毛片| 欧美高清性xxxxhd video| 蜜桃久久精品国产亚洲av| 别揉我奶头 嗯啊视频| 中文字幕免费在线视频6| 色av中文字幕| 国产高清三级在线| 久久久久精品国产欧美久久久| 久久国产精品人妻蜜桃| 精品久久久久久久久久免费视频| 日本一本二区三区精品| 麻豆一二三区av精品| 欧美最新免费一区二区三区 | 精品一区二区三区视频在线观看免费| 女同久久另类99精品国产91| 亚洲国产高清在线一区二区三| 国产一级毛片七仙女欲春2| 午夜福利18| 精品午夜福利在线看| 中文字幕熟女人妻在线| 久久久久国内视频| 日韩有码中文字幕| 在线免费观看不下载黄p国产 | 夜夜爽天天搞| 午夜免费激情av| 两人在一起打扑克的视频| 国产视频内射| 又爽又黄无遮挡网站| 国产精品久久电影中文字幕| 观看免费一级毛片| 国产av麻豆久久久久久久| 伦理电影大哥的女人| 日本黄大片高清| 精品国产三级普通话版| 在线观看午夜福利视频| 在线播放国产精品三级| 精品一区二区三区视频在线观看免费| 少妇人妻一区二区三区视频| 日韩欧美免费精品| 国产视频内射| 国产伦在线观看视频一区| 日本免费一区二区三区高清不卡| 变态另类丝袜制服| 国产人妻一区二区三区在| 精品久久久久久久末码| 国产精品久久电影中文字幕| 欧美最新免费一区二区三区 | 国产一区二区三区在线臀色熟女| 老司机午夜十八禁免费视频| 中文字幕av在线有码专区| 亚洲中文字幕日韩| 久久久久亚洲av毛片大全| 亚洲成人中文字幕在线播放| 日韩欧美一区二区三区在线观看| 国产精品一区二区三区四区久久| 90打野战视频偷拍视频| 亚洲av熟女| 久久性视频一级片| 国产麻豆成人av免费视频| 国产成人啪精品午夜网站| 国产精品一区二区免费欧美| av专区在线播放| 国产成+人综合+亚洲专区| 人人妻,人人澡人人爽秒播| 亚州av有码| av视频在线观看入口| 熟女人妻精品中文字幕| 国产精品亚洲av一区麻豆| 国内久久婷婷六月综合欲色啪| 久久久精品大字幕| 日韩国内少妇激情av| 国产极品精品免费视频能看的| 成人av一区二区三区在线看| 最好的美女福利视频网| 色综合亚洲欧美另类图片| 亚洲aⅴ乱码一区二区在线播放| 免费观看人在逋| 欧美成人性av电影在线观看| 嫩草影院入口| 久久久国产成人精品二区| 91在线观看av| 此物有八面人人有两片| 国产伦人伦偷精品视频| 老司机午夜十八禁免费视频| 欧美激情国产日韩精品一区| 自拍偷自拍亚洲精品老妇| 欧美性感艳星| 国产成人aa在线观看| 久久久久久久亚洲中文字幕 | eeuss影院久久| 欧美黑人欧美精品刺激| 我要搜黄色片| 成年人黄色毛片网站| 精品午夜福利视频在线观看一区| 午夜久久久久精精品| 国产亚洲精品综合一区在线观看| 一级黄色大片毛片| 国产乱人视频| 亚洲综合色惰| 九九热线精品视视频播放| 久久亚洲真实| 一级黄片播放器| 日韩欧美国产在线观看| 国产伦一二天堂av在线观看| 国产午夜福利久久久久久| 日韩欧美精品v在线| 久久中文看片网| 欧美性猛交╳xxx乱大交人| 亚洲精品久久国产高清桃花| 免费在线观看成人毛片| 欧美国产日韩亚洲一区| 91在线观看av| 亚洲成人免费电影在线观看| 欧美又色又爽又黄视频| 久久久久久久久久黄片| 日韩欧美免费精品| 久久九九热精品免费| 老司机福利观看| 看片在线看免费视频| 在线a可以看的网站| 成人国产一区最新在线观看| 国产蜜桃级精品一区二区三区| 嫩草影院精品99| 亚洲欧美清纯卡通| 国产69精品久久久久777片| 精品国内亚洲2022精品成人| 人妻制服诱惑在线中文字幕| 日本黄色视频三级网站网址| www日本黄色视频网| 国产精品日韩av在线免费观看| 成人无遮挡网站| 欧美3d第一页| 精品久久久久久久久久免费视频| 欧美精品啪啪一区二区三区| 99久久久亚洲精品蜜臀av| 日本 av在线| 亚洲性夜色夜夜综合| 蜜桃亚洲精品一区二区三区| av专区在线播放| 九九在线视频观看精品| 国产午夜精品久久久久久一区二区三区 | 日本五十路高清| 岛国在线免费视频观看| 亚洲国产精品久久男人天堂| 亚洲中文字幕一区二区三区有码在线看| 午夜福利免费观看在线| 欧美极品一区二区三区四区| 亚洲中文字幕日韩| 国产欧美日韩精品亚洲av| 一本久久中文字幕| 亚洲欧美精品综合久久99| 免费av观看视频| www日本黄色视频网| 国产高清有码在线观看视频| 蜜桃久久精品国产亚洲av| 人妻夜夜爽99麻豆av| 欧美日韩中文字幕国产精品一区二区三区| 给我免费播放毛片高清在线观看| 色视频www国产| 97碰自拍视频| 国产蜜桃级精品一区二区三区| 国产精品精品国产色婷婷| 亚洲人成电影免费在线| 国产探花在线观看一区二区| 国产老妇女一区| 97人妻精品一区二区三区麻豆| a级毛片a级免费在线| 精品一区二区三区视频在线| 日韩欧美国产在线观看| 白带黄色成豆腐渣| 精华霜和精华液先用哪个| 露出奶头的视频| 成人av在线播放网站| 亚洲天堂国产精品一区在线| 白带黄色成豆腐渣| 精华霜和精华液先用哪个| 制服丝袜大香蕉在线| 精品无人区乱码1区二区| 窝窝影院91人妻| 国产午夜福利久久久久久| 九九久久精品国产亚洲av麻豆| 91久久精品国产一区二区成人| 又爽又黄无遮挡网站| 欧美高清成人免费视频www| 悠悠久久av| 久久精品国产清高在天天线| 亚洲精品影视一区二区三区av| 十八禁国产超污无遮挡网站| 精品一区二区三区人妻视频| 亚洲成人中文字幕在线播放| 偷拍熟女少妇极品色| 精品熟女少妇八av免费久了| 国产高清三级在线| 亚洲国产高清在线一区二区三| 男女床上黄色一级片免费看| 别揉我奶头~嗯~啊~动态视频| 在线十欧美十亚洲十日本专区| 在线免费观看的www视频| 少妇人妻精品综合一区二区 | av女优亚洲男人天堂| 99热这里只有是精品50| 日韩中文字幕欧美一区二区| 国产免费av片在线观看野外av| 一个人观看的视频www高清免费观看| 久久草成人影院| 国产亚洲精品久久久久久毛片| 午夜福利免费观看在线| 51国产日韩欧美| 成人精品一区二区免费| ponron亚洲| 亚洲内射少妇av| bbb黄色大片| 成人高潮视频无遮挡免费网站| 国产伦精品一区二区三区视频9| 午夜精品久久久久久毛片777| 国产精品99久久久久久久久| 热99在线观看视频| 午夜激情欧美在线| 熟女电影av网| 18禁在线播放成人免费| 老师上课跳d突然被开到最大视频 久久午夜综合久久蜜桃 | 国产一区二区三区视频了| 香蕉av资源在线| 免费人成视频x8x8入口观看| 中文字幕免费在线视频6| 又黄又爽又免费观看的视频| 婷婷色综合大香蕉| 一区二区三区四区激情视频 | 99热精品在线国产| 久久久久亚洲av毛片大全| 69av精品久久久久久| 中文字幕免费在线视频6| 亚洲av五月六月丁香网| 国产主播在线观看一区二区| 久久天躁狠狠躁夜夜2o2o| 尤物成人国产欧美一区二区三区| 麻豆成人av在线观看| 美女黄网站色视频| 久99久视频精品免费| 亚洲va日本ⅴa欧美va伊人久久| 精华霜和精华液先用哪个| 女人十人毛片免费观看3o分钟| 中文字幕免费在线视频6| 亚洲经典国产精华液单 | 最新在线观看一区二区三区| 欧美乱色亚洲激情| 国产主播在线观看一区二区| xxxwww97欧美| 麻豆成人av在线观看| 亚洲性夜色夜夜综合| 国产在视频线在精品| 精品一区二区三区视频在线观看免费| 国产欧美日韩精品亚洲av| bbb黄色大片| 国产熟女xx| av欧美777| 欧美乱妇无乱码| 亚洲一区二区三区不卡视频| av国产免费在线观看| 日本 欧美在线| 国产色爽女视频免费观看| 人妻夜夜爽99麻豆av| 亚洲av日韩精品久久久久久密| 色视频www国产| 在线天堂最新版资源| 九色成人免费人妻av| 久久九九热精品免费| 国产又黄又爽又无遮挡在线| 国产一区二区三区视频了| 久久精品综合一区二区三区| 欧美3d第一页| 一级黄色大片毛片| 亚洲av日韩精品久久久久久密| 亚洲美女搞黄在线观看 | 国产aⅴ精品一区二区三区波| 精品久久久久久久久亚洲 | 最近最新免费中文字幕在线| 又黄又爽又刺激的免费视频.| 麻豆久久精品国产亚洲av| 免费人成视频x8x8入口观看| 搞女人的毛片| 90打野战视频偷拍视频| 久久久精品大字幕| 男女做爰动态图高潮gif福利片| 麻豆av噜噜一区二区三区| 神马国产精品三级电影在线观看| 午夜福利视频1000在线观看| 在线十欧美十亚洲十日本专区| 亚洲av成人av| 国产精品一及| 亚洲五月婷婷丁香| 午夜视频国产福利| 久久精品国产自在天天线| 免费观看的影片在线观看| 亚洲av中文字字幕乱码综合| 日韩欧美精品v在线| 午夜福利在线观看吧| 啦啦啦观看免费观看视频高清| 亚洲av成人不卡在线观看播放网| 中国美女看黄片| 在线国产一区二区在线| avwww免费| 男女视频在线观看网站免费| 国产又黄又爽又无遮挡在线| 久久精品人妻少妇| 69av精品久久久久久| 精品久久久久久久久久免费视频| 亚洲人成网站高清观看| 久久久久久久久中文| 我的女老师完整版在线观看| 色尼玛亚洲综合影院| 日韩成人在线观看一区二区三区| 毛片一级片免费看久久久久 | 欧美日韩亚洲国产一区二区在线观看| 中文字幕人成人乱码亚洲影| 美女高潮的动态| 国产男靠女视频免费网站| 中文字幕精品亚洲无线码一区| 成人av一区二区三区在线看| 男插女下体视频免费在线播放| 国产白丝娇喘喷水9色精品| 日韩欧美免费精品| 人妻久久中文字幕网| 日韩欧美国产一区二区入口| 国产亚洲精品久久久com| 91在线观看av| 我的女老师完整版在线观看| x7x7x7水蜜桃| 99视频精品全部免费 在线| a级毛片a级免费在线| 精品久久久久久成人av| 91久久精品电影网| 国产黄色小视频在线观看| 夜夜躁狠狠躁天天躁| 精品一区二区免费观看| 老司机午夜福利在线观看视频| 亚洲乱码一区二区免费版| 午夜激情福利司机影院| 国产午夜福利久久久久久| 欧美成人一区二区免费高清观看| 91在线观看av| 亚洲av成人av| 内地一区二区视频在线| 精品久久久久久,| 亚洲人成电影免费在线| 婷婷亚洲欧美| 欧美性猛交黑人性爽| 别揉我奶头 嗯啊视频| 嫩草影视91久久| 日韩高清综合在线| 色5月婷婷丁香| 亚州av有码| 一卡2卡三卡四卡精品乱码亚洲| 一进一出抽搐gif免费好疼| 美女cb高潮喷水在线观看| 亚洲欧美日韩东京热| 丰满乱子伦码专区| 尤物成人国产欧美一区二区三区| 亚洲真实伦在线观看| 久久九九热精品免费| 亚洲va日本ⅴa欧美va伊人久久| 久久人人爽人人爽人人片va | 中文字幕av在线有码专区| 男女床上黄色一级片免费看| 精品人妻一区二区三区麻豆 | 国产精品精品国产色婷婷| 九色国产91popny在线| av国产免费在线观看| 国产美女午夜福利| 成年女人看的毛片在线观看| 性插视频无遮挡在线免费观看| 久久精品国产亚洲av涩爱 | 色播亚洲综合网| 欧美+日韩+精品| 欧美一区二区国产精品久久精品| 精品一区二区三区av网在线观看| 久久亚洲精品不卡| 国产精品伦人一区二区| 久久精品人妻少妇| 久9热在线精品视频| 中文亚洲av片在线观看爽| 欧美成人性av电影在线观看| 在线观看舔阴道视频| 国产一区二区亚洲精品在线观看| 亚洲av成人精品一区久久| 一进一出好大好爽视频| 免费黄网站久久成人精品 | 桃色一区二区三区在线观看| 少妇熟女aⅴ在线视频| 亚洲内射少妇av| 久久人妻av系列| 我的女老师完整版在线观看| 别揉我奶头 嗯啊视频| 婷婷六月久久综合丁香| 久久草成人影院| 久久久久亚洲av毛片大全| 国产淫片久久久久久久久 | 日本与韩国留学比较| 成人av在线播放网站| 亚洲第一区二区三区不卡| 亚洲精华国产精华精| 99国产精品一区二区三区| 噜噜噜噜噜久久久久久91| 啦啦啦观看免费观看视频高清| 丰满的人妻完整版| 亚洲av电影不卡..在线观看| 婷婷色综合大香蕉| 亚洲欧美精品综合久久99| 少妇人妻一区二区三区视频| 国产日本99.免费观看| 一区二区三区高清视频在线| 97热精品久久久久久| 国产精品一区二区三区四区免费观看 | 国产精品爽爽va在线观看网站| av专区在线播放| 长腿黑丝高跟| 久久久久久久亚洲中文字幕 | 中文字幕精品亚洲无线码一区| 国产午夜福利久久久久久| 亚洲精品久久国产高清桃花| 在线十欧美十亚洲十日本专区| 露出奶头的视频| 中文字幕高清在线视频| 国产国拍精品亚洲av在线观看| 国产在视频线在精品| avwww免费| 亚洲欧美精品综合久久99| 午夜福利在线在线| 熟女人妻精品中文字幕| 亚洲一区二区三区色噜噜| 亚洲精品久久国产高清桃花| 日韩精品中文字幕看吧| 一夜夜www| 久久精品国产亚洲av涩爱 | 亚洲内射少妇av| 国产高清三级在线| 丰满的人妻完整版| 蜜桃久久精品国产亚洲av| 婷婷色综合大香蕉| 国产精品亚洲av一区麻豆| 国产av在哪里看| 99热6这里只有精品| 波多野结衣高清无吗| 亚洲欧美精品综合久久99| 国产精品免费一区二区三区在线| av专区在线播放| 亚洲av一区综合| 久久国产精品影院| 天天躁日日操中文字幕| 国产毛片a区久久久久| 男女视频在线观看网站免费| 九九在线视频观看精品| 男人和女人高潮做爰伦理| 男人舔奶头视频| 美女高潮的动态| 在线观看一区二区三区| 黄色丝袜av网址大全| 一二三四社区在线视频社区8| 亚洲成av人片在线播放无| 午夜亚洲福利在线播放| 一个人看的www免费观看视频| 亚洲五月婷婷丁香| 国产爱豆传媒在线观看| 久久久国产成人精品二区| 搡女人真爽免费视频火全软件 | 日本免费一区二区三区高清不卡| 欧美色视频一区免费| 亚洲第一区二区三区不卡| 国产亚洲精品久久久com| 亚洲中文字幕日韩| 午夜福利视频1000在线观看| 国产精品一区二区性色av| 亚洲人成伊人成综合网2020| 精品久久久久久,| 婷婷丁香在线五月| 久久亚洲精品不卡| 日本在线视频免费播放| 亚洲激情在线av| 国产高清三级在线| 九色成人免费人妻av| 免费av观看视频|