• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于目標(biāo)檢測(cè)及高密度軌跡的動(dòng)作識(shí)別

    2016-09-21 03:42:05王新宇
    關(guān)鍵詞:描述符高密度濾波器

    王新宇,諶 達(dá),馮 輝,楊 濤,胡 波, 2

    (1. 復(fù)旦大學(xué) 電子工程系,上海 200433; 2. 復(fù)旦大學(xué) 電磁波信息科學(xué)教育部重點(diǎn)實(shí)驗(yàn)室,上海 200433)

    ?

    基于目標(biāo)檢測(cè)及高密度軌跡的動(dòng)作識(shí)別

    王新宇1,諶達(dá)1,馮輝1,楊濤1,胡波1, 2

    (1. 復(fù)旦大學(xué) 電子工程系,上海 200433; 2. 復(fù)旦大學(xué) 電磁波信息科學(xué)教育部重點(diǎn)實(shí)驗(yàn)室,上海 200433)

    為了實(shí)現(xiàn)準(zhǔn)確的動(dòng)作識(shí)別效果,我們通常需要提取能夠充分代表運(yùn)動(dòng)特征的信息。近年來(lái),基于高密度軌跡的動(dòng)作識(shí)別方法因?yàn)槟軌蛱峁┴S富的時(shí)空信息而受到研究者們的廣泛關(guān)注。但高密度軌跡類(lèi)的動(dòng)作識(shí)別算法通常都要面臨背景冗余信息干擾的問(wèn)題,為了解決這一問(wèn)題,本文在高密度軌跡的動(dòng)作識(shí)別方法基礎(chǔ)上引入了目標(biāo)檢測(cè)算法,通過(guò)可變形塊模型方法檢測(cè)運(yùn)動(dòng)主體位置后計(jì)算其周?chē)母呙芏溶壽E,有效地排除了背景冗余信息的干擾。而目標(biāo)檢測(cè)算法通常要面臨丟幀問(wèn)題,為了應(yīng)對(duì)這一情況,本文采用了詞袋模型和支持向量機(jī)進(jìn)行動(dòng)作特征表述和分類(lèi),詞袋模型根據(jù)大量數(shù)據(jù)詞頻構(gòu)建特征描述符的工作原理,使得目標(biāo)檢測(cè)偶有丟幀的情況并不影響動(dòng)作識(shí)別的最終效果,結(jié)合高密度軌跡算法后有效地提高了傳統(tǒng)高密度軌跡算法的效率,也獲得了更為準(zhǔn)確的識(shí)別效果。本文算法在KTH, UCF YouTube和UCF Sports數(shù)據(jù)集上較當(dāng)前算法都取得了更高的動(dòng)作識(shí)別準(zhǔn)確率,尤其在復(fù)雜背景數(shù)據(jù)集UCF YouTube和UCF Sports上識(shí)別準(zhǔn)確率分別可達(dá)89.2%和90.2%。

    目標(biāo)檢測(cè); 高密度軌跡; 可變形塊模型; 動(dòng)作識(shí)別

    動(dòng)作識(shí)別因廣泛應(yīng)用于視頻監(jiān)控、視頻檢索、人機(jī)交互、虛擬現(xiàn)實(shí)、運(yùn)動(dòng)分析、智能家居等領(lǐng)域,一直以來(lái)都是計(jì)算機(jī)視覺(jué)領(lǐng)域的研究熱點(diǎn)。但由于人體動(dòng)作本身具有較大自由度,同時(shí)存在類(lèi)內(nèi)和類(lèi)間差異,也因運(yùn)動(dòng)主體速度和頻率各異[1],同時(shí)動(dòng)作識(shí)別易受到遮擋和自遮擋、視角和尺度變化、光照變化、復(fù)雜背景、相機(jī)移動(dòng)等多重因素影響[2],致使該領(lǐng)域研究仍然頗具挑戰(zhàn)性。

    我們研究的動(dòng)作通常指人在完成某個(gè)特定任務(wù)時(shí)的運(yùn)動(dòng)序列,而從計(jì)算機(jī)視覺(jué)角度來(lái)看,動(dòng)作識(shí)別就是將輸入視頻序列賦予正確標(biāo)簽、歸入正確分類(lèi)集的過(guò)程[3]。根據(jù)文獻(xiàn)[1,3-9]對(duì)于動(dòng)作識(shí)別研究領(lǐng)域的梳理和分析,依照特征描述方法的特點(diǎn),動(dòng)作識(shí)別算法主要可以分為以下3類(lèi): 全局特征方法、局部特征方法和混合特征方法。

    全局特征方法一般是指以整幀圖像或者整個(gè)視頻為單位提取特征進(jìn)行描述的方法。這類(lèi)特征通常通過(guò)人體邊界或輪廓檢測(cè)得到運(yùn)動(dòng)主體位置,然后基于全局光流、全局梯度直方圖等方式描述特征。整體來(lái)講,基于全局特征的方法通常都包含了豐富的時(shí)空信息,但這類(lèi)方法也都是基于前景和背景有良好分割或者目標(biāo)能夠被穩(wěn)定跟蹤的前提假設(shè),同樣也容易受到遮擋或尺度變換的影響。由于對(duì)于遮擋具有更好的魯棒性,基于局部特征的方法也頗受研究者關(guān)注。其中最經(jīng)典的實(shí)現(xiàn)框架就是通過(guò)時(shí)空興趣點(diǎn)檢測(cè)獲取局部特征,然后構(gòu)造詞袋(Bag of Words, BoW)模型進(jìn)行動(dòng)作分類(lèi)和識(shí)別,興趣點(diǎn)檢測(cè)通常采用Harris角點(diǎn)、SIFT算子等方法。整體而言,基于局部特征的方法通常能夠解決遮擋問(wèn)題,但這類(lèi)方法也容易忽略運(yùn)動(dòng)過(guò)程中的時(shí)間信息和結(jié)構(gòu)關(guān)系,關(guān)鍵信息的缺失使得基于局部特征的動(dòng)作識(shí)別方法仍然具有局限性。

    由于單獨(dú)采用全局特征或者局部特征描述運(yùn)動(dòng)都具有局限性,近年來(lái)越來(lái)越多的研究人員開(kāi)始采用基于混合特征的方法進(jìn)行動(dòng)作識(shí)別?;旌咸卣鞣椒](méi)有一個(gè)嚴(yán)格的定義,通常是在全局特征的框架下構(gòu)建局部特征描述符,或者聯(lián)合全局和局部特征構(gòu)建表述二者之間關(guān)聯(lián)性的特征描述符,例如文獻(xiàn)[10]將高密度軌跡聚類(lèi)成為子運(yùn)動(dòng)塊,然后用圖模型刻畫(huà)運(yùn)動(dòng)塊之間的關(guān)系。高密度軌跡(Dense Trajectory)是混合特征方法的一個(gè)典型代表,最初由文獻(xiàn)[11]在2011年提出,主要靈感來(lái)自于圖像分類(lèi)領(lǐng)域中的高密度采樣(dense sampling)。但在文獻(xiàn)[11]提出的方法中,相機(jī)移動(dòng)和復(fù)雜背景因素帶來(lái)的影響可能會(huì)累積誤差甚至導(dǎo)致識(shí)別失敗。因此文獻(xiàn)[12]提出從高密度軌跡中選取部分軌跡,再重構(gòu)成新的有序軌跡(ordered trajectory)的方法來(lái)解決上述問(wèn)題。文獻(xiàn)[13]在無(wú)監(jiān)督條件下識(shí)別局部運(yùn)動(dòng),采用多核方法提升動(dòng)作識(shí)別效果。文獻(xiàn)[14]基于高密度軌跡提出了一種新的時(shí)空不變特征池的方法,并證明了該方法相比于文獻(xiàn)[12]提出的有序軌跡方法和文獻(xiàn)[13]提出的局部運(yùn)動(dòng)方法取得了更好效果。事實(shí)上,查閱近幾年發(fā)表的動(dòng)作識(shí)別領(lǐng)域文章就不難看出,以高密度軌跡為代表的混合特征方法,正在逐漸取代單獨(dú)采用全局特征或局部特征的方法,成為動(dòng)作識(shí)別研究領(lǐng)域的新趨勢(shì)。

    本文提出了一種基于運(yùn)動(dòng)目標(biāo)檢測(cè)和高密度軌跡的動(dòng)作識(shí)別方法。這種方法首先通過(guò)運(yùn)動(dòng)目標(biāo)檢測(cè)算法獲取每一幀圖像中運(yùn)動(dòng)主體位置信息,然后針對(duì)運(yùn)動(dòng)主體計(jì)算高密度軌跡,并在軌跡周?chē)捎梅较蛱荻戎狈綀D(Histogram of Oriented Gradient, HOG)刻畫(huà)形狀信息,利用光流直方圖(Histogram of Optical Flow, HOF)和運(yùn)動(dòng)邊界直方圖(Motion Boundary Histogram, MBH)表征運(yùn)動(dòng)信息,用軌跡形狀描述運(yùn)動(dòng)的時(shí)空關(guān)系和結(jié)構(gòu)信息。之后采用詞袋模型構(gòu)建完整的特征描述符,利用支持向量機(jī)(Support Vector Machines, SVM)進(jìn)行動(dòng)作識(shí)別。

    1 系統(tǒng)框架

    提到動(dòng)作識(shí)別,從人類(lèi)大腦識(shí)別動(dòng)作的角度出發(fā),描述運(yùn)動(dòng)最直觀的方法就是直接利用運(yùn)動(dòng)軌跡表述運(yùn)動(dòng)。早在1973年就有研究[15]表明,人類(lèi)大腦不需要通過(guò)觀察完整的人體運(yùn)動(dòng),只觀察人體重要部位標(biāo)記的光點(diǎn)移動(dòng)軌跡,就可以判斷和識(shí)別動(dòng)作。受到這一想法的啟發(fā),研究者們對(duì)基于二維稀疏軌跡[16]表述的動(dòng)作識(shí)別進(jìn)行了充分的研究。但基于二維稀疏軌跡的動(dòng)作識(shí)別方法都無(wú)法很好地解決遮擋和人體自遮擋帶來(lái)的不能獲得連續(xù)穩(wěn)定軌跡的問(wèn)題,直到2011年文獻(xiàn)[11]提出高密度軌跡方法才從根本上解決了稀疏軌跡的固有問(wèn)題。

    本文正是基于高密度軌跡的方法,從最直觀的軌跡角度出發(fā)進(jìn)行動(dòng)作識(shí)別。而高密度軌跡方法普遍面臨冗余背景信息干擾的問(wèn)題,為了解決這一問(wèn)題,本文采用基于可變形塊模型(Deformable Part-based Model, DPM)[17]在輸入視頻序列的每一幀中進(jìn)行人體目標(biāo)檢測(cè),獲得人體邊界框(bounding box),在每一幀人體邊界框范圍內(nèi)計(jì)算高密度軌跡。

    有研究[18]表明,人的大腦視覺(jué)皮層存在兩個(gè)分別用于感知運(yùn)動(dòng)與形狀的區(qū)域,兩個(gè)區(qū)域神經(jīng)元的共同響應(yīng)傳送到大腦進(jìn)行協(xié)同處理,完成人腦動(dòng)作識(shí)別過(guò)程。因此在計(jì)算得到人體邊界框內(nèi)高密度軌跡之后,本文對(duì)每一個(gè)動(dòng)作序列同時(shí)提取表示運(yùn)動(dòng)信息的運(yùn)動(dòng)描述符和代表形狀信息的形狀描述符。本文形狀描述符采用方向梯度直方圖,運(yùn)動(dòng)描述符利用光流直方圖和運(yùn)動(dòng)邊界直方圖,與此同時(shí)還用軌跡形狀刻畫(huà)運(yùn)動(dòng)的時(shí)空關(guān)系和結(jié)構(gòu)信息。

    在高密度軌跡基礎(chǔ)上引入目標(biāo)檢測(cè)算法時(shí)同樣也要面臨目標(biāo)檢測(cè)丟幀問(wèn)題,為了解決這一問(wèn)題,本文在得到運(yùn)動(dòng)描述符和形狀描述符后采用詞袋模型對(duì)運(yùn)動(dòng)特征進(jìn)行總體表示。對(duì)于所有訓(xùn)練視頻提取的特征描述符采用k-means聚類(lèi)構(gòu)建一個(gè)400維的碼本,再將每一個(gè)視頻的特征映射到碼本上得到最終的特征直方圖。詞袋模型詞頻映射的工作原理自然地避免了目標(biāo)檢測(cè)偶有丟幀帶來(lái)的問(wèn)題,使其完全不影響動(dòng)作識(shí)別的效果。最后利用支持向量機(jī)進(jìn)行動(dòng)作模型的學(xué)習(xí)和分類(lèi)。本文采用的動(dòng)作識(shí)別系統(tǒng)框架如圖1(見(jiàn)第444頁(yè))所示。

    2 動(dòng)作特征表示與分類(lèi)

    2.1運(yùn)動(dòng)目標(biāo)檢測(cè)

    本文采用文獻(xiàn)[17]提出的基于多尺度可變形塊混合模型的方法實(shí)現(xiàn)人體邊界框檢測(cè),這一模型適合對(duì)于具有極高自由度的人體目標(biāo)進(jìn)行檢測(cè)。該方法主要基于圖形結(jié)構(gòu)(pictorial structures)[19]框架,將一個(gè)檢測(cè)目標(biāo)表示為可變形塊的組合,每個(gè)塊表示目標(biāo)的一個(gè)局部形狀特征。可變形塊模型在Dalal-Triggs檢測(cè)子[20]基礎(chǔ)上引入了星狀塊模型結(jié)構(gòu),該模型由一個(gè)類(lèi)似Dalal-Triggs濾波器的根濾波器加上一系列塊濾波器組成。

    Dalal-Triggs檢測(cè)子對(duì)HOG特征進(jìn)行濾波區(qū)分物體類(lèi)別,它采用滑窗方法將濾波器應(yīng)用于一幅圖的所有位置和尺度,可以看作是一個(gè)輸入為一幅圖、圖上位置和對(duì)應(yīng)尺度的分類(lèi)器。因?yàn)樵撃P褪且粋€(gè)簡(jiǎn)單濾波器,所以我們可以計(jì)算得到一個(gè)得分w·φ(x),其中w是濾波器,x是在特定位置和尺度下的圖像,φ(x)是特征向量。而星狀塊模型的得分是在給定位置和尺度下,根濾波器得分加上塊濾波器相關(guān)分?jǐn)?shù)之和,再減去衡量塊實(shí)際位置與相對(duì)于根理想位置偏差的變形代價(jià)。

    訓(xùn)練只有部分標(biāo)記數(shù)據(jù)的模型,采用隱支持向量機(jī)(Latent SVM, LSVM)方法。在隱支持向量機(jī)中,每一個(gè)樣本x評(píng)分如下:

    (1)

    其中:w是模型參數(shù)向量;z是隱變量;φ(x,z)是特征向量。在星狀塊模型中,w是根濾波器、塊濾波器和變形代價(jià)權(quán)重的級(jí)聯(lián),z是目標(biāo)結(jié)構(gòu),φ(x,z)是特征金字塔和塊變形特征子窗的級(jí)聯(lián)。在混合星狀塊模型中,某一特定位置和尺度下,混合模型的得分等于其子模型的最高分。

    模型中,每個(gè)濾波器都可以看作是一個(gè)由d維權(quán)重向量數(shù)組定義的矩形模板,濾波器R在特征圖G上(x,y)位置的響應(yīng)或得分由濾波器與左上角在(x,y)位置的特征圖的子窗的點(diǎn)乘定義:

    ∑x′,y′R[x′,y′]·G[x+x′,y+y′].

    (2)

    采用特征金字塔方法實(shí)現(xiàn)一幅圖不同位置和尺度的計(jì)算,通過(guò)重復(fù)平滑和子采樣計(jì)算特征金字塔,然后在圖金字塔每個(gè)尺度上計(jì)算特征圖。

    星狀模型中根濾波器采用可以覆蓋整個(gè)目標(biāo)的濾波器,塊濾波器采用2倍根濾波器的分辨率對(duì)目標(biāo)細(xì)節(jié)進(jìn)行采樣。更精細(xì)分辨率的塊濾波器對(duì)于識(shí)別準(zhǔn)確率有重要意義,例如想要識(shí)別一個(gè)人體目標(biāo)時(shí),根濾波器主要目的是找到人的大體位置和輪廓,而塊濾波器可以更加精細(xì)地描述人的四肢、軀干、頭等局部特征。一個(gè)由n個(gè)塊組成的模型可以由一個(gè)n+2維向量(R0,P1,P2,…,Pn,b)表示,其中R0是根濾波器,Pi是第i個(gè)塊模型,b是一個(gè)偏置項(xiàng)。每一個(gè)塊模型可以表示為(Ri,li,di),其中Ri是第i個(gè)塊濾波器,li是一個(gè)表示第i塊與根相對(duì)位置的2維向量,di是一個(gè)表示塊相對(duì)于根每個(gè)可能位置對(duì)應(yīng)的二次代價(jià)函數(shù)系數(shù)的4維向量。一個(gè)假設(shè)的得分表示為每個(gè)濾波器在對(duì)應(yīng)位置得分,減去一個(gè)取決于每個(gè)塊與根之間相對(duì)位置的可變形代價(jià),再加上一個(gè)偏置項(xiàng):

    (3)

    其中

    (dxi,dyi)=(xi,yi)-(2(x0,y0)+li),

    (4)

    φd(dx,dy)=(dx,dy,dx2,dy2).

    (5)

    (4)式表示第i個(gè)塊相對(duì)于根的位置偏差,(5)式是變形特征,M是特征金字塔。

    z的得分可以表示為w·ψ(M,z),即模型參數(shù)w向量與ψ(M,z)向量的點(diǎn)乘,其中:

    w=(R′0,R′1,…,R′n;d1,d2,…,dn;b),

    (6)

    ψ(M,z)=(φ(M,p0),φ(M,p1),…,φ(M,pn);-φd(dx1,dy1),

    -φd(dx2,dy2),…,-φd(dxn,dyn);1).

    (7)

    這體現(xiàn)了可變形塊模型與線性分類(lèi)器之間的關(guān)聯(lián),利用這種關(guān)系可以在LSVM框架下學(xué)習(xí)模型參數(shù)。

    一個(gè)由m個(gè)元素組成的混合模型可以表示為M=(M1,M2,…,Mm),其中Mi表示模型中第i個(gè)元素?;旌夏P偷囊粋€(gè)目標(biāo)假設(shè)對(duì)應(yīng)混合模型中某個(gè)元素i和Mi中每個(gè)濾波器位置,即z=(i,p0,p1,…,pni),其中ni是Mi中塊的個(gè)數(shù)。這個(gè)z的得分就是第i個(gè)模型元素z′=(p0,p1,…,pni)的得分。當(dāng)模型是只有1個(gè)元素時(shí),混合模型中z的得分就可以表示為模型參數(shù)w和向量ψ(M,z)的點(diǎn)乘;而當(dāng)混合模型中元素多于1個(gè)時(shí),向量w是每個(gè)模型元素參數(shù)向量的級(jí)聯(lián),向量ψ(M,z)是由稀疏的、非零的元素組成,這些元素由與w中wi的間隔相同的ψ(M,z′)定義:

    w=(w1,w2,…,wm),

    (8)

    ψ(M,z)=(0,0,…,0,ψ(M,z′),0,0,…,0).

    (9)

    在這個(gè)結(jié)構(gòu)中,w·ψ(M,z)=wi·ψ(M,z′)。

    用混合模型進(jìn)行目標(biāo)檢測(cè)時(shí)采用如上匹配算法,找到每個(gè)模型元素獨(dú)立產(chǎn)生最高得分的目標(biāo)假設(shè)的根位置??勺冃螇K模型進(jìn)行人體目標(biāo)檢測(cè)效果如圖2所示: 其中(a)列是原始圖像;(b)列兩幅圖中最大的紅色框是混合模型根濾波器的效果示意,找到運(yùn)動(dòng)主體大致位置,而目標(biāo)范圍內(nèi)一系列藍(lán)色小框是不同塊濾波器的效果示意;(c)列是未加入運(yùn)動(dòng)目標(biāo)檢測(cè)前高密度軌跡效果,由于相機(jī)移動(dòng)、復(fù)雜背景等原因整個(gè)畫(huà)面都有軌跡覆蓋;(d)列是本文算法高密度軌跡效果,即加入了可變形塊模型運(yùn)動(dòng)目標(biāo)檢測(cè)過(guò)程之后,不難看出軌跡主要覆蓋運(yùn)動(dòng)目標(biāo)主體,有效消除了相機(jī)移動(dòng)等因素引入的大面積背景冗余軌跡。

    2.2動(dòng)作特征表示

    當(dāng)輸入視頻每一幀都經(jīng)過(guò)運(yùn)動(dòng)目標(biāo)檢測(cè)獲得人體邊界框后,在此目標(biāo)區(qū)域內(nèi)采集人體運(yùn)動(dòng)的高密度軌跡。采集高密度軌跡時(shí),我們采用文獻(xiàn)[11]提出的算法,對(duì)于每個(gè)特征點(diǎn)都在其周?chē)鶺×W范圍內(nèi)進(jìn)行采樣,之后在不同尺度下跟蹤這些采樣點(diǎn)以獲得軌跡(通常W=5時(shí)就可以獲得密度足夠大的軌跡)。第t幀的點(diǎn)Pt=(xt,yt)在高密度光流場(chǎng)ω=(ut,vt)中通過(guò)中值濾波得到第t+1幀的位置:

    (10)

    通常在圖像同質(zhì)化嚴(yán)重的區(qū)域不可能得到跟蹤軌跡,這種情況下我們計(jì)算得到采樣點(diǎn)自相關(guān)矩陣最小的特征值,當(dāng)它小于某一閾值的時(shí)候就舍棄該采樣點(diǎn)。與此同時(shí),軌跡有很大位移突變的情況有違牛頓運(yùn)動(dòng)物理定律,也舍棄這些異樣點(diǎn)。軌跡的形狀可以表示局部運(yùn)動(dòng)特征,用位移序列S=(ΔPt,ΔPt+1,…,ΔPt+L-1)表示一條長(zhǎng)度為L(zhǎng)的軌跡,其中ΔPt=(Pt+1-Pt)=(xt+1-xt,yt+1-yt),得到的結(jié)果再進(jìn)行歸一化處理,就可以得到形狀描述符當(dāng)中的軌跡形狀描述符。

    為了得到完整的形狀描述符和運(yùn)動(dòng)描述符,我們?cè)谲壽E周?chē)鷺?gòu)建一個(gè)N×N×L的時(shí)空體(圖3)。在此基礎(chǔ)上再將此時(shí)空體切成一些nσ×nσ×nτ的子時(shí)空體(通常取N=32,nσ=2 nτ=3)。在每個(gè)子時(shí)空體中,沿著軌跡計(jì)算方向梯度直方圖HOG作為形狀描述符,計(jì)算光流直方圖HOF作為運(yùn)動(dòng)描述符。其中光流計(jì)算的是絕對(duì)運(yùn)動(dòng),因此必然包含了相機(jī)運(yùn)動(dòng),文獻(xiàn)[21]提出的MBH特征在光流的水平和垂直兩個(gè)方向分別求導(dǎo),可以刻畫(huà)像素之間的相對(duì)運(yùn)動(dòng),消除相機(jī)運(yùn)動(dòng)等背景運(yùn)動(dòng)帶來(lái)的影響,因此我們?cè)谶\(yùn)動(dòng)描述符當(dāng)中加入MBH特征。

    總結(jié)來(lái)說(shuō),在高密度軌跡周?chē)淖訒r(shí)空體中,采集HOG和軌跡形狀作為形狀描述符,利用HOF和MBH作為運(yùn)動(dòng)描述符。聯(lián)合運(yùn)動(dòng)描述符和形狀描述符共同刻畫(huà)運(yùn)動(dòng)特征。

    2.3動(dòng)作分類(lèi)

    在計(jì)算得到運(yùn)動(dòng)描述符和形狀描述符后,本文采用詞袋模型和支持向量機(jī)進(jìn)行動(dòng)作特征的理解和分類(lèi)。詞袋模型非常適合對(duì)高密度軌跡采樣得到的高維特征描述符進(jìn)行表述和分類(lèi),同時(shí)由于詞袋模型的特性,對(duì)于目標(biāo)檢測(cè)算法可能出現(xiàn)的個(gè)別幀檢測(cè)失敗的情況也有很好的魯棒性,不會(huì)因此影響識(shí)別的準(zhǔn)確率。首先,對(duì)于每個(gè)特征描述符分別單獨(dú)構(gòu)建一個(gè)碼本。綜合考量算法效率和準(zhǔn)確性,通過(guò)實(shí)驗(yàn)我們發(fā)現(xiàn),本文使用的特征描述符在碼本中單詞(visual words)的數(shù)量達(dá)到400時(shí)就可以很好地進(jìn)行動(dòng)作分類(lèi),因此我們對(duì)訓(xùn)練集中所有視頻的特征描述符進(jìn)行k-means聚類(lèi)(k=400)得到向量維度為400的碼本。得到碼本后對(duì)每個(gè)視頻的特征描述符進(jìn)行映射,將特征描述符中每一個(gè)元素利用歐氏距離映射到碼本中最近的單詞上,因此每個(gè)視頻都可以用一個(gè)400維的向量進(jìn)行重新表示,向量的每一個(gè)元素表示了特征描述符的詞頻。新生成的400維詞頻直方圖就是視頻描述符,而對(duì)于視頻描述符的分類(lèi),本文采用了直方圖正交核(histogram intersection kernel)的支持向量機(jī)[22]方法。

    3 結(jié)果與分析

    3.1動(dòng)作數(shù)據(jù)集

    為了便于與文獻(xiàn)[11]的識(shí)別結(jié)果進(jìn)行對(duì)比,本文采用了在動(dòng)作識(shí)別領(lǐng)域廣為應(yīng)用的KTH、UCF YouTube和UCF Sports動(dòng)作數(shù)據(jù)集進(jìn)行算法效果的檢驗(yàn)。

    KTH數(shù)據(jù)集[23]包含6種不同的人體動(dòng)作: 行走(walking)、慢跑(jogging)、快跑(running)、拳擊(boxing)、揮手(waving)和拍手(clapping)。每個(gè)動(dòng)作由25個(gè)不同的人分別在室外、室內(nèi)、室外尺度變化、室外著裝變化4種場(chǎng)景下完成,大多數(shù)場(chǎng)景下視頻背景是同質(zhì)且靜止的。本文與文獻(xiàn)[11]采用相同設(shè)置,利用編號(hào)2、3、5、6、7、8、9、10和22共9個(gè)人的視頻作為測(cè)試集,其余16個(gè)人的視頻作為訓(xùn)練集,即訓(xùn)練集和測(cè)試集視頻數(shù)量比例近似2: 1。

    UCF YouTube數(shù)據(jù)集[24]包含11種不同的人體動(dòng)作: 投籃(basketball shooting)、騎車(chē)(biking)、跳水(diving)、高爾夫(golf swinging)、騎馬(horse riding)、顛足球(soccer juggling)、蕩秋千(swinging)、打網(wǎng)球(tennis swinging)、跳蹦床(trampoline jumping)、打排球(volleyball spiking)和遛狗(walking with a dog)。由于該數(shù)據(jù)集視頻來(lái)自視頻網(wǎng)站YouTube,多數(shù)為手持設(shè)備拍攝,因此具有很大的相機(jī)移動(dòng)。同時(shí)在運(yùn)動(dòng)目標(biāo)外觀、姿態(tài)、尺度、視角、光照條件和復(fù)雜背景等因素的干擾下,該數(shù)據(jù)集十分具有挑戰(zhàn)性。相比于文獻(xiàn)[11]采用的留一交叉驗(yàn)證法設(shè)置,本文采用了與KTH相同的訓(xùn)練集和測(cè)試集視頻數(shù)量比例2∶1的設(shè)置,條件更為嚴(yán)苛。

    UCF Sports數(shù)據(jù)集[31]包含10種不同的動(dòng)作: 鞍馬(swinging on the pommel horse)、跳水(diving)、踢球(kicking)、舉重(weight-lifting)、騎馬(horse-riding)、跑步(running)、滑板(skateboarding)、單杠(swinging at the high bar)、高爾夫(golf swinging)和走路(walking)。該數(shù)據(jù)集由150段具有較大類(lèi)內(nèi)差異的視頻組成,同時(shí)在視角、尺度、背景等方面都頗具挑戰(zhàn)性。相比于文獻(xiàn)[11]在此數(shù)據(jù)集上采用的留一交叉驗(yàn)證法設(shè)置,本文采取了與UCF YouTube數(shù)據(jù)集相同的設(shè)置,條件更加苛刻。

    3.2結(jié)果

    本文對(duì)于軌跡形狀描述符(Trajectory)、方向梯度直方圖(HOG)、光流直方圖(HOF)和運(yùn)動(dòng)邊界直方圖(MBH)四種描述符在KTH、UCF YouTube和UCF Sports 3個(gè)數(shù)據(jù)集上分別進(jìn)行了識(shí)別準(zhǔn)確率(η)測(cè)試,并與文獻(xiàn)[11]測(cè)試結(jié)果進(jìn)行了比較。在實(shí)驗(yàn)設(shè)置上,本文將詞袋模型字典的維度設(shè)置為400,而文獻(xiàn)[11]的對(duì)應(yīng)參數(shù)設(shè)置為4000。聚類(lèi)成400個(gè)類(lèi)別比聚類(lèi)成4000個(gè)類(lèi)別要節(jié)省很多時(shí)間,而這一部分也是整個(gè)算法中比較耗時(shí)的部分,因此在構(gòu)建碼本部分本文比文獻(xiàn)[11]更為高效。此外,由于本文在高密度軌跡的基礎(chǔ)上引入了目標(biāo)檢測(cè)算法,高密度軌跡的數(shù)目只有文獻(xiàn)[11]的5.3%~34.0%(表1),也在很大程度上提高了算法效率。

    表1 本文算法與文獻(xiàn)[11]采樣軌跡數(shù)目比較

    對(duì)于KTH數(shù)據(jù)集,本文的訓(xùn)練集和測(cè)試集采用了與文獻(xiàn)[11]相同的設(shè)置,即訓(xùn)練集和測(cè)試集視頻數(shù)量比例近似2∶1。在實(shí)驗(yàn)條件完全相同的情況下,本文在Trajectory和HOF兩個(gè)描述符上較文獻(xiàn)[11]取得了更高的準(zhǔn)確率,而HOG和MBH兩個(gè)描述符準(zhǔn)確率與文獻(xiàn)[11]基本相仿,略低0.1%~0.3%。因?yàn)镵TH數(shù)據(jù)集大多數(shù)視頻背景是同質(zhì)化且靜止的,相對(duì)來(lái)講基本沒(méi)有背景冗余信息的干擾,因此本文引入目標(biāo)檢測(cè)算法帶來(lái)的準(zhǔn)確率提升效果并不明顯,但在算法識(shí)別效率上有明顯提升。

    對(duì)于UCF YouTube和UCF Sports數(shù)據(jù)集,文獻(xiàn)[11]采用了留一交叉驗(yàn)證法的實(shí)驗(yàn)設(shè)置,即將一個(gè)視頻作為測(cè)試集,其他視頻全部作為訓(xùn)練集,如此循環(huán)直至所有視頻都做過(guò)測(cè)試集為止。而本文采用了與KTH一樣的訓(xùn)練集和測(cè)試集視頻數(shù)量比例2∶1的實(shí)驗(yàn)設(shè)置,相比于留一交叉驗(yàn)證法,因?yàn)橛?xùn)練視頻數(shù)量更少,這樣的設(shè)置無(wú)疑是更加苛刻的。而就在更為苛刻的條件下,本文在四種描述符上依然全部比文獻(xiàn)[11]取得了更高的識(shí)別準(zhǔn)確率(表2),UCF YouTube準(zhǔn)確率提升達(dá)1.3%~14.7%,UCF Sports準(zhǔn)確率提升達(dá)3.2%~5.4%。由于UCF YouTube和UCF Sports數(shù)據(jù)集是在復(fù)雜背景下拍攝的,而且光照、視角、尺度等條件都更為復(fù)雜,因此在高密度軌跡基礎(chǔ)上引入目標(biāo)檢測(cè)算法十分有效地去除了背景冗余信息帶來(lái)的干擾,提高了識(shí)別準(zhǔn)確率,同時(shí)也比文獻(xiàn)[11]算法識(shí)別效率更高。

    表2 KTH, UCF YouTube和UCF Sports數(shù)據(jù)集不同描述符動(dòng)作識(shí)別準(zhǔn)確率(η)比較

    而在與最近幾年發(fā)表的動(dòng)作識(shí)別算法文章進(jìn)行比較時(shí),本文依舊取得了更好的識(shí)別效果。

    對(duì)于KTH數(shù)據(jù)集,文獻(xiàn)[13-14]都采用了高密度軌跡的方法,其中文獻(xiàn)[14]在高密度軌跡基礎(chǔ)上引入了一種時(shí)空不變特征池的方法來(lái)提升識(shí)別效率,而文獻(xiàn)[13]在無(wú)監(jiān)督條件下識(shí)別局部運(yùn)動(dòng),采用多核方法提升動(dòng)作識(shí)別效果。文獻(xiàn)[26]將體局部二進(jìn)制模型與光流相結(jié)合提出了運(yùn)動(dòng)二進(jìn)制模型的動(dòng)作識(shí)別方法,而文獻(xiàn)[25]采用了神經(jīng)網(wǎng)絡(luò)的方法進(jìn)行動(dòng)作識(shí)別。與2013—2015年間發(fā)表的這4種具有代表性的典型算法相比較,無(wú)論是同樣基于高密度軌跡的文獻(xiàn)[13-14],還是基于其他模型的文獻(xiàn)[25-26],本文都在KTH數(shù)據(jù)集取得了更加準(zhǔn)確的識(shí)別效果(表3)。

    對(duì)于UCF YouTube和UCF Sports數(shù)據(jù)集,本文選取了2011—2015年間發(fā)表的8篇文章進(jìn)行比較。因?yàn)閁CF YouTube和UCF Sports數(shù)據(jù)集本身受到運(yùn)動(dòng)目標(biāo)外觀、姿態(tài)、尺度、視角、光照條件、復(fù)雜背景等多重因素的干擾,因此十分具有挑戰(zhàn)性。與近幾年采用此數(shù)據(jù)集進(jìn)行測(cè)試的算法進(jìn)行比較,在訓(xùn)練集與測(cè)試集視頻數(shù)量2∶1的嚴(yán)苛條件下,對(duì)于挑戰(zhàn)性頗高的UCF YouTube數(shù)據(jù)集取得了89.2%的識(shí)別準(zhǔn)確率,而對(duì)于UCF Sports數(shù)據(jù)集取得了90.2%的準(zhǔn)確率,均超過(guò)現(xiàn)有算法。因此在背景更為復(fù)雜,條件更為苛刻的數(shù)據(jù)集上,本文算法對(duì)于動(dòng)作識(shí)別準(zhǔn)確率的提升效果更為明顯。

    表3 KTH, UCF YouTube和UCF Sports數(shù)據(jù)集動(dòng)作識(shí)別準(zhǔn)確率(η)比較

    4 總 結(jié)

    本文提出了一種基于運(yùn)動(dòng)目標(biāo)檢測(cè)和高密度軌跡的動(dòng)作識(shí)別算法。首先,通過(guò)可變形塊模型方法對(duì)于輸入視頻每一幀進(jìn)行運(yùn)動(dòng)目標(biāo)檢測(cè),獲取運(yùn)動(dòng)目標(biāo)邊界框之后在其范圍內(nèi)計(jì)算高密度軌跡。之后,在高密度軌跡周?chē)訒r(shí)空體內(nèi)分別計(jì)算表示形狀信息的方向梯度直方圖和表示運(yùn)動(dòng)信息的光流直方圖、運(yùn)動(dòng)邊界直方圖,同時(shí)用軌跡形狀描述符刻畫(huà)運(yùn)動(dòng)的時(shí)空關(guān)系和結(jié)構(gòu)信息。接著,采用詞袋模型將特征描述符映射到400維的碼本上,構(gòu)成新的視頻描述符。最后,用支持向量機(jī)進(jìn)行動(dòng)作模型的學(xué)習(xí)和分類(lèi)。本文算法在簡(jiǎn)單數(shù)據(jù)集KTH和復(fù)雜數(shù)據(jù)集UCF YouTube和UCF Sports上都取得了良好的識(shí)別效果,實(shí)驗(yàn)結(jié)果充分證明了基于運(yùn)動(dòng)目標(biāo)檢測(cè)和高密度軌跡的方法在動(dòng)作識(shí)別領(lǐng)域的出色表現(xiàn)。目前,本文算法已經(jīng)在工程項(xiàng)目中得到了實(shí)際應(yīng)用(圖4),未來(lái)在本文研究基礎(chǔ)上,結(jié)合高密度軌跡描述符,將進(jìn)一步探索目標(biāo)檢測(cè)和目標(biāo)跟蹤在動(dòng)作識(shí)別領(lǐng)域的應(yīng)用,融合目標(biāo)跟蹤和動(dòng)作識(shí)別過(guò)程,以期獲得更好的識(shí)別效果。

    [1]POPPE R. A survey on vision-based human actionrecognition[J].ImageandVisionComputing,2010,28(6): 976-990.

    [2]SADANAND S, CORSO JJ. Action bank: A high-level representation of activity in video[C]∥2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Providence, USA: IEEE Press, 2012: 1234-1241.

    [3]WEINLAND D, RONFARD R, BOYER E. A survey of vision-based methods for action representation, segmentation andrecognition[J].ComputerVisionandImageUnderstanding,2011,115(2): 224-241.

    [4]AGGARWAL J K, CAI Q. Human motion analysis: A review[J].ComputerVisionandImageUnderstanding,1999,73(3): 428-440.

    [5]AGGARWAL J K, PARK S. Human motion: Modeling and recognition of actions and interactions[C]∥Proceedings. 2nd International Symposium on 3D Data Processing, Visualization and Transmission, 2004. Thessaloniki, Greece: IEEE Press, 2004: 640-647.

    [6]MOESLUND T B, HILTON A, KRUGER V. A survey of advances in vision-based human motion capture andanalysis[J].ComputerVisionandImageUnderstanding,2006,104(2): 90-126.

    [7]CHENG G, WAN Y, SAUDAGAR A N, et al. Advances in Human Action Recognition: A Survey[J]. arXiv preprint arXiv: 1501.05964, 2015.

    [8]RAMANATHAN M, YAU W Y, TEOH E K. Human action recognition with video data: Research and evaluationchallenges[J].IEEETransactionsonHuman-MachineSystems,2014,44(5): 650-663.

    [9]BORGES P V K, CONCI N, CAVALLARO A. Video-based human behavior understanding: A survey[J].IEEETransactionsonCircuitsandSystemsforVideoTechnology,2013,23(11): 1993-2008.

    [10]RAPTIS M, KOKKINOS I, SOATTO S. Discovering discriminative action parts from mid-level video representations[C]∥2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Providence, USA: IEEE Press, 2012: 1242-1249.

    [11]WANG H, KLASER A, SCHMID C, et al. Action recognition by dense trajectories[C]∥2011 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Colorado Springs, USA: IEEE Press, 2011: 3169-3176.

    [12]MURTHY O V R, GOECKE R. Ordered trajectories for large scale human action recognition[C]∥2013 IEEE International Conference on Computer Vision Workshops (ICCVW). Sydney, Australia: IEEE Press, 2013: 412-419.

    [13]CHO J, LEE M, CHANG H J, et al. Robust action recognition using local motion and group sparsity[J].PatternRecognition,2014,47(5): 1813-1825.

    [14]BALLAS N, YANG Y, LAN ZZ, et al. Space-time robust representation for action recognition[C]∥2013 IEEE International Conference on Computer Vision (ICCV). Sydney, Australia: IEEE Press, 2013: 2704-2711.

    [15]JOHANSSON G. Visual perception of biological motion and a model for itsanalysis[J].Attention,Perception&Psychophysics,1973,14(2): 201-211.

    [16]YILMA A, SHAH M. Recognizing human actions in videos acquired by uncalibrated moving cameras[C]∥Tenth IEEE International Conference on Computer Vision, 2005. Beijing, China: IEEE Press, 2005,1: 150-157.

    [17]FELZENSZWALB P F, GIRSHICK R B, MCALLESTER D, et al. Object detection with discriminatively trained part-basedmodels[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2010,32(9): 1627-1645.

    [18]GIESE M A, POGGIO T. Neural mechanisms for the recognition of biologicalmovements[J].NatureReviewsNeuroscience,2003,4(3): 179-192.

    [19]FELZENSZWALB P F, HUTTENLOCHER D P. Pictorial structures for objectrecognition[J].InternationalJournalofComputerVision,2005,61(1): 55-79.

    [20]DALAL N, TRIGGS B. Histograms of oriented gradients for human detection[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2005. San Diego, USA: IEEE Press, 2005,1: 886-893.

    [21]DALAL N, TRIGGS B, SCHMID C. Human detection using oriented histograms of flow and appearance[M]∥Computer Vision-ECCV 2006. Berlin Heidelberg, Graz, Austria: Springer, 2006: 428-441.

    [22]LI P, MA J, GAO S. Actions in still web images: Visualization, detection andretrieval[M]∥Web-Age Information Management. Berlin Heidelberg: Springer, 2011: 302-313.

    [23]SCHULDT C, LAPTEV I, CAPUTO B. Recognizing human actions: a local SVM approach[C]∥Proceedings of the 17th International Conference on Pattern Recognition, 2004. Cambridge, UK: IEEE Press, 2004,3: 32-36.

    [24]LIU J, LUO J, SHAH M. Recognizing realistic actions from videos “in the wild”[C]∥IEEE Conference on Computer Vision and Pattern Recognition, 2009. Miami, USA: IEEE Press, 2009: 1996-2003.

    [25]JI S, XU W, YANG M, et al. 3D convolutional neural networks for human actionrecognition[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2013,35(1): 221-231.

    [26]BAUMANN F, EHLERS A, ROSENHAHN B, et al. Recognizing human actions using novel space-time volume binary patterns[J].Neurocomputing, 2016,173(1): 54-63.

    [27]ZHANG Y, LIU X, CHANG M C, et al.Spatio-temporal phrases for activity recognition[M]∥Computer Vision-ECCV 2012. Berlin Heidelberg, Firenze, Italy: Springer, 2012: 707-721.

    [28]CHAKRABORTY B, HOLTE M B, MOESLUND T B, et al. Selective spatio-temporal interest points[J].ComputerVisionandImageUnderstanding,2012,116(3): 396-410.

    [29]WANG Y, TIAN Y, SU L, et al. Detecting Rare Actions and Events from Surveillance Big Data with Bag of Dynamic Trajectories[C]∥2015 IEEE International Conference on Multimedia Big Data (BigMM). Beijing, China: IEEE Press, 2015: 128-135.

    [30]ZHANG Z, LIU S, LIU S, et al. Human Action Recognition using Salient Region Detection in Complex Scenes[C]∥The Proceedings of the Third International Conference on Communications, Signal Processing, and Systems. Chengdu, China, Springer International Publishing, 2015: 565-572.

    [31]RODRIGUEZ M D, AHMED J, SHAH M. Action mach a spatio-temporal maximum average correlation height filter for action recognition[C]∥Computer Vision and Pattern Recognition, 2008. Anchorage, USA: IEEE Press, 2008: 1-8.

    [32]LE Q V, ZOU W Y, YEUNG S Y, et al. Learning hierarchical invariant spatio-temporal features for action recognition with independent subspace analysis[C]∥2011 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Colorado Springs, USA: IEEE Press, 2011: 3361-3368.

    [33]JIANG Z, LIN Z, DAVIS L S. Recognizing human actions by learning and matching shape-motion prototype trees[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2012,34(3): 533-547.

    [34]YANG Y, SALEEMI I, SHAH M. Discovering motion primitives for unsupervised grouping and one-shot learning of human actions, gestures, and expressions[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2013,35(7): 1635-1648.

    [35]應(yīng)銳,王新宇,馮輝,等.基于運(yùn)動(dòng)及形狀原語(yǔ)的人體動(dòng)作識(shí)別[J].太赫茲科學(xué)與電子信息學(xué)報(bào),2014,12(4): 572-578.

    Action Recognition Based on Object Detection and Dense Trajectories

    WANG Xinyu1, CHEN Da1, FENG Hui1, YANG Tao1, HU Bo1, 2

    (1.DepartmentofElectronicEngineering,FudanUniversity,Shanghai200433,China; 2.KeyLaboratoryforInformationScienceofElectromagneticWaves,FudanUniversity,Shanghai200433,China)

    For recognizing human actions in video sequences, it is necessary to extract sufficient information that can represent motion features. In recent years, researchers pay more attention on dense trajectories because of its rich spatio-temporal information. However, dense trajectories based action recognition algorithms are all faced with redundant background problem. To solve this problem, we involve object detection in dense trajectories algorithm, detect motion object location through deformable part-based model and calculate dense trajectories around the motion object, which suppresses redundant background effectively. However, object detection algorithms are usually faced with missing frames problem. To solve this problem, human actions are classified by the bag-of-words model and SVM approach. Bag-of-words model constructs feature descriptors with word frequency, which makes few frames missing in object detection not influence action recognition result. Involving object detection improves dense trajectories approach efficiency, which also improves action recognition accuracy. Our algorithm achieves superior results on the KTH, UCF YouTube and UCF Sports datasets compared to the state-of-the-art methods, especially outstanding 89.2% and 90.2% accuracy on complex background dataset UCF YouTube and UCF Sports respectively.

    object detection; dense trajectories; deformable part-based model; action recognition

    0427-7104(2016)04-0442-10

    2015-09-25

    教育部博士點(diǎn)基金(20120071110028)

    王新宇(1989—),男,碩士研究生;胡波,男,教授,通訊聯(lián)系人,E-mail: bohu@fudan.edu.cn.

    TP 391.4

    A

    猜你喜歡
    描述符高密度濾波器
    基于無(wú)擾濾波器和AED-ADT的無(wú)擾切換控制
    基于結(jié)構(gòu)信息的異源遙感圖像局部特征描述符研究
    高密度電法在斷裂構(gòu)造探測(cè)中的應(yīng)用
    高密度電法在尋找地下水中的應(yīng)用
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    開(kāi)關(guān)電源EMI濾波器的應(yīng)用方法探討
    電子制作(2018年16期)2018-09-26 03:26:50
    Linux單線程并發(fā)服務(wù)器探索
    利用CNN的無(wú)人機(jī)遙感影像特征描述符學(xué)習(xí)
    城市高密度環(huán)境下的建筑學(xué)探討
    基于TMS320C6678的SAR方位向預(yù)濾波器的并行實(shí)現(xiàn)
    午夜激情久久久久久久| 下体分泌物呈黄色| 亚洲经典国产精华液单| 天堂中文最新版在线下载| 一区二区av电影网| 亚洲国产精品一区三区| 黄色 视频免费看| 美女中出高潮动态图| 久久国产精品大桥未久av| 91午夜精品亚洲一区二区三区| 一级毛片 在线播放| 免费大片18禁| 999精品在线视频| 97超碰精品成人国产| 纵有疾风起免费观看全集完整版| 九色成人免费人妻av| av不卡在线播放| 精品亚洲乱码少妇综合久久| 国产有黄有色有爽视频| 日日撸夜夜添| 我要看黄色一级片免费的| 伊人久久国产一区二区| 成人亚洲欧美一区二区av| av福利片在线| 精品卡一卡二卡四卡免费| 久久久久久久大尺度免费视频| 欧美激情 高清一区二区三区| 久久久亚洲精品成人影院| 大片电影免费在线观看免费| 黄色视频在线播放观看不卡| 少妇被粗大的猛进出69影院 | 日韩中字成人| 亚洲成人手机| 国产日韩欧美亚洲二区| 大话2 男鬼变身卡| 国国产精品蜜臀av免费| 欧美xxxx性猛交bbbb| 日韩精品免费视频一区二区三区 | 国产成人免费无遮挡视频| 成人二区视频| 女人久久www免费人成看片| 观看av在线不卡| 人人妻人人添人人爽欧美一区卜| 中文字幕免费在线视频6| 免费看光身美女| 日本与韩国留学比较| 在线观看国产h片| 亚洲欧美日韩另类电影网站| 久久久久久久久久成人| 又大又黄又爽视频免费| 午夜福利影视在线免费观看| 精品视频人人做人人爽| 高清黄色对白视频在线免费看| 日韩中文字幕视频在线看片| 久久精品夜色国产| 十八禁网站网址无遮挡| 草草在线视频免费看| 国产成人免费无遮挡视频| 久久久久久人妻| 性高湖久久久久久久久免费观看| 七月丁香在线播放| a级毛片黄视频| 亚洲国产看品久久| 亚洲精品乱码久久久久久按摩| 多毛熟女@视频| 熟女人妻精品中文字幕| 欧美+日韩+精品| 日本av免费视频播放| 天堂8中文在线网| 妹子高潮喷水视频| 亚洲成色77777| 亚洲伊人久久精品综合| 欧美国产精品va在线观看不卡| 久久久久久久亚洲中文字幕| freevideosex欧美| 人人妻人人添人人爽欧美一区卜| 精品亚洲成a人片在线观看| 色网站视频免费| 国产精品国产三级国产av玫瑰| 9191精品国产免费久久| 精品国产一区二区三区四区第35| 天天躁夜夜躁狠狠久久av| 久久久精品94久久精品| 欧美日韩亚洲高清精品| 黄色配什么色好看| 色吧在线观看| 51国产日韩欧美| 亚洲精华国产精华液的使用体验| 少妇被粗大猛烈的视频| videossex国产| 十八禁高潮呻吟视频| 国产熟女欧美一区二区| 欧美另类一区| 亚洲国产成人一精品久久久| 成年美女黄网站色视频大全免费| 国产精品一区二区在线不卡| 日韩制服丝袜自拍偷拍| 男女下面插进去视频免费观看 | 91精品三级在线观看| 99香蕉大伊视频| 五月玫瑰六月丁香| 一本大道久久a久久精品| 女的被弄到高潮叫床怎么办| 久久精品人人爽人人爽视色| 自拍欧美九色日韩亚洲蝌蚪91| 久久久久网色| 亚洲人成网站在线观看播放| 国产一区二区三区av在线| 最近中文字幕高清免费大全6| 中文字幕制服av| 日韩熟女老妇一区二区性免费视频| 日韩制服骚丝袜av| 丝袜脚勾引网站| 久久亚洲国产成人精品v| 如日韩欧美国产精品一区二区三区| 日本av手机在线免费观看| 18禁观看日本| 午夜福利网站1000一区二区三区| 日韩成人av中文字幕在线观看| 女的被弄到高潮叫床怎么办| 99国产综合亚洲精品| 日韩中文字幕视频在线看片| 亚洲精品中文字幕在线视频| 人体艺术视频欧美日本| 伦理电影免费视频| 高清在线视频一区二区三区| 视频在线观看一区二区三区| 亚洲 欧美一区二区三区| 久久精品国产亚洲av天美| 免费大片黄手机在线观看| 菩萨蛮人人尽说江南好唐韦庄| 一本久久精品| 成年动漫av网址| 欧美日韩成人在线一区二区| 最后的刺客免费高清国语| 国产又爽黄色视频| 国产 一区精品| 日日爽夜夜爽网站| 久久婷婷青草| 99热国产这里只有精品6| 一级毛片我不卡| 日韩电影二区| 成人国产麻豆网| 欧美 亚洲 国产 日韩一| 午夜福利乱码中文字幕| 精品国产一区二区久久| 久久精品夜色国产| 捣出白浆h1v1| 欧美精品国产亚洲| 国产精品国产三级国产专区5o| 九草在线视频观看| av免费在线看不卡| 日韩一区二区三区影片| 99视频精品全部免费 在线| 久久人人爽人人爽人人片va| 久久久久久人妻| 亚洲国产精品一区二区三区在线| 看免费av毛片| h视频一区二区三区| 香蕉国产在线看| 热re99久久国产66热| 国产精品麻豆人妻色哟哟久久| 伊人亚洲综合成人网| 天堂8中文在线网| 十八禁高潮呻吟视频| 22中文网久久字幕| 精品少妇内射三级| 两个人免费观看高清视频| 制服诱惑二区| 国内精品宾馆在线| 黄色一级大片看看| 男女边吃奶边做爰视频| 99久久人妻综合| 男的添女的下面高潮视频| 欧美少妇被猛烈插入视频| 熟女人妻精品中文字幕| 日本欧美视频一区| 亚洲国产日韩一区二区| 最新的欧美精品一区二区| 亚洲综合色网址| 我要看黄色一级片免费的| 久久人人97超碰香蕉20202| 热99久久久久精品小说推荐| 一级毛片黄色毛片免费观看视频| 中文字幕人妻熟女乱码| 国产综合精华液| 欧美精品亚洲一区二区| 国产色爽女视频免费观看| 国产成人精品在线电影| 波多野结衣一区麻豆| av一本久久久久| 亚洲av免费高清在线观看| av线在线观看网站| 岛国毛片在线播放| 亚洲美女黄色视频免费看| 亚洲av电影在线观看一区二区三区| a级毛片黄视频| 免费黄频网站在线观看国产| 在线天堂最新版资源| 国产麻豆69| 免费久久久久久久精品成人欧美视频 | av网站免费在线观看视频| 精品一区二区三区四区五区乱码 | 少妇猛男粗大的猛烈进出视频| 啦啦啦啦在线视频资源| 热99久久久久精品小说推荐| 满18在线观看网站| 精品国产一区二区久久| 色视频在线一区二区三区| 久热久热在线精品观看| 久久久久国产网址| 婷婷色综合大香蕉| 黄色怎么调成土黄色| 亚洲国产欧美日韩在线播放| 亚洲精品美女久久av网站| 国产国语露脸激情在线看| 久久午夜福利片| 国产高清三级在线| 大香蕉久久网| 久热这里只有精品99| 亚洲国产精品一区二区三区在线| 国产国拍精品亚洲av在线观看| 免费日韩欧美在线观看| 国产色爽女视频免费观看| 久久精品人人爽人人爽视色| 亚洲av.av天堂| 日韩免费高清中文字幕av| 高清在线视频一区二区三区| 大陆偷拍与自拍| 少妇的丰满在线观看| 一区二区三区乱码不卡18| 久久久久久人人人人人| 少妇的逼水好多| 视频在线观看一区二区三区| 久久综合国产亚洲精品| 欧美日韩亚洲高清精品| 国产欧美亚洲国产| 久久精品久久久久久噜噜老黄| 好男人视频免费观看在线| 精品亚洲乱码少妇综合久久| 一级毛片黄色毛片免费观看视频| 黑人高潮一二区| 99久国产av精品国产电影| 久久这里有精品视频免费| 22中文网久久字幕| 黄片播放在线免费| 另类精品久久| 在线观看一区二区三区激情| 免费高清在线观看日韩| 啦啦啦在线观看免费高清www| 免费日韩欧美在线观看| 亚洲国产毛片av蜜桃av| 日韩av在线免费看完整版不卡| 两个人看的免费小视频| 如何舔出高潮| 成人亚洲精品一区在线观看| 美女国产视频在线观看| 我要看黄色一级片免费的| 国产淫语在线视频| 一级,二级,三级黄色视频| 免费av中文字幕在线| 欧美精品亚洲一区二区| 亚洲在久久综合| 少妇人妻久久综合中文| 在线观看美女被高潮喷水网站| 久久久久久人人人人人| 成人亚洲欧美一区二区av| 女人精品久久久久毛片| 色婷婷久久久亚洲欧美| 成年动漫av网址| 久久久久久久久久久久大奶| 亚洲精品国产色婷婷电影| 侵犯人妻中文字幕一二三四区| 人人妻人人爽人人添夜夜欢视频| 看非洲黑人一级黄片| 丝袜美足系列| 久久国产精品男人的天堂亚洲 | 男女高潮啪啪啪动态图| 日韩 亚洲 欧美在线| 欧美老熟妇乱子伦牲交| 欧美亚洲 丝袜 人妻 在线| 在线观看美女被高潮喷水网站| 亚洲美女搞黄在线观看| 欧美日韩综合久久久久久| 大片电影免费在线观看免费| 亚洲精品成人av观看孕妇| 午夜福利,免费看| 中文字幕人妻熟女乱码| 欧美日韩国产mv在线观看视频| 免费少妇av软件| a级毛片在线看网站| 国产综合精华液| 黄网站色视频无遮挡免费观看| 在线天堂中文资源库| 日日撸夜夜添| 日韩欧美精品免费久久| 成人午夜精彩视频在线观看| 美女主播在线视频| 一级毛片我不卡| 秋霞伦理黄片| 哪个播放器可以免费观看大片| 最近手机中文字幕大全| 18禁国产床啪视频网站| 搡女人真爽免费视频火全软件| videossex国产| 少妇的逼水好多| 国产欧美日韩综合在线一区二区| 国产精品嫩草影院av在线观看| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 捣出白浆h1v1| 中国三级夫妇交换| 麻豆乱淫一区二区| 十八禁网站网址无遮挡| 一本—道久久a久久精品蜜桃钙片| 黄色视频在线播放观看不卡| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 久久久久国产网址| 18禁裸乳无遮挡动漫免费视频| 97精品久久久久久久久久精品| 亚洲成av片中文字幕在线观看 | 免费观看av网站的网址| 亚洲精品国产色婷婷电影| 国产一级毛片在线| 国产精品一区二区在线观看99| 高清av免费在线| 激情视频va一区二区三区| 亚洲av电影在线进入| 免费久久久久久久精品成人欧美视频 | 中文字幕精品免费在线观看视频 | 国产亚洲欧美精品永久| a级毛色黄片| 看免费成人av毛片| 大片电影免费在线观看免费| 丝袜在线中文字幕| 九九在线视频观看精品| 国产亚洲欧美精品永久| 婷婷成人精品国产| 国产精品一区二区在线观看99| 精品一区二区免费观看| 精品少妇久久久久久888优播| 中文字幕免费在线视频6| 亚洲av日韩在线播放| 国产片内射在线| 精品99又大又爽又粗少妇毛片| 午夜福利网站1000一区二区三区| 欧美日韩视频高清一区二区三区二| 国产乱人偷精品视频| 久久久亚洲精品成人影院| 久久国产亚洲av麻豆专区| 久久精品熟女亚洲av麻豆精品| 日本午夜av视频| 2021少妇久久久久久久久久久| 美女主播在线视频| 啦啦啦视频在线资源免费观看| 人人妻人人爽人人添夜夜欢视频| 久久人人爽av亚洲精品天堂| 日本黄色日本黄色录像| 亚洲色图综合在线观看| 国产白丝娇喘喷水9色精品| 亚洲,一卡二卡三卡| 97超碰精品成人国产| 狂野欧美激情性xxxx在线观看| 少妇的逼水好多| 丰满乱子伦码专区| 亚洲精品一二三| av一本久久久久| 国产精品国产av在线观看| 国产亚洲午夜精品一区二区久久| av视频免费观看在线观看| 一边亲一边摸免费视频| 亚洲人成网站在线观看播放| 两个人看的免费小视频| 成年人免费黄色播放视频| 国精品久久久久久国模美| 岛国毛片在线播放| av卡一久久| 国产白丝娇喘喷水9色精品| 美女福利国产在线| 老司机影院毛片| 18禁在线无遮挡免费观看视频| 波野结衣二区三区在线| 性色avwww在线观看| 美女脱内裤让男人舔精品视频| 美国免费a级毛片| 香蕉丝袜av| 国产亚洲精品久久久com| 永久网站在线| 欧美精品亚洲一区二区| 大香蕉久久成人网| 欧美日韩亚洲高清精品| 极品人妻少妇av视频| 男女午夜视频在线观看 | 亚洲国产精品成人久久小说| 日韩熟女老妇一区二区性免费视频| 久久久精品94久久精品| 久久久久久人人人人人| 肉色欧美久久久久久久蜜桃| 久久99热这里只频精品6学生| 免费人成在线观看视频色| 精品国产一区二区久久| 欧美精品亚洲一区二区| 色网站视频免费| 综合色丁香网| 日韩电影二区| 国产成人91sexporn| 国产69精品久久久久777片| 国产成人精品久久久久久| 国精品久久久久久国模美| 久久毛片免费看一区二区三区| 日韩大片免费观看网站| 中文字幕制服av| 超色免费av| 国产片特级美女逼逼视频| 国产精品一区二区在线观看99| 青青草视频在线视频观看| 日韩一区二区视频免费看| 我的女老师完整版在线观看| 久久人人97超碰香蕉20202| 如日韩欧美国产精品一区二区三区| 97精品久久久久久久久久精品| 久久人妻熟女aⅴ| 丝袜美足系列| 日韩,欧美,国产一区二区三区| 激情五月婷婷亚洲| 日韩一区二区视频免费看| 国产精品人妻久久久影院| 国产深夜福利视频在线观看| 免费观看a级毛片全部| 三级国产精品片| 国产精品久久久久成人av| 欧美+日韩+精品| 亚洲精品国产色婷婷电影| 久久毛片免费看一区二区三区| 桃花免费在线播放| 久久99热6这里只有精品| 日韩av在线免费看完整版不卡| 老司机亚洲免费影院| 永久网站在线| 亚洲综合精品二区| 成人免费观看视频高清| 啦啦啦中文免费视频观看日本| 久久久欧美国产精品| 精品午夜福利在线看| 日日啪夜夜爽| 69精品国产乱码久久久| 欧美丝袜亚洲另类| 亚洲精品自拍成人| 亚洲av免费高清在线观看| 日本av手机在线免费观看| 午夜福利视频在线观看免费| 看非洲黑人一级黄片| 99热这里只有是精品在线观看| 边亲边吃奶的免费视频| 国产精品久久久久成人av| 国产av精品麻豆| 美女内射精品一级片tv| 精品少妇黑人巨大在线播放| 国产日韩一区二区三区精品不卡| 国产av一区二区精品久久| 中文精品一卡2卡3卡4更新| 老女人水多毛片| 精品一区二区免费观看| 如何舔出高潮| av在线观看视频网站免费| 国产成人aa在线观看| 中文字幕人妻丝袜制服| 91精品伊人久久大香线蕉| 看免费成人av毛片| 黄片播放在线免费| 热99久久久久精品小说推荐| 丰满乱子伦码专区| 成人综合一区亚洲| 中国三级夫妇交换| 亚洲av在线观看美女高潮| 69精品国产乱码久久久| 国产精品一二三区在线看| 天天操日日干夜夜撸| 高清欧美精品videossex| videosex国产| 久久综合国产亚洲精品| 人妻 亚洲 视频| 亚洲美女视频黄频| 男男h啪啪无遮挡| 色5月婷婷丁香| 国产成人精品婷婷| 欧美3d第一页| 日本黄大片高清| 国语对白做爰xxxⅹ性视频网站| 久久女婷五月综合色啪小说| 中文字幕av电影在线播放| 99re6热这里在线精品视频| av天堂久久9| 亚洲精华国产精华液的使用体验| 国产激情久久老熟女| 天天影视国产精品| 日本vs欧美在线观看视频| 国产爽快片一区二区三区| 最黄视频免费看| 18禁动态无遮挡网站| 国产精品一国产av| 人妻系列 视频| 国产精品一国产av| 精品午夜福利在线看| 丝袜喷水一区| 国产亚洲欧美精品永久| 在线观看免费视频网站a站| 午夜激情久久久久久久| 国产亚洲精品第一综合不卡 | 一级毛片我不卡| 免费高清在线观看日韩| 男男h啪啪无遮挡| 女人久久www免费人成看片| 最近中文字幕高清免费大全6| 久久av网站| 国产日韩一区二区三区精品不卡| 午夜福利乱码中文字幕| 一边亲一边摸免费视频| 男女无遮挡免费网站观看| 精品久久蜜臀av无| 涩涩av久久男人的天堂| 精品一区二区三区四区五区乱码 | 99热这里只有是精品在线观看| 丝袜人妻中文字幕| 一边摸一边做爽爽视频免费| 日韩av在线免费看完整版不卡| 最近的中文字幕免费完整| 一级,二级,三级黄色视频| 熟女人妻精品中文字幕| 纵有疾风起免费观看全集完整版| 久久久久网色| 午夜福利网站1000一区二区三区| 久久久久网色| 国产免费福利视频在线观看| 免费日韩欧美在线观看| 国产成人精品无人区| 亚洲欧美一区二区三区国产| 国产黄色免费在线视频| 黄网站色视频无遮挡免费观看| 一区二区三区精品91| 超碰97精品在线观看| 91国产中文字幕| 热re99久久精品国产66热6| 亚洲色图 男人天堂 中文字幕 | 日韩熟女老妇一区二区性免费视频| 黄色毛片三级朝国网站| 久久久久久久久久久免费av| 9191精品国产免费久久| 美女脱内裤让男人舔精品视频| 夜夜骑夜夜射夜夜干| 永久网站在线| 2021少妇久久久久久久久久久| 国产女主播在线喷水免费视频网站| a 毛片基地| 国产高清不卡午夜福利| 美国免费a级毛片| 成人毛片60女人毛片免费| 亚洲精品成人av观看孕妇| 国产精品成人在线| 久久久久久久大尺度免费视频| 国产精品秋霞免费鲁丝片| 男女午夜视频在线观看 | 欧美精品高潮呻吟av久久| 在线观看三级黄色| 成人午夜精彩视频在线观看| 国产视频首页在线观看| 80岁老熟妇乱子伦牲交| 欧美精品av麻豆av| kizo精华| 亚洲 欧美一区二区三区| 亚洲国产日韩一区二区| 在线观看免费高清a一片| 国产精品久久久久久久电影| 亚洲综合精品二区| 亚洲国产精品一区二区三区在线| 9热在线视频观看99| 这个男人来自地球电影免费观看 | 亚洲综合色网址| 少妇被粗大的猛进出69影院 | 久久久久久久大尺度免费视频| 婷婷色综合大香蕉| 婷婷成人精品国产| 国产熟女午夜一区二区三区| 韩国精品一区二区三区 | 黑人巨大精品欧美一区二区蜜桃 | 国产乱人偷精品视频| 国产一区亚洲一区在线观看| 成人午夜精彩视频在线观看| 免费大片18禁| 久久久国产精品麻豆| av电影中文网址| 纵有疾风起免费观看全集完整版| 少妇熟女欧美另类| 哪个播放器可以免费观看大片| 亚洲美女搞黄在线观看| 十分钟在线观看高清视频www| 午夜福利乱码中文字幕| 中国国产av一级| 免费大片黄手机在线观看| 午夜91福利影院| 男女免费视频国产| 欧美成人午夜精品| 少妇被粗大猛烈的视频| 丁香六月天网| 男女边吃奶边做爰视频| 久久毛片免费看一区二区三区| 久久99热这里只频精品6学生| 成人亚洲欧美一区二区av| a级毛片黄视频| 欧美精品一区二区免费开放| 日韩制服丝袜自拍偷拍| 国产一区亚洲一区在线观看| 国产不卡av网站在线观看| 中文字幕av电影在线播放| 你懂的网址亚洲精品在线观看| 水蜜桃什么品种好|