• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    導(dǎo)引概率圖與顯著特征相結(jié)合的行人目標(biāo)檢測(cè)①

    2016-12-06 05:11:36
    高技術(shù)通訊 2016年5期
    關(guān)鍵詞:行人聚類(lèi)概率

    劉 瓊

    (北京信息科技大學(xué)自動(dòng)化學(xué)院 北京 100192)

    ?

    導(dǎo)引概率圖與顯著特征相結(jié)合的行人目標(biāo)檢測(cè)①

    劉 瓊②

    (北京信息科技大學(xué)自動(dòng)化學(xué)院 北京 100192)

    研究了仿生人眼視覺(jué)注意機(jī)制,采用目標(biāo)導(dǎo)引概率圖作為自上而下的信息,通過(guò)調(diào)制基于目標(biāo)顯著特征的自下而上信息,實(shí)現(xiàn)行人目標(biāo)檢測(cè)的方法。首先,對(duì)相似場(chǎng)景的目標(biāo)樣本圖像提取尺度不變特征變換(SIFT)特征,基于貝葉斯公式,采用高斯混合模型(GMM)建立目標(biāo)導(dǎo)引概率模型,利用期望最大(EM)算法和狄利克雷過(guò)程(DP)自動(dòng)估計(jì)模型參數(shù);進(jìn)而,對(duì)一副待檢測(cè)圖像,采用已估概率模型計(jì)算圖像中每一像元的目標(biāo)似然性,形成導(dǎo)引概率圖作為自上而下的信息;同時(shí),針對(duì)行人目標(biāo),模擬中央-外周機(jī)制計(jì)算多尺度的膚色特征和豎直方向特征,形成基于目標(biāo)顯著特征的自下而上信息;最后,將兩者結(jié)合得到候選目標(biāo)區(qū)域,再通過(guò)提取候選區(qū)域的積分梯度直方圖和等價(jià)的局部二值模式(LBP)特征,輸入到級(jí)聯(lián)支持向量機(jī)(SVM)分類(lèi)器,驗(yàn)證并得到目標(biāo)檢測(cè)結(jié)果。基于實(shí)拍數(shù)據(jù)庫(kù)和復(fù)旦大學(xué)-賓夕法尼亞大學(xué)行人數(shù)據(jù)庫(kù)的大量實(shí)驗(yàn)表明,對(duì)概率模型的這種改進(jìn)能顯著提升行人目標(biāo)預(yù)測(cè)效果,且檢測(cè)算法在整體上優(yōu)于傳統(tǒng)檢測(cè)算法。

    視覺(jué)注意(VA), 概率引導(dǎo)圖, 顯著特征, 行人目標(biāo)檢測(cè)(PD)

    0 引 言

    人類(lèi)視覺(jué)注意(visual attention)機(jī)制具有高效、準(zhǔn)確的優(yōu)點(diǎn),實(shí)現(xiàn)該機(jī)制的仿生計(jì)算是計(jì)算機(jī)視覺(jué)研究領(lǐng)域追求的目標(biāo),尤其對(duì)無(wú)人駕駛等情況下實(shí)現(xiàn)該功能應(yīng)用的目標(biāo)更為迫切[1]。視覺(jué)注意來(lái)源于感知驅(qū)動(dòng)和任務(wù)驅(qū)動(dòng)。來(lái)源于感知驅(qū)動(dòng),稱(chēng)為感知信息驅(qū)動(dòng)的自下而上的視覺(jué)注意[2],來(lái)源于任務(wù)驅(qū)動(dòng),稱(chēng)為任務(wù)信息驅(qū)動(dòng)的自上而下的視覺(jué)注意[3]。前者是指人們?cè)跓o(wú)觀(guān)測(cè)任務(wù)或觀(guān)測(cè)期望的情況下,被場(chǎng)景中的顯著物體或區(qū)域所吸引的視覺(jué)注意,該注意的機(jī)制是由底層感知數(shù)據(jù)驅(qū)動(dòng),與觀(guān)察任務(wù)、情感、記憶等因素?zé)o關(guān),因而人們無(wú)法有意識(shí)地控制其信息處理過(guò)程,且在該過(guò)程中所做出的反應(yīng)是實(shí)時(shí)的。后者則是在有意識(shí)的條件下,尋求期望目標(biāo)的一種視覺(jué)行為,它與大腦高層的感知過(guò)程相關(guān),存在空間搜索和特征匹配兩條視覺(jué)通路,且顯著區(qū)域不受感受野的范圍與大小控制,通過(guò)顯性的注意轉(zhuǎn)移實(shí)現(xiàn)目標(biāo)檢測(cè)[4-6]。本文著眼于對(duì)自上而下任務(wù)信息驅(qū)動(dòng)的視覺(jué)注意的過(guò)程模擬,通過(guò)模擬空間搜索和特征匹配兩條視覺(jué)通路,應(yīng)用于行人目標(biāo)檢測(cè)(pedestrian detection)。

    空間搜索基于目標(biāo)與場(chǎng)景中其他物體之間的關(guān)系,因此,如何建模物體之間的關(guān)系是實(shí)現(xiàn)仿生計(jì)算的關(guān)鍵?;貧w人類(lèi)視覺(jué)注意心理,假設(shè)搜索目標(biāo)為電腦,很顯然目光停留在書(shū)桌附近的概率要明顯大于在沙發(fā)周?chē)母怕?,因此,采用概率推理的方式模擬空間搜索過(guò)程符合仿生機(jī)理要求。文獻(xiàn)[7]通過(guò)構(gòu)建貝葉斯模型,采用全局gist特征預(yù)測(cè)目標(biāo)出現(xiàn)的區(qū)域,在該區(qū)域中再采用顯著特征定位目標(biāo)。由于gist特征是全局特征,適合于對(duì)場(chǎng)景做粗水平歸類(lèi),如室內(nèi)或戶(hù)外等,因此,該方法適合于遠(yuǎn)距離拍攝所獲取的大場(chǎng)景圖像。與此同時(shí),預(yù)測(cè)的區(qū)域僅為圖像水平劃分的區(qū)域,搜索尺度太大。本文主要在該模型的工作基礎(chǔ)之上,做如下改進(jìn):(1)采用尺度不變特征變換(SIFT)特征作為預(yù)測(cè)特征,估計(jì)場(chǎng)景圖像每一個(gè)像元的目標(biāo)概率似然度,使其適用于任意距離拍攝的圖像;(2)采用Dirichlet過(guò)程對(duì)高斯混合模型(Gaussion minture model, GMM)的聚類(lèi)中心個(gè)數(shù)進(jìn)行估計(jì),提高模型預(yù)測(cè)的準(zhǔn)確率。(3)通過(guò)提取更符合目標(biāo)特性的IHOG-LBP特征,并經(jīng)過(guò)SVM分類(lèi)判別,進(jìn)一步驗(yàn)證候選區(qū)域是否含有目標(biāo),提高檢測(cè)準(zhǔn)確率,更符合工程實(shí)際的要求。

    1 導(dǎo)引概率圖計(jì)算

    全文整體算法流程如圖1所示。

    圖1 基于導(dǎo)引概率圖與顯著特征的行人目標(biāo)檢測(cè)計(jì)算流程圖

    1.1 基于SIFT特征的混合高斯概率模型構(gòu)建與參數(shù)求解

    在給定圖像的觀(guān)測(cè)數(shù)據(jù)集合v下,計(jì)算目標(biāo)物體O的似然函數(shù),可在經(jīng)典的概率論框架下依據(jù)貝葉斯原理構(gòu)建:

    (1)

    其中,P(O|v)是在給定圖像所有位置觀(guān)測(cè)數(shù)據(jù)集合v的條件下,目標(biāo)O存在的條件概率密度函數(shù)。O表示圖像中目標(biāo)物體的屬性:O={o,x,σ,…},其中o表示目標(biāo)物體的類(lèi)別,x表示目標(biāo)物體在圖像中的位置坐標(biāo),σ表示目標(biāo)物體的大小。這里并沒(méi)有列完所有的參數(shù),其他的一些參數(shù)也可以用來(lái)描述目標(biāo)物體,比如物體的形態(tài)姿勢(shì),物體的亮度等。但在空間搜索中,目標(biāo)物體在圖像中的位置x是首要關(guān)注的參數(shù)??紤]到SIFT特征具有優(yōu)良的穩(wěn)定性[8],式(1)中的v,本文采用圖像所有的SIFT特征點(diǎn)的特征向量,因此,也將其稱(chēng)之為SIFT概率模型。

    式(1)是計(jì)算目標(biāo)物體在圖像中理想位置o的概率密度函數(shù),由于觀(guān)測(cè)數(shù)據(jù)v考慮了圖像所有位置,其維度將非常高,從而使建模概率密度函數(shù)的問(wèn)題變得極為病態(tài)。為了降低復(fù)雜度,考慮在目標(biāo)一定的鄰域范圍內(nèi)進(jìn)行觀(guān)測(cè),并假設(shè)圖像中其他區(qū)域的觀(guān)測(cè)值與目標(biāo)鄰域內(nèi)的觀(guān)測(cè)值相互獨(dú)立。于是,式(1)可以改寫(xiě)為

    (2)

    其中,視覺(jué)特征向量vC變?yōu)槟繕?biāo)區(qū)域的特征,其維度明顯低于前述視覺(jué)特征向量v,vC為行人目標(biāo)的SIFT特征向量,o指定為行人目標(biāo)。P(vc|o)是在行人目標(biāo)類(lèi)里,有關(guān)SIFT特征向量的條件概率分布,可以利用樣本庫(kù)中的行人目標(biāo)圖像事先學(xué)習(xí)得到。因而求解式(2)的主要問(wèn)題就是如何得到似然函數(shù)P(x,vc|o)。為了能夠使式(2)所代表的模型更加具體且方便計(jì)算,接下來(lái),采用GMM對(duì)似然函數(shù)P(x,vc|o)進(jìn)行建模。

    由于似然函數(shù)P(x,vc|o)求解在給定目標(biāo)物體類(lèi)別的情況下,目標(biāo)物體在圖像中的位置坐標(biāo)x與目標(biāo)物體的視覺(jué)特征vc的條件概率。為了計(jì)算簡(jiǎn)便,可以認(rèn)為目標(biāo)物體在圖像中的位置x與目標(biāo)物體的視覺(jué)特征vc為兩個(gè)隨機(jī)變量,所以直接應(yīng)用混合高斯模型不太適宜。為了簡(jiǎn)化問(wèn)題,可假設(shè)目標(biāo)物體在圖像中的位置坐標(biāo)x與目標(biāo)物體的視覺(jué)特征vc從統(tǒng)計(jì)的角度來(lái)看是互相獨(dú)立的,故可以將混合高斯模型中的聯(lián)合概率分解為兩個(gè)高斯分布的乘積,也即

    (3)

    其中第一個(gè)高斯分布建模了行人目標(biāo)在圖像中的位置分布,第二個(gè)高斯分布建模了每一個(gè)聚類(lèi)的視覺(jué)特征的分布。而混合高斯的每一個(gè)成分可以看作一個(gè)聚類(lèi)中心,它描述了整個(gè)聯(lián)合概率的分布情況。

    得到似然函數(shù)P(x,vc|o)模型式(3)后,接下來(lái)的工作就是求解模型,完成對(duì)模型中未知參數(shù)的估計(jì),從而能夠利用該模型求得目標(biāo)物體在圖像中的位置的后驗(yàn)概率,即P(x|vc,o)。在此,本文通過(guò)期望最大化(expectation maximization,EM)算法[9]求解模型參數(shù)。由于式(2)所示模型中出現(xiàn)了統(tǒng)計(jì)上相互獨(dú)立的2個(gè)隨機(jī)變量:目標(biāo)物體在圖像中的位置坐標(biāo)x與目標(biāo)物體的視覺(jué)特征vc。在求偏導(dǎo)時(shí),為了簡(jiǎn)化,可以假設(shè)目標(biāo)物體在圖像中的位置坐標(biāo)x與目標(biāo)物體的視覺(jué)特征vc之間具有線(xiàn)性關(guān)系,即

    表1 基于EM算法的混合高斯模型參數(shù)推導(dǎo)

    xi=ai+Ai(vc-vi)

    (4)

    接下來(lái),便可按照對(duì)似然函數(shù)求偏導(dǎo)的方法,推導(dǎo)出模型參數(shù),從而得到物體在圖像中的位置。具體的基于EM算法的參數(shù)推導(dǎo)過(guò)程如表1所示。

    1.2 基于狄利克雷過(guò)程的GMM聚類(lèi)中心數(shù)估計(jì)

    此前所建立的概率模型是基于高斯模型的混合,并用EM算法求解未知參數(shù)。但在求解過(guò)程中,如何確定混合高斯分布的個(gè)數(shù)是一個(gè)很棘手的問(wèn)題。如果設(shè)置混合高斯的個(gè)數(shù)過(guò)多,則整個(gè)模型的復(fù)雜度將會(huì)很高,在學(xué)習(xí)過(guò)程中也容易出現(xiàn)過(guò)學(xué)習(xí)現(xiàn)象。反之,如果混合高斯分布的個(gè)數(shù)過(guò)少,則整個(gè)模型的復(fù)雜度可能偏低,模型將不會(huì)有很好的泛化和推廣能力,而且會(huì)出現(xiàn)欠學(xué)習(xí)現(xiàn)象。如圖2所示,其中圖2(a)是原始的數(shù)據(jù)點(diǎn)的分布,但它們由幾個(gè)混合高斯分布來(lái)表示是未知的。如果預(yù)先指定5個(gè)聚類(lèi)中心,則混合高斯模型學(xué)習(xí)后得到的結(jié)果如圖2(b)所示。而自組織情況下,數(shù)據(jù)點(diǎn)的分布只有3個(gè)聚類(lèi)中心,其聚類(lèi)結(jié)果如圖2(c)所示。由此可以看出,預(yù)先指定聚類(lèi)中心個(gè)數(shù)的方式不合理,而且會(huì)使得模型的預(yù)測(cè)和泛化能力較低。

    圖2 同一數(shù)據(jù)集在指定分布個(gè)數(shù)與自組織情況 下的聚類(lèi)效果比較

    為了解決這個(gè)問(wèn)題,本文引入非參數(shù)貝葉斯模型中的狄利克雷過(guò)程(Dirichlet Process,DP)[10]對(duì)混合高斯分布中的高斯模型個(gè)數(shù)進(jìn)行估計(jì),并將其稱(chēng)之為DP-GMM。

    Dirichlet分布用于描述n維(n>2)隨機(jī)變量X的分布,是Beta分布的多維泛化形式,一般記做Dir(α),其概率密度函數(shù)表達(dá)式為

    (5)

    給定一個(gè)狄利克雷過(guò)程DP(H,α),其中基準(zhǔn)分布H可以認(rèn)為是一個(gè)任意的分布,而濃度系數(shù)α是一個(gè)正實(shí)數(shù)。對(duì)狄利克雷過(guò)程進(jìn)行一次采樣,得到的是一個(gè)隨機(jī)分布,這個(gè)隨機(jī)分布的取值是從基準(zhǔn)分布H上采樣得到的。也就是說(shuō),狄利克雷過(guò)程的輸出分布的支撐集和狄利克雷過(guò)程的基準(zhǔn)分布的支撐集是一樣的。狄利克雷過(guò)程的輸出分布是離散的,這意味著即使狄利克雷過(guò)程的基準(zhǔn)分布是連續(xù)分布(連續(xù)分布也就意味著從這個(gè)分布上采樣的任意兩個(gè)采樣值互不相同的概率為1),從狄利克雷過(guò)程的輸出分布上采樣得到的單個(gè)樣本值有可能會(huì)重復(fù)。其中,狄利克雷過(guò)程采樣值重復(fù)程度的大小由濃度系數(shù)α決定,當(dāng)濃度系數(shù)α很大時(shí),采樣值重復(fù)的次數(shù)越少。如果狄利克雷過(guò)程的基準(zhǔn)分布是連續(xù)分布,則每次對(duì)這個(gè)基準(zhǔn)分布的采樣值都是不一樣的,而狄利克雷過(guò)程的輸出分布返回的每一個(gè)可能采樣值的頻率對(duì)應(yīng)的是一個(gè)無(wú)限的概率集合,則這個(gè)無(wú)限的概率集合是按照破棍過(guò)程[11]分布的。

    由于從狄利克雷過(guò)程采樣得到的是離散的樣本值,它的一個(gè)重要的應(yīng)用是將其作為對(duì)無(wú)限混合模型的先驗(yàn)概率分布的一個(gè)估計(jì)。此時(shí),整個(gè)生成模型的過(guò)程如下:首先從狄利克雷過(guò)程采樣得到一個(gè)樣本分布,然后對(duì)應(yīng)每一個(gè)數(shù)據(jù)點(diǎn),從這個(gè)樣本分布上逐一采樣,再將其作為這個(gè)數(shù)據(jù)點(diǎn)對(duì)應(yīng)某一混合成分的概率分布。由于模型最后生成的不同的混合成分的個(gè)數(shù)沒(méi)有限制,所以在無(wú)預(yù)先定義混合成分個(gè)數(shù)時(shí),狄利克雷過(guò)程是一個(gè)較為合適的模型。運(yùn)用到對(duì)混合高斯分布中的高斯模型個(gè)數(shù)進(jìn)行估計(jì),本文首先從狄利克雷過(guò)程中進(jìn)行采樣,得到一個(gè)似然函數(shù)P(x, vc|o)的先驗(yàn)概率分布,也即通過(guò)狄利克雷過(guò)程確定高斯聚類(lèi)中心的個(gè)數(shù)。然后再采用期望最大化算法對(duì)混合高斯模型的參數(shù)進(jìn)行最大似然估計(jì)。

    為了驗(yàn)證基于狄利克雷過(guò)程非參數(shù)貝葉斯模型對(duì)聚類(lèi)效果的改進(jìn),本文對(duì)比了對(duì)于隨機(jī)生成的一組數(shù)據(jù),在預(yù)先指定混合高斯聚類(lèi)中心個(gè)數(shù)與采用狄利克雷過(guò)程確定混合高斯聚類(lèi)中心個(gè)數(shù)后的聚類(lèi)情況,如圖3所示。

    (a) 聚類(lèi)中心個(gè)數(shù)設(shè)置為5的GMM聚類(lèi)效果

    (b) 基于DP-GMM的自動(dòng)聚類(lèi)效果 圖3 GMM與DP-GMM對(duì)同一組數(shù)據(jù)的聚類(lèi)效果對(duì)比

    可以看出,圖3(b)中聚類(lèi)個(gè)數(shù)為4,相對(duì)圖3(a)中設(shè)定聚類(lèi)個(gè)數(shù)為5的效果更為合理。因此,利用狄利克雷過(guò)程的非參數(shù)貝葉斯模型對(duì)聚類(lèi)個(gè)數(shù)估計(jì)能夠減少因聚類(lèi)數(shù)錯(cuò)誤而對(duì)后續(xù)計(jì)算帶來(lái)較大的誤差與影響。

    1.3 基于DP-GMM的導(dǎo)引注意區(qū)域提取算法

    通過(guò)大量的樣本圖像對(duì)式(2)的P(x, vc|o)建立DP-GMM模型。對(duì)于一幅新待檢測(cè)圖像,依賴(lài)學(xué)習(xí)得到的高斯模型以及提取到的整幅圖像的SIFT特征點(diǎn),得到圖像中對(duì)該目標(biāo)關(guān)注的中心,也即x,實(shí)現(xiàn)對(duì)圖像中目標(biāo)區(qū)域的預(yù)注意。詳細(xì)算法描述如表2所示。

    從概率模型的計(jì)算結(jié)果得到了行人目標(biāo)在圖像中的位置概率分布,因此,將目標(biāo)的位置分布作為一種自上而下的任務(wù)導(dǎo)引特征。任務(wù)導(dǎo)引圖保持與原始圖像相同的拓?fù)浣Y(jié)構(gòu),其中每一個(gè)像素點(diǎn)的像素值與目標(biāo)在該點(diǎn)出現(xiàn)的概率成正比。關(guān)注區(qū)域中具有較大概率值的位置,其顯著值也相應(yīng)的較高。而對(duì)于注意關(guān)注區(qū)域之外的其他區(qū)域,顯著值均設(shè)置為一個(gè)極小值,如10-6。

    2 基于行人目標(biāo)顯著檢測(cè)計(jì)算的集中注意

    2.1 候選區(qū)域提取

    基于概率模型得到了行人目標(biāo)在圖像中位置的概率分布,完成了視覺(jué)選擇性注意的第一步——空間搜索。進(jìn)一步地,為了找到各個(gè)目標(biāo)的具體位置,需要在關(guān)注區(qū)域中,通過(guò)特征匹配找到目標(biāo)候選區(qū)域。針對(duì)行人目標(biāo),本文主要選擇膚色和豎直方向作為行人的兩種本體特征,將特征計(jì)算的結(jié)果作為特征圖。其中豎直方向特征的計(jì)算通過(guò)原始圖像的灰度圖與二維Gabor卷積核得到,此處不再贅述。

    表2 基于DP-GMM的預(yù)注意關(guān)注區(qū)域提取算法

    膚色的計(jì)算公式主要基于文獻(xiàn)[12]中給出的膚色高斯分布型概率計(jì)算公式

    (6)

    由于r′+g′+b′=1,因而式中的向量c采用r′,g′和b′中的任意兩個(gè)分量均可計(jì)算得到結(jié)果。將c,μ,∑的值分別代入式(6)中,即可得到像素點(diǎn)P的膚色似然性SL(P)公式

    (7)

    考慮人類(lèi)視覺(jué)系統(tǒng)感受野中的中心-外周機(jī)制,Rodieck于1965年提出了同心圓拮抗式(Homocentric Opponent)感受野的數(shù)學(xué)模型[13],如圖4所示。它由一個(gè)興奮作用強(qiáng)的中心機(jī)制和一個(gè)作用較弱但面積更大的抑制性周邊機(jī)制構(gòu)成。這兩個(gè)具有相互拮抗作用的機(jī)制,都具有高斯分布的特性,但中心機(jī)制具有更高的峰敏感度,而且彼此方向相反,兩者為相減關(guān)系,通常稱(chēng)為高斯差分(Difference of Gaussian,DoG)模型。

    圖4 同心圓拮抗式感受野的數(shù)學(xué)模型[13]

    因此,本文綜合顯著性的直觀(guān)感受與感受野的特性,采用如下基于高斯尺度空間的顯著特征圖計(jì)算公式:

    F(c,s)=|F(c)ΘF(s)|

    (8)

    式中,F(xiàn)(c)與F(s)分別表示中心(Center)與外周(Surrounding)尺度下的特征圖;外周尺度比中心尺度大,通過(guò)對(duì)中心尺度做進(jìn)一步的采樣得到,因此,外周尺度下的圖像是中心尺度下圖像結(jié)構(gòu)的簡(jiǎn)化。F(c,s)表示作差后的結(jié)果,體現(xiàn)中心外周尺度圖像之間的差異大小,模擬“中心-外周”競(jìng)爭(zhēng);式中符號(hào)“Θ”表示不同尺度圖像之間的一種做差運(yùn)算,通過(guò)將插值后的外周尺度圖像與中心尺度圖像的像素點(diǎn)之間進(jìn)行一一對(duì)應(yīng)作差而實(shí)現(xiàn)。在此基礎(chǔ)上,歸一化運(yùn)算不同特征分量的特征圖,并在不同的尺度間合并,得到各個(gè)特征分量的顯著圖,最后通過(guò)線(xiàn)性相加運(yùn)算得到最終的顯著圖。本文共有6對(duì)尺度圖像進(jìn)行了作差運(yùn)算:其中中心尺度c={2,3,4},環(huán)繞尺度δ={3,4},s=c+δ。

    根據(jù)人的一般比例布局與分布,且考慮到行人皮膚裸漏的位置主要在臉部,因此,假設(shè)所有顯著區(qū)域位于人的臉部,確定候選區(qū)域目標(biāo)的大致包圍盒(bounding box)。

    2.2 候選區(qū)域驗(yàn)證與目標(biāo)檢測(cè)

    方向梯度直方圖(histogram of oriented gradient, HOG)是由Dalal在2005年提出,在SIFT特征的基礎(chǔ)之上發(fā)展起來(lái)的用于描述物體形狀的一種特征,最初即用于行人檢測(cè)[14]。局部二值模式(local binary pattern, LBP)通過(guò)比較圖像像素點(diǎn)之間的灰度值差異,有效描述物體紋理。兩者在行人檢測(cè)領(lǐng)域均應(yīng)用廣泛[15]。本文在候選區(qū)域的驗(yàn)證主要通過(guò)這兩類(lèi)特征,并引入積分圖思想[16],構(gòu)建積分IHOG-LBP特征即IHOG-LBP特征,最后采用三級(jí)級(jí)聯(lián)SVM分類(lèi)器對(duì)檢測(cè)區(qū)域進(jìn)行分級(jí)檢測(cè)。若三級(jí)分類(lèi)檢測(cè)均通過(guò),則標(biāo)記為行人目標(biāo)。由于HOG、積分圖思想和LBP特征都比較常見(jiàn),本文只對(duì)特征計(jì)算過(guò)程中參數(shù)的設(shè)置和個(gè)別重要的公式加以說(shuō)明。

    本文HOG特征的計(jì)算細(xì)胞單元分別設(shè)置為32×32,16×16,8×8個(gè)像素大??;每2×2個(gè)細(xì)胞單元組成一個(gè)方塊。為了消弱陰影、光照以及邊緣變化給特征向量帶來(lái)的影響,采用下式

    (9)

    歸一化區(qū)間塊內(nèi)的HOG特征向量。式中L是特征向量,‖L‖k是它的k范數(shù),k=1,2,…, ε是一個(gè)無(wú)窮小的正數(shù)常量,為了防止歸一化時(shí)出現(xiàn)分母為零的情況。在HOG特征的提取過(guò)程中,由于方塊之間的重疊造成大量的重復(fù)計(jì)算,因此,我們引入積分圖思想,對(duì)各個(gè)區(qū)域HOG特征計(jì)算采用積分圖累加的方式,以提高算法效率。積分圖方法是加速特征計(jì)算的一種有效方式,以類(lèi)似數(shù)學(xué)中積分的方式,圖像中的每一個(gè)像素點(diǎn)存儲(chǔ)以原點(diǎn)為矩形左上角點(diǎn),該點(diǎn)為右下角點(diǎn)的矩形區(qū)域所有像素點(diǎn)的特征值,以便在對(duì)圖像只進(jìn)行一次遍歷的情況下完成對(duì)圖像中所有像素點(diǎn)的特征值計(jì)算,從而提高算法運(yùn)行效率。此外,考慮到后續(xù)分類(lèi)中使用級(jí)聯(lián)SVM分類(lèi)器中需多次提取不同大小細(xì)胞單元的HOG特征,采用積分的HOG特征(簡(jiǎn)稱(chēng)為IHOG特征)后,只需對(duì)該細(xì)胞單元的四個(gè)頂點(diǎn)進(jìn)行簡(jiǎn)單的加減運(yùn)算即可得到該單元的HOG特征,而不需要重新累加細(xì)胞單元內(nèi)各個(gè)像素點(diǎn)的特征值。

    本文LBP特征計(jì)算選用等價(jià)模式LBP。采用等價(jià)模式主要是為了在不丟失任何信息的條件下,減少二進(jìn)制模式的種類(lèi)[17]。

    將目標(biāo)位置概率圖作為任務(wù)導(dǎo)引圖調(diào)制自下而上的顯著性注意圖,并將調(diào)制結(jié)果得到的顯著區(qū)域作為集中注意的目標(biāo)區(qū)域,并選擇合適的候選區(qū)域,通過(guò)提取候選區(qū)域的IHOG-LBP特征,得到目標(biāo)分類(lèi)檢測(cè)的結(jié)果。圖5描述了該方法對(duì)一幅圖像具體的檢測(cè)流程。

    從圖5中可以看出,基于SIFT概率模型計(jì)算的位置概率作為任務(wù)導(dǎo)引特征可以有效地調(diào)制基于目標(biāo)顯著性計(jì)算的結(jié)果。場(chǎng)景中的背景墻部分由于具有與膚色較為近似的顏色特征,單純通過(guò)顯著性注意圖容易將其作為候選區(qū)域而有可能發(fā)生錯(cuò)檢且浪費(fèi)時(shí)間,而通過(guò)任務(wù)導(dǎo)引圖的調(diào)制能夠有效地得到原始圖像中行人所在的集中注意區(qū)域。進(jìn)而,通過(guò)基于IHOG-LBP特征對(duì)候選區(qū)域進(jìn)行驗(yàn)證,得到了理想的目標(biāo)檢測(cè)結(jié)果。其中,4號(hào)候選區(qū)域中由于行人臉部未能完整覆蓋,因此該區(qū)域被認(rèn)為沒(méi)有覆蓋目標(biāo)。

    圖5 實(shí)例化行人目標(biāo)檢測(cè)流程

    3 實(shí)驗(yàn)結(jié)果分析與評(píng)價(jià)

    實(shí)驗(yàn)分成兩個(gè)部分,第一部分將對(duì)基于DP-GMM改進(jìn)的圖像預(yù)注意區(qū)域提取結(jié)果與文獻(xiàn)[7]中基于混合高斯模型的提取效果進(jìn)行比對(duì),第二部分將對(duì)行人目標(biāo)檢測(cè)的結(jié)果與傳統(tǒng)的目標(biāo)檢測(cè)方法相比較。實(shí)驗(yàn)所采用的數(shù)據(jù)庫(kù)主要是復(fù)旦大學(xué)-賓夕法尼亞大學(xué)行人數(shù)據(jù)庫(kù)和校園實(shí)拍圖像。當(dāng)CoverRate大于50%時(shí),檢測(cè)結(jié)果視為正確??紤]到圖像中存在相互之間有遮擋或部分重疊的多個(gè)行人,在基于顯著性計(jì)算結(jié)果生成候選區(qū)域時(shí),容易造成一個(gè)候選區(qū)域覆蓋多個(gè)行人目標(biāo),因此,在檢測(cè)過(guò)程中,當(dāng)一個(gè)外圍框包含有多個(gè)行人時(shí),可作為多次檢測(cè)的結(jié)果,但外圍框的個(gè)數(shù)不能少于顯著性計(jì)算得到的顯著區(qū)域個(gè)數(shù)。此外,當(dāng)一個(gè)行人有多個(gè)外圍框包圍時(shí),只有一個(gè)結(jié)果被認(rèn)為正確,其他所有結(jié)果都列為誤檢結(jié)果。圖6所示為復(fù)旦大學(xué)-賓夕法尼亞大學(xué)行人數(shù)據(jù)庫(kù)部分圖像示例。

    實(shí)驗(yàn)1:基于DP-GMM改進(jìn)的預(yù)注意區(qū)域提取較文獻(xiàn)[7]中給出模型,其主要改進(jìn)的地方體現(xiàn)在采用了Dirichlet過(guò)程(DP)對(duì)聚類(lèi)個(gè)數(shù)進(jìn)行估計(jì),此外將方向特征改成了SIFT特征作為圖像的觀(guān)測(cè)數(shù)據(jù)。

    圖6 復(fù)旦大學(xué)-賓夕法尼亞大學(xué)行人數(shù)據(jù)庫(kù)部分圖像示例

    實(shí)驗(yàn)中采用表2中給出的算法,將不同拍攝距離下得到的圖像一起訓(xùn)練,220幅圖像用于訓(xùn)練得到DP-GMM模型,剩余的92幅圖像用于測(cè)試。部分圖像基于GMM和DP-GMM對(duì)部分圖像的預(yù)注意區(qū)域的提取效果如圖7所示,其中估計(jì)得到M=10。

    從圖7中可以看出,對(duì)于偏近距離拍攝的圖片(如圖7左邊的圖像),預(yù)注意區(qū)域提取效果比較接近,都能較好地覆蓋行人的范圍,且關(guān)注的區(qū)域與人眼直觀(guān)觀(guān)測(cè)較為符合。但在圖7右邊所示的近距離拍攝圖片中,文獻(xiàn)[7]得到的預(yù)注意區(qū)域僅能覆蓋圖像中位于中心區(qū)域附近的兩個(gè)行人目標(biāo),而本文模型能夠覆蓋圖像中所有的行人目標(biāo),更好地捕捉面向行人的關(guān)注區(qū)域。

    (a) 文獻(xiàn)[7]中方法得到的關(guān)注區(qū)域

    (b) 本文算法得到的關(guān)注區(qū)域 圖7 預(yù)注意區(qū)域提取效果比較

    為了反映在整個(gè)圖像數(shù)據(jù)庫(kù)中面向行人目標(biāo)的關(guān)注區(qū)域提取效果,本文通過(guò)準(zhǔn)確率(Precision)-召回率(Recall)曲線(xiàn)即PR曲線(xiàn)來(lái)進(jìn)行描述。由于任務(wù)導(dǎo)引圖中每一個(gè)像素點(diǎn)的像素值即為目標(biāo)在該點(diǎn)出現(xiàn)的概率,因此調(diào)節(jié)目標(biāo)似然的概率閾值,并且根據(jù)該閾值對(duì)圖像進(jìn)行二值化,可以得到不同的關(guān)注區(qū)域的大小。對(duì)于整個(gè)數(shù)據(jù)庫(kù)而言,隨著閾值的改變,可以得到反映算法魯棒特性的PR曲線(xiàn)。在上述數(shù)據(jù)庫(kù)中,兩種方法得到的PR曲線(xiàn)如圖8所示,從圖中我們可以比較得出,采用DP對(duì)GMM進(jìn)行改進(jìn),并采用SIFT特征明顯優(yōu)于文獻(xiàn)[7]基于GMM和方向特征的方法。

    實(shí)驗(yàn)2:行人目標(biāo)檢測(cè)是當(dāng)前目標(biāo)檢測(cè)領(lǐng)域研究較多的一類(lèi)問(wèn)題,但是大多數(shù)方法都是采用基于圖像處理的方法,即從目標(biāo)的底層特征分析著眼來(lái)解決問(wèn)題,比較有名的有聯(lián)合局部與全局特征的方法(combination of local and global,CLG)[18]以及基于霍夫變換(Hough transform,HT)投票(Voting)[19]的方法,這兩類(lèi)方法代表了概率計(jì)算框架下以像素級(jí)特征為底層元素和以圖像子塊(Patch)為底層元素的行人檢測(cè)最為經(jīng)典的方法,具有典型的代表性,因此,本文主要與這兩種方法進(jìn)行比較。

    圖8 衡量本文方法與文獻(xiàn)[7]的行人目標(biāo)關(guān)注區(qū)域 提取效果的PR曲線(xiàn)

    實(shí)驗(yàn)過(guò)程中采用與本節(jié)實(shí)驗(yàn)1中同樣的方式調(diào)整概率閾值,得到的PR曲線(xiàn)如圖9所示。從PR曲線(xiàn)中可以看出,在召回率小于0.3時(shí),本文方法的精度介于CLG與HT之間,略遜于CLG。當(dāng)召回率大于0.3時(shí),該方法較之CLG和HT均有優(yōu)勢(shì)。這說(shuō)明在概率閾值較小的情況下,綜合考慮基于像素級(jí)的全局與局部特征更有利于行人目標(biāo)檢測(cè),但隨著概率閾值的增大,本文方法采用SIFT特征生成的概率導(dǎo)引圖更為魯棒,且綜合顯著特征與層級(jí)篩選機(jī)制,能更好地檢測(cè)到行人目標(biāo),且算法復(fù)雜性低于CLG方法。

    圖9 衡量傳統(tǒng)方法與本文方法檢測(cè)效果的PR曲線(xiàn)

    4 結(jié) 論

    針對(duì)任意距離拍攝場(chǎng)景中的行人目標(biāo)檢測(cè),本文模擬人眼任務(wù)導(dǎo)引視覺(jué)注意機(jī)制的空間搜索與特征匹配實(shí)現(xiàn)過(guò)程,采用基于Dirichlet改進(jìn)的SIFT混合高斯概率模型計(jì)算圖像中每個(gè)像素點(diǎn)的目標(biāo)似然概率作為空間搜索的啟發(fā)式信息,調(diào)制基于目標(biāo)本體顯著特征計(jì)算結(jié)果,在圖像數(shù)據(jù)庫(kù)與實(shí)拍圖像中均取得了較為優(yōu)良的檢測(cè)精度。本文方法適用于任意距離拍攝的場(chǎng)景圖片,且具有較好的魯棒性。但顯著性的檢測(cè)依賴(lài)于行人目標(biāo)的特性是豎直且有部分皮膚的裸漏。

    然而,本文方法也存在一定的局限性,主要表現(xiàn)在考慮到算法的快速性要求時(shí),候選區(qū)域驗(yàn)證時(shí)采用的檢測(cè)窗口大小恒定,忽略了尺度因素的影響。此外,傳統(tǒng)的基于圖像處理的行人目標(biāo)檢測(cè)方法也在不斷地改進(jìn)與更新,同時(shí)也采用了各種方式與方法來(lái)加速檢測(cè)過(guò)程,本文作為對(duì)基于生物啟發(fā)式視覺(jué)注意機(jī)制的模型化計(jì)算理論研究與應(yīng)用研究,仍然需要在快速注意機(jī)制上尋求更好的工程化建模方法。

    [1] Major Research plan of National Natural Science Foundation of China: cognitive computing of visual and auditory information[Online], available: http:// ccvai.xjtu.edu.cn/ mes.do? method=getoverview: xjtu, 2015

    [2] Yantis S. To See is to attend.Science, 2003, 299(5603):54-56

    [3] Fecteau J H, Bell A H, Munoz D P. Neural correlates of the automatic and goal-driven biases in orienting spatial attention.JournalofNeurophysiology, 2004, 92(3): 1728-1737

    [4] Corbetta M. Frontoparietal cortical networks for directing attention and the eye to visual locations: identical, independent, or overlapping neural systems?ProceedingsoftheNationalAcademyofSciencesoftheUnitedStatesofAmerica(PNAS). 1998, 95(3):831-838

    [5] Findlay J M, Gilchrist I D. Visual Attention: The Active Vision Perspective. Vision and attention, New York: Springer, 2000. 83-103

    [6] Yarbus A L. Eye Movements and Vision. New York: Plenum Press,1967

    [7] Torralba A, Oliva A, Castelhano M S. Contextual guidance of eye movements and attention in real-world scenes: the role of global features in object search.PsychologicalReview, 2006. 113(4): 766-786

    [8] Lowe D G. Distinctive image features from scale-invariant keypoints.InternationalJournalofComputerVision, 2004. 60(2): 91-110

    [9] Dempster A P, Laird N M, Rubin D B. Maximum likelihood from incomplete data via the em algorithm.JournaloftheRoyalStatisticalSociety, Series B (Methodological). 1977, 39(1): 1-38

    [10] Ferguson T S. A bayesian analysis of some nonparametric problems.TheAnnalsofStatistics, 1973. 1(2): 209-230

    [11] Ishwaran H, James L F. Gibbs sampling methods for stick-breaking priors.JournaloftheAmericanStatisticalAssociation, 2001, 96(453): 161-173

    [12] Walther D. Interactions of Visual Attention and Object Recognition:Computational Modeling, Algorithms, and Psychophysics:[Ph.D dissertation]. Pasadena, California: California Institute of Technology, 2006

    [13] Rodieck R W. Quantitative analysis of cat retinal ganglion cell response to visual stimuli.VisionResearch, 1965. 5(12): 583-601

    [14] Dala l N, TriggsB. Histograms of oriented gradients for human detection. In: Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), San Diego, USA, 2005. 886-893

    [15] Dollar P, Wojek C, Schiele B, et al. Pedestrian detection: an evaluation of the state of the art.IEEETransactionsOnPatternAnalysisandMachineIntelligence, 2012, 34(4):743-761

    [16] Viola P, Jones M. Rapid object detection using a boosted cascade of simple features. In: Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), Kauai, USA, 2001. 511-518

    [17] Ojala T, Pietikainen M, Maenpaa T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns.IEEETransactionsOnPatternAnalysisandMachineIntelligence, 2002, 24(7): 971-987

    [18] Leibe B, Seemann E, Schiele B. Pedestrian detection in crowded scenes. In: Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), San Diego, USA, 2005. 878-885

    [19] Barinova O, Lempitsky V, KohliP. On detection of multiple object instances using Hough transforms.IEEETransactionsonPatternAnalysisandMachineIntelligence, 2012, 34(9): 1773-1784

    Pedestrian detection by combining guided probability map and saliency features

    Liu Qiong

    (Department of Automation, Beijing Information Science and Technology University, Beijing 100192)

    The pedestrian detection mechanism characterized by Abstract mimicking human visual attention and using the guided probability map as the top-down information to mediate the bottom-up information based on saliency features was studied. Firstly, the guided probability map was built based on the Gaussian Mixture Model (GMM) to extract the scale-invariant feature transform (SIFT) features of similar scene images, and the expectation maximization (EM) algorithm and the Dirichlet Processing (DP) were used to estimate the parameters of the GMM automatically. Then, to a new image, the likelihood probability of every pixel was computed by the obtained GMM so as to form the top-down information. Meanwhile, the center-surround mechanism was mimicked to compute the multiscale skin feature and the vertical direction feature to from the bottom-up information of the pedestrian’s saliency feature. Finally, through combining the two-way information, the candidate target areas were obtained, and the integral histogram of oriented gradients and local binary pattern (IHOG-LBP) features of the candidate areas were extracted and then inputted to the cascade support vector machine (SVM) classifier to verify and obtain the pedestrian detection result. The results of the experiment based on the Penn-Fudan pedestrian database and realistic images show that the proposed probability map can improve the prediction detection and the whole detection algorithm outperforms other traditional object detection methods.

    visual attention (VA), guided probability map, saliency feature, pedestrian detection (PD)

    10.3772/j.issn.1002-0470.2016.05.006

    ①北京市教委2014年度科研面上基金(KM201411232008)和北京信息科技大學(xué)2016年度大學(xué)生科技創(chuàng)新資助項(xiàng)目。

    2016-03-23)

    ②女,1984年生,博士,講師;研究方向:模式識(shí)別,認(rèn)知計(jì)算;聯(lián)系人,E-mail: liuqionglq@126.com

    猜你喜歡
    行人聚類(lèi)概率
    第6講 “統(tǒng)計(jì)與概率”復(fù)習(xí)精講
    第6講 “統(tǒng)計(jì)與概率”復(fù)習(xí)精講
    概率與統(tǒng)計(jì)(一)
    概率與統(tǒng)計(jì)(二)
    毒舌出沒(méi),行人避讓
    意林(2021年5期)2021-04-18 12:21:17
    路不為尋找者而設(shè)
    基于DBSACN聚類(lèi)算法的XML文檔聚類(lèi)
    我是行人
    基于改進(jìn)的遺傳算法的模糊聚類(lèi)算法
    一種層次初始的聚類(lèi)個(gè)數(shù)自適應(yīng)的聚類(lèi)方法研究
    国产在线观看jvid| 国产亚洲精品av在线| 18禁国产床啪视频网站| 不卡一级毛片| 久久久久久久久中文| 少妇的丰满在线观看| 天堂动漫精品| 国产精品久久久久久久电影 | ponron亚洲| 在线观看免费视频日本深夜| 亚洲一区二区三区不卡视频| 怎么达到女性高潮| 亚洲国产欧美一区二区综合| 丰满的人妻完整版| 色在线成人网| 777久久人妻少妇嫩草av网站| 精品国产乱子伦一区二区三区| 国产69精品久久久久777片 | 亚洲专区中文字幕在线| 白带黄色成豆腐渣| 最新美女视频免费是黄的| 国产视频内射| 国产成人av教育| tocl精华| 欧美成人一区二区免费高清观看 | 国产真人三级小视频在线观看| 欧美激情久久久久久爽电影| 一卡2卡三卡四卡精品乱码亚洲| 国产91精品成人一区二区三区| 亚洲自拍偷在线| 每晚都被弄得嗷嗷叫到高潮| 一边摸一边做爽爽视频免费| 在线观看舔阴道视频| 日本一本二区三区精品| 人妻久久中文字幕网| 亚洲成a人片在线一区二区| 亚洲色图 男人天堂 中文字幕| 叶爱在线成人免费视频播放| 国产高清视频在线观看网站| 国产亚洲精品第一综合不卡| 国产亚洲精品综合一区在线观看 | 欧美+亚洲+日韩+国产| 国产一区二区三区视频了| 一本大道久久a久久精品| 久久热在线av| 可以在线观看的亚洲视频| 精品国产乱码久久久久久男人| 国产欧美日韩一区二区三| 亚洲国产精品合色在线| 天堂影院成人在线观看| 1024手机看黄色片| 亚洲精品中文字幕一二三四区| 亚洲国产欧洲综合997久久,| 日韩精品免费视频一区二区三区| 999久久久精品免费观看国产| 99国产精品一区二区三区| 看片在线看免费视频| 久久久久久久久免费视频了| 国产精品永久免费网站| 久久这里只有精品19| 国产黄色小视频在线观看| 99在线人妻在线中文字幕| 国产主播在线观看一区二区| 亚洲成人国产一区在线观看| 村上凉子中文字幕在线| 好男人电影高清在线观看| 亚洲 欧美 日韩 在线 免费| 欧美绝顶高潮抽搐喷水| 久久热在线av| 欧美日韩亚洲国产一区二区在线观看| av福利片在线| 欧美成人一区二区免费高清观看 | 少妇人妻一区二区三区视频| 成人高潮视频无遮挡免费网站| 欧美乱码精品一区二区三区| 国产乱人伦免费视频| 午夜两性在线视频| 亚洲国产精品合色在线| 日本熟妇午夜| 久久精品亚洲精品国产色婷小说| 免费在线观看日本一区| www.熟女人妻精品国产| 精品日产1卡2卡| 成人国语在线视频| 别揉我奶头~嗯~啊~动态视频| 亚洲精品久久国产高清桃花| 香蕉丝袜av| 亚洲熟妇熟女久久| 一进一出好大好爽视频| 日韩成人在线观看一区二区三区| 免费在线观看影片大全网站| 变态另类成人亚洲欧美熟女| 香蕉久久夜色| 午夜精品一区二区三区免费看| 老司机福利观看| 久久久精品国产亚洲av高清涩受| 18美女黄网站色大片免费观看| 日本免费a在线| 岛国在线免费视频观看| 国产日本99.免费观看| 成人一区二区视频在线观看| 久久久久国产一级毛片高清牌| 亚洲一区二区三区不卡视频| 亚洲真实伦在线观看| 999久久久国产精品视频| 欧美黄色片欧美黄色片| 欧美黑人巨大hd| 国产成人av教育| 啦啦啦韩国在线观看视频| 亚洲中文字幕日韩| 欧美+亚洲+日韩+国产| 91麻豆精品激情在线观看国产| 制服丝袜大香蕉在线| 欧美zozozo另类| tocl精华| 国产单亲对白刺激| aaaaa片日本免费| 精品午夜福利视频在线观看一区| 一级毛片精品| 一级毛片高清免费大全| 亚洲在线自拍视频| 欧美大码av| 蜜桃久久精品国产亚洲av| 欧美3d第一页| 香蕉国产在线看| 久久久久九九精品影院| 国产黄色小视频在线观看| 成在线人永久免费视频| 国产在线观看jvid| av福利片在线观看| 久久久久国产一级毛片高清牌| 午夜福利免费观看在线| 999精品在线视频| 一级毛片精品| 亚洲人成电影免费在线| 黄片小视频在线播放| 精品福利观看| 久久精品国产99精品国产亚洲性色| 搡老妇女老女人老熟妇| 国产一区二区三区在线臀色熟女| 麻豆国产97在线/欧美 | 亚洲成人中文字幕在线播放| 成人国产一区最新在线观看| 久久午夜亚洲精品久久| av超薄肉色丝袜交足视频| а√天堂www在线а√下载| 香蕉丝袜av| 99国产综合亚洲精品| 视频区欧美日本亚洲| 五月玫瑰六月丁香| 岛国视频午夜一区免费看| 久久亚洲精品不卡| 日韩精品免费视频一区二区三区| 国产在线观看jvid| 18禁黄网站禁片免费观看直播| 亚洲美女黄片视频| 欧美+亚洲+日韩+国产| 久久久久久九九精品二区国产 | 国产欧美日韩一区二区三| 成人三级黄色视频| 999久久久国产精品视频| 不卡一级毛片| 又紧又爽又黄一区二区| 亚洲午夜理论影院| 欧美一级a爱片免费观看看 | 在线a可以看的网站| 熟妇人妻久久中文字幕3abv| 可以在线观看毛片的网站| 在线播放国产精品三级| 特大巨黑吊av在线直播| 国产日本99.免费观看| 国产成人av教育| 青草久久国产| www.精华液| 欧美av亚洲av综合av国产av| 女警被强在线播放| 日本 av在线| 人妻久久中文字幕网| 极品教师在线免费播放| 国产三级在线视频| 免费在线观看视频国产中文字幕亚洲| 日韩有码中文字幕| 琪琪午夜伦伦电影理论片6080| 麻豆久久精品国产亚洲av| xxx96com| 欧美日韩一级在线毛片| 国产精品爽爽va在线观看网站| 久久欧美精品欧美久久欧美| 久久久久久免费高清国产稀缺| 日本黄大片高清| 每晚都被弄得嗷嗷叫到高潮| 欧美在线黄色| 黄色视频,在线免费观看| 午夜福利在线观看吧| 1024视频免费在线观看| www.www免费av| 亚洲欧美日韩高清专用| 狂野欧美白嫩少妇大欣赏| e午夜精品久久久久久久| 久久草成人影院| 欧美大码av| 亚洲 欧美一区二区三区| 欧美高清成人免费视频www| 搞女人的毛片| 国产精品亚洲一级av第二区| 999久久久精品免费观看国产| 日本免费一区二区三区高清不卡| 成人国产一区最新在线观看| 伊人久久大香线蕉亚洲五| 欧美在线黄色| 久久久久久久久久黄片| 黄频高清免费视频| 午夜福利视频1000在线观看| tocl精华| 国产成人av激情在线播放| 国产成人啪精品午夜网站| 黄色a级毛片大全视频| 精品久久久久久久人妻蜜臀av| netflix在线观看网站| 9191精品国产免费久久| 午夜激情av网站| 精品国产超薄肉色丝袜足j| 亚洲 国产 在线| av国产免费在线观看| 国产精品免费一区二区三区在线| 美女高潮喷水抽搐中文字幕| 女生性感内裤真人,穿戴方法视频| 亚洲av电影在线进入| 一个人免费在线观看电影 | 老司机靠b影院| 国产av在哪里看| 日韩欧美一区二区三区在线观看| 国产精品日韩av在线免费观看| 搡老妇女老女人老熟妇| 99riav亚洲国产免费| 欧美丝袜亚洲另类 | 亚洲精品一区av在线观看| 欧美午夜高清在线| 久久久久久久午夜电影| 精品国产乱码久久久久久男人| 久久性视频一级片| 久久久久性生活片| 国产精品电影一区二区三区| 一本大道久久a久久精品| 人妻夜夜爽99麻豆av| 最好的美女福利视频网| 精华霜和精华液先用哪个| 免费av毛片视频| 九色成人免费人妻av| 国产成人影院久久av| 精品久久蜜臀av无| 久久久久精品国产欧美久久久| 看片在线看免费视频| 两性午夜刺激爽爽歪歪视频在线观看 | 国产成人aa在线观看| 国产v大片淫在线免费观看| 波多野结衣巨乳人妻| 97碰自拍视频| 午夜免费观看网址| 日日干狠狠操夜夜爽| 禁无遮挡网站| 欧美色欧美亚洲另类二区| √禁漫天堂资源中文www| 一卡2卡三卡四卡精品乱码亚洲| 精品久久久久久久久久久久久| 日日夜夜操网爽| 午夜激情av网站| 国产91精品成人一区二区三区| 欧美日韩乱码在线| 麻豆成人午夜福利视频| 国内久久婷婷六月综合欲色啪| 成人永久免费在线观看视频| 成年版毛片免费区| 欧美又色又爽又黄视频| 亚洲成人精品中文字幕电影| 日韩精品免费视频一区二区三区| netflix在线观看网站| 欧美 亚洲 国产 日韩一| 小说图片视频综合网站| 午夜影院日韩av| 久久天堂一区二区三区四区| 久久中文字幕一级| 后天国语完整版免费观看| 特大巨黑吊av在线直播| 波多野结衣巨乳人妻| 国产精品98久久久久久宅男小说| 亚洲成人久久性| 18禁黄网站禁片免费观看直播| 日本免费a在线| 国产真实乱freesex| 亚洲免费av在线视频| 久久精品国产99精品国产亚洲性色| 成人18禁在线播放| 91九色精品人成在线观看| 此物有八面人人有两片| av有码第一页| 青草久久国产| 成年女人毛片免费观看观看9| 麻豆一二三区av精品| 国产精品99久久99久久久不卡| 免费看a级黄色片| 床上黄色一级片| 久久香蕉激情| 免费一级毛片在线播放高清视频| 精品国产超薄肉色丝袜足j| 天堂动漫精品| 青草久久国产| 国产aⅴ精品一区二区三区波| 国产精品98久久久久久宅男小说| 美女午夜性视频免费| 欧美性猛交黑人性爽| 亚洲色图 男人天堂 中文字幕| 精品久久久久久久人妻蜜臀av| 欧美一区二区精品小视频在线| 国产高清视频在线观看网站| 亚洲五月婷婷丁香| 午夜成年电影在线免费观看| 搡老熟女国产l中国老女人| 国产精品亚洲一级av第二区| 色综合亚洲欧美另类图片| 男女之事视频高清在线观看| 制服诱惑二区| 欧美成人免费av一区二区三区| 日日夜夜操网爽| 久久久久国产精品人妻aⅴ院| 此物有八面人人有两片| videosex国产| 男插女下体视频免费在线播放| 日本三级黄在线观看| 不卡av一区二区三区| 2021天堂中文幕一二区在线观| 国产在线观看jvid| 国产成人精品无人区| 夜夜夜夜夜久久久久| 人人妻人人看人人澡| 国产男靠女视频免费网站| 国产成年人精品一区二区| 18禁裸乳无遮挡免费网站照片| 亚洲av电影不卡..在线观看| 成人精品一区二区免费| 亚洲电影在线观看av| 男人舔女人下体高潮全视频| 欧美日韩乱码在线| 久久这里只有精品19| 脱女人内裤的视频| 一边摸一边做爽爽视频免费| 国产又色又爽无遮挡免费看| 亚洲性夜色夜夜综合| 精品欧美国产一区二区三| 九色国产91popny在线| 熟女电影av网| 天堂√8在线中文| 亚洲成人久久爱视频| 欧美日韩国产亚洲二区| 一级a爱片免费观看的视频| 两个人视频免费观看高清| 国产亚洲欧美98| 黄色a级毛片大全视频| 国产一级毛片七仙女欲春2| 亚洲精品美女久久av网站| 制服诱惑二区| 久久久精品大字幕| 国产三级中文精品| 少妇裸体淫交视频免费看高清 | 欧美3d第一页| 无限看片的www在线观看| 天天躁夜夜躁狠狠躁躁| 亚洲国产欧美人成| 99riav亚洲国产免费| 99热这里只有精品一区 | 久久香蕉激情| 国产激情偷乱视频一区二区| 男人舔奶头视频| 亚洲无线在线观看| 热99re8久久精品国产| 看黄色毛片网站| 欧美又色又爽又黄视频| 亚洲精品粉嫩美女一区| 18禁黄网站禁片午夜丰满| 国产成人精品久久二区二区免费| www.自偷自拍.com| 久久中文看片网| 18禁裸乳无遮挡免费网站照片| 亚洲国产精品久久男人天堂| 国产精品国产高清国产av| 久久久久久久久久黄片| 国产成人aa在线观看| 精品不卡国产一区二区三区| 国产一区二区三区在线臀色熟女| 国产精品永久免费网站| 一级黄色大片毛片| 免费在线观看完整版高清| 一本一本综合久久| 高潮久久久久久久久久久不卡| 99久久久亚洲精品蜜臀av| 91成年电影在线观看| 女人被狂操c到高潮| 欧美激情久久久久久爽电影| 国产精品av视频在线免费观看| 1024视频免费在线观看| 精品第一国产精品| 每晚都被弄得嗷嗷叫到高潮| 亚洲精品国产精品久久久不卡| 精品午夜福利视频在线观看一区| 12—13女人毛片做爰片一| 免费搜索国产男女视频| 久久精品国产综合久久久| 岛国视频午夜一区免费看| 亚洲国产中文字幕在线视频| 免费看a级黄色片| 最近在线观看免费完整版| 国产精品98久久久久久宅男小说| 亚洲av日韩精品久久久久久密| 午夜久久久久精精品| 999久久久国产精品视频| 在线观看午夜福利视频| 久久国产精品人妻蜜桃| ponron亚洲| 亚洲五月天丁香| 黑人操中国人逼视频| 国产精品av视频在线免费观看| 午夜激情福利司机影院| 亚洲 欧美 日韩 在线 免费| 成人午夜高清在线视频| 国产探花在线观看一区二区| 麻豆久久精品国产亚洲av| 亚洲性夜色夜夜综合| 国产av一区在线观看免费| 午夜福利在线在线| 久久中文字幕一级| 97超级碰碰碰精品色视频在线观看| 特级一级黄色大片| 日韩免费av在线播放| 亚洲国产欧洲综合997久久,| 99久久国产精品久久久| 日韩国内少妇激情av| 欧美在线黄色| 免费看十八禁软件| 午夜精品一区二区三区免费看| 久久久久久九九精品二区国产 | 老司机午夜福利在线观看视频| 亚洲一区中文字幕在线| 亚洲精品美女久久久久99蜜臀| 精品无人区乱码1区二区| 欧美 亚洲 国产 日韩一| 久久婷婷人人爽人人干人人爱| 免费电影在线观看免费观看| 女生性感内裤真人,穿戴方法视频| 中文字幕精品亚洲无线码一区| 国产伦一二天堂av在线观看| av欧美777| 18禁裸乳无遮挡免费网站照片| 可以在线观看毛片的网站| 国产男靠女视频免费网站| 一个人观看的视频www高清免费观看 | 欧美乱色亚洲激情| 男女下面进入的视频免费午夜| 国产成人影院久久av| 成人欧美大片| 在线视频色国产色| 中亚洲国语对白在线视频| 99热这里只有是精品50| 99国产极品粉嫩在线观看| 亚洲黑人精品在线| 级片在线观看| 伊人久久大香线蕉亚洲五| 日日干狠狠操夜夜爽| 中文在线观看免费www的网站 | 日日干狠狠操夜夜爽| 久久国产精品人妻蜜桃| 午夜福利在线在线| 亚洲国产欧美一区二区综合| 亚洲 欧美一区二区三区| 亚洲av成人不卡在线观看播放网| 日韩欧美免费精品| 午夜久久久久精精品| 欧美+亚洲+日韩+国产| 69av精品久久久久久| 欧美日本视频| 亚洲中文av在线| 伦理电影免费视频| 国产三级在线视频| 免费看十八禁软件| 亚洲国产日韩欧美精品在线观看 | av片东京热男人的天堂| 三级男女做爰猛烈吃奶摸视频| 欧美一区二区国产精品久久精品 | 日日摸夜夜添夜夜添小说| 亚洲av成人不卡在线观看播放网| av视频在线观看入口| 窝窝影院91人妻| 久久精品国产亚洲av香蕉五月| 别揉我奶头~嗯~啊~动态视频| 757午夜福利合集在线观看| 麻豆国产97在线/欧美 | 久久国产精品人妻蜜桃| 少妇人妻一区二区三区视频| 国产精品美女特级片免费视频播放器 | 十八禁人妻一区二区| 国内精品一区二区在线观看| 亚洲熟妇中文字幕五十中出| 久久伊人香网站| 午夜福利18| 久久久国产成人免费| 欧美精品啪啪一区二区三区| 哪里可以看免费的av片| 成人18禁在线播放| 久久国产乱子伦精品免费另类| 午夜精品在线福利| 岛国在线观看网站| 欧美一区二区国产精品久久精品 | 可以在线观看毛片的网站| 国产主播在线观看一区二区| 在线看三级毛片| 国产一区二区三区视频了| 麻豆av在线久日| 免费在线观看视频国产中文字幕亚洲| 国产男靠女视频免费网站| 久久久国产成人免费| 国产精品99久久99久久久不卡| 亚洲人成77777在线视频| √禁漫天堂资源中文www| 波多野结衣巨乳人妻| 美女免费视频网站| 亚洲人成伊人成综合网2020| 变态另类成人亚洲欧美熟女| 精品国产美女av久久久久小说| 女警被强在线播放| 国产亚洲精品久久久久久毛片| 18禁美女被吸乳视频| 精品久久久久久久人妻蜜臀av| 国产私拍福利视频在线观看| 成熟少妇高潮喷水视频| 久久精品人妻少妇| 午夜福利视频1000在线观看| 曰老女人黄片| 国产精品自产拍在线观看55亚洲| 久久久精品大字幕| 亚洲美女视频黄频| 久久久久久亚洲精品国产蜜桃av| 我的老师免费观看完整版| 老鸭窝网址在线观看| 亚洲av成人一区二区三| 亚洲精品色激情综合| 国内久久婷婷六月综合欲色啪| 国产私拍福利视频在线观看| 亚洲天堂国产精品一区在线| 人人妻人人澡欧美一区二区| aaaaa片日本免费| 色哟哟哟哟哟哟| 久久亚洲真实| 久久精品亚洲精品国产色婷小说| 黄色视频不卡| 国产精品一区二区免费欧美| 国产精品久久久久久精品电影| 亚洲精品国产一区二区精华液| 男女午夜视频在线观看| 国产区一区二久久| www.自偷自拍.com| 很黄的视频免费| 午夜福利18| av片东京热男人的天堂| 嫩草影视91久久| 免费在线观看黄色视频的| 国产99白浆流出| 男人的好看免费观看在线视频 | 日韩精品免费视频一区二区三区| 亚洲国产中文字幕在线视频| 国产精品久久久人人做人人爽| 日本三级黄在线观看| 日韩欧美一区二区三区在线观看| 欧美国产日韩亚洲一区| 99久久精品热视频| 色综合欧美亚洲国产小说| 日本 av在线| 精品久久久久久成人av| 亚洲成人中文字幕在线播放| 国产区一区二久久| 男女午夜视频在线观看| 日本撒尿小便嘘嘘汇集6| 国产亚洲精品第一综合不卡| 精品无人区乱码1区二区| 美女免费视频网站| 日本三级黄在线观看| 国产一区二区在线观看日韩 | 免费观看人在逋| 亚洲av成人一区二区三| 欧美一区二区国产精品久久精品 | 免费无遮挡裸体视频| 国产高清有码在线观看视频 | 免费在线观看影片大全网站| 青草久久国产| 999精品在线视频| 嫁个100分男人电影在线观看| 国产精品亚洲一级av第二区| 久久精品成人免费网站| 国产精品免费视频内射| 老鸭窝网址在线观看| 老熟妇乱子伦视频在线观看| 久久精品国产亚洲av高清一级| 欧美 亚洲 国产 日韩一| 日韩欧美免费精品| 国产成+人综合+亚洲专区| 欧美日韩亚洲综合一区二区三区_| 久久精品国产综合久久久| 嫩草影院精品99| 中文资源天堂在线| 欧美日韩亚洲综合一区二区三区_| 91在线观看av| 极品教师在线免费播放| 欧美日韩国产亚洲二区| 丝袜美腿诱惑在线| 91在线观看av| 久久中文字幕一级| 熟妇人妻久久中文字幕3abv|