• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于級(jí)聯(lián)網(wǎng)絡(luò)的行人檢測(cè)方法

    2019-08-01 01:35:23陳光喜王佳鑫黃勇詹益俊詹寶瑩
    計(jì)算機(jī)應(yīng)用 2019年1期
    關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)

    陳光喜 王佳鑫 黃勇 詹益俊 詹寶瑩

    摘 要:針對(duì)復(fù)雜環(huán)境下行人檢測(cè)不能同時(shí)滿足高召回率與高效率檢測(cè)的問題,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的行人檢測(cè)方法。首先,采用CNN中的單步檢測(cè)升級(jí)版網(wǎng)絡(luò)YOLOv2初步檢測(cè)行人;然后,設(shè)計(jì)一個(gè)網(wǎng)絡(luò)與YOLOv2網(wǎng)絡(luò)級(jí)聯(lián)。設(shè)計(jì)的網(wǎng)絡(luò)具有目標(biāo)分類和邊界框回歸的功能,對(duì)YOLOv2初步檢測(cè)出的行人位置進(jìn)行再分類與回歸,以此降低誤檢,提高召回率;最后,采用非極大值抑制(NMS)處理的方法去除冗余的邊界框。實(shí)驗(yàn)結(jié)果顯示,在數(shù)據(jù)集INRIA和Caltech上,所提方法與原始YOLOv2相比,召回率提高6.93.3個(gè)百分點(diǎn),準(zhǔn)確率提高6.85.1個(gè)百分點(diǎn),同時(shí)速度上達(dá)到了14.712.711.6幀/s,實(shí)現(xiàn)了實(shí)時(shí)檢測(cè)。與現(xiàn)有的流行的行人檢測(cè)方法相比,所提方法具有更好的整體性能。

    關(guān)鍵詞:行人檢測(cè);卷積神經(jīng)網(wǎng)絡(luò);級(jí)聯(lián)網(wǎng)絡(luò);分類回歸;實(shí)時(shí)檢測(cè)

    中圖分類號(hào): TP391.413; TP18

    文獻(xiàn)標(biāo)志碼:A

    Abstract: In complex environment, existing pedestrian detection methods can not be very good to achieve high recall rate and efficient detection. To solve this problem, a pedestrian detection method based on Convolutional Neural Network (CNN) was proposed. Firstly, pedestrian locations in input images were initially detected with single step detection upgrade network (YOLOv2) derived from CNN. Secondly, a network with target classification and bounding box regression was designed to cascade with YOLOv2 network, which made reclassification and regression of pedestrian location initially detected by YOLOv2, to reduce error detections and increase recall rate. Finally, a Non-Maximum Suppression (NMS) method was used to remove redundant bounding boxes. The experimental results show that, in INRIA and Caltech dataset, the proposed method increases recall rate by 6.93.3 percentage points, and the accuracy is increased by 6.85.1 percentage points compared with original YOLOv2. It also reached a speed of 14.712.711.6FPS (Frames Per Second) to realize real-time detection. Compared with the existing six popular pedestrian detection methods, the proposed method has better overall performance.

    Key words: pedestrian detection; Convolutional Neural Network (CNN); cascade network; classification and regression; real-time detection

    0 引言

    隨著智慧城市建設(shè)在國(guó)際國(guó)內(nèi)如火如荼地展開,針對(duì)智能監(jiān)控等相關(guān)計(jì)算機(jī)視覺的技術(shù)需求也日益增加。行人檢測(cè)作為計(jì)算機(jī)視覺領(lǐng)域的基礎(chǔ)任務(wù),引起了國(guó)內(nèi)外計(jì)算機(jī)視覺領(lǐng)域?qū)<覍W(xué)者的特別關(guān)注[1]。傳統(tǒng)的行人檢測(cè)方法是利用人工設(shè)計(jì)的特征提取器,通過提取方向梯度直方圖(Histogram of Oriented Gradients, HOG)、局部二值模式(Local Binary Pattern, LBP)等特征來(lái)訓(xùn)練分類器,實(shí)現(xiàn)對(duì)行人的檢測(cè),但人工設(shè)計(jì)的行人特征很難適應(yīng)行人行為的大幅度變化。

    本質(zhì)上說,行人檢測(cè)只是一種特殊的通用目標(biāo)檢測(cè),因而可以借鑒通用目標(biāo)檢測(cè)的方法來(lái)實(shí)現(xiàn)。目前主流的通用目標(biāo)檢測(cè)方法主要分為兩種:一種是two-stage;另一種是one-stage。two-stage方法主要使用更快、更富有特征層次的卷積神經(jīng)網(wǎng)絡(luò)(Faster and Rich feature Convolutional Neural NetworkFaster Regions with Convolutional Neural Network feature, Faster R-CNN這個(gè)Faster R-CNN的英文全稱是否應(yīng)該為“Faster Regions with Convolutional Neural Network feature”,其他作者寫的是這個(gè)英文全稱)[2]、快速且豐富的特征層次結(jié)構(gòu)網(wǎng)絡(luò)(Fast and Rich feature CNNFast Regions with Convolutional Neural Network feature, Fast R-CNN)[3],而one-stage的方法有統(tǒng)一的實(shí)時(shí)對(duì)象檢測(cè)(You Only Look Once, YOLO)[4]、YOLO升級(jí)版(YOLOv2)[5]、單發(fā)多框檢測(cè)器(Single Shot multibox Detector, SSD)[6]。與two-stage的方法相比,one-stage的方法檢測(cè)速度更快,但在檢測(cè)質(zhì)量上稍低。實(shí)時(shí)檢測(cè)是目前智能產(chǎn)品市場(chǎng)的主流需求,YOLOv2在實(shí)時(shí)性檢測(cè)方面表現(xiàn)突出,速度更快,但是直接使用YOLOv2檢測(cè)行人時(shí),因?yàn)樵贗NRIA[7]和Caltech[8]中行人的像素比較低,YOLOv2檢測(cè)效果較差,行人位置也不夠準(zhǔn)確。此外,在高重疊度(Intersection Over Union, IOU)閾值條件下,YOLOv2的效果也不甚理想。

    最新的CNN(Convolutional Neural Network)方法如超網(wǎng)絡(luò)(HyperNet)[9]大量使用了特征融合來(lái)提高小目標(biāo)的檢測(cè)質(zhì)量,而特征空間網(wǎng)絡(luò)(Feature Pyramid Network請(qǐng)補(bǔ)充FPN的英文全稱, FPN)[10]則利用多層特征預(yù)測(cè)來(lái)提高檢測(cè)質(zhì)量。行人檢測(cè)方法也可以融合CNN特征與傳統(tǒng)行人特征,如Mao等[11]提出邊緣特征,分割特征對(duì)行人檢測(cè)很有效,他們?cè)O(shè)計(jì)了超學(xué)習(xí)網(wǎng)絡(luò)(Hyperlearn)進(jìn)行特征融合,提高了小目標(biāo)行人的檢測(cè)質(zhì)量。特征融合的優(yōu)點(diǎn)在于低層的特征語(yǔ)義信息比較少,但是目標(biāo)位置準(zhǔn)確;高層的特征語(yǔ)義信息比較豐富,但是目標(biāo)位置比較粗略,同時(shí)融入了上下文語(yǔ)義特征,利用了高層低層特征易于檢測(cè),但是這些方法的主干網(wǎng)絡(luò)非常深,或者采用多特種融合的方法導(dǎo)致網(wǎng)絡(luò)參數(shù)過于龐大,導(dǎo)致了檢測(cè)速度非常慢,影響了在實(shí)際檢測(cè)中的應(yīng)用性。

    分階段檢測(cè)方法的優(yōu)點(diǎn)是單個(gè)網(wǎng)絡(luò)階段計(jì)算量不大,計(jì)算效率高。如多任務(wù)級(jí)聯(lián)卷積網(wǎng)絡(luò)(Multi-Task Cascaded Convolutional Network, MTCNN此處的MTCNN,是否應(yīng)該為MTCCN,因?yàn)榇髮懽址杏袃蓚€(gè)C,而不是CNN?請(qǐng)明確?;貜?fù):是MTCNN)[12]檢測(cè)人臉采用了一種級(jí)聯(lián)網(wǎng)絡(luò),分3個(gè)階段:第一個(gè)階段提取人臉候選框,第二個(gè)階段定位人臉,第三個(gè)階段精確人臉位置,此方法檢測(cè)速度快,檢測(cè)質(zhì)量高。本文參考了MTCNN方法設(shè)計(jì)了一個(gè)行人級(jí)聯(lián)網(wǎng)絡(luò),根據(jù)深層特征與淺層特征融合的思想改進(jìn)了YOLOv2。首先使用YOLOv2對(duì)行人進(jìn)行檢測(cè),在檢測(cè)時(shí)使其輸出預(yù)測(cè)的坐標(biāo);然后利用行人在水平方向上比較密集這一特點(diǎn)設(shè)計(jì)網(wǎng)絡(luò)Person用于級(jí)聯(lián)YOLOv2,這個(gè)網(wǎng)絡(luò)主要具備兩個(gè)作用:1)用于對(duì)YOLOv2檢測(cè)出的行人再次判斷是否為行人;2)對(duì)YOLOv2檢測(cè)出的行人的位置進(jìn)行回歸。第二個(gè)網(wǎng)絡(luò)是一個(gè)回歸網(wǎng)絡(luò),其網(wǎng)絡(luò)層數(shù)淺,且檢測(cè)速度快。本文的創(chuàng)新之處在于級(jí)聯(lián)網(wǎng)絡(luò)方法,結(jié)合了深層特征網(wǎng)絡(luò)與淺層特征網(wǎng)絡(luò)的優(yōu)點(diǎn),能夠完成實(shí)時(shí)檢測(cè)任務(wù)。

    1 本文方法

    本文方法首先使用了YOLOv2的算法。YOLOv2的計(jì)算流程公式為:y=fn(σn-1)=fn(fn-1(…f1(x)),x為原圖??梢钥闯鯵OLOv2的每一層參數(shù)必須訓(xùn)練恰當(dāng),才能得到合適的檢測(cè)效果。YOLOv2網(wǎng)絡(luò)有19層,訓(xùn)練的行人為小目標(biāo)時(shí),網(wǎng)絡(luò)難以訓(xùn)練。

    直接采用YOLOv2檢測(cè)時(shí),較深的網(wǎng)絡(luò)得到抽象的特征,淺層的網(wǎng)絡(luò)得到圖像的細(xì)節(jié)。上述公式采用的是高級(jí)抽象特征作檢測(cè),只能檢測(cè)出行人的大致位置,或者會(huì)誤檢出一些行人,而不能檢測(cè)出行人的具體位置。本文的主要思路是,采用級(jí)聯(lián)方法,根據(jù)淺層網(wǎng)絡(luò)提出人的細(xì)節(jié)特征這一特點(diǎn)設(shè)計(jì)了一個(gè)淺層網(wǎng)絡(luò),精確定位人的位置,但由于網(wǎng)絡(luò)較淺,學(xué)習(xí)到的特征不足以用于定位行人,即輸入原圖無(wú)法得到行人位置,但是可用于候選框位置小范圍的修正,因此結(jié)合了淺層網(wǎng)絡(luò)與深層網(wǎng)絡(luò)的特點(diǎn),用淺層網(wǎng)絡(luò)再次回歸深層網(wǎng)絡(luò)預(yù)測(cè)的結(jié)果。

    檢測(cè)網(wǎng)絡(luò)提取特征的過程公式為D=F4(F3-1這個(gè)下標(biāo)對(duì)嗎?下標(biāo)是否應(yīng)該為3?請(qǐng)明確(…F1(x)),x為原圖,經(jīng)過4層網(wǎng)絡(luò)提取特征訓(xùn)練,級(jí)聯(lián)網(wǎng)絡(luò)檢測(cè)公式為Df=F4(F3-1(…F1(y)),y為YOLO的檢測(cè)結(jié)果,因此結(jié)合了深層網(wǎng)絡(luò)與淺層網(wǎng)絡(luò)的特點(diǎn)能夠得出高質(zhì)量的檢測(cè)效果,且由于是分階段檢測(cè),沒有集中在同一個(gè)網(wǎng)絡(luò),網(wǎng)絡(luò)的計(jì)算量沒有增大,檢測(cè)速度快。與此相對(duì)的是,F(xiàn)PN等網(wǎng)絡(luò)是在一個(gè)網(wǎng)絡(luò)中結(jié)合了深層、淺層特征,計(jì)算量加大,不利于網(wǎng)絡(luò)訓(xùn)練。

    本文改進(jìn)的YOLOv2方法首先是在YOLOv2上作了大量的對(duì)比,分析在行人檢測(cè)場(chǎng)景中使用YOLOv2產(chǎn)生的效果,通過改變其判斷行人的threshold(閾值)來(lái)調(diào)整檢測(cè)性能。此外,對(duì)于如何在降低threshold的同時(shí)保持準(zhǔn)確率不變,如何在提高行人定位準(zhǔn)確性的同時(shí)提高召回率,如何保證檢測(cè)速度盡可能地快,這三個(gè)問題上提出了相應(yīng)的解決方案。

    1)針對(duì)準(zhǔn)確率不理想的問題,設(shè)計(jì)新的網(wǎng)絡(luò)架構(gòu),此網(wǎng)絡(luò)具有再次判斷行人類別的功能,作一個(gè)二分類預(yù)測(cè),即人和背景,同時(shí)在網(wǎng)絡(luò)中通過使用正負(fù)樣本的方法來(lái)提高準(zhǔn)確率。

    2)針對(duì)召回率較低的問題,設(shè)計(jì)一個(gè)具有邊界框回歸功能的網(wǎng)絡(luò)架構(gòu),通過回歸原始YOLOv2的預(yù)測(cè)框,提高行人預(yù)測(cè)框定位的準(zhǔn)確性,檢測(cè)到的行人正確定位的數(shù)量就會(huì)增加,行人召回率隨之提升。

    3)針對(duì)實(shí)時(shí)檢測(cè)必須保證檢測(cè)速度這一問題,這就要求設(shè)計(jì)的網(wǎng)絡(luò)層數(shù)比較淺。網(wǎng)絡(luò)層數(shù)越淺,檢測(cè)速度越快。

    綜合這三個(gè)問題的解決方案,在以行人為目標(biāo)的基礎(chǔ)上,設(shè)計(jì)一個(gè)網(wǎng)絡(luò)Person。此網(wǎng)絡(luò)具有分類與回歸的功能,網(wǎng)絡(luò)層數(shù)很淺,僅有4層。分析行人的真實(shí)框縱橫比,選取合適的卷積核,再對(duì)上一步Y(jié)OLOv2測(cè)試的三種閾值下的預(yù)測(cè)框分別傳入Person網(wǎng)絡(luò)中作分析對(duì)比,得出threshold為0.01時(shí)的效果最優(yōu),最后再與其他行人檢測(cè)算法進(jìn)行對(duì)比分析。

    1.1 YOLOv2初步檢測(cè)

    為了提高檢測(cè)速度,采用YOLOv2初步檢測(cè)行人。YOLOv2是目前最快的通用目標(biāo)檢測(cè)網(wǎng)絡(luò),能夠在檢測(cè)速度和檢測(cè)質(zhì)量上進(jìn)行權(quán)衡。

    1.1.1 置信度計(jì)算

    YOLOv2檢測(cè)時(shí)是整圖輸入的,首先將圖片分成S×S個(gè)網(wǎng)格,按式(1)計(jì)算每一個(gè)網(wǎng)格置信度。首先判斷網(wǎng)格中是否包含目標(biāo),見式(2),如果包含目標(biāo)Pr(Object)=1,再判斷該目標(biāo)是否為人的概率Pr(Person|Object),最后乘以定位的準(zhǔn)確性IOU,即IOU為預(yù)測(cè)框與真實(shí)框的交并比。預(yù)測(cè)框與真實(shí)框的交集見式(3):

    其中:AO(Area of Overlap)為面積的重疊,表示預(yù)測(cè)框的面積與真實(shí)框的面積的交集;AU(Area of Union請(qǐng)補(bǔ)充AO、AU的英文全稱)為面積的并集,表示預(yù)測(cè)框的面積與真實(shí)框的面積的并集。

    1.1.2 YOLOv2網(wǎng)絡(luò)結(jié)構(gòu)

    采用官方的YOLOv2檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu),輸入任意尺寸圖片,重設(shè)大小到416×416(寬×高),經(jīng)各層卷積池化后,圖片大小改為13×13,并將輸出類別修改為2類,即行人與背景。在訓(xùn)練網(wǎng)絡(luò)時(shí),需要預(yù)設(shè)錨點(diǎn)數(shù)量及位置。隨著迭代次數(shù)不斷增加,從網(wǎng)絡(luò)學(xué)習(xí)到行人特征,預(yù)測(cè)框參數(shù)不斷調(diào)整,最終接近真實(shí)框。YOLOv2結(jié)構(gòu)如圖1所示。

    1.2 Person網(wǎng)絡(luò)精確檢測(cè)

    原始YOLOv2并不是專為行人檢測(cè)所設(shè)計(jì)的網(wǎng)絡(luò),檢測(cè)行人的召回率和準(zhǔn)確率均不高。為提高行人分類的準(zhǔn)確率及行人預(yù)測(cè)的召回率,設(shè)計(jì)了Person網(wǎng)絡(luò)。Person網(wǎng)絡(luò)的主要功能是對(duì)YOLOv2的預(yù)測(cè)坐標(biāo)及類別進(jìn)行微調(diào),使預(yù)測(cè)更加精準(zhǔn)。

    1.2.1 Person網(wǎng)絡(luò)結(jié)構(gòu)

    Person網(wǎng)絡(luò)是一個(gè)具有目標(biāo)分類和位置回歸兩種功能的網(wǎng)絡(luò),采用4個(gè)卷積層、3個(gè)Max-pooling層、1個(gè)全連接(Full Connection, FC)層如表1。全連接層包含2個(gè)分支:一個(gè)用于Softmax分類,另一個(gè)用于邊界框回歸。Person網(wǎng)絡(luò)的輸入是像素為30×90的行人樣本圖,行人的檢測(cè)框都是高比寬長(zhǎng)的矩形框且寬高比接近1∶3,因此選取的卷積核寬高比也為1∶3,采用兩個(gè)2×6、兩個(gè)1×3的卷積核。非線性激活層采用PReLU(Parametric Rectified Linear Unit請(qǐng)補(bǔ)充PReLU的英文全稱)[13],提高網(wǎng)絡(luò)收斂速度。參考全卷積網(wǎng)絡(luò)(Fully Convolutional Network, FCN)分割網(wǎng)絡(luò)思想,采用了不同卷積層之間的特征融合,將Conv3、Conv4的特征通過雙線性插值算法重設(shè)為相同大小并進(jìn)行拼接,這種不同層之間的特征融合可以提高網(wǎng)絡(luò)的檢測(cè)性能。例如,原始行人像素為30×90,經(jīng)過4次池化3次池化,行人像素值變?yōu)?×6。檢測(cè)這種3×6的圖像發(fā)現(xiàn)其效果不佳,而采用不同層的特征拼接且聯(lián)合了不同層的語(yǔ)義特征,網(wǎng)絡(luò)對(duì)于不同大小的行人具有很高的檢測(cè)能力。,因此最終網(wǎng)絡(luò)結(jié)構(gòu)添加了兩個(gè)上采樣層以及一個(gè)用于降維的卷積層。網(wǎng)絡(luò)結(jié)構(gòu)示意圖如圖12所示。YOLOv2預(yù)測(cè)出的行人框,輸出結(jié)果作為級(jí)聯(lián)網(wǎng)絡(luò)的最終預(yù)測(cè)框。

    1.2.2 代價(jià)函數(shù)

    Person網(wǎng)絡(luò)代價(jià)函數(shù)包含兩個(gè)部分:第一個(gè)部分是分類,第二個(gè)部分是邊界框回歸。

    1)分類損失采用交叉熵:

    2)邊界框回歸損失采用歐氏距離:

    1.2.3 Person算法設(shè)計(jì)

    在訓(xùn)練階段,簡(jiǎn)單樣本、困難樣本不平衡的比率對(duì)訓(xùn)練結(jié)果產(chǎn)生較大影響。簡(jiǎn)單樣本是指樣本行人比較清晰且容易被網(wǎng)絡(luò)檢測(cè),而另一種樣本行人較為模糊,網(wǎng)絡(luò)學(xué)習(xí)這種模糊樣本較為困難,稱為困難樣本。如果不作樣本平衡,困難樣本對(duì)網(wǎng)絡(luò)學(xué)習(xí)過程中產(chǎn)生的權(quán)值影響小,隨著網(wǎng)絡(luò)訓(xùn)練,困難樣本可能會(huì)被當(dāng)成背景進(jìn)而被忽視。Person網(wǎng)絡(luò)設(shè)計(jì)階段為了提升網(wǎng)絡(luò)分類的準(zhǔn)確率,采用平衡樣本算法。在全連接層的loss階段,對(duì)一個(gè)batch的樣本進(jìn)行快速排序。選擇loss較高的70%的樣本作為困難樣本進(jìn)行前傳,剩下30%的樣本作為簡(jiǎn)單樣本回到原數(shù)據(jù)集。通過這種方式,在每個(gè)batch訓(xùn)練時(shí)會(huì)減少簡(jiǎn)單樣本產(chǎn)生,以此來(lái)平衡樣本,提高分類的準(zhǔn)確性。

    1.3 本文總體算法

    本文第一步采用的是卷積神經(jīng)網(wǎng)絡(luò)[14-15]中YOLOv2對(duì)行人進(jìn)行初步檢測(cè)。為了盡可能多地檢測(cè)出復(fù)雜環(huán)境下的行人,降低置信度閾值,在INRIA和Caltech上,總檢測(cè)框的數(shù)量從523個(gè)提高到653個(gè),但是誤檢率也隨之提升。這一問題利用Person網(wǎng)絡(luò)的分類功能得到解決:第一步再次判斷目標(biāo)是否為行人,去除YOLOv2降低閾值后的背景框;第二步采用Person網(wǎng)絡(luò)的回歸功能,對(duì)YOLOv2檢測(cè)出的位置進(jìn)行回歸,提高定位的準(zhǔn)確性。Person網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。圖3是本文方法的訓(xùn)練階段網(wǎng)絡(luò),級(jí)聯(lián)了YOLOv2算法和Person網(wǎng)絡(luò),訓(xùn)練時(shí)分階段訓(xùn)練。傳統(tǒng)CNN網(wǎng)絡(luò)沒有結(jié)合相鄰?fù)ǖ捞卣鳎瑢?duì)小目標(biāo)的檢測(cè)效果不佳,Person網(wǎng)絡(luò)引入了通道特征拼接的方法,提升了小目標(biāo)的檢測(cè)性能。從結(jié)構(gòu)圖可看出本文方法是一個(gè)多階段訓(xùn)練的網(wǎng)絡(luò)。圖4是本文方法的檢測(cè)階段,首先圖片經(jīng)過深層網(wǎng)絡(luò)YOLOv2預(yù)測(cè)出行人的位置,在經(jīng)過Person網(wǎng)絡(luò)回歸行人的位置使最終的檢測(cè)框比單個(gè)的CNN網(wǎng)絡(luò)更加準(zhǔn)確,傳統(tǒng)網(wǎng)絡(luò)沒有邊界框再次回歸的功能。

    1.4 總體代價(jià)函數(shù)

    本文總代價(jià)函數(shù)如式(7)所示。訓(xùn)練YOLOv2階段時(shí),(α, β)?。?,0),(λcoord,λnoobj)取(5,0.5);訓(xùn)練Person網(wǎng)絡(luò)時(shí),(α, β)取(0,1)。ωobji:如果目標(biāo)出現(xiàn)在第i個(gè)網(wǎng)格中時(shí)為1,ωobjij:第i個(gè)網(wǎng)格中的第j個(gè)邊界框代表這個(gè)網(wǎng)格物體的預(yù)測(cè)。S代表有S個(gè)網(wǎng)格,B表示邊界框的數(shù)量。

    2 實(shí)驗(yàn)分析

    2.1 實(shí)驗(yàn)環(huán)境及評(píng)估

    本文算法運(yùn)行環(huán)境為一臺(tái)64位的Ubuntu 14.04LTS,內(nèi)存為16GB,CPU為8核,GPU為GTX750TI。YOLOv2算法和Person網(wǎng)絡(luò)算法在公開數(shù)據(jù)集INRIA和Caltech中選取訓(xùn)練數(shù)據(jù),實(shí)驗(yàn)中采用的評(píng)價(jià)指標(biāo)為準(zhǔn)確率(Precision, P)、召回率(Recall, R)以及準(zhǔn)確率與召回率的綜合評(píng)價(jià)指標(biāo)F值(F-score)。一般來(lái)說,準(zhǔn)確率和召回率是相互矛盾的,而F值則綜合了這兩個(gè)指標(biāo)的評(píng)價(jià)參數(shù),當(dāng)F值越高時(shí)則實(shí)驗(yàn)的檢測(cè)性能更好。

    2.2 YOLOv2初步檢測(cè)實(shí)驗(yàn)

    以開源框架Darknet19為基礎(chǔ),使用YOLOv2網(wǎng)絡(luò)模型開始訓(xùn)練。為提高訓(xùn)練速度、防止過擬合,選用的沖量常數(shù)為0.9,權(quán)值衰減系數(shù)為0.0005,初始學(xué)習(xí)率為0.0001,學(xué)習(xí)率下降策略為step。當(dāng)?shù)?5000次,模型趨于穩(wěn)定。為減少訓(xùn)練時(shí)間,以Darknet19網(wǎng)絡(luò)模型訓(xùn)練得到的網(wǎng)絡(luò)參數(shù),初始化卷積層網(wǎng)絡(luò)。該預(yù)訓(xùn)練模型是在ImageNet1000類數(shù)據(jù)集訓(xùn)練10個(gè)循環(huán)(epoch)后得到的預(yù)訓(xùn)練參數(shù)。

    驗(yàn)證集為288張圖片,選自INRIA和Caltech,驗(yàn)證時(shí)將圖片重設(shè)大小到64×128。NMS為0.4,best_iou控制著正確預(yù)測(cè)行人的閾值,當(dāng)IOU>best_iou時(shí)才會(huì)將預(yù)測(cè)出的行人記為正確的行人;反之記為錯(cuò)誤。threshold控制著預(yù)測(cè)是否為人的概率的閾值threshold在YOLOv2階段為置信度(confidence)閾值,在Person網(wǎng)絡(luò)階段控制著預(yù)測(cè)是否為人的閾值,初始值為0.24,當(dāng)Pr(Person)置信度置信度>threshold時(shí)才會(huì)預(yù)測(cè)該目標(biāo)為行人。本實(shí)驗(yàn)在驗(yàn)證集上均采用NMS=0.4、best_iou=0.5、threshold=0.6這個(gè)threshold=0.6刪除作為判斷檢測(cè)出的行人的閾值,調(diào)整行人的置信度閾值效果如表2(threshold:0.24、0.1、0.01分別代表預(yù)測(cè)概率超過0.24、0.1、0.01為行人)。

    由表2可以看出,隨著threshold的下降,總檢測(cè)出的框的數(shù)量增加,但正確的檢測(cè)數(shù)沒有增加,準(zhǔn)確率明顯下降,所以不能通過簡(jiǎn)單地降低判斷目標(biāo)概率的閾值threshold來(lái)提升recall。

    2.3 Person網(wǎng)絡(luò)實(shí)驗(yàn)

    以開源框架Caffe為基礎(chǔ),將從YOLOv2網(wǎng)絡(luò)得到的坐標(biāo)作為輸入值,輸入Person網(wǎng)絡(luò)進(jìn)行分類與邊界框回歸,輸入固定尺寸width×height為30×90。當(dāng)沖量為0.9,權(quán)值衰減為0.004,初始學(xué)習(xí)率為0.001,學(xué)習(xí)率下降策略為step,且當(dāng)?shù)?xùn)練達(dá)到1000000次時(shí),模型達(dá)到飽和。訓(xùn)練時(shí)樣本是從原始真實(shí)行人框上隨機(jī)截取的,按截取的圖片與真實(shí)行人框的IOU,將截取的圖片分為正樣本、部分樣本和負(fù)樣本。負(fù)樣本是IOU<0.5的樣本,正樣本是IOU>0.8的樣本,其他樣本為部分樣本,正樣本、部分樣本、負(fù)樣本比例為1∶1∶3。實(shí)驗(yàn)結(jié)果如表3所示,threshold:0.24、0.1、0.01是YOLOv2檢測(cè)行人的閾值。對(duì)比表2與表3可知,使用級(jí)聯(lián)方法可以得到比YOLOv2更高的召回率、準(zhǔn)確率,以及定位的準(zhǔn)確性更為精準(zhǔn)。表4展示卷積核不同寬高比下的Person網(wǎng)絡(luò)效果,從中可以得出選取為1∶3的卷積核時(shí),F(xiàn)值最高,且檢測(cè)效果最為突出。

    對(duì)比圖5(a),圖5(b)出現(xiàn)虛框(誤檢的行人框),通過Person網(wǎng)絡(luò),對(duì)YOLOv2檢測(cè)出的標(biāo)記框再次判斷是否為行人并將虛框去除。對(duì)比圖5(a),圖5(c)檢測(cè)出的行人數(shù)量有所增加,且檢測(cè)出標(biāo)記框的位置更為精準(zhǔn)。本實(shí)驗(yàn)將YOLOv2閾值設(shè)為0.01時(shí),將YOLOv2的坐標(biāo)傳進(jìn)Person網(wǎng)絡(luò)能夠得到比較高的召回率、準(zhǔn)確率以及高質(zhì)量的定位,因此取YOLOv2 threshold為0.01情況下初步預(yù)測(cè)行人,Person網(wǎng)絡(luò)threshold取0.6再次預(yù)測(cè)行人的數(shù)據(jù)作為本實(shí)驗(yàn)的最終檢測(cè)數(shù)據(jù)。

    2.4 不同算法行人檢測(cè)性能分析

    目前最常用的傳統(tǒng)行人檢測(cè)方法是基于滑動(dòng)窗口策略,具有代表性的工作是Felzenszwalb等[17]提出的形變部位模型(Deformable Part Model, DPM)。在一定程度上,這個(gè)方法能消除部分遮擋的影響。其次,提取候選框集的描述特征過程,Dollár等[18]提出積分通道特征(Integral Channel Feature, ICF),利用積分圖技術(shù)對(duì)圖像的各個(gè)特征通道進(jìn)行快速計(jì)算,在文獻(xiàn)[19]中進(jìn)一步提出了聚合通道特征(Aggregate Channel Feature, ACF)。這些方法對(duì)嚴(yán)格依賴于手動(dòng)提取的特征檢測(cè)的魯棒性差?;谏疃葘W(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)算法的目標(biāo)檢測(cè),典型的代表性的工作是R-CNN系列的結(jié)合區(qū)域候選框(Region Proposal)和CNN分類的目標(biāo)檢測(cè)框架。文獻(xiàn)[17]中針對(duì)行人檢測(cè)對(duì)Faster R-CNN作出改進(jìn),提出了區(qū)域候選框網(wǎng)絡(luò)(Region Proposal Network, RPN)與隨機(jī)提升森林(Boosted Forest, BF)中文名稱和英文名稱不匹配,鑒于縮寫為BF,所以請(qǐng)調(diào)整中文名稱吧,“隨機(jī)森林”要改為“**森林”,要與英文名稱匹配結(jié)合的思想(RPN+BF)用于行人檢測(cè),此方法能有效地降低行人檢測(cè)的誤檢率。SSD是一種one-stage算法,沒有候選框預(yù)選的過程,并且適應(yīng)不同尺度的特征圖,可以用于行人檢測(cè)。Hyperlearn是關(guān)于行人檢測(cè)的研究方法,提出了傳統(tǒng)方法與CNN方法特征融合的思想,其優(yōu)點(diǎn)是利于小目標(biāo)的行人檢測(cè),缺點(diǎn)是對(duì)大目標(biāo)的行人適應(yīng)為較差。

    表5為各種算法的參數(shù)指標(biāo):準(zhǔn)確率、召回率、F值、檢測(cè)時(shí)間的對(duì)比數(shù)據(jù)。從實(shí)驗(yàn)數(shù)據(jù)可以看出,本文算法對(duì)于行人檢測(cè)任務(wù)的準(zhǔn)確率略低于RPN+BF方法此處有疑問,本文算法的準(zhǔn)確率為0.97,而RPN+BF方法為0.969,是高于RPN+BF方法?是數(shù)字錯(cuò)了,還是描述錯(cuò)了?請(qǐng)作相應(yīng)調(diào)整,高于ACF、DPM、Hyperlearn算法;算法表現(xiàn)出來(lái)的檢測(cè)速度遠(yuǎn)遠(yuǎn)高于RPN+BF、DPM、Hyperlearn算法,略低于ACF,但是,本文采用的算法是CNN算法,可以端到端地執(zhí)行,且它的召回率最為顯著。由于本文算法在第一階段利用YOLOv2檢測(cè)行人,相比two-stage算法,YOLOv2沒有候選框提取這一步驟,直接采取錨點(diǎn)進(jìn)行預(yù)測(cè),候選框提取的時(shí)間較長(zhǎng),所以YOLOv2這類one-stage算法檢測(cè)速度普遍快,但因?yàn)闆]有采用候選框提取,產(chǎn)生的預(yù)測(cè)結(jié)果一般沒有two-stage算法準(zhǔn)確。YOLOv2是one-stage算法,其特征是圖片越小,其檢測(cè)速度越快,檢測(cè)質(zhì)量越低;圖片越大,其檢測(cè)速度越慢,檢測(cè)質(zhì)量越高。行人在圖片中是小目標(biāo),利用級(jí)聯(lián)的Person網(wǎng)絡(luò)分類和回歸過程,對(duì)行人進(jìn)行篩選并回歸行人的位置,從而使得召回率和準(zhǔn)確率比原始YOLOv2高,本文方法速度比RPN+BF、DPM、Hyperlearn均快,能夠達(dá)到14.712.711.6幀/s(Frames Per Second, FPS)的檢測(cè)速度,速度達(dá)到實(shí)時(shí)檢測(cè)的目標(biāo),因此,可以認(rèn)為本文算法的綜合性能最佳。

    3 結(jié)語(yǔ)

    針對(duì)復(fù)雜環(huán)境下行人檢測(cè)不能同時(shí)滿足高召回率與高效率檢測(cè)的問題,本文提出了一種改進(jìn)的級(jí)聯(lián)網(wǎng)絡(luò)——原始YOLOv2+Person網(wǎng)絡(luò)的行人檢測(cè)方案。結(jié)合了深層CNN網(wǎng)絡(luò)與淺層CNN網(wǎng)絡(luò)的優(yōu)點(diǎn),進(jìn)而得到更準(zhǔn)確的行人分類和行人預(yù)測(cè)框。與原始YOLOv2相比,本文方法的行人預(yù)測(cè)的準(zhǔn)確率、召回率均有所提升,與ACF、RPN+BF、DPM、SSD相比,召回率、F值提升較為顯著。本文主要工作在于將原始YOLOv2檢測(cè)器改進(jìn)為二階段檢測(cè)器,在速度與精度上達(dá)到了均衡且可以在GPU上進(jìn)行并行計(jì)算,減少計(jì)算開銷。如何進(jìn)一步提高檢測(cè)質(zhì)量將是下一步研究的方向。

    參考文獻(xiàn) (References)

    [1] 蘇松志,李紹滋,陳淑媛,等.行人檢測(cè)技術(shù)綜述[J].電子學(xué)報(bào),2012,40(4):814-820.(SU S Z, LI S Z, CHEN S Y, et al. A survey on pedestrian detection [J]. Acta Electronica Sinica, 2012, 40(4):814-820.)

    [2] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6):1137-1149.

    [3] GIRSHICK R. Fast R-CNN[C]// Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2015: 1440-1448.

    [4] REDMON J, DIVVALA S, GIRSHICK R, et al. You Only Look Once: unified, real-time object detection [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2016:779-788.

    [5] REDMON J, FARHADI A. YOLO9000: better, faster, stronger [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2017: 6517-6525.

    [6] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single Shot multibox Detector[C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2016: 21-37.

    [7] DALAL N, TRIGGS B. Histograms of oriented gradients for human detection[C]// Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2005:886-893.

    [8] DOLLAR P, WOJEK C, SCHIELE B, et al. Pedestrian detection: a benchmark [C]// Proceedings of the 2009 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2009: 304-311.

    [9] KONG T, YAO A, CHEN Y, et al. HyperNet: towards accurate region proposal generation and joint object detection [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society,2016: 845-853.

    [10] LIN T Y, DOLLAR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2017: 936-944.

    [11] MAO J, XIAO T, JIANG Y, et al. What can help pedestrian detection? [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2017:6034-6043.

    [12] ZHANG K, ZHANG Z, LI Z, et al. Joint face detection and alignment using multitask cascaded convolutional networks [J]. IEEE Signal Processing Letters, 2016, 23(10):1499-1503.

    [13] HE K, ZHANG X, REN S, et al. Delving deep into rectifiers: surpassing human-level performance on ImageNet classification [C]// ICCV 2015: Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2015: 1026-1034.

    [14] SZEGEDY C, TOSHEV A, ERHAN D. Deep neural networks for object detection [J]. Advances in Neural Information Processing Systems, 2013, 26(1):2553-2561.

    [15] TOM D, MONTI F, BAROFFIO L, et al. Deep convolutional neural networks for pedestrian detection [J]. Signal Processing: Image Communication, 2016, 47(1):482-489.

    [16] ROTHE R, GUILLAUMIN M, VAN GOOL L. Non-maximum suppression for object detection by passing messages between windows[C]//Proceedings of the 2014 Asian Conference on Computer Vision. Berlin: Springer, 2014: 290-306.

    [17] FELZENSZWALB P, MCALLESTER D, RAMANAN D. A dis-criminatively trained, multiscale, deformable part model [C]// Proceedings of the 2008 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2008: 1-8.

    [18] DOLLAR P, APPEL R, BELONGIE S, et al. Fast feature pyramids for object detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(8):1532-1545.

    [19] ZHANG L, LIN L, LIANG X, et al. Is Faster R-CNN doing well for pedestrian detection?[C]// ECCV 2016: Proceedings of the 14th European Conference on Computer Vision. Berlin: Springer, 2016: 443-457.

    猜你喜歡
    卷積神經(jīng)網(wǎng)絡(luò)
    基于深度神經(jīng)網(wǎng)絡(luò)的微表情識(shí)別
    卷積神經(jīng)網(wǎng)絡(luò)中減少訓(xùn)練樣本時(shí)間方法研究
    卷積神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型研究
    基于卷積神經(jīng)網(wǎng)絡(luò)的車輛檢索方法研究
    基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
    基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    深度學(xué)習(xí)技術(shù)下的中文微博情感的分析與研究
    軟件(2016年5期)2016-08-30 06:27:49
    基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識(shí)別的算法的研究
    国产亚洲欧美精品永久| 午夜老司机福利片| 男女下面插进去视频免费观看| 久久久精品欧美日韩精品| 亚洲精品粉嫩美女一区| 久久狼人影院| 久久国产精品影院| 国产亚洲av高清不卡| 欧美日本中文国产一区发布| 久久久国产精品麻豆| 日韩视频一区二区在线观看| 久久久久久久午夜电影| 欧美激情 高清一区二区三区| 女人高潮潮喷娇喘18禁视频| 丝袜在线中文字幕| 精品电影一区二区在线| 亚洲国产中文字幕在线视频| 可以免费在线观看a视频的电影网站| 亚洲人成电影免费在线| 在线av久久热| 亚洲精品av麻豆狂野| 搞女人的毛片| 午夜福利高清视频| 亚洲美女黄片视频| 美女高潮喷水抽搐中文字幕| 美女高潮到喷水免费观看| 欧美日韩乱码在线| 视频在线观看一区二区三区| 国产精品亚洲av一区麻豆| 黄色丝袜av网址大全| 日日摸夜夜添夜夜添小说| 国产乱人伦免费视频| 久久欧美精品欧美久久欧美| АⅤ资源中文在线天堂| 嫁个100分男人电影在线观看| 日本一区二区免费在线视频| 日日夜夜操网爽| 手机成人av网站| 男人舔女人的私密视频| 88av欧美| 91国产中文字幕| 色综合欧美亚洲国产小说| 啦啦啦观看免费观看视频高清 | 嫩草影视91久久| 久久午夜综合久久蜜桃| 久久精品亚洲精品国产色婷小说| 国产99白浆流出| 男女下面进入的视频免费午夜 | 在线永久观看黄色视频| 最近最新中文字幕大全免费视频| 一级,二级,三级黄色视频| 久久人人爽av亚洲精品天堂| 国产成人精品无人区| 亚洲国产毛片av蜜桃av| 人妻丰满熟妇av一区二区三区| 69av精品久久久久久| 久久中文字幕人妻熟女| av有码第一页| 在线视频色国产色| 色综合欧美亚洲国产小说| 国产私拍福利视频在线观看| 欧美+亚洲+日韩+国产| 曰老女人黄片| 日日夜夜操网爽| 国产亚洲欧美精品永久| 免费看十八禁软件| 久久香蕉国产精品| 一进一出好大好爽视频| 日韩视频一区二区在线观看| 午夜福利一区二区在线看| 国产视频一区二区在线看| 91九色精品人成在线观看| 中出人妻视频一区二区| 国产免费av片在线观看野外av| 中文字幕最新亚洲高清| 大码成人一级视频| 女警被强在线播放| 最近最新免费中文字幕在线| 亚洲精品国产精品久久久不卡| 一进一出抽搐gif免费好疼| 色综合婷婷激情| 欧美大码av| 日韩欧美国产在线观看| 亚洲在线自拍视频| 日本在线视频免费播放| av天堂久久9| 亚洲第一欧美日韩一区二区三区| 日本vs欧美在线观看视频| 女人被狂操c到高潮| 亚洲精品国产一区二区精华液| 啦啦啦韩国在线观看视频| 黄片播放在线免费| 国内久久婷婷六月综合欲色啪| 成人18禁高潮啪啪吃奶动态图| av电影中文网址| 欧美性长视频在线观看| 妹子高潮喷水视频| 人人妻人人澡欧美一区二区 | 天堂√8在线中文| 国产精品二区激情视频| 亚洲,欧美精品.| 亚洲熟妇熟女久久| 嫩草影院精品99| 嫩草影院精品99| 黄频高清免费视频| 男女之事视频高清在线观看| av网站免费在线观看视频| 麻豆av在线久日| 在线观看午夜福利视频| 男人的好看免费观看在线视频 | 757午夜福利合集在线观看| 亚洲 欧美一区二区三区| 成熟少妇高潮喷水视频| 国产精品亚洲av一区麻豆| 99久久国产精品久久久| tocl精华| 成人18禁高潮啪啪吃奶动态图| 亚洲五月婷婷丁香| 精品午夜福利视频在线观看一区| 中出人妻视频一区二区| 窝窝影院91人妻| 亚洲欧美日韩另类电影网站| 亚洲精品美女久久久久99蜜臀| 一本久久中文字幕| svipshipincom国产片| 少妇熟女aⅴ在线视频| 神马国产精品三级电影在线观看 | xxx96com| 国产成人欧美| 少妇被粗大的猛进出69影院| 精品熟女少妇八av免费久了| 精品国产国语对白av| 国产精品99久久99久久久不卡| 国产精品1区2区在线观看.| 国产蜜桃级精品一区二区三区| 制服丝袜大香蕉在线| 满18在线观看网站| 亚洲av第一区精品v没综合| 国产三级在线视频| 亚洲自偷自拍图片 自拍| xxx96com| 99香蕉大伊视频| 国产精品久久久久久人妻精品电影| 中国美女看黄片| 国产欧美日韩综合在线一区二区| x7x7x7水蜜桃| 欧美色欧美亚洲另类二区 | www.熟女人妻精品国产| 97超级碰碰碰精品色视频在线观看| 两性夫妻黄色片| a级毛片在线看网站| 亚洲精华国产精华精| 国产成人精品无人区| 亚洲精品国产一区二区精华液| a在线观看视频网站| 午夜影院日韩av| 日韩免费av在线播放| 亚洲成人免费电影在线观看| 久久久久久免费高清国产稀缺| 亚洲成人久久性| 国产精品乱码一区二三区的特点 | 一级a爱视频在线免费观看| 日日摸夜夜添夜夜添小说| 国产精品亚洲av一区麻豆| 中文字幕人妻熟女乱码| 久久香蕉激情| 操出白浆在线播放| 中亚洲国语对白在线视频| 黄频高清免费视频| videosex国产| 国产黄a三级三级三级人| 男女做爰动态图高潮gif福利片 | 欧美亚洲日本最大视频资源| 亚洲最大成人中文| 国产免费男女视频| 精品福利观看| 亚洲一区中文字幕在线| 91九色精品人成在线观看| 亚洲国产欧美网| 亚洲男人的天堂狠狠| 午夜福利视频1000在线观看 | 又大又爽又粗| 1024视频免费在线观看| 色精品久久人妻99蜜桃| 午夜亚洲福利在线播放| 露出奶头的视频| 亚洲无线在线观看| 国产精品九九99| 变态另类丝袜制服| 长腿黑丝高跟| 亚洲中文av在线| 国产亚洲欧美在线一区二区| 久久亚洲精品不卡| 日本欧美视频一区| ponron亚洲| 好男人电影高清在线观看| 亚洲av成人不卡在线观看播放网| 亚洲av成人不卡在线观看播放网| 欧美日本亚洲视频在线播放| 久久久国产欧美日韩av| 久久久国产欧美日韩av| 黄色 视频免费看| 好看av亚洲va欧美ⅴa在| 久久天堂一区二区三区四区| 色婷婷久久久亚洲欧美| 亚洲精品国产色婷婷电影| 久久香蕉激情| 久久久久久久精品吃奶| 亚洲精品国产精品久久久不卡| 亚洲国产精品999在线| 超碰成人久久| 国产av一区在线观看免费| 如日韩欧美国产精品一区二区三区| 少妇裸体淫交视频免费看高清 | www.自偷自拍.com| 97碰自拍视频| av天堂在线播放| 欧美bdsm另类| 国内精品美女久久久久久| 99国产极品粉嫩在线观看| 婷婷精品国产亚洲av在线| 男人舔女人下体高潮全视频| 久久久久久久久久黄片| 久久久久久大精品| 欧美日韩中文字幕国产精品一区二区三区| 国产成年人精品一区二区| 香蕉av资源在线| 亚洲国产欧洲综合997久久,| 免费看a级黄色片| 亚洲av中文av极速乱 | av国产免费在线观看| 久久国产乱子免费精品| 欧美三级亚洲精品| 成年女人看的毛片在线观看| 男女啪啪激烈高潮av片| 午夜福利18| 亚洲精品在线观看二区| 在线观看av片永久免费下载| 亚洲国产精品sss在线观看| eeuss影院久久| 亚洲一级一片aⅴ在线观看| 床上黄色一级片| 我要搜黄色片| 久久6这里有精品| 亚洲精品影视一区二区三区av| 精品欧美国产一区二区三| 夜夜夜夜夜久久久久| 国产麻豆成人av免费视频| 亚洲美女搞黄在线观看 | 欧美成人性av电影在线观看| 三级男女做爰猛烈吃奶摸视频| 神马国产精品三级电影在线观看| 琪琪午夜伦伦电影理论片6080| 给我免费播放毛片高清在线观看| 欧美中文日本在线观看视频| 色综合婷婷激情| 91在线观看av| 夜夜看夜夜爽夜夜摸| 91麻豆精品激情在线观看国产| 国产欧美日韩精品亚洲av| 午夜福利欧美成人| 淫秽高清视频在线观看| 在现免费观看毛片| 久久久久精品国产欧美久久久| 人妻制服诱惑在线中文字幕| 午夜福利高清视频| 99久久中文字幕三级久久日本| 亚洲精品影视一区二区三区av| 国产亚洲欧美98| 日日夜夜操网爽| 免费av不卡在线播放| 两个人的视频大全免费| 欧美黑人欧美精品刺激| 校园人妻丝袜中文字幕| 欧美成人一区二区免费高清观看| 免费搜索国产男女视频| 人妻少妇偷人精品九色| 精品久久久久久久久久免费视频| 亚洲在线观看片| 伦理电影大哥的女人| 波多野结衣高清无吗| 免费高清视频大片| 日日撸夜夜添| 久久99热这里只有精品18| 欧美激情在线99| 非洲黑人性xxxx精品又粗又长| 日韩大尺度精品在线看网址| 亚洲色图av天堂| 亚洲成人精品中文字幕电影| 亚洲熟妇中文字幕五十中出| 日日干狠狠操夜夜爽| 美女高潮的动态| 亚洲av成人精品一区久久| 联通29元200g的流量卡| 欧美不卡视频在线免费观看| 亚洲专区中文字幕在线| 搡老岳熟女国产| 精品久久久久久久久av| 成年人黄色毛片网站| 精品日产1卡2卡| 国产探花在线观看一区二区| 免费av观看视频| 麻豆av噜噜一区二区三区| 禁无遮挡网站| 国产精品久久久久久av不卡| a级毛片免费高清观看在线播放| 国产男人的电影天堂91| 亚洲综合色惰| 香蕉av资源在线| 波多野结衣高清作品| 国产蜜桃级精品一区二区三区| 国产91精品成人一区二区三区| 国产精品久久久久久精品电影| 久久久久久久久大av| 日韩欧美一区二区三区在线观看| АⅤ资源中文在线天堂| 男人和女人高潮做爰伦理| 精品一区二区三区av网在线观看| 日本成人三级电影网站| 色噜噜av男人的天堂激情| 91久久精品国产一区二区三区| 99在线视频只有这里精品首页| 九色国产91popny在线| 日本熟妇午夜| 91久久精品电影网| 99久久精品热视频| 欧美zozozo另类| 在线看三级毛片| 欧美日韩国产亚洲二区| 午夜影院日韩av| АⅤ资源中文在线天堂| 少妇裸体淫交视频免费看高清| bbb黄色大片| 国产高清三级在线| 国产探花极品一区二区| 午夜福利高清视频| 美女黄网站色视频| 午夜老司机福利剧场| 亚洲图色成人| 欧美人与善性xxx| 精品人妻偷拍中文字幕| 国产成年人精品一区二区| 超碰av人人做人人爽久久| 免费在线观看成人毛片| 赤兔流量卡办理| 大型黄色视频在线免费观看| 亚洲一级一片aⅴ在线观看| 女人十人毛片免费观看3o分钟| 无人区码免费观看不卡| 中文在线观看免费www的网站| 亚洲色图av天堂| 成人三级黄色视频| 亚洲内射少妇av| 国产精品三级大全| 亚洲av日韩精品久久久久久密| 啪啪无遮挡十八禁网站| 男人狂女人下面高潮的视频| 国产成人a区在线观看| 内射极品少妇av片p| 国产一区二区在线观看日韩| 日本一二三区视频观看| 精品一区二区三区av网在线观看| 国产老妇女一区| 日韩欧美三级三区| 99在线视频只有这里精品首页| 日韩一区二区视频免费看| 久久精品91蜜桃| 午夜a级毛片| 亚洲av第一区精品v没综合| 蜜桃亚洲精品一区二区三区| 国产亚洲精品综合一区在线观看| 12—13女人毛片做爰片一| 久久精品综合一区二区三区| 久久久久九九精品影院| 最近最新中文字幕大全电影3| 999久久久精品免费观看国产| 国产一区二区激情短视频| 99热6这里只有精品| 欧美绝顶高潮抽搐喷水| 99久久久亚洲精品蜜臀av| 丰满乱子伦码专区| 国产欧美日韩一区二区精品| 最近最新中文字幕大全电影3| 熟女电影av网| 九九久久精品国产亚洲av麻豆| 美女xxoo啪啪120秒动态图| 桃色一区二区三区在线观看| 国产精品永久免费网站| 变态另类成人亚洲欧美熟女| 91麻豆精品激情在线观看国产| 日本五十路高清| 精品久久久久久久久av| 亚洲精品456在线播放app | 午夜久久久久精精品| 在线看三级毛片| 日韩欧美国产在线观看| 免费在线观看日本一区| 国产成人一区二区在线| 免费av观看视频| 韩国av一区二区三区四区| 一个人看的www免费观看视频| 99国产极品粉嫩在线观看| 一区二区三区高清视频在线| 99国产极品粉嫩在线观看| 高清日韩中文字幕在线| 天美传媒精品一区二区| 免费看av在线观看网站| 欧美高清成人免费视频www| 国产老妇女一区| 亚洲人成网站在线播放欧美日韩| 小说图片视频综合网站| 色综合亚洲欧美另类图片| 听说在线观看完整版免费高清| 久久久国产成人免费| 国产在视频线在精品| 白带黄色成豆腐渣| 动漫黄色视频在线观看| 在线免费观看的www视频| 成人av在线播放网站| 色5月婷婷丁香| 国产蜜桃级精品一区二区三区| 国内精品宾馆在线| 国产精品99久久久久久久久| 国产爱豆传媒在线观看| 99久久中文字幕三级久久日本| 久久天躁狠狠躁夜夜2o2o| 亚洲成a人片在线一区二区| xxxwww97欧美| 欧美激情国产日韩精品一区| 亚洲成人免费电影在线观看| 亚州av有码| 国产真实乱freesex| 日日夜夜操网爽| 国产乱人视频| 亚洲中文字幕一区二区三区有码在线看| 婷婷色综合大香蕉| a级毛片免费高清观看在线播放| 久久国内精品自在自线图片| 乱码一卡2卡4卡精品| 国产精品98久久久久久宅男小说| 国产一区二区在线观看日韩| 日韩av在线大香蕉| 国产高清三级在线| 一区二区三区高清视频在线| 99在线人妻在线中文字幕| 欧美在线一区亚洲| 春色校园在线视频观看| 久久久久精品国产欧美久久久| 999久久久精品免费观看国产| 免费看美女性在线毛片视频| 欧美3d第一页| 夜夜看夜夜爽夜夜摸| 少妇被粗大猛烈的视频| 欧美成人a在线观看| 国内精品久久久久精免费| 人人妻,人人澡人人爽秒播| 精品国产三级普通话版| 午夜精品久久久久久毛片777| 国产亚洲精品综合一区在线观看| 乱人视频在线观看| 欧美成人免费av一区二区三区| 国产精品人妻久久久久久| 久久国产乱子免费精品| 一区福利在线观看| 别揉我奶头 嗯啊视频| 亚洲精品成人久久久久久| 久久精品国产99精品国产亚洲性色| 99国产极品粉嫩在线观看| 51国产日韩欧美| 国产一级毛片七仙女欲春2| 嫩草影院精品99| 国产精品伦人一区二区| 国产高清不卡午夜福利| 国产精品人妻久久久影院| 亚洲国产色片| 亚洲精华国产精华液的使用体验 | 黄色丝袜av网址大全| 搡老熟女国产l中国老女人| 搡老岳熟女国产| 高清毛片免费观看视频网站| 成人欧美大片| 人人妻,人人澡人人爽秒播| 丝袜美腿在线中文| 日韩欧美国产在线观看| 欧美日韩瑟瑟在线播放| 热99在线观看视频| 国产人妻一区二区三区在| 婷婷亚洲欧美| 美女黄网站色视频| x7x7x7水蜜桃| 黄色一级大片看看| 哪里可以看免费的av片| 国产亚洲欧美98| 日本成人三级电影网站| 丰满乱子伦码专区| 国产在线男女| a级毛片a级免费在线| 黄色欧美视频在线观看| 日韩欧美一区二区三区在线观看| 特大巨黑吊av在线直播| av天堂在线播放| x7x7x7水蜜桃| 久久久午夜欧美精品| 久9热在线精品视频| 欧美精品啪啪一区二区三区| 一夜夜www| 伊人久久精品亚洲午夜| 99热只有精品国产| 亚洲男人的天堂狠狠| 久久精品国产自在天天线| 亚洲狠狠婷婷综合久久图片| 成人永久免费在线观看视频| 美女xxoo啪啪120秒动态图| 看黄色毛片网站| 国产成人福利小说| 啦啦啦韩国在线观看视频| 国产精品人妻久久久影院| 午夜精品一区二区三区免费看| 精品乱码久久久久久99久播| 亚洲人成网站高清观看| 少妇的逼好多水| 国产精品野战在线观看| 丰满乱子伦码专区| 日韩欧美在线乱码| 听说在线观看完整版免费高清| 亚洲中文日韩欧美视频| 亚洲无线在线观看| netflix在线观看网站| 乱人视频在线观看| 伊人久久精品亚洲午夜| 欧美激情在线99| 免费无遮挡裸体视频| 一个人观看的视频www高清免费观看| 日韩,欧美,国产一区二区三区 | 国产精品三级大全| 国产v大片淫在线免费观看| 成人特级黄色片久久久久久久| 久久久久久久久久黄片| 91精品国产九色| 91久久精品电影网| 国产成年人精品一区二区| 99久久中文字幕三级久久日本| 久99久视频精品免费| 日本熟妇午夜| 中文字幕熟女人妻在线| 亚洲av成人精品一区久久| 亚洲国产高清在线一区二区三| 69人妻影院| 精品久久久久久久人妻蜜臀av| 99久久中文字幕三级久久日本| 一级av片app| 日韩一本色道免费dvd| 99久久精品国产国产毛片| 黄色一级大片看看| 亚洲av成人av| 亚洲不卡免费看| 97人妻精品一区二区三区麻豆| 好男人在线观看高清免费视频| 国产白丝娇喘喷水9色精品| 日韩欧美免费精品| 99久久精品一区二区三区| 热99在线观看视频| 免费看av在线观看网站| 97碰自拍视频| 日本欧美国产在线视频| 日韩欧美在线乱码| 一进一出好大好爽视频| 久久99热6这里只有精品| 亚洲国产高清在线一区二区三| 亚洲欧美日韩卡通动漫| 久久久久免费精品人妻一区二区| 日本在线视频免费播放| 亚洲欧美日韩无卡精品| 在线免费观看不下载黄p国产 | 成人永久免费在线观看视频| 日韩欧美一区二区三区在线观看| 国内精品久久久久久久电影| 色哟哟哟哟哟哟| 一个人免费在线观看电影| 久久久久久久久久久丰满 | 国产精品不卡视频一区二区| 黄色视频,在线免费观看| 国产精品99久久久久久久久| 狠狠狠狠99中文字幕| 国产综合懂色| 国产男人的电影天堂91| 日韩欧美在线二视频| 久久久午夜欧美精品| 最近在线观看免费完整版| 国产精品1区2区在线观看.| 国产成年人精品一区二区| 99热这里只有精品一区| 此物有八面人人有两片| 亚洲五月天丁香| 亚洲成av人片在线播放无| 久久久久久伊人网av| 欧美3d第一页| 国产高清视频在线播放一区| 淫秽高清视频在线观看| 国产精品伦人一区二区| 此物有八面人人有两片| 99热只有精品国产| 久久精品国产99精品国产亚洲性色| 国产一区二区在线观看日韩| 国产伦精品一区二区三区四那| 一边摸一边抽搐一进一小说| 午夜福利18| 99久久精品一区二区三区| 高清毛片免费观看视频网站| 午夜福利欧美成人| 国产精品不卡视频一区二区| 久9热在线精品视频| 免费av毛片视频| 少妇熟女aⅴ在线视频| 亚洲人与动物交配视频|