• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    運(yùn)動(dòng)信息引導(dǎo)的目標(biāo)檢測(cè)算法

    2022-10-13 09:58:44胡海苗沈柳青高立崑李明竹
    關(guān)鍵詞:置信度前景分支

    胡海苗 沈柳青 高立崑 李明竹

    (北京航空航天大學(xué) 計(jì)算機(jī)學(xué)院, 北京 100083)

    近年來(lái),隨著監(jiān)控設(shè)備的不斷更新?lián)Q代,越來(lái)越多的便捷實(shí)惠的視頻監(jiān)控設(shè)備被大范圍地應(yīng)用于日常生活之中[1]。 這些隨處可見(jiàn)的監(jiān)控設(shè)備不僅記錄著人們的生活,而且保障著人們的安全。但現(xiàn)實(shí)監(jiān)控場(chǎng)景是比較復(fù)雜的,場(chǎng)景中目標(biāo)的尺寸、姿態(tài)也是多種多樣,會(huì)出現(xiàn)被遮擋目標(biāo)、小目標(biāo)等容易漏檢的困難目標(biāo),降低目標(biāo)檢測(cè)算法的準(zhǔn)確率。 因此,針對(duì)固定攝像機(jī)拍攝出來(lái)的監(jiān)控視頻進(jìn)行目標(biāo)檢測(cè)依然是一項(xiàng)充滿挑戰(zhàn)的任務(wù)。

    在目標(biāo)檢測(cè)算法的發(fā)展歷程中,算法種類可以分為傳統(tǒng)的目標(biāo)檢測(cè)算法和在卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)上發(fā)展起來(lái)的目標(biāo)檢測(cè)算法。

    傳統(tǒng)的目標(biāo)檢測(cè)算法又可以分為2 類:一類是利用手工設(shè)計(jì)特征的檢測(cè)算法;另一類是利用運(yùn)動(dòng)變換信息的檢測(cè)算法。

    對(duì)于利用手工設(shè)計(jì)特征的目標(biāo)檢測(cè)算法,都遵循著同樣的流程,分別是區(qū)域選擇、特征提取和分類器分類。 首先是區(qū)域選擇,也被稱為候選區(qū)域提取,是為了從圖像中生成大量的候選區(qū)域,用于下一步的特征提取。 在特征提取階段,一般使用手工設(shè)計(jì)的特征,也就是紋理、顏色等底層特征,如梯度方向直方圖特征(histogram of oriented gridients, HOG)[2]、局部二值模式(local binary pattern, LBP)[3]、尺度不變特征變換(scale invariant feature transform, SIFT)[4],這些底層特征經(jīng)過(guò)編碼學(xué)習(xí)后,能夠得到更深一層的特征,包括主成分分析(principal component analysis, PCA)特征、線性判別分析(linear discriminant analysis, LDA)特征等。 總體來(lái)說(shuō),手工設(shè)計(jì)的特征在光照變化、遮擋等復(fù)雜場(chǎng)景下的魯棒性較差,因此會(huì)導(dǎo)致目標(biāo)檢測(cè)的準(zhǔn)確率不高。 進(jìn)入到分類階段,使用訓(xùn)練過(guò)的分類器對(duì)提取的特征進(jìn)行分類,得到目標(biāo)檢測(cè)的結(jié)果。 另一種傳統(tǒng)的目標(biāo)檢測(cè)算法是利用運(yùn)動(dòng)變換信息對(duì)目標(biāo)進(jìn)行檢測(cè)。 具體來(lái)說(shuō),是利用運(yùn)動(dòng)目標(biāo)檢測(cè)算法,如幀間差分法[5]、背景差分法[6-8]等,生成運(yùn)動(dòng)前景圖,從而得到運(yùn)動(dòng)目標(biāo)的位置。

    基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法可以分為單階段算法和兩階段算法,不同在于是否有明確的感興趣區(qū)域(region of interest,ROI)提取步驟。在單階段算法中,會(huì)將整幅圖像劃分為小格子,在小格子上按照預(yù)先設(shè)定的錨框直接對(duì)圖像進(jìn)行分類和回歸,典型算法有SSD 系列算法[9]、YOLO 系列算法[10-13]、RetinaNet 算法[14]。 兩階段算法通常會(huì)使用區(qū)域建議網(wǎng)絡(luò)(region proposal network,RPN),通過(guò)預(yù)先設(shè)定的錨框,提取出ROI,再通過(guò)全連接網(wǎng)絡(luò)針對(duì)提取出的ROI 進(jìn)行分類和回歸操作,典型算法有R-CNN[15]、Fast R-CNN[16]、Faster R-CNN[17]、Cascade R-CNN[18]。 相比較而言,單階段檢測(cè)器時(shí)間效率更高,但兩階段檢測(cè)器的準(zhǔn)確率更高。

    基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法的性能很大程度上依賴于訓(xùn)練時(shí)所使用的數(shù)據(jù)集,而在大部分?jǐn)?shù)據(jù)集中,困難目標(biāo)的數(shù)量較少,導(dǎo)致模型分布不均衡,無(wú)法對(duì)該類目標(biāo)有充分的學(xué)習(xí);同時(shí),困難目標(biāo)由于特征不顯著,很容易被檢測(cè)器忽略,造成漏檢;不僅如此,基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法還要求對(duì)數(shù)據(jù)要有較高質(zhì)量的標(biāo)注,如果要對(duì)困難目標(biāo)進(jìn)行標(biāo)注,需要花費(fèi)較多的人力,對(duì)數(shù)據(jù)集中的目標(biāo)進(jìn)行仔細(xì)的辨認(rèn)和精準(zhǔn)的標(biāo)注,代價(jià)比較昂貴,甚至在標(biāo)注時(shí)很可能會(huì)引入干擾,反而降低了檢測(cè)器的性能。 除此之外,現(xiàn)有的基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法對(duì)候選目標(biāo)框置信度的預(yù)測(cè)考慮不夠全面,只考慮到了分類置信度,即目標(biāo)屬于該類別的概率。 但是,分類置信度高并不能說(shuō)明該候選目標(biāo)框的位置也是十分精準(zhǔn)的,只考慮分類置信度,可能會(huì)導(dǎo)致定位精準(zhǔn)的候選目標(biāo)框被篩除,影響目標(biāo)檢測(cè)算法的準(zhǔn)確率。

    傳統(tǒng)目標(biāo)檢測(cè)算法中的利用運(yùn)動(dòng)變換信息的目標(biāo)檢測(cè)算法[5-8],可以快速發(fā)現(xiàn)困難目標(biāo),并且運(yùn)動(dòng)前景圖中的前景位置能夠體現(xiàn)目標(biāo)的空間位置信息。 而在室外監(jiān)控場(chǎng)景下,大部分的目標(biāo)都是能提取到運(yùn)動(dòng)信息的,同時(shí),處于運(yùn)動(dòng)狀態(tài)的目標(biāo)是更應(yīng)該關(guān)注的目標(biāo)。 因此,可以考慮將運(yùn)動(dòng)信息與目標(biāo)檢測(cè)算法相結(jié)合,提升目標(biāo)檢測(cè)的準(zhǔn)確性。 但是運(yùn)動(dòng)目標(biāo)檢測(cè)算法的缺點(diǎn)也是顯而易見(jiàn)的,該類算法主要針對(duì)的是運(yùn)動(dòng)目標(biāo)的檢測(cè),因此,在目標(biāo)靜止或運(yùn)動(dòng)幅度不大時(shí),很難或不能完整提取出目標(biāo)區(qū)域。

    本文提出了一種運(yùn)動(dòng)信息引導(dǎo)的目標(biāo)檢測(cè)算法主要?jiǎng)?chuàng)新點(diǎn)如下:①提出一種改進(jìn)的運(yùn)動(dòng)目標(biāo)檢測(cè)算法,在ViBe 背景建模算法[7]的基礎(chǔ)上進(jìn)行了改進(jìn),改進(jìn)后的算法能夠減少靜止目標(biāo)融入背景的情況;②提出一種基于運(yùn)動(dòng)信息的多尺度特征融合模型,將以運(yùn)動(dòng)前景圖為主的運(yùn)動(dòng)信息作為空間權(quán)重與特征金字塔網(wǎng)絡(luò)提取的特征圖相融合;③提出一種運(yùn)動(dòng)前景圖指導(dǎo)的定位分支模塊,根據(jù)前景的位置信息學(xué)習(xí)預(yù)測(cè)候選目標(biāo)的定位置信度,作為目標(biāo)分類置信度的補(bǔ)充。

    1 相關(guān)工作

    目前來(lái)說(shuō),運(yùn)動(dòng)信息在目標(biāo)檢測(cè)算法中的應(yīng)用分為2 種:①傳統(tǒng)目標(biāo)檢測(cè)算法中利用運(yùn)動(dòng)變換信息的檢測(cè)算法;②將運(yùn)動(dòng)信息(主要是光流信息)引入到卷積神經(jīng)網(wǎng)絡(luò)中,簡(jiǎn)化卷積神經(jīng)網(wǎng)絡(luò)特征的提取或進(jìn)行多幀特征的融合。

    深度特征流(deep feature flow, DFF)[19]方法首次將光流信息引入到了目標(biāo)檢測(cè)網(wǎng)絡(luò)中,Zhu等發(fā)現(xiàn),在基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法中,最耗時(shí)的步驟是特征提取,并且對(duì)于一個(gè)連續(xù)的視頻序列來(lái)說(shuō),相鄰幀提取的特征差別并不大,因此,在卷積神經(jīng)網(wǎng)絡(luò)中引入了光流信息來(lái)預(yù)測(cè)特征圖,減少神經(jīng)網(wǎng)絡(luò)在提取特征方面的時(shí)間開(kāi)銷。DFF 網(wǎng)絡(luò)中,將視頻幀分為關(guān)鍵幀和非關(guān)鍵幀。卷積神經(jīng)網(wǎng)絡(luò)對(duì)關(guān)鍵幀提取特征;而對(duì)非關(guān)鍵幀,會(huì)與關(guān)鍵幀一起輸入到光流網(wǎng)絡(luò)中,得到光流信息,再根據(jù)光流信息對(duì)關(guān)鍵幀的特征進(jìn)行修正,作為非關(guān)鍵幀的特征進(jìn)行后續(xù)的分類回歸。

    光流引導(dǎo)的特征融合(flow guild feature aggregation, FGFA)[20]網(wǎng)絡(luò)在DFF 網(wǎng)絡(luò)的基礎(chǔ)上,利用光流信息聚集相鄰幀上的特征,提高檢測(cè)的精度。 對(duì)于當(dāng)前幀,FGFA 網(wǎng)絡(luò)會(huì)將其前后各k幀的特征按照DFF 網(wǎng)絡(luò)的方法預(yù)測(cè)出對(duì)應(yīng)的當(dāng)前幀特征,再將這2k幀特征按照權(quán)值平均的方法與當(dāng)前幀特征聚合,將聚合后的特征進(jìn)行后續(xù)的分類回歸。

    光流信息可以通過(guò)深度學(xué)習(xí)方法或傳統(tǒng)方法獲取。 深度學(xué)習(xí)方法需要進(jìn)行額外的標(biāo)注和訓(xùn)練,傳統(tǒng)方法在背景發(fā)生劇烈變化時(shí)會(huì)失效,并且光流信息對(duì)光照的變化比較敏感,也不能像運(yùn)動(dòng)前景圖那樣明確地反映出來(lái)前景的位置。 而本文的應(yīng)用場(chǎng)景是針對(duì)固定攝像機(jī)拍攝的監(jiān)控視頻,不用考慮到周圍環(huán)境的運(yùn)動(dòng),因此,可以使用幀間差分法或背景差分法來(lái)獲取運(yùn)動(dòng)信息,運(yùn)動(dòng)信息的獲取更加快速,能更加準(zhǔn)確地反映前景位置。 同時(shí),本文引入運(yùn)動(dòng)信息,目的是采用一種便捷的方式為卷積神經(jīng)網(wǎng)絡(luò)提供目標(biāo)的位置信息,而不用進(jìn)行代價(jià)昂貴的標(biāo)注,光流信息的深度學(xué)習(xí)方法需要引入額外的標(biāo)注,反而違背了這一初衷。

    為了提高檢測(cè)器的定位精度,目前使用的改進(jìn)方法大致有2 類:一類是選擇更加能夠反映定位準(zhǔn)確性的定位損失函數(shù);另一類是在檢測(cè)器中加入定位置信度的預(yù)測(cè)。 一般來(lái)說(shuō),判斷預(yù)測(cè)目標(biāo)定位是否精準(zhǔn),是通過(guò)計(jì)算預(yù)測(cè)目標(biāo)的檢測(cè)框和標(biāo)注信息中真值框的IoU 值。 但是IoU 存在一個(gè)問(wèn)題,對(duì)于沒(méi)有重疊的2 個(gè)框,因?yàn)镮oU 值為0,所以無(wú)法進(jìn)行學(xué)習(xí)訓(xùn)練。 在這種情況下,有學(xué)者提 出 了 GIoU ( generalized intersection over union)[21]的概念。 GIoU 同時(shí)關(guān)注了重疊區(qū)域和不重疊區(qū)域,即使兩框沒(méi)有重疊,也能計(jì)算出距離值,取值范圍為[ -1,1],越接近1 表示兩框的重疊程度越大,越接近- 1 表示兩框的距離越遠(yuǎn)。而對(duì)于在檢測(cè)器中加入定位置信度預(yù)測(cè)的方法,IoU-Net[22]中為檢測(cè)器設(shè)計(jì)了一個(gè)獨(dú)立的定位分支,在Faster R-CNN 網(wǎng)絡(luò)的基礎(chǔ)上,使用真值框和檢測(cè)框IoU 作為定位置信度進(jìn)行學(xué)習(xí);IoUaware RetinaNet[23]是在RetinaNet 網(wǎng)絡(luò)的基礎(chǔ)上,在回歸分支中增加了一個(gè)模塊預(yù)測(cè)定位置信度。

    以上方法對(duì)于定位精度的衡量都是根據(jù)檢測(cè)框和真值框來(lái)計(jì)算的,需要精確的標(biāo)注信息,但是對(duì)于數(shù)據(jù)集中的困難目標(biāo),在很多時(shí)候是缺少標(biāo)注的,而在運(yùn)動(dòng)前景圖中可以顯示出這類目標(biāo)的位置,因此,可以通過(guò)計(jì)算運(yùn)動(dòng)前景圖中前景的外接矩形框和預(yù)測(cè)目標(biāo)檢測(cè)框的匹配程度,作為候選目標(biāo)的定位置信度指標(biāo)。 同時(shí),相較于采用獨(dú)立的定位分支,本文在檢測(cè)器中直接增加一個(gè)定位分支,使用與回歸分支和分類分支相同的特征,學(xué)習(xí)候選目標(biāo)的定位置信度,保證特征的一致性。

    2 本文方法

    在室外視頻監(jiān)控的環(huán)境下,針對(duì)基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法對(duì)困難目標(biāo)標(biāo)注代價(jià)高和置信度預(yù)測(cè)時(shí)考慮不全面這2 個(gè)問(wèn)題,本文提出了一種運(yùn)動(dòng)信息引導(dǎo)的目標(biāo)檢測(cè)算法。 從基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法的特征提取和置信度預(yù)測(cè)這2 個(gè)方面展開(kāi)研究,分為3 個(gè)模塊:運(yùn)動(dòng)前景圖獲取模塊、多尺度特征融合模塊和定位分支模塊。 網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示。

    圖1 本文方法網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Network structure of the proposed method

    本文所提目標(biāo)檢測(cè)算法以原始視頻幀和視頻幀對(duì)應(yīng)的運(yùn)動(dòng)前景圖作為輸入。 運(yùn)動(dòng)前景圖獲取模塊的作用是獲取視頻幀對(duì)應(yīng)的運(yùn)動(dòng)前景圖。 本文針對(duì)的是攝像機(jī)固定下的監(jiān)控場(chǎng)景,因此選取了快速的、無(wú)監(jiān)督的ViBe 背景建模算法來(lái)獲取運(yùn)動(dòng)前景圖,并對(duì)ViBe 算法進(jìn)行了改進(jìn)。 改進(jìn)后的算法能夠減少靜止目標(biāo)融入背景或提取前景有殘缺的情況。 整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)可以看作2 個(gè)階段:①特征提取階段。 通過(guò)ResNet 的骨架網(wǎng)絡(luò)輸出一系列的特征圖,經(jīng)過(guò)特征金字塔網(wǎng)絡(luò)(feature pyramid networks, FPN)輸出金字塔網(wǎng)絡(luò)的各層尺寸不同的特征,通過(guò)本文提出的多尺度特征融合模塊,將運(yùn)動(dòng)信息與金字塔網(wǎng)絡(luò)的各層輸出進(jìn)行融合,形成各層最終的特征圖。 ②檢測(cè)階段。將特征提取階段獲取的特征圖輸入到檢測(cè)器中進(jìn)行檢測(cè),經(jīng)過(guò)分類分支、回歸分支及本文提出的定位分支,得到檢測(cè)框、分類置信度和定位置信度,再經(jīng)過(guò)非極大值抑制(non maximum suppression,NMS)[24]得到最終的檢測(cè)結(jié)果。

    2.1 運(yùn)動(dòng)前景圖獲取模塊

    ViBe[7]算法是一種像素級(jí)的背景建模算法。在初始化時(shí)會(huì)對(duì)像素點(diǎn)建立一個(gè)鄰域集合,對(duì)于之后新的圖像幀,為每個(gè)像素點(diǎn)計(jì)算其與每個(gè)鄰域像素點(diǎn)的歐氏距離。 如果該像素與足夠多的鄰域像素點(diǎn)(一般設(shè)置為20)歐氏距離小于設(shè)置的閾值(一般為16),則認(rèn)為該像素點(diǎn)屬于背景像素;否則認(rèn)為該像素點(diǎn)屬于前景像素,由此生成運(yùn)動(dòng)前景圖。

    運(yùn)動(dòng)目標(biāo)檢測(cè)算法存在一個(gè)問(wèn)題,對(duì)于視頻中運(yùn)動(dòng)一段時(shí)間后長(zhǎng)時(shí)間靜止的目標(biāo),會(huì)將其判斷為靜止目標(biāo),或在檢測(cè)的前景上出現(xiàn)空洞。 為了減少這種情況的發(fā)生,本文對(duì)ViBe 算法進(jìn)行了改進(jìn),利用歷史幀與當(dāng)前幀的相似度對(duì)靜止目標(biāo)作二次判斷,避免靜止目標(biāo)融入到背景之中。

    改進(jìn)的ViBe 背景建模算法會(huì)為每個(gè)像素點(diǎn)設(shè)置一個(gè)前景計(jì)數(shù)器fgCount 和一個(gè)前景標(biāo)志fgFlag。 初始時(shí)前景計(jì)數(shù)器fgCount 設(shè)置為0,表示該像素點(diǎn)被判斷為前景的次數(shù)為0,前景標(biāo)志fgFlag 也設(shè)置為0,表示該像素為背景。

    對(duì)于輸入的圖像,將圖像中的各個(gè)像素與初始背景模型進(jìn)行匹配度計(jì)算。 如果像素點(diǎn)與背景模型匹配,則認(rèn)為該像素點(diǎn)為背景點(diǎn),將該像素點(diǎn)的fgCount 和fgFlag 都置為0,對(duì)該像素點(diǎn)對(duì)應(yīng)的鄰域背景模型進(jìn)行更新;如果不匹配,則認(rèn)為像素點(diǎn)為前景點(diǎn),fgCount 值加1,fgFlag 置為1,表示該像素點(diǎn)為前景。

    當(dāng)一個(gè)像素的前景計(jì)數(shù)器fgCount 達(dá)到閾值(設(shè)置為10)時(shí),認(rèn)為該前景已經(jīng)持續(xù)存在了一段時(shí)間,需要判斷該前景對(duì)應(yīng)的是否為靜止目標(biāo)。判斷方法是:計(jì)算該像素與所保存的歷史背景幀的對(duì)應(yīng)像素的誤差平方,確定相似度,如果相似,認(rèn)為該點(diǎn)為靜止目標(biāo),fgCount 置為0,fgFlag 保持為1;否則fgCount 和fgFlag 都置為0,對(duì)該像素點(diǎn)對(duì)應(yīng)的鄰域背景模型進(jìn)行更新,并用當(dāng)前幀的像素更新歷史背景幀的對(duì)應(yīng)像素。

    圖2(a)為原始視頻幀,圖2(b)為ViBe 算法得出的前景圖,圖2(c)為改進(jìn)的ViBe 算法得出的前景圖,第1 行中目標(biāo)長(zhǎng)時(shí)間靜止,消失在前景圖中,改進(jìn)的ViBe 算法能夠得到靜止目標(biāo)的前景,第2、3 行中目標(biāo)靜止導(dǎo)致前景圖中有空洞,改進(jìn)的ViBe 算法能夠填補(bǔ)前景中的空洞。

    圖2 運(yùn)動(dòng)前景圖結(jié)果比較Fig.2 Comparison of foreground map results

    2.2 基于運(yùn)動(dòng)信息的多尺度特征融合模塊

    基于運(yùn)動(dòng)信息的多尺度特征融合方法網(wǎng)絡(luò)結(jié)構(gòu)如圖3 所示。

    圖3 基于運(yùn)動(dòng)信息的多尺度特征融合模塊網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Network structure of multi-scale feature fusion module based on motion information

    為了獲取更多目標(biāo)的信息,本文在運(yùn)動(dòng)前景圖的基礎(chǔ)上,將原始視頻幀的灰度圖與運(yùn)動(dòng)前景圖進(jìn)行通道拼接,得到引導(dǎo)圖。 這樣,不僅可以對(duì)運(yùn)動(dòng)前景圖補(bǔ)充信息,而且可以將運(yùn)動(dòng)前景圖也擴(kuò)充為三通道的圖像,方便后續(xù)操作。 同時(shí),基于運(yùn)動(dòng)信息的多尺度特征融合模塊是在特征層面進(jìn)行運(yùn)動(dòng)信息與特征圖的融合操作,因此,為了保證最終獲得的運(yùn)動(dòng)信息和卷積神經(jīng)網(wǎng)絡(luò)產(chǎn)生的特征圖具有相同的尺寸和通道數(shù),會(huì)將獲得的引導(dǎo)圖也輸入到相同的骨架網(wǎng)絡(luò)中,得到最終的運(yùn)動(dòng)信息。

    輸入的原始視頻幀經(jīng)過(guò)骨架網(wǎng)絡(luò)和特征金字塔網(wǎng)絡(luò)之后得到了自上而下X1、X2、X3、X4四層特征,同樣,運(yùn)動(dòng)前景圖與原始圖像灰度圖通道拼接后的引導(dǎo)圖經(jīng)過(guò)骨架網(wǎng)絡(luò)后得到了G1、G2、G3、G4四層的運(yùn)動(dòng)信息,這些信息是特征融合模塊的輸入。 下文就以第4 層的特征融合模塊為例進(jìn)行介紹,特征融合方式如圖4 所示。

    圖4 多尺度特征融合模塊示意圖Fig.4 Schematic diagram of multi-scale feature fusion module

    式中:X′1、X′2、X′3分別為將X1、X2、X3經(jīng)過(guò)上采樣操作處理成與X4相同大小的特征;M4為將X4與獲取的引導(dǎo)圖拼接在一起,經(jīng)過(guò)一個(gè)簡(jiǎn)單的卷積網(wǎng)絡(luò)后得 到的 注意力分布圖;X1→4、X2→4、X3→4分別為特征金字塔網(wǎng)絡(luò)前3 層特征圖與注意力分布圖按元素相乘后的特征;X~4為第4 層融合后的特征。

    其他層的特征融合模塊的操作與第4 層類似,通過(guò)這種方式將運(yùn)動(dòng)信息與特征金字塔網(wǎng)絡(luò)各層特征融合,使得特征圖重點(diǎn)關(guān)注可能存在目標(biāo)的區(qū)域。

    2.3 運(yùn)動(dòng)前景圖指導(dǎo)的定位分支模塊

    本文根據(jù)計(jì)算的候選目標(biāo)檢測(cè)框與前景區(qū)域外接矩形框的匹配程度作為衡量候選目標(biāo)定位置信度的指標(biāo)。 受到IoU 計(jì)算公式的啟發(fā),考慮可以用兩者區(qū)域交集的面積比上并集的面積來(lái)表示匹配程度。 但是通過(guò)對(duì)運(yùn)動(dòng)目標(biāo)前景區(qū)域的觀察發(fā)現(xiàn),在目標(biāo)比較密集的區(qū)域,其前景區(qū)域會(huì)粘連在一起,提取的外接矩形框也會(huì)包含多個(gè)目標(biāo),使用兩者區(qū)域的并集作為分母就會(huì)得到一個(gè)比較小的值,無(wú)法正確地反映兩者的匹配程度。 因此,在計(jì)算檢測(cè)網(wǎng)絡(luò)提取到的預(yù)測(cè)目標(biāo)檢測(cè)框與前景圖中的外接矩形框匹配程度時(shí),對(duì)IoU 的計(jì)算方法進(jìn)行了改進(jìn),如下:

    本文在目標(biāo)檢測(cè)算法的檢測(cè)器中增加一個(gè)分支作為定位分支,該分支與分類分支和回歸分支共享2 個(gè)全連接層,3 個(gè)分支保持特征的一致性。增加定位分支后的檢測(cè)器結(jié)構(gòu)如圖5 所示,圖中各組成結(jié)構(gòu)上的數(shù)字代表該結(jié)構(gòu)輸出的大小,C表示使用的數(shù)據(jù)集中目標(biāo)種類的數(shù)目。

    圖5 引入定位分支后的檢測(cè)器結(jié)構(gòu)Fig.5 Detection head structure after introducing localization branch

    定位分支和分類分支、回歸分支一樣,會(huì)共同參與到對(duì)于全連接層的訓(xùn)練中,提升全連接層在提取特征時(shí)的定位準(zhǔn)確率,使候選目標(biāo)能夠得到一個(gè)定位置信度的同時(shí),也能夠提升回歸分支中檢測(cè)框的定位精度。

    3 個(gè)分支使用的訓(xùn)練損失函數(shù)各不相同,分類分支使用了交叉熵?fù)p失函數(shù):

    式中:Ltotal為整個(gè)網(wǎng)絡(luò)的損失。

    在測(cè)試階段,通過(guò)定位分支獲得每個(gè)預(yù)測(cè)目標(biāo)的定位置信度,再與分類分支獲得的分類置信度進(jìn)行加權(quán)求和,獲得目標(biāo)最終的置信度:

    confidencescore= ?·clsscore+ (1- ?)locscore(11)

    式中:confidencescore為目標(biāo)最終的置信度;clsscore從分類分支獲得,為候選目標(biāo)的分類置信度;locscore從定位分支得到,為候選目標(biāo)的定位置信度;?為權(quán)重,本文取值0.6。 得到預(yù)測(cè)目標(biāo)的最終置信度后,用這一置信度指導(dǎo)NMS 方法進(jìn)行重復(fù)候選框的篩除,獲得檢測(cè)結(jié)果。

    3 實(shí)驗(yàn)結(jié)果與分析

    3.1 實(shí)驗(yàn)設(shè)置

    本文實(shí)驗(yàn)在Ubuntu 系統(tǒng)下進(jìn)行,整體神經(jīng)網(wǎng)絡(luò)框架基于Pytorch 構(gòu)建而成。 程序編寫中使用的主要編程語(yǔ)言為Python3,同時(shí)為了方便程序的管理和使用,通過(guò)anaconda 搭建了一個(gè)虛擬環(huán)境,全部實(shí)驗(yàn)都在虛擬環(huán)境下進(jìn)行。 除此之外,在硬件方面,使用了GPU 加速訓(xùn)練過(guò)程。

    本文使用的基線方法是Cascade R-CNN[18]網(wǎng)絡(luò),包括ResNet-50 骨架網(wǎng)絡(luò)、特征金字塔網(wǎng)絡(luò)、RPN 網(wǎng)絡(luò)和級(jí)聯(lián)檢測(cè)網(wǎng)絡(luò)。 在訓(xùn)練策略上采用聯(lián)合訓(xùn)練方法,使用隨機(jī)梯度下降法(stochastic gradient descent, SGD)訓(xùn)練策略,初始學(xué)習(xí)率設(shè)置為0.001,使用step 方法進(jìn)行學(xué)習(xí)率的調(diào)整,動(dòng)量設(shè)置為0.9,權(quán)值衰減系數(shù)為0.000 1。

    本文在進(jìn)行實(shí)驗(yàn)時(shí)選用了3 個(gè)數(shù)據(jù)集:①筆者所在實(shí)驗(yàn)室自建的且已經(jīng)公開(kāi)發(fā)表的數(shù)據(jù)集DML_det[25];②DukeMTMC[26]數(shù)據(jù)集中的一部分?jǐn)?shù)據(jù);③PETS09[27]數(shù)據(jù)集中的部分?jǐn)?shù)據(jù)。 其中,DML_det 數(shù)據(jù)集來(lái)自于筆者所在實(shí)驗(yàn)室,拍攝于北京航空航天大學(xué),時(shí)間跨度較長(zhǎng),數(shù)據(jù)集中的目標(biāo)較小。 訓(xùn)練階段使用了DML_det 中的18 段視頻段,測(cè)試階段使用了其中10 個(gè)視頻段,并且對(duì)視頻段進(jìn)行了采樣間距為100 幀的采樣。 Duke-MTMC 數(shù)據(jù)集拍攝于杜克大學(xué)校園。 本文選擇了Cam1 和Cam9 兩個(gè)場(chǎng)景進(jìn)行實(shí)驗(yàn),同樣使用了采樣方法,每隔100 幀選取一張圖像,共獲得了2 556幀圖像,其中一半圖像作為訓(xùn)練集,另一半圖像作為測(cè)試集。 PETS09 數(shù)據(jù)集拍攝于英國(guó)雷丁大學(xué),選擇了S0 作為訓(xùn)練集,S2 中的L2 難度的測(cè)試集作測(cè)試。 S0 中共包含7 163 張訓(xùn)練圖像,S2 的L2 中共包含1 131 張測(cè)試圖像。 針對(duì)使用的3 個(gè)數(shù)據(jù)集,在訓(xùn)練測(cè)試時(shí)只對(duì)其中的行人目標(biāo)進(jìn)行檢測(cè),騎自行車或三輪車的行人也歸屬于行人類別。

    評(píng)價(jià)標(biāo)準(zhǔn)方面,本文采用了與COCO 數(shù)據(jù)集相同的評(píng)價(jià)方式,即通過(guò)平均精確率(average precision, AP)和召回率(Recall)來(lái)評(píng)價(jià)模型[28]。

    對(duì)于網(wǎng)絡(luò)給出的檢測(cè)框,只有當(dāng)其與真值框計(jì)算出的IoU 大于設(shè)定的閾值時(shí),才認(rèn)為檢測(cè)結(jié)果是正確的。 這個(gè)目標(biāo)被成功地檢測(cè)出來(lái),則屬于正確的正樣本(true positive, TP),而如果有一個(gè)被標(biāo)注的目標(biāo),沒(méi)有檢測(cè)框與其對(duì)應(yīng),就認(rèn)為這是一個(gè)錯(cuò)誤的負(fù)樣本(false negtive, FN),當(dāng)一個(gè)沒(méi)有被標(biāo)注過(guò)的區(qū)域出現(xiàn)了檢測(cè)框,就認(rèn)為這是一個(gè)錯(cuò)誤的正樣本(false positive, FP)。 基于上述對(duì)不同檢測(cè)結(jié)果的定義,精確率(Precision)和召回率(Recall)的計(jì)算公式如下:

    式中:Recall 表示正確檢測(cè)出來(lái)的目標(biāo)占所有目標(biāo)的比率。

    本文采用了多個(gè)IoU 閾值對(duì)提出的算法進(jìn)行評(píng)估,其中AP@ [0.5:0.95]代表選取了從0.5、0.55 到0. 95 的IoU 閾值,計(jì)算這些閾值下的平均精確率,再求這些平均精確率的平均值,Recall@ [0.5:0.95]代表從0.5、0.55 到0.95 的IoU 閾值下的平均召回率。

    3.2 對(duì)比實(shí)驗(yàn)

    本文提出了一種基于運(yùn)動(dòng)信息的多尺度特征融合方法。 利用運(yùn)動(dòng)目標(biāo)檢測(cè)算法可以獲得目標(biāo)位置信息,尤其是困難目標(biāo)信息的特點(diǎn),并對(duì)運(yùn)動(dòng)目標(biāo)檢測(cè)算法進(jìn)行改進(jìn),將運(yùn)動(dòng)前景圖作為空間權(quán)重融合到卷積神經(jīng)網(wǎng)絡(luò)提取的特征圖中。 同時(shí),提出了一種運(yùn)動(dòng)前景圖指導(dǎo)的定位分支模塊,根據(jù)運(yùn)動(dòng)前景圖中前景的空間位置,衡量卷積神經(jīng)網(wǎng)絡(luò)候選目標(biāo)的定位置信度。

    為了說(shuō)明本文算法對(duì)目標(biāo)檢測(cè)算法準(zhǔn)確率的提升,選取了幾種近年提出的目標(biāo)檢測(cè)算法,同樣在 DML _ det 數(shù) 據(jù) 集、 DukeMTMC 數(shù) 據(jù) 集 和PETS09 數(shù)據(jù)集上進(jìn)行了訓(xùn)練和測(cè)試,與本文算法做對(duì)比,實(shí)驗(yàn)結(jié)果如表1 ~表3 所示。

    從表1 ~表3 的實(shí)驗(yàn)結(jié)果可以看出,YOLOX、YOLOF、Sparse R-CNN、Deformable DETR 等算法對(duì)于本文所使用的數(shù)據(jù)集表現(xiàn)不好。 一方面,本文選用的數(shù)據(jù)集數(shù)據(jù)量遠(yuǎn)小于COCO 數(shù)據(jù)集;另一方面,如Sparse R-CNN 算法需要多個(gè)輪次的訓(xùn)練才可以達(dá)到最好的效果。 整體的實(shí)驗(yàn)結(jié)果表明,對(duì)于固定攝像機(jī)拍攝的監(jiān)控視頻場(chǎng)景下的行人檢測(cè),本文算法表現(xiàn)較好。

    表1 DML_det 數(shù)據(jù)集上本文算法與其他目標(biāo)檢測(cè)算法對(duì)比Table 1 Comparison of the proposed algorithm with other object detection algorithms on DML_det dataset %

    表2 DukeMTMC 數(shù)據(jù)集上本文算法與其他目標(biāo)檢測(cè)算法對(duì)比Table 2 Comparison of the proposed algorithm with other object detection algorithms on DukeMTMC dataset %

    表3 PETS09 數(shù)據(jù)集上本文算法與其他目標(biāo)檢測(cè)算法對(duì)比Table 3 Comparison of the proposed algorithm with other object detection algorithms on PETS09 dataset %

    3.3 消融實(shí)驗(yàn)

    將本文提出的多尺度特征融合方法和定位分支模塊,分別應(yīng)用于基線方法Cascade R-CNN 中,在DML_det 數(shù)據(jù)集、DukeMTMC 數(shù)據(jù)集和PETS09數(shù)據(jù)集上對(duì)算法進(jìn)行了消融實(shí)驗(yàn),得到的結(jié)果如表4 ~表6 所示。

    表4 DML_det 數(shù)據(jù)集性能評(píng)價(jià)指標(biāo)Table 4 Performance evaluation indexes of DML_det dataset

    表5 DukeMTMC 數(shù)據(jù)集性能評(píng)價(jià)指標(biāo)Table 5 Performance evaluation indexes of DukeMTMC dataset

    表6 PETS09 數(shù)據(jù)集性能評(píng)價(jià)指標(biāo)Table 6 Performance evaluation indexes of PETS09 dataset

    從表4 ~表6 實(shí)驗(yàn)結(jié)果可以看出,引入多尺度特征融合模塊和定位分支都可以在基線方法上帶來(lái)精確率和召回率的提升,并且將2 種方法整合之后,在精確率和召回率方面有更近一步的提升,可以說(shuō)明本文算法的有效性。 同時(shí),對(duì)改進(jìn)的ViBe 算法進(jìn)行了實(shí)驗(yàn)驗(yàn)證,從表4 ~表6 中的結(jié)果可以看出,使用改進(jìn)后的算法獲取運(yùn)動(dòng)前景圖,能夠提升目標(biāo)檢測(cè)的準(zhǔn)確率。

    圖6 ~圖11 分別展示了3 個(gè)數(shù)據(jù)集上基線方法和引入了本文算法后的部分結(jié)果示意圖,綠框代表真值框,紅框代表檢測(cè)框。 圖6 中的第1幅圖和第4 幅圖中,環(huán)境中存在與行人目標(biāo)相似的物體,因此產(chǎn)生了誤檢。 在引入本文算法后,增加了運(yùn)動(dòng)前景圖的信息,誤檢的物體在前景圖中沒(méi)有對(duì)應(yīng)的前景,因此特征響應(yīng)值降低,從而去除誤檢。 圖8 中的第1、3、4 幅圖和圖10,因?yàn)闇y(cè)試數(shù)據(jù)中的目標(biāo)被遮擋或目標(biāo)太小,而沒(méi)有被檢測(cè)器檢測(cè)出來(lái),引入本文算法后,這些困難目標(biāo)在前景圖中可以反映出來(lái),提升了特征圖的響應(yīng)值,因此能夠被檢測(cè)到。 圖6 中的第2、3 幅圖和圖8 中的第2 幅圖,使用基線方法檢測(cè)框的位置偏離目標(biāo),而引入本文算法后,能夠使檢測(cè)框位置更加準(zhǔn)確。

    圖6 DML_det 數(shù)據(jù)集基線方法結(jié)果Fig.6 Baseline method results of DML_det dataset

    圖7 DML_det 數(shù)據(jù)集本文算法結(jié)果Fig.7 The proposed algorithm results of DML_det dataset

    圖8 DukeMTMC 數(shù)據(jù)集基線方法結(jié)果Fig.8 Baseline method results of DukeMTMC dataset

    圖9 DukeMTMC 數(shù)據(jù)集本文算法結(jié)果Fig.9 The proposed algorithm results of DukeMTMC dataset

    圖10 PETS09 數(shù)據(jù)集基線方法結(jié)果Fig.10 Baseline method results of PETS09 dataset

    圖11 PETS09 數(shù)據(jù)集本文算法結(jié)果Fig.11 The proposed algorithm results of PETS09 dataset

    4 結(jié) 論

    本文提出了一種運(yùn)動(dòng)信息引導(dǎo)的目標(biāo)檢測(cè)算法,適用于固定攝像頭下的監(jiān)控視頻場(chǎng)景,包括改進(jìn)的運(yùn)動(dòng)前景圖獲取方法、基于運(yùn)動(dòng)信息的多尺度特征融合方法和運(yùn)動(dòng)前景圖指導(dǎo)的定位分支模塊。 所提算法在設(shè)計(jì)時(shí)沒(méi)有引入復(fù)雜的先驗(yàn)信息或需要進(jìn)行精細(xì)的標(biāo)注,并且通過(guò)在3 個(gè)固定監(jiān)控視頻行人檢測(cè)數(shù)據(jù)集上所作的實(shí)驗(yàn),驗(yàn)證了本文算法可以提升目標(biāo)檢測(cè)算法的準(zhǔn)確率。

    猜你喜歡
    置信度前景分支
    硼鋁復(fù)合材料硼含量置信度臨界安全分析研究
    我國(guó)旅游房地產(chǎn)開(kāi)發(fā)前景的探討
    四種作物 北方種植有前景
    離岸央票:需求與前景
    巧分支與枝
    正負(fù)關(guān)聯(lián)規(guī)則兩級(jí)置信度閾值設(shè)置方法
    一類擬齊次多項(xiàng)式中心的極限環(huán)分支
    量子糾纏的來(lái)歷及應(yīng)用前景
    太空探索(2016年10期)2016-07-10 12:07:01
    置信度條件下軸承壽命的可靠度分析
    軸承(2015年2期)2015-07-25 03:51:04
    生成分支q-矩陣的零流出性
    一本一本综合久久| 国产激情久久老熟女| 久久久国产精品麻豆| 国产午夜精品久久久久久| 88av欧美| 久久欧美精品欧美久久欧美| av福利片在线观看| 成人永久免费在线观看视频| 欧美日韩瑟瑟在线播放| 在线十欧美十亚洲十日本专区| 一级毛片精品| 不卡av一区二区三区| 欧美日本视频| 欧洲精品卡2卡3卡4卡5卡区| 久久久久久亚洲精品国产蜜桃av| 久久久国产成人免费| 久久久久国内视频| 免费人成视频x8x8入口观看| 人人妻,人人澡人人爽秒播| 欧美一区二区精品小视频在线| 美女免费视频网站| 一a级毛片在线观看| 色综合亚洲欧美另类图片| 国产91精品成人一区二区三区| 视频区欧美日本亚洲| 国产精品爽爽va在线观看网站| 最近最新免费中文字幕在线| 中文字幕精品亚洲无线码一区| 中出人妻视频一区二区| 日韩欧美国产在线观看| 婷婷亚洲欧美| 人人妻人人澡欧美一区二区| 国产免费av片在线观看野外av| 99精品欧美一区二区三区四区| 淫秽高清视频在线观看| 69av精品久久久久久| 制服诱惑二区| 精品无人区乱码1区二区| 亚洲精品国产一区二区精华液| 看免费av毛片| 精品福利观看| 久久精品人妻少妇| 国产av一区二区精品久久| 九九热线精品视视频播放| 最近最新中文字幕大全免费视频| а√天堂www在线а√下载| 亚洲成人久久爱视频| 99热这里只有精品一区 | 精华霜和精华液先用哪个| 成人三级黄色视频| 少妇粗大呻吟视频| 久久欧美精品欧美久久欧美| 999久久久精品免费观看国产| 亚洲 欧美一区二区三区| 久久 成人 亚洲| 色综合婷婷激情| 国产激情欧美一区二区| xxx96com| 国产精品久久电影中文字幕| 免费一级毛片在线播放高清视频| 亚洲欧美日韩东京热| 亚洲人成网站在线播放欧美日韩| 精品电影一区二区在线| www日本黄色视频网| 亚洲精品美女久久av网站| 国产精品自产拍在线观看55亚洲| 色精品久久人妻99蜜桃| 亚洲五月婷婷丁香| 亚洲国产欧美网| 久久精品夜夜夜夜夜久久蜜豆 | 女警被强在线播放| 欧美中文综合在线视频| 国产1区2区3区精品| 国产成+人综合+亚洲专区| 欧美性长视频在线观看| 亚洲一区二区三区色噜噜| 又粗又爽又猛毛片免费看| 亚洲欧美日韩无卡精品| 欧美在线黄色| 88av欧美| 狠狠狠狠99中文字幕| 国模一区二区三区四区视频 | 桃色一区二区三区在线观看| 国产成人啪精品午夜网站| 啦啦啦观看免费观看视频高清| www日本在线高清视频| 欧美三级亚洲精品| 少妇人妻一区二区三区视频| 美女黄网站色视频| 欧美成人性av电影在线观看| 99在线视频只有这里精品首页| 精品久久蜜臀av无| 国产亚洲av高清不卡| 美女黄网站色视频| 免费在线观看成人毛片| 免费无遮挡裸体视频| 久久99热这里只有精品18| 一边摸一边抽搐一进一小说| 成人一区二区视频在线观看| 久久久久久九九精品二区国产 | 欧美日韩瑟瑟在线播放| 国产蜜桃级精品一区二区三区| 免费看十八禁软件| xxx96com| 亚洲精品一区av在线观看| 制服丝袜大香蕉在线| 女人被狂操c到高潮| 欧美性长视频在线观看| 久久精品aⅴ一区二区三区四区| 精品久久久久久久末码| 人妻丰满熟妇av一区二区三区| 久久久久久人人人人人| 精品国产乱码久久久久久男人| 又爽又黄无遮挡网站| 欧美精品啪啪一区二区三区| 国产精品久久久久久精品电影| 中亚洲国语对白在线视频| 中文字幕最新亚洲高清| 成人av一区二区三区在线看| 国产精品自产拍在线观看55亚洲| 亚洲第一电影网av| 成人av一区二区三区在线看| 岛国在线免费视频观看| 欧美久久黑人一区二区| 久久久久亚洲av毛片大全| 亚洲九九香蕉| 在线播放国产精品三级| 日本免费一区二区三区高清不卡| 国产黄色小视频在线观看| 99热这里只有精品一区 | 国产爱豆传媒在线观看 | 白带黄色成豆腐渣| 丰满人妻一区二区三区视频av | 久久天堂一区二区三区四区| 欧美乱妇无乱码| 波多野结衣巨乳人妻| 色在线成人网| 十八禁人妻一区二区| 夜夜躁狠狠躁天天躁| 91字幕亚洲| 性色av乱码一区二区三区2| 特大巨黑吊av在线直播| 999久久久精品免费观看国产| 欧美一区二区国产精品久久精品 | 欧美一区二区精品小视频在线| 国产精品av久久久久免费| 美女扒开内裤让男人捅视频| 亚洲成人免费电影在线观看| 欧美日韩亚洲综合一区二区三区_| 成熟少妇高潮喷水视频| 久久婷婷成人综合色麻豆| 九九热线精品视视频播放| 久久久久国产一级毛片高清牌| 三级男女做爰猛烈吃奶摸视频| 国产高清视频在线观看网站| 国产单亲对白刺激| 国产99白浆流出| or卡值多少钱| 99热这里只有精品一区 | 神马国产精品三级电影在线观看 | 动漫黄色视频在线观看| 精品免费久久久久久久清纯| 脱女人内裤的视频| 中文字幕人成人乱码亚洲影| 国产麻豆成人av免费视频| 亚洲欧美日韩东京热| 少妇被粗大的猛进出69影院| 一边摸一边抽搐一进一小说| 99热这里只有精品一区 | 久久久久久久久免费视频了| 午夜激情av网站| 亚洲成人中文字幕在线播放| 在线免费观看的www视频| 午夜亚洲福利在线播放| 国内精品久久久久久久电影| 国产在线精品亚洲第一网站| 国产精品乱码一区二三区的特点| 夜夜看夜夜爽夜夜摸| 精品久久久久久,| 国产成年人精品一区二区| 男女之事视频高清在线观看| 最新在线观看一区二区三区| 欧美高清成人免费视频www| 老熟妇仑乱视频hdxx| 美女黄网站色视频| 1024视频免费在线观看| 特大巨黑吊av在线直播| 特级一级黄色大片| 国产野战对白在线观看| 国产一区二区三区在线臀色熟女| 最近在线观看免费完整版| 久9热在线精品视频| 国产aⅴ精品一区二区三区波| 又紧又爽又黄一区二区| 91麻豆精品激情在线观看国产| 我要搜黄色片| 这个男人来自地球电影免费观看| 婷婷六月久久综合丁香| 母亲3免费完整高清在线观看| 国内久久婷婷六月综合欲色啪| 成人欧美大片| 女人高潮潮喷娇喘18禁视频| 91成年电影在线观看| 18禁黄网站禁片午夜丰满| 看免费av毛片| 我的老师免费观看完整版| 国产午夜精品久久久久久| 亚洲欧美日韩高清专用| 国产av一区在线观看免费| 一级毛片女人18水好多| 久久精品国产综合久久久| 久久香蕉精品热| 国内少妇人妻偷人精品xxx网站 | 香蕉av资源在线| 亚洲五月婷婷丁香| 最近最新中文字幕大全电影3| 国产精品99久久99久久久不卡| avwww免费| 亚洲国产欧美一区二区综合| 欧美极品一区二区三区四区| 日韩精品中文字幕看吧| 国产高清激情床上av| 日韩av在线大香蕉| 亚洲欧洲精品一区二区精品久久久| 夜夜看夜夜爽夜夜摸| 变态另类丝袜制服| 国产精品美女特级片免费视频播放器 | 国产单亲对白刺激| 一级毛片精品| 欧美绝顶高潮抽搐喷水| 村上凉子中文字幕在线| 大型av网站在线播放| 久久草成人影院| 国内精品一区二区在线观看| 久久久久久久久久黄片| 后天国语完整版免费观看| 国产aⅴ精品一区二区三区波| 国产精品99久久99久久久不卡| 草草在线视频免费看| 免费看十八禁软件| 男女那种视频在线观看| 婷婷精品国产亚洲av| 丰满人妻一区二区三区视频av | 欧美久久黑人一区二区| 欧美日韩黄片免| 天堂√8在线中文| 一进一出抽搐动态| 人人妻人人看人人澡| 人人妻人人澡欧美一区二区| 黄频高清免费视频| 亚洲国产中文字幕在线视频| 精品一区二区三区视频在线观看免费| 亚洲国产欧洲综合997久久,| 成人av在线播放网站| 成人精品一区二区免费| 午夜福利18| 国产乱人伦免费视频| 少妇人妻一区二区三区视频| 极品教师在线免费播放| 麻豆国产97在线/欧美 | 欧美色欧美亚洲另类二区| 欧美日韩瑟瑟在线播放| 欧美精品啪啪一区二区三区| 欧美日本亚洲视频在线播放| 国产黄a三级三级三级人| 无人区码免费观看不卡| 熟妇人妻久久中文字幕3abv| 亚洲av成人不卡在线观看播放网| 亚洲无线在线观看| 桃色一区二区三区在线观看| 亚洲精品一卡2卡三卡4卡5卡| 久久精品影院6| 首页视频小说图片口味搜索| 亚洲国产精品合色在线| 亚洲国产看品久久| 免费搜索国产男女视频| 久久久国产成人精品二区| 亚洲色图av天堂| 美女黄网站色视频| 女警被强在线播放| 老司机深夜福利视频在线观看| 丰满人妻一区二区三区视频av | 国产激情偷乱视频一区二区| 老汉色∧v一级毛片| 国产三级黄色录像| 97超级碰碰碰精品色视频在线观看| 欧美日韩国产亚洲二区| 男女下面进入的视频免费午夜| 中国美女看黄片| 免费观看精品视频网站| 日本五十路高清| av视频在线观看入口| 中文在线观看免费www的网站 | 成人av在线播放网站| 一本综合久久免费| 国产又色又爽无遮挡免费看| 在线观看午夜福利视频| 中文字幕久久专区| 精品久久久久久,| 日韩高清综合在线| 看片在线看免费视频| 午夜影院日韩av| 亚洲av电影在线进入| 99国产极品粉嫩在线观看| 亚洲无线在线观看| 性欧美人与动物交配| 国语自产精品视频在线第100页| 久久中文字幕人妻熟女| 国产精品野战在线观看| 麻豆国产97在线/欧美 | 两个人的视频大全免费| or卡值多少钱| 国产精品永久免费网站| 在线免费观看的www视频| 在线视频色国产色| 日本精品一区二区三区蜜桃| 欧美日韩乱码在线| 国产精品一及| 亚洲五月婷婷丁香| 91大片在线观看| 国内少妇人妻偷人精品xxx网站 | 亚洲成人中文字幕在线播放| 久久亚洲真实| 人妻丰满熟妇av一区二区三区| 亚洲真实伦在线观看| 亚洲一码二码三码区别大吗| 久久久精品大字幕| 亚洲乱码一区二区免费版| 这个男人来自地球电影免费观看| 一级毛片精品| 18禁黄网站禁片免费观看直播| 中国美女看黄片| 波多野结衣巨乳人妻| 黄色女人牲交| 99热6这里只有精品| 麻豆成人av在线观看| 国产亚洲欧美在线一区二区| 久久热在线av| 国产精品一区二区三区四区久久| 高潮久久久久久久久久久不卡| 黄片小视频在线播放| 正在播放国产对白刺激| 国产精品一及| 精品一区二区三区av网在线观看| 丰满的人妻完整版| 国内久久婷婷六月综合欲色啪| 久久精品夜夜夜夜夜久久蜜豆 | 18禁观看日本| 搡老妇女老女人老熟妇| 久久草成人影院| 97超级碰碰碰精品色视频在线观看| 国产探花在线观看一区二区| 不卡一级毛片| av在线天堂中文字幕| 欧美大码av| 香蕉av资源在线| 丰满人妻熟妇乱又伦精品不卡| 亚洲精品久久成人aⅴ小说| 亚洲av电影不卡..在线观看| 97人妻精品一区二区三区麻豆| xxxwww97欧美| 国产亚洲精品第一综合不卡| 成年女人毛片免费观看观看9| 国产野战对白在线观看| 老司机午夜福利在线观看视频| 久久久国产欧美日韩av| 欧美中文日本在线观看视频| 亚洲国产看品久久| 国产精品永久免费网站| 国产av一区二区精品久久| √禁漫天堂资源中文www| 国产不卡一卡二| 欧美日韩亚洲国产一区二区在线观看| 久久这里只有精品中国| 欧美大码av| 18禁国产床啪视频网站| 级片在线观看| 88av欧美| 久久 成人 亚洲| 久久久久久久午夜电影| 真人做人爱边吃奶动态| av在线天堂中文字幕| 国产亚洲精品一区二区www| 亚洲av电影在线进入| 国产亚洲精品综合一区在线观看 | 国内精品久久久久精免费| 亚洲熟妇中文字幕五十中出| 天堂av国产一区二区熟女人妻 | 中文在线观看免费www的网站 | 99久久99久久久精品蜜桃| 精品久久久久久久毛片微露脸| 亚洲成av人片在线播放无| 99国产综合亚洲精品| 久久精品亚洲精品国产色婷小说| 99国产精品一区二区蜜桃av| 变态另类成人亚洲欧美熟女| 青草久久国产| 男人舔女人的私密视频| 成人国语在线视频| avwww免费| 亚洲第一电影网av| 亚洲国产欧洲综合997久久,| 男男h啪啪无遮挡| 久久久精品欧美日韩精品| 亚洲一区二区三区不卡视频| 亚洲七黄色美女视频| 国产精品国产高清国产av| 亚洲aⅴ乱码一区二区在线播放 | 久久久精品国产亚洲av高清涩受| 亚洲自拍偷在线| 精品欧美一区二区三区在线| 国产精品av视频在线免费观看| 久久久久精品国产欧美久久久| 久久精品国产清高在天天线| 亚洲 欧美一区二区三区| 麻豆国产97在线/欧美 | 亚洲熟妇熟女久久| 亚洲av成人一区二区三| 免费观看人在逋| 日韩国内少妇激情av| av视频在线观看入口| 亚洲欧美精品综合一区二区三区| 青草久久国产| 日韩精品青青久久久久久| 夜夜夜夜夜久久久久| 五月伊人婷婷丁香| 精品久久久久久久久久久久久| 岛国视频午夜一区免费看| 啦啦啦韩国在线观看视频| 91大片在线观看| 精品久久久久久久人妻蜜臀av| 丰满人妻一区二区三区视频av | 99国产精品一区二区蜜桃av| 欧美最黄视频在线播放免费| 国产av一区二区精品久久| aaaaa片日本免费| 精品电影一区二区在线| 久久九九热精品免费| 99久久99久久久精品蜜桃| АⅤ资源中文在线天堂| 91大片在线观看| avwww免费| 久久精品国产99精品国产亚洲性色| www.自偷自拍.com| 1024手机看黄色片| 国产精品久久久久久久电影 | 天天躁夜夜躁狠狠躁躁| 给我免费播放毛片高清在线观看| 99国产精品一区二区三区| 国产一区二区三区在线臀色熟女| 精品国内亚洲2022精品成人| 亚洲精品色激情综合| 中文字幕最新亚洲高清| 一区福利在线观看| 婷婷丁香在线五月| 国产精品久久久av美女十八| 国产视频内射| 欧美又色又爽又黄视频| 国内精品一区二区在线观看| 九九热线精品视视频播放| 国产一区二区在线av高清观看| 欧美日韩亚洲国产一区二区在线观看| 日韩精品青青久久久久久| 欧美乱妇无乱码| 变态另类成人亚洲欧美熟女| 国产成人精品无人区| 欧美 亚洲 国产 日韩一| 九九热线精品视视频播放| 啦啦啦韩国在线观看视频| 波多野结衣高清作品| 久久午夜综合久久蜜桃| 国产高清激情床上av| 亚洲avbb在线观看| 18禁黄网站禁片免费观看直播| 成人国语在线视频| 久久久久亚洲av毛片大全| 国产精品美女特级片免费视频播放器 | 欧美3d第一页| av天堂在线播放| 久久久精品国产亚洲av高清涩受| ponron亚洲| 成人av在线播放网站| 久久婷婷成人综合色麻豆| 毛片女人毛片| 国产99白浆流出| 青草久久国产| 欧美三级亚洲精品| 精品久久久久久久末码| 老汉色∧v一级毛片| 国产97色在线日韩免费| 一进一出好大好爽视频| 亚洲中文日韩欧美视频| 亚洲av熟女| 精品国产超薄肉色丝袜足j| 很黄的视频免费| 日本 av在线| 脱女人内裤的视频| 亚洲七黄色美女视频| 日本黄色视频三级网站网址| 97超级碰碰碰精品色视频在线观看| 亚洲精品久久成人aⅴ小说| 精品国产乱子伦一区二区三区| 黄色视频,在线免费观看| 国产精品1区2区在线观看.| av超薄肉色丝袜交足视频| 亚洲最大成人中文| 国产精品av视频在线免费观看| 亚洲精品久久成人aⅴ小说| 免费在线观看亚洲国产| 国产精品影院久久| 久久久国产成人免费| 老汉色∧v一级毛片| 国产亚洲av嫩草精品影院| 久久香蕉精品热| 一个人免费在线观看的高清视频| 欧美不卡视频在线免费观看 | 亚洲欧美精品综合一区二区三区| 亚洲人与动物交配视频| 草草在线视频免费看| 国产精品野战在线观看| 国产精品久久久久久人妻精品电影| 三级国产精品欧美在线观看 | 特级一级黄色大片| 久久九九热精品免费| 色在线成人网| 99热这里只有是精品50| 欧美日韩乱码在线| 妹子高潮喷水视频| 国产精品亚洲av一区麻豆| 国产精品免费一区二区三区在线| 国产亚洲精品av在线| 欧美成人一区二区免费高清观看 | 露出奶头的视频| 国产精品99久久99久久久不卡| 国产成人aa在线观看| 亚洲国产看品久久| 成人欧美大片| 欧美黑人巨大hd| 久久精品人妻少妇| 在线播放国产精品三级| 久久久国产精品麻豆| av免费在线观看网站| 操出白浆在线播放| 草草在线视频免费看| 九色国产91popny在线| 亚洲精品粉嫩美女一区| 欧美激情久久久久久爽电影| 久9热在线精品视频| 99re在线观看精品视频| 丁香六月欧美| 亚洲五月天丁香| 欧美又色又爽又黄视频| 制服人妻中文乱码| 免费观看人在逋| 色哟哟哟哟哟哟| 久久草成人影院| 老汉色av国产亚洲站长工具| 国产精品一区二区三区四区免费观看 | 欧美av亚洲av综合av国产av| 国产又黄又爽又无遮挡在线| 免费观看人在逋| 999精品在线视频| 老司机午夜福利在线观看视频| 一二三四社区在线视频社区8| 无限看片的www在线观看| tocl精华| 欧美在线黄色| 成人精品一区二区免费| 在线观看午夜福利视频| 女人高潮潮喷娇喘18禁视频| 日本一本二区三区精品| 两个人视频免费观看高清| 日本免费一区二区三区高清不卡| 色尼玛亚洲综合影院| 中文字幕熟女人妻在线| 日韩中文字幕欧美一区二区| 久久久久国产一级毛片高清牌| 日韩三级视频一区二区三区| 亚洲精品一卡2卡三卡4卡5卡| 国产日本99.免费观看| 草草在线视频免费看| 在线观看舔阴道视频| 欧美成狂野欧美在线观看| 巨乳人妻的诱惑在线观看| 看片在线看免费视频| 亚洲精品久久国产高清桃花| 午夜福利18| 99精品在免费线老司机午夜| 日本 欧美在线| 国产亚洲精品第一综合不卡| 精品国产乱子伦一区二区三区| 免费人成视频x8x8入口观看| 久久久久亚洲av毛片大全| 日本一本二区三区精品| 国产成人精品久久二区二区91| www.自偷自拍.com| 久久国产精品人妻蜜桃| 亚洲精品中文字幕一二三四区| 天天躁夜夜躁狠狠躁躁| 国产aⅴ精品一区二区三区波| 亚洲欧美一区二区三区黑人| 好男人电影高清在线观看| 91大片在线观看| 最近最新中文字幕大全免费视频| 国产三级中文精品| 欧美久久黑人一区二区| 亚洲aⅴ乱码一区二区在线播放 | 欧美中文综合在线视频| 国产精品精品国产色婷婷| 999精品在线视频| svipshipincom国产片| 叶爱在线成人免费视频播放| 成人av一区二区三区在线看| 伦理电影免费视频| 久久精品国产亚洲av高清一级|