• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多分區(qū)注意力的行人重識(shí)別方法

    2020-12-11 00:40:50薛麗霞朱正發(fā)汪榮貴
    光電工程 2020年11期
    關(guān)鍵詞:分支全局行人

    薛麗霞,朱正發(fā),汪榮貴,楊 娟

    基于多分區(qū)注意力的行人重識(shí)別方法

    薛麗霞,朱正發(fā),汪榮貴,楊 娟*

    合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院,安徽 合肥 230009

    行人重識(shí)別是計(jì)算機(jī)視覺(jué)中一項(xiàng)具有挑戰(zhàn)性和實(shí)際意義的重要任務(wù),具有廣泛的應(yīng)用前景。背景干擾、任意變化的行人姿態(tài)和無(wú)法控制的攝像機(jī)角度等都會(huì)給行人重識(shí)別研究帶來(lái)較大的阻礙。為提取更具有辨別力的行人特征,本文提出了基于多分區(qū)注意力的網(wǎng)絡(luò)架構(gòu),該網(wǎng)絡(luò)能同時(shí)從全局圖像和不同局部圖像中學(xué)習(xí)具有魯棒性和辨別力的行人特征表示,能高效地提高行人重識(shí)別任務(wù)的識(shí)別能力。此外,在局部分支中設(shè)計(jì)了一種雙重注意力網(wǎng)絡(luò),由空間注意力和通道注意力共同組成,優(yōu)化提取局部特征。實(shí)驗(yàn)結(jié)果表明,該網(wǎng)絡(luò)在Market-1501、DukeMTMC-reID和CUHK03數(shù)據(jù)集上的平均精度均值分別達(dá)到82.94%、72.17%、71.76%。

    行人重識(shí)別;局部特征;雙重注意力網(wǎng)絡(luò);深度神經(jīng)網(wǎng)絡(luò)

    1 引 言

    行人重識(shí)別任務(wù)是在跨攝像頭中進(jìn)行指定行人檢索,即對(duì)于給定一個(gè)行人圖像,在多臺(tái)不同角度、沒(méi)有視野重疊覆蓋的攝像頭不同時(shí)間段拍攝的行人圖像數(shù)據(jù)庫(kù)中找到該行人目標(biāo)。隨著監(jiān)控?cái)z像頭在公共區(qū)域的大量普及,行人重識(shí)別技術(shù)受關(guān)注程度越來(lái)越高,在視頻內(nèi)容檢索、視頻監(jiān)控以及智能安防等領(lǐng)域已成為一項(xiàng)核心技術(shù)。

    解決行人重識(shí)別任務(wù)的常見(jiàn)方法是從特征提取和度量學(xué)習(xí)兩個(gè)方面考慮,首先是學(xué)習(xí)特征向量對(duì)行人圖像進(jìn)行特征表示[1-3],然后通過(guò)度量學(xué)習(xí)準(zhǔn)確的度量圖像間的相似性[4-8]。傳統(tǒng)的行人重識(shí)別方法[4]依賴(lài)于手工提取行人特征,再進(jìn)行相似性度量。但由于監(jiān)控?cái)z像頭的分辨率低以及光照、角度等影響,同一個(gè)行人在不同攝像機(jī)中可能有很大差異,而不同的行人在外觀(guān)上可能很相似,這使得手工提取特征很難應(yīng)用到復(fù)雜的現(xiàn)實(shí)環(huán)境中。

    近年來(lái),由于深度學(xué)習(xí)強(qiáng)大的擬合和表征能力,在計(jì)算機(jī)視覺(jué)任務(wù)中都取得了出色的競(jìng)爭(zhēng)表現(xiàn)[9-10]。通過(guò)深度卷積神經(jīng)網(wǎng)絡(luò)提取的行人特征比以前的手工編碼特征具有更高的泛化能力,使得應(yīng)用深度學(xué)習(xí)模型來(lái)解決行人重識(shí)別任務(wù)的準(zhǔn)確率提高到了一個(gè)新的水平。與此同時(shí),帶有標(biāo)簽的行人重識(shí)別數(shù)據(jù)集(如CUHK03[11]、Market-1501[12]和DukeMTMC-reID[13])的出現(xiàn),為深度模型的訓(xùn)練在數(shù)據(jù)層面上提供了可行性。

    在最初的基于深度學(xué)習(xí)的行人重識(shí)別研究方法中,研究者們主要使用最直接的從行人圖像的整體上提取識(shí)別特征方法,即通過(guò)網(wǎng)絡(luò)模型在圖像上提取行人全局特征向量用以相似性檢索[14-15]。雖然,這類(lèi)方法在各大數(shù)據(jù)集上較傳統(tǒng)方法取得了突破性進(jìn)展,但是由于只考慮到整體圖像中捕獲最顯著的外觀(guān)特征來(lái)表示不同行人之間的區(qū)別,忽略了一些不顯著或不頻繁的細(xì)節(jié)信息,從而導(dǎo)致獲取的行人特征不足以準(zhǔn)確表示復(fù)雜場(chǎng)景中的行人身份信息。

    因此,行人重識(shí)別研究并不僅僅只關(guān)注在全局特征上,也開(kāi)始逐漸研究局部特征,并證明了結(jié)合局部特征的行人圖像表示是最有效的[16-17]。局部特征提取的關(guān)鍵是對(duì)整體圖像進(jìn)行分割及局部區(qū)域的精確定位。目前,效果較好的行人重識(shí)別方法在提取局部特征的功能上有所不同,大致可以概括為兩種:一是根據(jù)行人固有的身體結(jié)構(gòu),將圖像在水平方向上分割成若干條條帶,在其上提取局部特征[18-20];二是利用人體姿態(tài)估計(jì)和骨架關(guān)鍵點(diǎn)等先驗(yàn)知識(shí)來(lái)預(yù)測(cè)行人身體結(jié)構(gòu)信息以裁剪出更準(zhǔn)確的局部區(qū)域[21-22]。但是上述方法都有各自的缺陷。第一種水平分塊方法沒(méi)有考慮局部之間不對(duì)齊問(wèn)題;第二種局部劃分方法需要一個(gè)額外的骨架關(guān)鍵點(diǎn)或者姿態(tài)估計(jì)的模型,這會(huì)帶來(lái)額外的姿態(tài)估計(jì)誤差。

    同時(shí),研究者們還提出了針對(duì)行人重識(shí)別的注意力深度學(xué)習(xí)模型[23-24]。類(lèi)似于人類(lèi)視覺(jué)處理的注意力機(jī)制,有選擇性地傾向于注意圖像中的行人部分,而忽略其他不感興趣的區(qū)域,有助于解決行人重識(shí)別問(wèn)題。Li等[25]為展現(xiàn)不同層次的注意力機(jī)制感知和學(xué)習(xí)行人特征,提出了HA-CNN網(wǎng)絡(luò)模型,用來(lái)學(xué)習(xí)互補(bǔ)的區(qū)域級(jí)硬注意力特征和像素級(jí)軟注意力特征,增強(qiáng)柔和和兼容性程度,優(yōu)化處理未對(duì)齊圖像的特征提取技術(shù)。Liu等[26]提出了一個(gè)多級(jí)別注意力模型HydraPlus-Net,將注意力機(jī)制映射到不同的特征層,使其挖掘多級(jí)別特征信息。上述此類(lèi)方法大都將區(qū)域注意力網(wǎng)絡(luò)合并嵌入到深層的行人重識(shí)別模型中。大多數(shù)現(xiàn)有的行人重識(shí)別工作集中于使用全身圖像進(jìn)行注意力學(xué)習(xí),忽視了從行人身體的局部部位學(xué)習(xí)的注意力特征。同時(shí),全局注意力更多地集中在全局信息區(qū)域上,這往往會(huì)抑制或忽略行人身體部位周?chē)木植啃畔^(qū)域,從而導(dǎo)致當(dāng)人的圖像出現(xiàn)較大的姿態(tài)變化、嚴(yán)重的失調(diào)、局部遮擋等情況時(shí),重識(shí)別效果不佳。

    因而,本文重新考慮了如何利用局部特征和注意力機(jī)制學(xué)習(xí)到更加具有識(shí)別力的行人特征,設(shè)計(jì)了一個(gè)基于局部注意力的行人重識(shí)別網(wǎng)絡(luò),即多分區(qū)注意力網(wǎng)絡(luò)模型(multi-division attention network,MDA)。圖1展示了MDA網(wǎng)絡(luò)的整體框架圖。該網(wǎng)絡(luò)主要從兩個(gè)方面解決上述提及的困難:一是同時(shí)學(xué)習(xí)全局特征和不同分塊數(shù)量的局部特征,兼顧行人的整體信息和局部細(xì)節(jié)信息,優(yōu)化深度學(xué)習(xí)中的行人重識(shí)別;二是設(shè)計(jì)了一種雙重局部注意力網(wǎng)絡(luò),分為空間注意力網(wǎng)絡(luò)SANet和通道注意力網(wǎng)絡(luò)CANet,二者在功能上形成很強(qiáng)的互補(bǔ)性,提高行人重識(shí)別模型的性能。

    2 方 法

    圖1 MDA模型框架的概述

    2.1 網(wǎng)絡(luò)子結(jié)構(gòu)

    1) 主干網(wǎng)絡(luò)

    本文中主干網(wǎng)絡(luò)采取的是ResNet50網(wǎng)絡(luò),借助其在行人重識(shí)別領(lǐng)域的優(yōu)勢(shì)。為適應(yīng)網(wǎng)絡(luò)模型中全局和局部特征融合需求,在網(wǎng)絡(luò)層上都對(duì)ResNet50原始版本進(jìn)行簡(jiǎn)化改動(dòng),以及只采用conv 4_1層之前的網(wǎng)絡(luò)部分,后面連上conv和conv分別進(jìn)入三個(gè)獨(dú)立的分支。conv和conv結(jié)構(gòu)大體相同,都是由conv 5_層組成。不同點(diǎn)在于為了獲得更高粒度的特征圖,conv刪除了conv 5_1位置的下采樣操作,而conv不做任何改變。

    這樣,進(jìn)入局部分支的特征圖尺寸比全局分支的特征圖尺寸大一倍,會(huì)強(qiáng)制這兩個(gè)局部分支學(xué)習(xí)更高粒度的特征和更多的細(xì)節(jié)信息。conv和conv模塊獨(dú)立訓(xùn)練,不共享參數(shù),最小化過(guò)度擬合的風(fēng)險(xiǎn)。主干網(wǎng)絡(luò)的更多細(xì)節(jié)參數(shù)展示在表1中。

    這樣,對(duì)于輸入訓(xùn)練圖像,首先使用主干網(wǎng)絡(luò)提取圖像的特征,該特征可以表示為

    2)全局分支

    全局分支的目的是從整個(gè)行人圖像中學(xué)習(xí)最優(yōu)的全局層次的特征表示。如圖1所示,F將會(huì)經(jīng)過(guò)兩條線(xiàn)路:一條是直接與局部分支的輸出做特征融合;另一條用于計(jì)算triplet損失。在計(jì)算損失這條線(xiàn)路上,F會(huì)經(jīng)過(guò)conv層(由核為12′4最大全局池化層、1′1卷積層、BN層和ReLU層組成),可以表示為

    其中:W、b為卷積層的參數(shù)權(quán)重和偏置。式(4)的目的是將2048維的特征降維成256維y,用于計(jì)算triplet損失。

    3) 局部分支

    表1 Backbone network結(jié)構(gòu)

    4) 特征融合

    特征融合部分采用并行策略來(lái)實(shí)現(xiàn),同時(shí)考慮到融合過(guò)程可能會(huì)對(duì)局部注意力特征向量的某些特定維度產(chǎn)生過(guò)大的響應(yīng),加入一個(gè)非線(xiàn)性激活函數(shù)來(lái)平衡局部注意力特征響應(yīng)。融合特征可以定義為

    2.2 雙重局部注意力

    在行人重識(shí)別任務(wù)中引入注意力機(jī)制,是希望通過(guò)類(lèi)似于人腦注意力的機(jī)制,利用很小的感受野處理圖像中特定區(qū)域,降低了計(jì)算的維度,同時(shí)網(wǎng)絡(luò)學(xué)習(xí)圖像中高響應(yīng)區(qū)域的特征表示,使得該部分區(qū)域的特征得到增強(qiáng)。受此思想的影響,本文在局部分支中提出利用注意力機(jī)制進(jìn)一步提取出更具有分辨能力的局部特征,在具體實(shí)現(xiàn)過(guò)程中,運(yùn)用雙重局部注意力模型,即空間注意力(spatial attention network,SANet)和通道注意力(channel attention network,CANet)。

    式中:U為Drop層的輸出,h、w、c為特征圖的高、寬和通道數(shù)??梢钥闯觯珼rop層是專(zhuān)門(mén)為后續(xù)卷積層的輸入大小而設(shè)計(jì)的對(duì)參數(shù)進(jìn)行壓縮,使得參數(shù)量只有原來(lái)的。實(shí)際上,這種跨通道壓縮是合理的,因?yàn)樵谀P驮O(shè)計(jì)中,所有通道共享相同的空間注意特征圖。

    然后經(jīng)過(guò)一個(gè)卷積層和ReLU層,其目的是用于提取空間注意力特征,可以表示為

    CANet是約束每一個(gè)通道上的所有特征值,最后輸出長(zhǎng)度與通道數(shù)目相同的一維向量作為特征加權(quán)輸出。整個(gè)CANet有兩個(gè)支路:多通道分支和直連分支,如圖3所示。

    多通道分支中的Sigmoid激活函數(shù)會(huì)導(dǎo)致其結(jié)構(gòu)①輸出歸一化為0到1之間,特征圖的輸出響應(yīng)變?nèi)?,這樣多通道疊加結(jié)構(gòu)①會(huì)使得最終輸出()的特征圖每一個(gè)點(diǎn)上的值變得很小。因此,式(10)中將()與1相加,可以很好地解決降低特征值問(wèn)題。

    2.3 損失函數(shù)

    圖3 CANet網(wǎng)絡(luò)結(jié)構(gòu)

    3 實(shí) 驗(yàn)

    本文在CUHK03[11]、Market-1501[12]和DukeMTMC-reID[13]數(shù)據(jù)集上進(jìn)行了充分的實(shí)驗(yàn),結(jié)果表明,與現(xiàn)有的網(wǎng)絡(luò)模型相比,本文提出的模型具有更好的魯棒性和有效性。本文使用首位命中率(Rank-1)和平均精度均值(mean average precision,mAP)作為行人重識(shí)別方法的評(píng)價(jià)指標(biāo)。同時(shí),為提高結(jié)果所反映性能的準(zhǔn)確性,使用了Re-ranking評(píng)估方法[29]。

    3.1 實(shí)驗(yàn)細(xì)節(jié)

    整個(gè)模型的實(shí)現(xiàn)是基于PyTorch框架來(lái)完成的,使用單個(gè)NVIDIA GEFORCE GTX 1080TI GPU來(lái)訓(xùn)練和測(cè)試模型。本文在ImageNet[28]數(shù)據(jù)集上預(yù)訓(xùn)練ResNet50網(wǎng)絡(luò)的權(quán)重參數(shù)用來(lái)初始化主干網(wǎng)絡(luò)。對(duì)于每個(gè)最小訓(xùn)練批次,隨機(jī)從數(shù)據(jù)集中選取個(gè)身份的行人和從每類(lèi)行人中隨機(jī)選取張行人圖像。在訓(xùn)練階段,先將訓(xùn)練圖像大小調(diào)整為384′128,然后依概率=0.5進(jìn)行水平翻轉(zhuǎn),以及使用Random Erasing模擬物體遮擋情況進(jìn)行數(shù)據(jù)增強(qiáng)。在測(cè)試階段,只是將圖像大小調(diào)整為384′128。本文使用隨機(jī)梯度下降(SGD)進(jìn)行優(yōu)化,沖量為0.9,2正則化的權(quán)重衰減因子設(shè)為5E-4,初始學(xué)習(xí)率設(shè)為2E-3,每訓(xùn)練80個(gè)迭代次數(shù)下降10%。在每一個(gè)預(yù)測(cè)層之前使用dropout層,dropout比設(shè)置為0.5。

    3.2 實(shí)驗(yàn)結(jié)果

    在Market-1501數(shù)據(jù)集上,將本文提出的方法與9種有代表性的方法進(jìn)行比較,實(shí)驗(yàn)結(jié)果如表2所示??梢钥闯觯疚奶岢龅姆椒ㄈ〉昧溯^好的識(shí)別效果,mAP和Rank-1分別達(dá)到了82.94%和94.03%,在使用Re-ranking技術(shù)后更是達(dá)到了90.27%和94.98%,進(jìn)一步提高了識(shí)別準(zhǔn)確率。在這里選取的比較方法有以下幾種:水平分割方法(PCB+RPP[18])和借助行人姿態(tài)(Spindle[16]、PDC[22])來(lái)完成行人局部特征的提取;行人區(qū)域?qū)R方法提出的(Part-Aligned[24]);全局特征和局部特征的聯(lián)合學(xué)習(xí)(AlignedReID[31]);結(jié)合行人屬性解決行人重識(shí)別問(wèn)題(APR[30]);注意力機(jī)制的引入(HA-CNN[25]、Hydraplus-net[26]、DuATM[32])。

    表2 Market-1501數(shù)據(jù)集實(shí)驗(yàn)結(jié)果

    "RK" refers to implementing re-ranking[29]operation

    在圖4中,顯示了某些給定行人圖像的前10個(gè)排序結(jié)果。可以看出,即使在只有查詢(xún)圖像4(a)的背影圖時(shí),大多數(shù)排名結(jié)果也是能夠保證準(zhǔn)確率的。對(duì)于具有相似外觀(guān)的查詢(xún)圖像4(b)和4(c),由于網(wǎng)絡(luò)可以提取足夠的行人特征信息,因此即使待查詢(xún)圖像中存在不對(duì)齊情況,也可以獲得良好的識(shí)別精度。在查詢(xún)圖像4(d)中的行人存在嚴(yán)重遮擋和姿態(tài)問(wèn)題,本文提出的方法識(shí)別性能不是很好。

    檢索的圖像全部來(lái)自Market-1501數(shù)據(jù)集中的圖像,而不是同一張相機(jī)拍攝的圖像。其中具有綠色邊框的圖像與給定查詢(xún)圖像屬于同一行人,而具有紅色邊框的圖像則不屬于同一行人。

    對(duì)于更大的和更具有挑戰(zhàn)性的DukeMTMC-reID數(shù)據(jù)集,本文方法的重識(shí)別性能也很出色,分別與5種行人重識(shí)別方法進(jìn)行了比較,表3給出了實(shí)驗(yàn)結(jié)果,其在Rank-1和mAP上的性能分別達(dá)到了84.68%和72.17%,在Rank-1指標(biāo)上比PCB+RPP和HA-CNN分別高出了1.38%和4.18%,在mAP指標(biāo)上比PCB+RPP和HA-CNN分別高出了2.97%和8.37%。在這個(gè)目前最具挑戰(zhàn)性的數(shù)據(jù)集上,進(jìn)一步驗(yàn)證了本文方法的優(yōu)勢(shì)。

    對(duì)于CUHK03數(shù)據(jù)集提供的兩種類(lèi)型的標(biāo)簽,CUHK03-Labeled表示為手動(dòng)標(biāo)記行人邊界框,CUHK03-Detected表示為DPM[33]檢測(cè)邊界框。本文提出的方法在CUHK03-Labeled上的Rank-1和mAP達(dá)到了75.36%和71.76%。同時(shí),在CUHK03-Detected上的Rank-1和mAP達(dá)到了73.53%和65.91%。另外從表4中可以觀(guān)察到CUHK03-Labeled和CUHK03-Detected之間有明顯的差距。這足以證明行人圖像標(biāo)簽的標(biāo)注對(duì)行人重識(shí)別性能的重要影響,強(qiáng)調(diào)了高性能行人檢測(cè)器的重要性。

    圖4 行人圖像前10個(gè)排序結(jié)果

    表3 DukeMTMC-ReID數(shù)據(jù)集實(shí)驗(yàn)結(jié)果

    表4 CUHK03數(shù)據(jù)集實(shí)驗(yàn)結(jié)果

    3.3 分析與討論

    為驗(yàn)證本文設(shè)計(jì)的三分支網(wǎng)絡(luò)結(jié)構(gòu)的有效性,我們?cè)贛arket-1501數(shù)據(jù)集上進(jìn)行了一系列不同分支設(shè)置策略的對(duì)比實(shí)驗(yàn),圖5展示了各分支不同組合的比較結(jié)果。將各分支的不同組合方法分為兩類(lèi),一是單個(gè)分支(全局分支、Part1局部分支和Part2局部分支),二是將各分支兩兩進(jìn)行自由組合(全局分支和Part1局部分支、全局分支和Part2局部分支、Part1局部分支和Part2局部分支)。從圖中可以直觀(guān)地看出,一方面,與所有的單個(gè)分支實(shí)驗(yàn)結(jié)果相比,本文提出的分支組合方法效果更好。在僅保留全局分支時(shí),行人重識(shí)別結(jié)果最差,Rank-1和mAP只達(dá)到84.89%和69.12%。在單個(gè)局部分支的對(duì)比實(shí)驗(yàn)中,Part2分支比Part1分支在Rank-1指標(biāo)上高2.65%,在mAP指標(biāo)上高4.81%,這說(shuō)明在一定程度上隨著局部劃分?jǐn)?shù)量的增加,行人重識(shí)別效果越來(lái)越好。另一方面,基于本文提出的多分區(qū)注意力網(wǎng)絡(luò),可以增加或減少局部分支的數(shù)量,即將三個(gè)分支自由組合,則會(huì)發(fā)現(xiàn)性能顯著下降。原因是提出的多分區(qū)注意力網(wǎng)絡(luò)的三個(gè)分支之間存在重疊,并且可以引入不同分區(qū)之間的相關(guān)性,從而可以學(xué)習(xí)更多差異信息。

    我們進(jìn)一步評(píng)估提出的雙重局部注意力DLA的效果,同樣的是在Market-1501數(shù)據(jù)集進(jìn)行的對(duì)比實(shí)驗(yàn), 實(shí)驗(yàn)結(jié)果如圖6所示。由圖可知,在沒(méi)有加任何注意力機(jī)制的全局和局部結(jié)合的純網(wǎng)絡(luò)GP中,Rank-1和mAP分別為85.33%和76.40%。在此基礎(chǔ)上開(kāi)始引入注意力機(jī)制,結(jié)合純網(wǎng)絡(luò)GP和空間注意力網(wǎng)絡(luò)SANet可以使得Rank-1和mAP分別達(dá)到89.56%和80.52%,結(jié)合純網(wǎng)絡(luò)GP和通道注意力網(wǎng)絡(luò)CANet可以使得Rank-1和mAP分別達(dá)到91.07%和81.16%。這說(shuō)明在網(wǎng)絡(luò)中嵌入注意力機(jī)制能提高行人重識(shí)別效果,但也反映出加入單一的注意力網(wǎng)絡(luò)對(duì)重識(shí)別結(jié)果影響不顯著。將本文提出的方法與前面三種網(wǎng)絡(luò)進(jìn)行比較,證實(shí)了提出的雙重局部注意力網(wǎng)絡(luò)能有效地幫助改進(jìn)行人重識(shí)別的性能,以及說(shuō)明了空間注意力和通道注意力結(jié)合的優(yōu)勢(shì)和有效性。

    4 結(jié) 論

    行人重識(shí)別是一個(gè)具有挑戰(zhàn)性和實(shí)際意義的計(jì)算機(jī)視覺(jué)問(wèn)題,本文將卷積神經(jīng)網(wǎng)絡(luò)和注意力思想引入行人重識(shí)別任務(wù),提出了一種基于多分區(qū)注意力的網(wǎng)絡(luò)模型,取得了顯著性的進(jìn)展。與大多數(shù)容易產(chǎn)生局部匹配錯(cuò)位問(wèn)題或利用全局的注意力機(jī)制的現(xiàn)有行人重識(shí)別方法相比,本文提出的網(wǎng)絡(luò)能夠以端到端的形式,運(yùn)用雙重注意力機(jī)制提取具有互補(bǔ)效果的行人局部注意力特征,并與全局特征進(jìn)行融合,從而獲得具有更好的行人重識(shí)別效果性能。同時(shí),也注意到盡管均勻分塊方法簡(jiǎn)單有效,但有待改進(jìn),在接下來(lái)的工作中,可以結(jié)合行人姿態(tài)估計(jì)和骨架關(guān)鍵點(diǎn)分析,提取更加有效的局部特征,繼續(xù)研究準(zhǔn)確率更高、魯棒性更好的行人重識(shí)別模型。

    圖5 不同分支組合比較結(jié)果圖

    圖6 DLA效果圖

    [1] Sun R, Fang W, Gao J,. Person Re-identification in foggy weather based on dark channel prior and metric learning[J]., 2016, 43(12): 142–146.

    孫銳, 方蔚, 高雋. 暗通道和測(cè)度學(xué)習(xí)的霧天行人再識(shí)別[J]. 光電工程, 2016, 43(12): 142–146.

    [2] Su C, Zhang S L, Yang F,. Attributes driven tracklet-to-tracklet person re-identification using latent prototypes space mapping[J]., 2017, 66: 4–15.

    [3] Matsukawa T, Okabe T, Suzuki E,. Hierarchical gaussian descriptor for person Re-identification[C]//, Las Vegas, NV, USA, 2016: 1363–1372.

    [4] Zhao R, Ouyang W L, Wang X G. Person Re-identification by salience matching[C]//, Sydney, NSW, Australia, 2013: 2528–2535.

    [5] Chen D P, Yuan Z J, Hua G,. Similarity learning on an explicit polynomial kernel feature map for person re-identification[C]//, Boston, MA, USA, 2015: 1565–1573.

    [6] Sun Y F, Zheng L, Deng W J,. SVDNet for pedestrian retrieval[C]//, Venice, Italy, 2017: 3820–3828.

    [7] Yang X, Wang M, Tao D C. Person Re-identification with metric learning using privileged information[J]., 2018, 27(2): 791–805.

    [8] Zhang L, Xiang T, Gong S G. Learning a discriminative null space for person Re-identification[C]//, Las Vegas, NV, USA, 2016: 1239–1248.

    [9] Liu H, Peng L, Wen J W. Multi-occluded pedestrian real-time detection algorithm based on preprocessing R-FCN[J]., 2019, 46(9): 180606.

    劉輝, 彭力, 聞繼偉. 基于改進(jìn)R-FCN的多遮擋行人實(shí)時(shí)檢測(cè)算法[J]. 光電工程, 2019, 46(9): 180606.

    [10] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[C]//, Red Hook, NY, United States, 2012, 25: 1097–1105.

    [11] Li W, Zhao R, Xiao T,. DeepReID: deep filter pairing neural network for person Re-identification[C]//, Columbus, OH, USA, 2014: 152–159.

    [12] Zheng L, Shen L Y, Tian L,. Scalable person Re-identification: a benchmark[C]//, Santiago, Chile, 2015: 1116–1124.

    [13] Zheng Z D, Zheng L, Yang Y. Unlabeled samples generated by GAN improve the person Re-identification baseline in Vitro[C]//, Venice, Italy, 2017: 3774–3782.

    [14] Sudowe P, Spitzer H, Leibe B. Person attribute recognition with a jointly-trained holistic CNN model[C]//, Santiago, Chile, 2015: 329–337.

    [15] Cheng D Q, Tang S X, Feng C C,. Extended HOG-CLBC for pedstrain detection[J]., 2018, 45(8): 180111.

    程德強(qiáng), 唐世軒, 馮晨晨, 等. 改進(jìn)的HOG-CLBC的行人檢測(cè)方法[J]. 光電工程, 2018, 45(8): 180111.

    [16] Zhao H Y, Tian M Q, Sun S Y,. Spindle net: person Re-identification with human body region guided feature decomposition and fusion[C]//, Honolulu, HI, USA, 2017: 907–915.

    [17] Wei L H, Zhang S L, Yao H T,. GLAD: global-local-alignment descriptor for pedestrian retrieval[C]//, California, Mountain View, USA, 2017: 420–428.

    [18] Sun Y F, Zheng L, Yang Y,. Beyond part models: person retrieval with refined part pooling[Z]. arXiv:1711.09349[cs:CV], 2017.

    [19] Zheng Z D, Zheng L, Yang Y. Pedestrian alignment network for large-scale person Re-identification[J]., 2019, 29(10): 3037–3045.

    [20] Cheng D, Gong Y H, Zhou S P,. Person Re-identification by multi-channel parts-based CNN with improved triplet loss function[C]//, Las Vegas, NV, USA, 2016: 1335–1344.

    [21] Zheng L, Huang Y J, Lu H C,. Pose-invariant embedding for deep person Re-identification[J]., 2019, 28(9): 4500–4509.

    [22] Su C, Li J N, Zhang S L,. Pose-driven deep convolutional model for person Re-identification[C]//, Venice, Italy, 2017: 3980–3989.

    [23] Li D W, Chen X T, Zhang Z,. Learning deep context-aware features over body and latent parts for person Re-identification[C]//, Honolulu, HI, USA, 2017: 7398–7407.

    [24] Zhao L M, Li X, Zhuang Y T,. Deeply-learned part-aligned representations for person Re-identification[C]//, Venice, Italy, 2017: 3239–3248.

    [25] Li W, Zhu X T, Gong S G. Harmonious attention network for person Re-identification[C]//, Salt Lake City, UT, USA, 2018: 2285–2294.

    [26] Liu X H, Zhao H Y, Tian M Q,. HydraPlus-Net: attentive deep features for pedestrian analysis[C]//, Venice, Italy, 2017: 350–359.

    [27] Hermans A, Beyer L, Leibe B. In Defense of the triplet loss for person Re-Identification[Z]. arXiv: 1703.07737[cs:CV], 2017.

    [28] Deng J, Dong W, Socher R,. ImageNet: a large-scale hierarchical image database[C]//, Miami, FL, USA, 2009: 248–255.

    [29] Zhong Z, Zheng L, Cao D L,. Re-ranking person Re-identification with k-reciprocal encoding[C]//, Honolulu, HI, USA, 2017: 3652–3661.

    [30] Lin Y T, Zheng L, Zheng Z D,. Improving person Re-identification by attribute and identity learning[Z]. arXiv: 1703.07220[cs:CV], 2017.

    [31] Zhang X, Luo H, Fan X,. AlignedReID: surpassing human-level performance in person Re-identification[Z]. arXiv: 1711.08184[cs:CV], 2017.

    [32] Si J L, Zhang H G, Li C G,. Dual attention matching network for context-aware feature sequence based person Re-identification[C]//, Salt Lake City, UT, USA, 2018: 5363–5372.

    [33] Felzenszwalb P F, McAllester D A, Ramanan D. A discriminatively trained, multiscale, deformable part model[C]//, Anchorage, AK, USA, 2008: 1–8.

    Person re-identification by multi-division attention

    Xue Lixia, Zhu Zhengfa, Wang Ronggui, Yang Juan*

    College of Computer and Information, Hefei University of Technology, Hefei, Anhui 230009, China

    Top-10 ranking list for some query images

    Overview:With the popularity of surveillance cameras in public areas, person re-identification has become more and more important, and has become a core technology in video content retrieval, video surveillance, and intelligent security. However, in actual application scenarios, due to factors such as camera shooting angle, complex lighting changes, and changing pedestrian poses, occlusions, clothes, and background clutter in person images. It makes even the same person target have significant differences in different cameras, which poses a great challenge for person re-identification research. Therefore, in this paper we propose a research method based on deep convolutional networks, which combines global and local person feature and attention mechanisms to solve the problem of person re-identification. First, unlike traditional methods, we use ResNet50 network to initially extract person image features with more discriminating ability. Then, according to the person inherent body structure, the image is divided into several bands in the horizontal direction, and it is input into the local branch of the built-in attention mechanism to extract the person local attention features. At the same time, the global image is input to the global branch to extract the person global features. Finally, the person global features and local attention features are fused to calculate the loss function. In the network, in order to better extract the person local features, we design two local branches to segment the person images into different numbers of local area images. With the increase of the number of blocks, the network will learn more detailed and discriminative local features in each different local area, and at the same time, it can filter irrelevant information in local images to a large extent by combining the attention mechanism. Our proposed attention mechanism can make the network focus on the areas that need to be identified. The output person attention features usually have a stronger response than the non-target areas. Therefore, the attention networks we design include spatial attention networks and channel attention networks, which complement each other to learn the optimal attention feature, thereby extracting more discriminative local features. Experimental results show that the method proposed in this paper can effectively improve the performance of person re-identification.

    Citation: Xue L X, Zhu Z F, Wang R G,. Person re-identification by multi-division attention[J]., 2020,47(11): 190628

    Person re-identification by multi-division attention

    Xue Lixia, Zhu Zhengfa, Wang Ronggui, Yang Juan*

    College of Computer and Information, Hefei University of Technology, Hefei, Anhui 230009, China

    Person re-identification is significant but a challenging task in the computer visual retrieval, which has a wide range of application prospects. Background clutters, arbitrary human pose, and uncontrollable camera angle will greatly hinder person re-identification research. In order to extract more discerning person features, a network architecture based on multi-division attention is proposed in this paper. The network can learn the robust and discriminative person feature representation from the global image and different local images simultaneously, which can effectively improve the recognition of person re-identification tasks. In addition, a novel dual local attention network is designed in the local branch, which is composed of spatial attention and channel attention and can optimize the extraction of local features. Experimental results show that the mean average precision of the network on the Market-1501, DukeMTMC-reID, and CUHK03 datasets reaches 82.94%, 72.17%, and 71.76%, respectively.

    person re-identification; local features; dual attention network; deep neural networks

    TP391.4;TP301.6

    A

    薛麗霞,朱正發(fā),汪榮貴,等. 基于多分區(qū)注意力的行人重識(shí)別方法[J]. 光電工程,2020,47(11): 190628

    10.12086/oee.2020.190628

    : Xue L X, Zhu Z F, Wang R G,Person re-identification by multi-division attention[J]., 2020, 47(11): 190628

    2019-10-17;

    2020-03-10

    薛麗霞(1976-),女,博士,副教授,碩士生導(dǎo)師,主要從事智能視頻處理與分析、視頻大數(shù)據(jù)與云計(jì)算、智能視頻監(jiān)控與公共安全、嵌入式多媒體技術(shù)等的研究。E-mail:xixzzm@163.com

    楊娟(1983-),女,博士,講師,碩士生導(dǎo)師,主要從事視頻信息處理、視頻大數(shù)據(jù)處理技術(shù)、深度學(xué)習(xí)與二進(jìn)神經(jīng)網(wǎng)絡(luò)理論與應(yīng)用等的研究。E-mail:yangjuan6985@163.com

    * E-mail: yangjuan6985@163.com

    猜你喜歡
    分支全局行人
    Cahn-Hilliard-Brinkman系統(tǒng)的全局吸引子
    量子Navier-Stokes方程弱解的全局存在性
    毒舌出沒(méi),行人避讓
    意林(2021年5期)2021-04-18 12:21:17
    巧分支與枝
    路不為尋找者而設(shè)
    落子山東,意在全局
    金橋(2018年4期)2018-09-26 02:24:54
    一類(lèi)擬齊次多項(xiàng)式中心的極限環(huán)分支
    我是行人
    新思路:牽一發(fā)動(dòng)全局
    生成分支q-矩陣的零流出性
    久9热在线精品视频| 女性被躁到高潮视频| 国产一区二区三区视频了| 巨乳人妻的诱惑在线观看| 老汉色av国产亚洲站长工具| 国产亚洲av嫩草精品影院| 国产区一区二久久| 亚洲午夜理论影院| 亚洲 国产 在线| 免费高清视频大片| 久9热在线精品视频| 日本一本二区三区精品| 国产精品免费视频内射| 精华霜和精华液先用哪个| 亚洲人成77777在线视频| 给我免费播放毛片高清在线观看| 我的亚洲天堂| 少妇粗大呻吟视频| 免费高清视频大片| 在线观看免费午夜福利视频| 麻豆一二三区av精品| 欧美日韩黄片免| 国产91精品成人一区二区三区| 亚洲国产精品成人综合色| 亚洲一区高清亚洲精品| 美国免费a级毛片| ponron亚洲| 国产精品一区二区三区四区久久 | 日韩欧美在线二视频| 欧美乱色亚洲激情| 婷婷精品国产亚洲av在线| 在线天堂中文资源库| 香蕉国产在线看| 亚洲天堂国产精品一区在线| 精品国产亚洲在线| 亚洲久久久国产精品| 18禁裸乳无遮挡免费网站照片 | 亚洲精品一区av在线观看| 女生性感内裤真人,穿戴方法视频| 精品免费久久久久久久清纯| 亚洲成国产人片在线观看| 人人妻人人看人人澡| 亚洲专区中文字幕在线| 亚洲人成77777在线视频| 三级毛片av免费| 成人欧美大片| 日本五十路高清| 露出奶头的视频| 国产极品粉嫩免费观看在线| av电影中文网址| 最好的美女福利视频网| 亚洲狠狠婷婷综合久久图片| 97超级碰碰碰精品色视频在线观看| 亚洲中文日韩欧美视频| 2021天堂中文幕一二区在线观 | 美女国产高潮福利片在线看| 日本 av在线| 99国产精品一区二区蜜桃av| 亚洲天堂国产精品一区在线| 国产精品综合久久久久久久免费| 色综合站精品国产| 欧美色欧美亚洲另类二区| 看黄色毛片网站| 久久欧美精品欧美久久欧美| av视频在线观看入口| 久久久久国产一级毛片高清牌| 国产精品亚洲美女久久久| 久久久国产欧美日韩av| 日韩av在线大香蕉| 亚洲国产中文字幕在线视频| 少妇 在线观看| 国产免费av片在线观看野外av| 一个人观看的视频www高清免费观看 | 精品乱码久久久久久99久播| av福利片在线| 麻豆一二三区av精品| 日韩欧美国产一区二区入口| 最近最新中文字幕大全免费视频| 亚洲第一电影网av| 国产午夜福利久久久久久| 亚洲精品美女久久久久99蜜臀| 国产av又大| 脱女人内裤的视频| 一区二区三区高清视频在线| 叶爱在线成人免费视频播放| 亚洲国产精品久久男人天堂| 欧美三级亚洲精品| 国产精品日韩av在线免费观看| 久久香蕉激情| 亚洲专区字幕在线| 欧美黑人精品巨大| 男人操女人黄网站| netflix在线观看网站| 无遮挡黄片免费观看| 欧美日韩乱码在线| 午夜成年电影在线免费观看| 每晚都被弄得嗷嗷叫到高潮| 香蕉丝袜av| 亚洲欧美精品综合久久99| 少妇熟女aⅴ在线视频| 亚洲国产看品久久| 一本久久中文字幕| 成人精品一区二区免费| 国产在线观看jvid| 99riav亚洲国产免费| xxx96com| 神马国产精品三级电影在线观看 | 国产精品亚洲av一区麻豆| 中文字幕精品免费在线观看视频| 国产一卡二卡三卡精品| 99精品久久久久人妻精品| 色播在线永久视频| www日本黄色视频网| 母亲3免费完整高清在线观看| 精品久久久久久久久久久久久 | av超薄肉色丝袜交足视频| 黄色丝袜av网址大全| 久久精品91蜜桃| www.999成人在线观看| 日韩有码中文字幕| 亚洲人成伊人成综合网2020| 日本熟妇午夜| 日韩欧美三级三区| 精品一区二区三区四区五区乱码| 日韩精品中文字幕看吧| 久久99热这里只有精品18| 俺也久久电影网| 中文字幕久久专区| 亚洲国产毛片av蜜桃av| 俺也久久电影网| 国产激情欧美一区二区| 国产在线观看jvid| 亚洲成av人片免费观看| 国产亚洲精品av在线| 亚洲成人精品中文字幕电影| 视频在线观看一区二区三区| 高潮久久久久久久久久久不卡| 日本免费一区二区三区高清不卡| 日日干狠狠操夜夜爽| 亚洲欧洲精品一区二区精品久久久| 亚洲国产高清在线一区二区三 | 亚洲欧洲精品一区二区精品久久久| 亚洲精品中文字幕在线视频| 亚洲七黄色美女视频| 久久伊人香网站| 老汉色∧v一级毛片| 90打野战视频偷拍视频| www.熟女人妻精品国产| 每晚都被弄得嗷嗷叫到高潮| 国产成人精品久久二区二区91| 丰满人妻熟妇乱又伦精品不卡| 妹子高潮喷水视频| 国产伦人伦偷精品视频| 久久热在线av| 精品电影一区二区在线| 国产精品久久久人人做人人爽| 欧美成狂野欧美在线观看| 欧美一级毛片孕妇| 曰老女人黄片| 欧美日韩乱码在线| www.精华液| 夜夜看夜夜爽夜夜摸| 女生性感内裤真人,穿戴方法视频| 亚洲成国产人片在线观看| 又紧又爽又黄一区二区| 女生性感内裤真人,穿戴方法视频| 国产成人欧美在线观看| 久久精品91蜜桃| 精品久久久久久久毛片微露脸| 久久久久国产一级毛片高清牌| 亚洲成人免费电影在线观看| 亚洲精品中文字幕一二三四区| 国产aⅴ精品一区二区三区波| 亚洲专区中文字幕在线| 视频在线观看一区二区三区| 热re99久久国产66热| 91麻豆精品激情在线观看国产| 亚洲成av人片免费观看| 欧美激情久久久久久爽电影| 国产三级黄色录像| 伦理电影免费视频| 国产精品影院久久| www.www免费av| 免费一级毛片在线播放高清视频| 久热这里只有精品99| 好男人在线观看高清免费视频 | www.www免费av| 成人精品一区二区免费| 婷婷六月久久综合丁香| 日韩一卡2卡3卡4卡2021年| 国产乱人伦免费视频| 免费高清视频大片| 国产久久久一区二区三区| 麻豆久久精品国产亚洲av| 国产精品av久久久久免费| 丰满人妻熟妇乱又伦精品不卡| 亚洲专区中文字幕在线| 国产成人影院久久av| 热re99久久国产66热| 日韩欧美一区视频在线观看| 亚洲成a人片在线一区二区| 女同久久另类99精品国产91| 免费观看人在逋| 亚洲欧洲精品一区二区精品久久久| 此物有八面人人有两片| 久久九九热精品免费| 中文资源天堂在线| 十八禁网站免费在线| 精品欧美一区二区三区在线| 动漫黄色视频在线观看| 一个人观看的视频www高清免费观看 | 午夜亚洲福利在线播放| 日日夜夜操网爽| 久久狼人影院| 三级毛片av免费| 变态另类成人亚洲欧美熟女| 久久精品国产亚洲av高清一级| 中文字幕久久专区| 一进一出好大好爽视频| 午夜激情福利司机影院| 久久国产精品影院| or卡值多少钱| 丰满人妻熟妇乱又伦精品不卡| 日韩欧美国产一区二区入口| 好男人在线观看高清免费视频 | 99在线视频只有这里精品首页| 欧美日韩瑟瑟在线播放| 亚洲熟妇熟女久久| 最近最新中文字幕大全电影3 | 欧美日韩一级在线毛片| 一边摸一边做爽爽视频免费| 亚洲国产精品成人综合色| 看片在线看免费视频| 国产高清激情床上av| 国产国语露脸激情在线看| 欧美精品亚洲一区二区| 免费女性裸体啪啪无遮挡网站| 久久久久久久久免费视频了| av在线播放免费不卡| 日本一区二区免费在线视频| 精品国产超薄肉色丝袜足j| 中文字幕另类日韩欧美亚洲嫩草| 热re99久久国产66热| 18禁国产床啪视频网站| 色av中文字幕| 国产三级在线视频| 午夜激情福利司机影院| 老熟妇仑乱视频hdxx| 日韩av在线大香蕉| 在线国产一区二区在线| 亚洲精品粉嫩美女一区| 久久久久久久久免费视频了| 欧美午夜高清在线| 亚洲avbb在线观看| 午夜免费成人在线视频| 国产极品粉嫩免费观看在线| 一边摸一边做爽爽视频免费| 51午夜福利影视在线观看| 精品国内亚洲2022精品成人| 午夜免费观看网址| 99热这里只有精品一区 | 黑人操中国人逼视频| 美女高潮喷水抽搐中文字幕| 黄色丝袜av网址大全| 无遮挡黄片免费观看| 在线观看日韩欧美| 国产一级毛片七仙女欲春2 | 婷婷精品国产亚洲av在线| 国产色视频综合| 亚洲一区中文字幕在线| videosex国产| 中文字幕久久专区| 中文字幕人妻丝袜一区二区| 九色国产91popny在线| 国产不卡一卡二| 午夜老司机福利片| 亚洲成人久久性| 欧美成人一区二区免费高清观看 | 成人精品一区二区免费| 亚洲精品色激情综合| 校园春色视频在线观看| 欧美在线黄色| 国产精品亚洲av一区麻豆| 国内少妇人妻偷人精品xxx网站 | 男人的好看免费观看在线视频 | 久久婷婷人人爽人人干人人爱| aaaaa片日本免费| 身体一侧抽搐| 两性夫妻黄色片| 黄色成人免费大全| 日韩av在线大香蕉| 婷婷亚洲欧美| 日韩av在线大香蕉| 色老头精品视频在线观看| videosex国产| 精品久久久久久久人妻蜜臀av| 国产一卡二卡三卡精品| 日韩欧美国产在线观看| 国产欧美日韩一区二区三| 精品欧美一区二区三区在线| 国产精品久久久av美女十八| 久久久久久亚洲精品国产蜜桃av| 日本黄色视频三级网站网址| 一边摸一边抽搐一进一小说| 精品福利观看| 一级片免费观看大全| 国产精品乱码一区二三区的特点| 亚洲国产欧洲综合997久久, | 男女床上黄色一级片免费看| 亚洲成国产人片在线观看| 国产亚洲精品久久久久久毛片| 亚洲精品中文字幕一二三四区| 一进一出抽搐动态| 黄色成人免费大全| 午夜亚洲福利在线播放| 免费在线观看日本一区| 最好的美女福利视频网| 制服诱惑二区| 欧美 亚洲 国产 日韩一| 久久精品影院6| 人妻久久中文字幕网| 亚洲国产高清在线一区二区三 | av超薄肉色丝袜交足视频| 成人精品一区二区免费| 亚洲成人国产一区在线观看| 国产97色在线日韩免费| 色哟哟哟哟哟哟| a级毛片在线看网站| 精品卡一卡二卡四卡免费| 国产高清视频在线播放一区| 18禁裸乳无遮挡免费网站照片 | 亚洲国产看品久久| 精品无人区乱码1区二区| 亚洲一区中文字幕在线| 欧美激情极品国产一区二区三区| 国产成人啪精品午夜网站| 999久久久精品免费观看国产| 变态另类丝袜制服| 最近在线观看免费完整版| 欧美最黄视频在线播放免费| 宅男免费午夜| 精品一区二区三区av网在线观看| 老汉色av国产亚洲站长工具| 成人欧美大片| av有码第一页| 黑人操中国人逼视频| a级毛片a级免费在线| 丁香六月欧美| 久久99热这里只有精品18| 操出白浆在线播放| 国产免费男女视频| 国产欧美日韩精品亚洲av| 欧美丝袜亚洲另类 | 深夜精品福利| 国产激情久久老熟女| 伊人久久大香线蕉亚洲五| 久久久久九九精品影院| 欧美日韩瑟瑟在线播放| 露出奶头的视频| √禁漫天堂资源中文www| 久久久国产欧美日韩av| 制服诱惑二区| 在线观看免费视频日本深夜| 成在线人永久免费视频| 国产成人av激情在线播放| 婷婷精品国产亚洲av在线| 又大又爽又粗| 国产成+人综合+亚洲专区| 国产精品免费一区二区三区在线| 精品久久蜜臀av无| 熟女电影av网| 女生性感内裤真人,穿戴方法视频| 99久久综合精品五月天人人| 亚洲国产欧美日韩在线播放| 欧美成人性av电影在线观看| 一级毛片高清免费大全| 男女下面进入的视频免费午夜 | 女人爽到高潮嗷嗷叫在线视频| 草草在线视频免费看| 桃色一区二区三区在线观看| 妹子高潮喷水视频| 国产成人精品无人区| 精品国内亚洲2022精品成人| 日韩精品免费视频一区二区三区| 一进一出抽搐动态| 国产视频一区二区在线看| 制服丝袜大香蕉在线| 50天的宝宝边吃奶边哭怎么回事| 国产又爽黄色视频| 久久久国产成人免费| 亚洲午夜精品一区,二区,三区| 亚洲人成77777在线视频| 精品久久久久久久久久免费视频| 男女下面进入的视频免费午夜 | 国产精品一区二区精品视频观看| 桃红色精品国产亚洲av| 国产高清视频在线播放一区| 欧美色欧美亚洲另类二区| 色在线成人网| 午夜成年电影在线免费观看| 88av欧美| 国产激情偷乱视频一区二区| 欧美日韩亚洲综合一区二区三区_| 欧美绝顶高潮抽搐喷水| 亚洲五月天丁香| 亚洲熟女毛片儿| 制服诱惑二区| 午夜福利在线在线| www国产在线视频色| 久久狼人影院| 久久热在线av| 欧美性猛交黑人性爽| 亚洲av片天天在线观看| 亚洲欧美一区二区三区黑人| 欧美精品亚洲一区二区| 香蕉国产在线看| 日本免费一区二区三区高清不卡| 国产区一区二久久| 久久亚洲精品不卡| 中文在线观看免费www的网站 | 真人一进一出gif抽搐免费| 12—13女人毛片做爰片一| 欧美日韩福利视频一区二区| 女人高潮潮喷娇喘18禁视频| 亚洲欧美精品综合久久99| 午夜福利一区二区在线看| 中文在线观看免费www的网站 | 亚洲成人久久爱视频| 日本五十路高清| 中出人妻视频一区二区| 精品国产美女av久久久久小说| 黄片播放在线免费| 成人亚洲精品一区在线观看| 两性午夜刺激爽爽歪歪视频在线观看 | 久久久国产成人免费| 一进一出抽搐gif免费好疼| 亚洲人成伊人成综合网2020| 国产又色又爽无遮挡免费看| 两个人看的免费小视频| 啦啦啦 在线观看视频| 亚洲国产日韩欧美精品在线观看 | 老汉色∧v一级毛片| 久久久精品国产亚洲av高清涩受| 亚洲国产毛片av蜜桃av| 精品久久久久久久久久久久久 | 亚洲天堂国产精品一区在线| 国产三级黄色录像| 日本熟妇午夜| 中亚洲国语对白在线视频| 久久久久久免费高清国产稀缺| 女警被强在线播放| 久久国产精品男人的天堂亚洲| x7x7x7水蜜桃| 男人舔奶头视频| 亚洲欧美激情综合另类| 中文字幕人成人乱码亚洲影| 首页视频小说图片口味搜索| 国产av在哪里看| 久久草成人影院| 久久精品国产亚洲av香蕉五月| 黄色a级毛片大全视频| av有码第一页| 久久久久国产精品人妻aⅴ院| 免费看十八禁软件| 91字幕亚洲| 99久久综合精品五月天人人| 久久久久久久久久黄片| 精品卡一卡二卡四卡免费| 亚洲av熟女| 在线观看免费视频日本深夜| 黄色片一级片一级黄色片| 97人妻精品一区二区三区麻豆 | 国产又色又爽无遮挡免费看| 淫妇啪啪啪对白视频| 天天添夜夜摸| 国产精品98久久久久久宅男小说| 最近在线观看免费完整版| 91成人精品电影| 丰满人妻熟妇乱又伦精品不卡| 国产av不卡久久| 一本大道久久a久久精品| 中国美女看黄片| 日本免费一区二区三区高清不卡| 老司机福利观看| 久久久久久久久久黄片| 好看av亚洲va欧美ⅴa在| 最近最新免费中文字幕在线| 999久久久国产精品视频| 欧美中文日本在线观看视频| 欧美激情 高清一区二区三区| 看黄色毛片网站| 亚洲黑人精品在线| 老熟妇仑乱视频hdxx| 久久久久国产一级毛片高清牌| 国产精品,欧美在线| 亚洲av中文字字幕乱码综合 | 国产99白浆流出| 国产视频内射| 丰满的人妻完整版| 色播在线永久视频| 麻豆av在线久日| 12—13女人毛片做爰片一| www国产在线视频色| 黄片小视频在线播放| 久久久久久久久中文| 欧美在线一区亚洲| ponron亚洲| 亚洲熟妇熟女久久| 久久精品国产综合久久久| a级毛片在线看网站| 亚洲专区中文字幕在线| 欧美中文综合在线视频| 亚洲熟妇熟女久久| 又黄又爽又免费观看的视频| 久久香蕉激情| 在线观看一区二区三区| 国产99久久九九免费精品| 日本a在线网址| 国产一区二区三区视频了| 女人被狂操c到高潮| 日韩欧美三级三区| 成人永久免费在线观看视频| 国产色视频综合| 波多野结衣av一区二区av| 国产人伦9x9x在线观看| 一个人免费在线观看的高清视频| 一级黄色大片毛片| 99久久精品国产亚洲精品| 1024香蕉在线观看| 香蕉久久夜色| 给我免费播放毛片高清在线观看| 天天躁狠狠躁夜夜躁狠狠躁| 我的亚洲天堂| 两个人视频免费观看高清| 999精品在线视频| 精品午夜福利视频在线观看一区| 99在线人妻在线中文字幕| 又黄又爽又免费观看的视频| 欧美日韩福利视频一区二区| 一区二区日韩欧美中文字幕| 看片在线看免费视频| 国产精品 国内视频| 此物有八面人人有两片| 欧美大码av| 亚洲性夜色夜夜综合| 欧美成人午夜精品| 无人区码免费观看不卡| 色综合亚洲欧美另类图片| 亚洲av成人一区二区三| 国产精品久久视频播放| 亚洲真实伦在线观看| 最近最新中文字幕大全电影3 | 成人精品一区二区免费| 欧美成人一区二区免费高清观看 | 亚洲专区中文字幕在线| 国内久久婷婷六月综合欲色啪| 久久久精品欧美日韩精品| 一级黄色大片毛片| 国产97色在线日韩免费| 波多野结衣高清作品| 熟妇人妻久久中文字幕3abv| www.www免费av| 久久国产乱子伦精品免费另类| 夜夜躁狠狠躁天天躁| 男女之事视频高清在线观看| 日韩欧美 国产精品| 国产激情久久老熟女| 国产精品爽爽va在线观看网站 | 99久久无色码亚洲精品果冻| 国产精品久久久久久亚洲av鲁大| 成人18禁高潮啪啪吃奶动态图| 国内毛片毛片毛片毛片毛片| 国产一区二区三区视频了| 熟女少妇亚洲综合色aaa.| 91成年电影在线观看| 亚洲熟女毛片儿| 久久草成人影院| 美女高潮到喷水免费观看| 精品少妇一区二区三区视频日本电影| 最新在线观看一区二区三区| 天堂√8在线中文| 婷婷精品国产亚洲av| 两人在一起打扑克的视频| 十八禁网站免费在线| 国语自产精品视频在线第100页| 99热6这里只有精品| 岛国视频午夜一区免费看| 色老头精品视频在线观看| 久久久精品国产亚洲av高清涩受| 在线免费观看的www视频| 日韩国内少妇激情av| 国产精品美女特级片免费视频播放器 | 黄色成人免费大全| 最新在线观看一区二区三区| 久久久水蜜桃国产精品网| av免费在线观看网站| 国产97色在线日韩免费| 99在线人妻在线中文字幕| 变态另类成人亚洲欧美熟女| 欧美中文日本在线观看视频| 国产亚洲欧美在线一区二区| 日本成人三级电影网站| 久久久久国产一级毛片高清牌| 成人免费观看视频高清| 亚洲电影在线观看av| 精品午夜福利视频在线观看一区| 91成年电影在线观看| 国产一区二区三区视频了| 日本在线视频免费播放| 日本免费a在线| 伊人久久大香线蕉亚洲五| 久久热在线av| 国产精品久久久久久人妻精品电影| 国产精品影院久久| 精品国产乱子伦一区二区三区|