• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多級特征和混合注意力機制的室內(nèi)人群檢測網(wǎng)絡(luò)

    2019-01-06 07:27沈文祥秦品樂曾建潮
    計算機應(yīng)用 2019年12期
    關(guān)鍵詞:注意力機制

    沈文祥 秦品樂 曾建潮

    摘 要:針對室內(nèi)人群目標尺度和姿態(tài)多樣性、人頭目標易與周圍物體特征混淆的問題,提出了一種基于多級特征和混合注意力機制的室內(nèi)人群檢測網(wǎng)絡(luò)(MFANet)。該網(wǎng)絡(luò)結(jié)構(gòu)包括三部分,即特征融合模塊、多尺度空洞卷積金字塔特征分解模塊以及混合注意力模塊。首先,通過將淺層特征和中間層特征信息融合,形成包含上下文信息的融合特征,用于解決淺層特征圖中小目標語義信息不豐富、分類能力弱的問題;然后,利用空洞卷積增大感受野而不增加參數(shù)的特性,對融合特征進行多尺度分解,形成新的小目標檢測分支,實現(xiàn)網(wǎng)絡(luò)對多尺度目標的定位和檢測;最后,用局部混合注意力模塊來融合全局像素關(guān)聯(lián)空間注意力和通道注意力,增強對關(guān)鍵信息貢獻大的特征,來增強網(wǎng)絡(luò)對目標和背景的區(qū)分能力。實驗結(jié)果表明,所提方法在室內(nèi)監(jiān)控場景數(shù)據(jù)集SCUT-HEAD上達到了0.94的準確率、0.91的召回率和0.92的F1 分數(shù),在召回率、準確率和F1指標上均明顯優(yōu)于當前用于室內(nèi)人群檢測的其他算法。

    關(guān)鍵詞:室內(nèi)人群檢測;特征融合;注意力機制;空洞卷積;特征金字塔

    中圖分類號: TP389.1 人工神經(jīng)網(wǎng)絡(luò)計算機;TP391.41圖像識別及其裝置文獻標志碼:A

    Indoor crowd detection network based on multi-level features and

    hybrid attention mechanism

    SHEN Wenxiang, QIN Pinle, ZENG Jianchao*

    (College of Big Data, North University of China, Taiyuan Shanxi 030051, China)

    Abstract: In order to solve the problem of indoor crowd target scale and attitude diversity and confusion of head targets with surrounding objects, a new Network based on Multi-level Features and hybrid Attention mechanism for indoor crowd detection (MFANet) was proposed. It is composed of three parts: feature fusion module, multi-scale dilated convolution pyramid feature decomposition module, and hybrid attention module. Firstly, by combining the information of shallow features and intermediate layer features, a fusion feature containing context information was formed to solve the problem of the lack of semantic information and the weakness of classification ability of the small targets in the shallow feature map. Then, with the characteristics of increasing the receptive field without increasing the parameters, the dilated convolution was used to perform the multi-scale decomposition on the fusion features to form a new small target detection branch, realizing the positioning and detection of the multi-scale targets by the network. Finally, the local fusion attention module was used to integrate the global pixel correlation space attention and channel attention to enhance the features with large contribution on the key information in order to improve the ability of distinguishing target from background. The experimental results show that the proposed method achieves an accuracy of 0.94, a recall rate of 0.91 and an F1 score of 0.92 on the indoor monitoring scene dataset SCUT-HEAD. All of these three are significantly better than those of other algorithms currently used for indoor crowd detection.

    Key words: indoor crowd detection; feature fusion; attention mechanism; dilate convolution; feature pyramid

    0 引言

    計算機視覺一直是計算機科學(xué)領(lǐng)域研究熱點之一。作為計算機視覺領(lǐng)域的一個典型應(yīng)用,公共室內(nèi)場所人數(shù)統(tǒng)計在人流量商業(yè)數(shù)據(jù)統(tǒng)計分析、公共安全等許多方面有著重要的應(yīng)用價值。目前室內(nèi)場景人群計數(shù)主要有兩種思路:一種是直接通過回歸的方式得到人群數(shù)量,另一種是采用檢測的方式進行人群檢測。基于回歸的方法只能預(yù)測人群密度,得到一個粗略的結(jié)果;基于檢測的方法可以得出精確的定位信息和人數(shù)統(tǒng)計。目前針對人的檢測方法主要有兩種:一類是人臉識別的算法[1-4],一類是行人識別的算法[5-6]。但是,這兩種方法在室內(nèi)人群檢測中性能均不好。人臉識別只能檢測人臉,這意味著相機無法檢測人的背面。由于室內(nèi)場景人群的復(fù)雜性,很多身體部位被相互遮擋,因此,行人識別同樣也無法很好地解決該問題。然而,人頭檢測卻沒有這些限制,可以很好地適用于室內(nèi)人群定位和計數(shù)。當然,室內(nèi)場景人頭檢測同樣存在很多挑戰(zhàn)。

    頭部姿態(tài)和尺度的多樣性是人頭檢測的第一大關(guān)鍵難題。目前主要采用測試階段輸入多尺度圖像和訓(xùn)練過程中對中間特征層進行多尺度變換兩種主要的思路改善這個問題。第一種圖像金字塔結(jié)構(gòu)的思路,如圖1(a)所示。多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)(Multi-Task Convolutional Neural Network, MTCNN) [4]直接通過下采樣得到不同尺度的輸入圖像送入訓(xùn)練好的檢測網(wǎng)絡(luò)中進行預(yù)測,最終通過非極大值抑制(Non Maximum Suppression, NMS)[7]輸出目標位置和種類。Singh等[8]提出在訓(xùn)練和測試中,建立大小不同的圖像金字塔,在每張圖上都運行一個檢測網(wǎng)絡(luò),同時只保留那些大小在指定范圍之內(nèi)的輸出結(jié)果,最終通過非極大抑制操作輸出目標位置和種類。由于這類基于圖像金字塔結(jié)構(gòu)的算法計算復(fù)雜度高,內(nèi)存消耗嚴重,耗時長,因此在檢測任務(wù)上的效率非常低。第二種特征金字塔結(jié)構(gòu)的思路是目前目標檢測算法中出現(xiàn)最多的,SSD(Single Shot multibox Detector)[9]采用多層特征圖獨立檢測輸出,構(gòu)成多尺度特征檢測結(jié)構(gòu),如圖1(b)所示。Lin等[10]提出了一種將高層特征和淺層特征圖融合的至上而下的結(jié)構(gòu)FPN (Feature Pyramid Networks),最后在融合后的不同層進行獨立預(yù)測,如圖1(c)所示。Zhou等[11]同樣也提出了一種對稱的結(jié)構(gòu)進行多尺度融合。相比于第一種思路,第二種思路利用更少的內(nèi)存和耗時,并且還可以作為組件嵌入到不同的檢測網(wǎng)絡(luò)中。因此本文也采用這種思路。通過分析,發(fā)現(xiàn)淺層特征對于小尺度目標有很好的定位能力,但是語義表征信息弱,由于連續(xù)下采樣,小目標區(qū)域在中間層特征圖中的表征區(qū)域已經(jīng)降為1×1像素大小,因此,本文只利用上采樣融合淺層和中間層特征,然后采用多尺度空洞卷積金字塔結(jié)構(gòu)生成新的淺層和中間層檢測分支,高層檢測分支仍然采用原來的特征層,形成一個兩級檢測的混合結(jié)構(gòu),如圖1(d)所示。通過本文設(shè)計的特征融合結(jié)構(gòu)和多尺度空洞卷積金字塔結(jié)構(gòu)很好地改善了頭部姿態(tài)和尺度多樣性的問題。

    圖像質(zhì)量不高容易使得人頭區(qū)域與周圍物體特征混淆,因此如何只關(guān)注目標特征,忽略背景特征干擾是室內(nèi)場景人頭檢測另一個關(guān)鍵難題。目前很多算法引入注意力機制,引導(dǎo)神經(jīng)網(wǎng)絡(luò)關(guān)注目標區(qū)域,排除背景特征的干擾。Jaderberg等[12]發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)中池化和下采樣操作直接將信息合并會導(dǎo)致關(guān)鍵信息無法識別出來,提出了一種新的空間轉(zhuǎn)換模塊結(jié)構(gòu),用于指導(dǎo)網(wǎng)絡(luò)顯式的學(xué)習(xí)目標的空間特性,例如旋轉(zhuǎn)、平移等,這相當于空間域的注意力機制。Hu等[13]發(fā)現(xiàn)不同的特征圖對關(guān)鍵信息的貢獻不同,因此通過學(xué)習(xí)的方式來自動獲取到每個特征通道的重要程度,然后依照這個重要程度去提升有用的特征并抑制對當前任務(wù)用處不大的特征,這相當于通道域的注意力機制。Zhang等[14]引入一種關(guān)注特征相似性,從而擴大圖像感受野的注意力機制用于圖像超分辨率。因此,注意力機制已經(jīng)被很好地證明適用于關(guān)鍵特征的提取。本文提出了一種混合通道域和空間域的注意力模塊,嵌入到不同的檢測分支中,增強了不同分支對目標特征和背景特征的區(qū)分能力。

    通過本文設(shè)計的特征融合模塊和混合注意力模塊很好地解決了上述兩個難題。本文算法在標準數(shù)據(jù)集上達到了0.91的召回率(recall),大幅優(yōu)于現(xiàn)有的單階段人群檢測算法[9,15-17]。

    本文的主要工作有以下幾點:

    1)設(shè)計了一種新穎的特征融合結(jié)構(gòu)。首先通過上采樣操作將中間層特征圖和淺層特征圖尺度歸一化,然后利用concate操作融合特征圖,構(gòu)成包含豐富小目標定位信息和語義信息的融合層,改善了網(wǎng)絡(luò)淺層對小目標表征不足的問題。

    2)設(shè)計了一種新穎的多尺度空洞卷積金字塔特征分解結(jié)構(gòu)。利用多尺度空洞卷積金字塔結(jié)構(gòu)對融合特征圖進行多尺度分解,構(gòu)成對小目標和中等目標檢測的新分支,利用原網(wǎng)絡(luò)針對大目標的檢測分支和新生成的檢測分支構(gòu)成多特征層檢測結(jié)構(gòu),有效地利用了網(wǎng)絡(luò)不同層對目標檢測的貢獻,有效地改善了單階段網(wǎng)絡(luò)對多尺度和多姿態(tài)人頭的檢測性能不足的問題。

    3)設(shè)計了一種混合空間域和通道域的注意力結(jié)構(gòu)嵌入到不同的檢測分支中,增強對關(guān)鍵信息貢獻大的特征圖,大幅增強了網(wǎng)絡(luò)對目標區(qū)域和背景區(qū)域的分辨能力。

    4)以VGG(Visual Geometry Group)16輕量級特征提取網(wǎng)絡(luò)為基本網(wǎng)絡(luò)結(jié)構(gòu),結(jié)合本文提出的特征融合分解結(jié)構(gòu)和注意力機制,構(gòu)成了單階段兩級檢測的端到端網(wǎng)絡(luò),在訓(xùn)練和檢測階段實現(xiàn)了實時的人群檢測網(wǎng)絡(luò)。

    1 相關(guān)工作

    目前基于深度學(xué)習(xí)的目標檢測算法主要分為兩類:一類是兩階段檢測算法,例如Fast-RCNN(Fast Region-CNN)[18],F(xiàn)aster-RCNN[15]和R-FCN(Region-based Fully Convolutional Network)[16]。這類方法都是先生成目標的候選區(qū)域并進行粗篩選,然后對篩選后的候選區(qū)域進行目標分類和邊界框回歸。第二類是單階段檢測算法,主要有:OverFeat[19]、SSD[9]、YOLO(You Only Look Once)[17]系列。

    單階段檢測網(wǎng)絡(luò)增強淺層特征對小目標表征能力的方法主要分為兩類:第一類是是直接將輸入圖像放大提升小目標尺度,如MTCNN(Multi-Task Convolutional Neural Network)、SNIP(Scale Normalization for Image Pyramids),這一類算法都是將輸入圖像多尺度放大后用于訓(xùn)練或測試階段。第二類是對特征圖進行多尺度變換再利用,如多尺度深度卷積神經(jīng)網(wǎng)絡(luò)(Multi-Scale deep CNN, MS-CNN)[20]、反卷積單目標檢測器(Deconvolutional Single Shot Detector, DSSD) [21]。

    深度學(xué)習(xí)中的注意力是一種模擬人大腦處理視覺任務(wù)的機制,人類視覺只關(guān)注感興趣區(qū)域,忽略其他背景干擾。注意力機制(Attention mechanism)[22]可以被解釋為將可用的計算資源的分配偏向于包含最有用信息的特征部分,首先用于自然語言處理中關(guān)注對下文詞語貢獻高的詞語,之后在很多圖像處理任務(wù)中也已經(jīng)證明了注意力機制的實用性,包括目標檢測[13]、圖像超分辨率[14]等。在這些任務(wù)中,注意力機制作為一種模塊嵌入網(wǎng)絡(luò)層中,表示用于模態(tài)之間的自適應(yīng)高級抽象。

    2 本文室內(nèi)人群檢測網(wǎng)絡(luò)

    2.1 網(wǎng)絡(luò)整體結(jié)構(gòu)

    本文提出的基于多級特征和混合注意力機制的室內(nèi)人群檢測網(wǎng)絡(luò)(Network based on Multi-level Features and hybrid Attention mechanism for indoor crowd detection, MFANet)整體結(jié)構(gòu)如圖2所示,它和SSD一樣是端到端的單階段檢測網(wǎng)絡(luò)。主干網(wǎng)絡(luò)采用輕量級網(wǎng)絡(luò)VGG16的卷積層用于提取特征,替換用于分類的全連接層,并且額外增加了卷積層,形成特征提取主干網(wǎng)絡(luò);通過上采樣操作將淺層和中間層特征尺度歸一化,再通過concate操作構(gòu)建融合層融合淺層和中間層特征圖,對原有淺層和中間層特征進行融合形成新的融合特征圖;然后,再利用多尺度空洞卷積分解結(jié)構(gòu)對融合層進行多尺度分解形成新的小目標檢測分支,結(jié)合原有特征層形成的大目標檢測分支,形成一個兩級檢測分支用于產(chǎn)生密集的預(yù)測框和分類置信度;最后,通過軟化非極大值抑制(soft Non-Maximum Suppression, soft-NMS)輸出最終的檢測結(jié)果。MFANet主要包含3部分結(jié)構(gòu):特征融合模塊(Feature Fusion Module, FFM)、多尺度空洞卷積金字塔特征分解結(jié)構(gòu)(Multi-Scale Dilated convolution Feature Pyramid decomposition Module, MSDFPM)、混合注意力模塊(Fusion Attention Module, FAM)。特征融合模塊通過將淺層特征和中間層特征信息融合,形成包含上下文信息的融合特征,用于解決淺層特征圖中小目標語義信息不豐富、分類能力弱的問題;多尺度空洞卷積金字塔結(jié)構(gòu)主要利用空洞卷積感受野增大、參數(shù)不增加的特性,對融合特征進行多尺度分解,形成新的小目標檢測分支,滿足網(wǎng)絡(luò)對多尺度目標的定位和檢測;局部混合注意力模塊通過融合全局像素關(guān)聯(lián)空間注意力和通道注意力,增強對關(guān)鍵信息貢獻大的特征,大幅增強網(wǎng)絡(luò)對目標和背景的區(qū)分能力。

    2.2 特征融合模塊

    本文將絕對尺寸在圖像中占據(jù)的區(qū)域小于32×32像素的目標定義為小目標。單次檢測網(wǎng)絡(luò)均存在小目標檢測能力弱的問題,究其原因是由于用于特征提取的主干網(wǎng)絡(luò)淺層特征圖雖然包含豐富的細節(jié)定位信息,但是包含的小目標語義信息少,對小目標的分類能力弱。隨著網(wǎng)絡(luò)層加深,深層特征圖包含豐富的語義信息,但是丟失了小目標的細節(jié)定位信息。因此,最直接的想法是將包含豐富細節(jié)定位信息的淺層特征圖和包含豐富語義信息的深層特征圖通過一定的融合規(guī)則融合形成既包含豐富細節(jié)定位信息又包含豐富語義信息的特征圖。由于小目標特征在經(jīng)過多層下采樣之后,原有細節(jié)和語義信息已經(jīng)丟失,在深層網(wǎng)絡(luò)層中已經(jīng)不再包含小目標的語義信息。如圖3所示,當原圖像中一個頭部區(qū)域為30×30時,淺層特征圖中的豐富細節(jié)特征隨著網(wǎng)絡(luò)層的加深,圖像不斷被下采樣,最終在conv7_2特征圖中目標區(qū)域已經(jīng)被抽象成一個點特征,在conv7_2之后的特征圖中已經(jīng)丟失了該目標的特征信息。因此,直接使用最深層特征圖對淺層進行語義增強的效果并不明顯。

    基于此分析,采用將中間層特征和淺層特征進行融合的思路,在SSD模型中原有的主干特征提取網(wǎng)絡(luò)中嵌入了新穎的特征融合模塊形成包含全局上下文信息的融合特征。如圖4所示,首先利用1×1的卷積構(gòu)建瓶頸層壓縮淺層和中間層特征圖的通道,然后分別將中間層特征圖通過上采樣放大到和淺層特征圖相同的尺寸,最后這里沒有采用將所有特征圖相加形成新的特征圖,而是利用concate將所有相同尺寸的特征圖連接起來形成第二層特征圖,主要是由于像素級相加操作要求兩個特征圖有相同的長寬和通道,那么就需要在融合前確保兩個特征圖尺度完全一致,這么做的缺點是新增了額外的歸整化操作,并限制了被融合feature map的靈活性,并且concate連接操作可以很好地保證不同特征圖檢測的同一個目標所包含的特征區(qū)域被相同激活。相較于主干網(wǎng)絡(luò)提取的特征,新的融合特征圖既包含特征提取主干網(wǎng)絡(luò)中淺層特征圖中小目標豐富的細節(jié)特征,同時又利用中間層特征圖中小目標豐富的語義信息,這大幅提升了檢測小目標的準確率。

    2.3 多尺度空洞卷積金字塔結(jié)構(gòu)

    在得到融合特征圖后,需要生成新的檢測分支。受FPN的啟發(fā),對融合后的特征圖可以進行多尺度下采樣,構(gòu)成多尺度金字塔結(jié)構(gòu)用于生成新的檢測分支。由于主要目標是需要提升小目標的檢測能力,因此,本文只生成conv4_3和fc7兩個新的檢測分支,用于構(gòu)成小目標檢測分支,如圖5所示。新生成的檢測特征圖需要和原檢測特征圖尺寸相同,感受野相同,這樣可以保證平均地檢測不同尺度的目標,而標準的卷積由于感受野局限,傳統(tǒng)做法一般采用池化操作進行下采樣,但是這樣容易丟失定位信息。因此,為了增大感受野的同時,又不丟失小目標定位信息,研究者們提出一種新的卷積操作:空洞卷積[23]。如圖6所示,它是在標準卷積的基礎(chǔ)上,通過填零操作,增大了感受野的同時,而不增加學(xué)習(xí)參數(shù),只增加了一個超參數(shù):空洞率(dilate rate)。由于空洞卷積操作容易引起網(wǎng)格效應(yīng),根據(jù)Wang等[24]提出的空洞卷積級聯(lián)參考設(shè)計準則,首先利用空洞率為2的空洞卷積操作增大感受野,再級聯(lián)一個空洞率為1的標準卷積用于消除網(wǎng)格效應(yīng),最后利用滑動步長為2的3×3卷積進行下采樣操作生成conv7_2,在新生成的檢測分支之后,均添加了一個3×3卷積用于整合通道內(nèi)部相關(guān)性信息。新生成的小目標檢測分支相較原檢測分支,擁有更豐富的小目標細節(jié)特征和語義特征。

    2.4 混合注意力模塊

    由于室內(nèi)監(jiān)控圖像成像質(zhì)量差、人群密度大、場景內(nèi)容復(fù)雜,很容易造成目標和周圍背景的特征相似度高,影響網(wǎng)絡(luò)對目標的判斷,因此,要求設(shè)計的模型能夠很好地區(qū)分目標和背景特征。最直接的想法是對圖像進行超分辨率,然后再進行目標識別;但是,這樣會造成內(nèi)存占用高、計算復(fù)雜度增加,并且無法滿足端到端的訓(xùn)練和推理,大幅增加了推理和訓(xùn)練時間。根據(jù)壓縮感知神經(jīng)網(wǎng)(Squeeze-and-Excitation Networks, SENet)的論述[13],神經(jīng)網(wǎng)絡(luò)不同特征圖、同一特征圖內(nèi)不同區(qū)域?qū)Σ煌繕说呢暙I率都是不同的,如果能夠只使用對關(guān)鍵目標貢獻率高的特征圖,舍棄對關(guān)鍵目標貢獻率不高的特征圖,則會大幅提升對目標的定位和識別效果。而新近快速發(fā)展的注意力機制可以很好地實現(xiàn)這個功能。因此,本文設(shè)計了一種混合注意力模塊用于提取關(guān)鍵特征,整體結(jié)構(gòu)如圖7所示。輸入特征圖x∈RH×W×C,經(jīng)過通道注意力模塊提取對目標貢獻率大的的通道注意力圖F(x)∈R1×1×C,通過級聯(lián)的方式,利用空間注意力模塊提取二維的空間注意力圖G(x)∈RH×W×1,得到最終的輸出。整個注意力提取的過程如式(1)所示:

    Z(x)=G(F(x)x)F(x)(1)

    其中:是像素級點乘,在點乘過程中,注意力圖被廣播到不同通道、不同區(qū)域的特征圖中;最終的輸出Z(x)既包含空間注意力,又包括通道注意力。如圖8所示,輸出了淺層添加注意力機制和不添加注意力機制后的部分特征圖,可以看出,本文設(shè)計的注意力結(jié)構(gòu)很好地增強了特征圖中目標區(qū)域的語義信息和細節(jié)定位信息。

    2.4.1 通道注意力子模塊

    每一個通道特征圖都可以看作是特征檢測器,針對不同的目標,不同通道的特征圖對關(guān)鍵信息的貢獻率是不同的,通道注意力關(guān)注的就是不同的通道對關(guān)鍵信息的貢獻率。因此本文設(shè)計了一種用于提取通道和目標之間內(nèi)在關(guān)系的結(jié)構(gòu),如圖9所示。

    為了只學(xué)習(xí)不同通道的貢獻率,首先壓縮空間信息,目前普遍采用全局平均池化的方法。Hu等[13]提出使用全局平均池化來獲得目標檢測候選區(qū)域,文中提出的SENet在注意力模塊中使用了全局平均池化統(tǒng)計特征圖的空間信息。不同于他們的思路,本文認為全局最大池化操作可以獲得目標之間差異性最大的特征,可以有助于推斷更精細的通道注意力。因此,本文同時采用全局平均池化和全部最大池化兩種操作。首先利用全局平均池化和全局最大池化分別生成不同的空間描述特征:Mcave∈R1×1×C,Mcmax∈R1×1×C。然后通過像素級相加得到融合后的通道描述特征Mcmerge。融合后的通道描述特征送入一個多層感知機得到最終的通道注意力圖。為了壓縮參數(shù),本文設(shè)置了一個壓縮比(ratio),通過大量實驗,最終該參數(shù)設(shè)置為16。最后整個通道注意力提取的過程可以描述如下:

    Mcmerge(x)=Mcave(x)+Mcmax(x)(2)

    F(x)=σ(W1(ReLU(W0Mcmerge(x))))(3)

    其中σ為sigmoid函數(shù),因為通道注意力提取過程是獲得通道特征圖對關(guān)鍵信息的貢獻率,屬于廣義二分類問題。多層感知機的權(quán)重: W0∈RC×C/r,W1∈RC/r×C,W0之后使用ReLU激活函數(shù)來提升網(wǎng)絡(luò)的非線性程度。

    2.4.2 空間注意力子模塊

    空間位置注意力主要是尋找特征圖中對關(guān)鍵信息重要的區(qū)域,這是對通道注意力的一種補充。由于普通的卷積操作受限于卷積核的大小,只能考慮鄰域內(nèi)的特征內(nèi)在聯(lián)系,無法考慮全局區(qū)域中相似特征的關(guān)聯(lián)性。因此為了獲取全局區(qū)域?qū)﹃P(guān)鍵信息的貢獻,本文受非局部網(wǎng)絡(luò)啟發(fā),設(shè)計了一種新穎的空間注意力結(jié)構(gòu),如圖10所示。

    輸入特征圖x∈RH×W×C首先通過全局最大池化和全局平均池化操作,沿通道維度生成兩個新的特征描述: Msave∈RH×W×1,Msmax∈RH×W×1。然后通過concate操作融合新的特征描述,之后通過一個標準的卷積操作激活獲得最終的注意力圖。整個注意力提取過程描述如下所示:

    Msmerge(x)=[Msave,Msmax](4)

    G(x)=σ(f3×3Msmerge(x))(5)

    其中:σ為sigmoid函數(shù); f3×3表示3×3的標準卷積操作。本文設(shè)計的空間注意力機制首先通過壓縮通道維度,只留下空間位置信息,然后通過卷積操作對全局區(qū)域進行注意力學(xué)習(xí),得到包含全局上下文信息的注意力圖。通過本文設(shè)計的空間注意力模塊,網(wǎng)絡(luò)可以有效地學(xué)習(xí)到不同區(qū)域?qū)δ繕说脑鲆?,從而有效地增強目標識別能力。最后,本文通過級聯(lián)的方式融合了通道注意力模塊和空間位置注意力模塊,構(gòu)成混合注意力模塊。

    3 損失函數(shù)

    目標檢測既包含分類任務(wù)又包含回歸任務(wù),因此需要構(gòu)建多任務(wù)損失函數(shù)。本文的損失函數(shù)定義為定位損失和分類損失加權(quán)求和,如下所示:

    L(x,c,l,g)=1N(Lconf(x,c)+αLloc(x,l,g))(6)

    其中超參數(shù)α為平衡系數(shù),用于平衡分類損失和定位損失對最終結(jié)構(gòu)的影響,這里根據(jù)多次實驗選取α=1。N是匹配到的默認框數(shù)量,如果N=0,則設(shè)置損失為0。本文使用框的中心點坐標(cx,cy)和寬(ω)、高(h)四個參數(shù)定義一個目標框的圖像位置。由于smoothL1相較于直接使用L2回歸損失更平滑,因此使用預(yù)測框(l)和真實標簽(g)之間的smoothL1損失作為定位損失,如式(7)所示:

    Lloc(x,l,g)=∑Ni∈Pos∑m∈{cx,cy,ω,h}xkij smoothL1(lmi-mj)(7)

    cxj=(gcxj-dcxi)/dωi

    cyj=(gcyj-dcyi)/dhi

    ωj=lg(gωj/dωi)

    hj=lg(ghj/dhi)

    分類損失使用softmax多分類損失,如式(8)所示:

    Lconf(x,c)=-∑Ni∈Posxpij lg(pi)-∑i∈Neglg(0i)(8)

    pi=exp(cpi)/∑pexp(cpi)

    4 實驗與結(jié)果分析

    本文在公開的大學(xué)教室人群檢測數(shù)據(jù)集SCUT-HEAD[25]上進行實驗。SCUT-HEAD數(shù)據(jù)集包含兩個部分:PartA包含2000張大學(xué)教室監(jiān)控圖片,其中標記人頭數(shù)67321個。PartB包含2405張互聯(lián)網(wǎng)中下載的圖片,其中標記人頭數(shù)43930個。該數(shù)據(jù)集采用Pascal VOC標注標準。本文采用PartA部分訓(xùn)練,其中1500張用于訓(xùn)練,500張用于測試。訓(xùn)練完成后本文選用查準率(Precision, P)、查全率(Recall, R)和F1 score指標共同評估本文模型和其他模型的性能。同時,針對特征融合模塊、注意力模塊的結(jié)構(gòu)合理性進行了對比實驗,驗證結(jié)構(gòu)設(shè)計的合理性。

    4.1 SCUT-HEAD實驗

    首先將本文提出的算法和其他常用目標檢測算法進行性能對比實驗。數(shù)據(jù)集使用SCUT-HEAD PartA和PartB數(shù)據(jù)集。通過分析主干網(wǎng)絡(luò)的感受野,設(shè)置default box默認尺寸如表1所示。數(shù)據(jù)增廣采用了隨機左右鏡像、隨機亮度和數(shù)據(jù)歸一化三種方式對數(shù)據(jù)進行了預(yù)處理。訓(xùn)練時,設(shè)備使用了1臺NVIDIA P100 GPU服務(wù)器,基于VGG16作為骨干網(wǎng)絡(luò)的SSD在MSCOCO數(shù)據(jù)上預(yù)訓(xùn)練的參數(shù)開始訓(xùn)練。采用隨機梯度下降(Stochastic Gradient Descent, SGD)優(yōu)化器,動量設(shè)置為0.9,權(quán)重正則衰減系數(shù)設(shè)置為0.0005,初始學(xué)習(xí)率設(shè)置為1E-3;當訓(xùn)練80000次后,學(xué)習(xí)率設(shè)置為1E-4;當再訓(xùn)練20000次后,學(xué)習(xí)率設(shè)置為1E-5;最后,再訓(xùn)練20000次。網(wǎng)絡(luò)訓(xùn)練階段的分類損失和定位損失曲線分別如圖11所示。

    表格(有表名)表1 默認框基礎(chǔ)尺寸設(shè)置和理論感受野

    Tab. 1 Basic size setting and theoretical receptive field of default boxes

    檢測層步長候選框尺寸感受野尺寸conv4_383292fc732128420conv6_232128452conv7_264256516conv8_2128512644conv9_2128512772

    本文對比了Faster-RCNN、YOLOv3、SSD、R-FCN(ResNet-50)和Redmon等[17]提出的基于特征增強網(wǎng)絡(luò)(Feature Refine Net, FRN)的改進R-FCN算法,對比結(jié)果如表2 所示。相較于其他算法,本文算法在各個評估指標下均有很高的提升,并且各個性能指標均高于0.9,在人群檢測領(lǐng)域,本文算法MFANet達到了最好的檢測效果。

    4.2 結(jié)構(gòu)對比實驗

    本文為驗證特征融合模塊融合淺層和中間層的合理性,設(shè)計了不同的淺層特征圖和中間層特征圖組合結(jié)構(gòu)進行實驗。數(shù)據(jù)集選用SCUT-HEAD PartA部分,所有實驗訓(xùn)練配置均相同。如表3所示,可以發(fā)現(xiàn)使用淺層conv4_3至中間層conv7_2進行融合,最終性能指標最好,表明了本文特征融合模塊結(jié)構(gòu)設(shè)計的合理性。

    為驗證新檢測分支生成數(shù)量設(shè)計的合理性,設(shè)計了兩種不同數(shù)目的檢測分支結(jié)構(gòu):第一種是只生成新的conv4_3檢測分支;第二種是生成新的conv4_3 fc7檢測分支。數(shù)據(jù)集選用SCUT-HEAD PartA部分,所有實驗訓(xùn)練配置均相同。如表4所示,可以發(fā)現(xiàn),本文選取的新檢測分支數(shù)量合理,可以有效地提升算法性能。

    本文設(shè)計實驗驗證混合注意力模塊結(jié)構(gòu)設(shè)計的合理性,數(shù)據(jù)集選用SCUT-HEAD PartA 部分。設(shè)計了五種不同的結(jié)構(gòu):第一種是在檢測分支中不增加局部注意力模塊;第二種是在檢測分支中增加SENet 的中通道注意力模塊(SEBlock);第三種是在檢測分支中增加本文設(shè)計的通道注意力模塊(Channel Attention Module, CAM);第四種是在檢測分支中增加本文設(shè)計的空間注意力模塊(Spatial Attention Module, SAM);第五種是在檢測分支中增加本文設(shè)計的混合注意力模塊(CAM+SAM)。根據(jù)表5 所示的結(jié)果可以看出,本文設(shè)計的混合注意力機制可以更好地提升網(wǎng)絡(luò)的性能。

    4.3 測試結(jié)果展示

    如圖11所示,第一行展示的是小目標有遮擋的場景測試結(jié)果;第二行展示了既有多尺度目標,也有多姿態(tài)目標的一般場景;第三行和第四行分別展示的是前向和后向密集場景測試結(jié)果;最后一行展示的是在人工手動標注無法包含全部真實目標的場景下,不同算法的檢測結(jié)果。通過不同方法的結(jié)果對比可以看出,本文提出的MFANet很好地解決了目標多尺度、多姿態(tài)的檢測問題和目標易與環(huán)境特征相似的檢測問題,并且本文算法在密集型人群中的檢測結(jié)果性能達到了領(lǐng)先水平。

    5 結(jié)語

    本文提出了一種基于多級特征和混合注意力機制的人群目標檢測網(wǎng)絡(luò)MFANet,主要是用于檢測室內(nèi)人群,并根據(jù)檢測結(jié)果得到最終的人群計數(shù)統(tǒng)計。首先,設(shè)計了淺層和中間層特征融合模塊用于解決目標尺寸多樣性的問題;然后,設(shè)計了混合注意力模塊用來解決目標區(qū)域和周圍背景特征混淆的問題;最后,采用類SSD的單階段檢測框架融合設(shè)計的新結(jié)構(gòu),實現(xiàn)了端到端的訓(xùn)練和預(yù)測,在GPU上的推理速度達到每秒25幀,并且在標準數(shù)據(jù)集上實現(xiàn)了0.92的F1 score和0.91的召回率;并且,本文算法靈活簡單,同樣可以用于其他目標的檢測任務(wù)中。目前,只使用了以輕量級的VGG16作為主干網(wǎng)絡(luò),使用ResNet-50、DenseNet等性能更優(yōu)的深度網(wǎng)絡(luò)作為主干網(wǎng)絡(luò)會更好地提升模型的性能,這也是我們接下來的研究方向。

    參考文獻 (References)

    [1]WANG Q, FAN H, SUN G, et al. Laplacian pyramid adversarial network for face completion [J]. Pattern Recognition, 2019, 88: 493-505.

    [2]YIN X, LIU X. Multi-task convolutional neural network for pose-invariant face recognition [J]. IEEE Transactions on Image Processing, 2018, 27(2): 964-975.

    [3]LU J, YUAN X, YAHAGI T. A method of face recognition based on fuzzy clustering and parallel neural networks [J]. Signal Processing, 2006, 86(8): 2026-2039.

    [4]ZHANG K, ZHANG Z, LI Z, et al. Joint face detection and alignment using multitask cascaded convolutional networks [J]. IEEE Signal Processing Letters, 2016, 23(10): 1499-1503.

    [5]CAO Y, GUAN D, HUANG W, et al. Pedestrian detection with unsupervised multispectral feature learning using deep neural networks [J]. Information Fusion, 2019, 46: 206-217.

    [6]JUNG S I, HONG K S. Deep network aided by guiding network for pedestrian detection [J]. Pattern Recognition Letters, 2017, 90: 43-49

    [7]NEUBECK A, VAN GOOL L. Efficient non-maximum suppression [C]// Proceedings of the 18th International Conference on Pattern Recognition. Piscataway: IEEE, 2006: 850-855

    [8]SINGH B, DAVIS L S. An analysis of scale invariance in object detection-SNIP [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 3578-3587

    [9]LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multibox detector [C]// Proceedings of the 14th European Conference on Computer Vision, LNCS 9905. Cham: Springer, 2016: 21-37.

    [10]LIN T Y, DOLLAR P, GIRSHICK R, et al. Feature pyramid networks for object detection [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017: 936-944.

    [11]ZHOU P, NI B, GENG C, et al. Scale-transferrable object detection [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 528-537.

    [12]JADERBERG M, SIMONYAN K, ZISSERMAN A, et al. Spatial transformer networks [C]// Proceedings of the 2015 International Conference on Neural Information Processing Systems. New York: Curran Associates Inc., 2015: 2017-2025.

    [13]HU J, SHEN L, SUN G. Squeeze-and-excitation networks [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 7132-7141.

    [14]ZHANG H, GOODFELLOW I, METAXAS D, et al. Self-attention generative adversarial networks [C]// Proceedings of the 36th International Conference on Machine Learning. New York: PMLR, 2019: 7354-7363.

    [15]李曉光,付陳平,李曉莉,等.面向多尺度目標檢測的改進Faster R-CNN算法[J].計算機輔助設(shè)計與圖形學(xué)學(xué)報,2019,31(7):1095-1101.(LI X G, FU C P, LI X L, et al. Improved faster R-CNN for multi-scale object detection [J]. Journal of Computer-Aided Design and Computer Graphics, 2019, 31(7): 1095-1101.)

    [16]李靜,降愛蓮.復(fù)雜場景下基于R-FCN的小人臉檢測研究[J/OL].計算機工程與應(yīng)用:1-12[2019-04-22].http://kns.cnki.net/kcms/detail/Detail.aspx?dbname=CAPJLAST&filename=JSGG20190123006&v=.(LI J, JIANG A L. Face detection based on R-FCN in complex scenes [J/OL]. Journal of Computer Engineering and Applications: 1-12[2019-04-22]. http://kns.cnki.net/kcms/detail/Detail.aspx?dbname=CAPJLAST&filename=JSGG20190123006&v=.)

    [17]REDMON J, FARHADI A. YOLO9000: better, faster, stronger [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017: 6517-6525.

    [18]LI J, LIANG X, SHEN S, et al. Scale-aware fast R-CNN for pedestrian detection [J]. IEEE Transactions on Multimedia, 2018, 20(4): 985-996.

    [19]SERMANET P, EIGEN D, ZHANG X, et al. OverFeat: integrated recognition, localization and detection using convolutional networks? [EB/OL]. [2019-04-11]. https://arxiv.org/pdf/1312.6229v4.pdf.

    [20]CAI Z, FAN Q, FERIS R S, et al. A unified multi-scale deep convolutional neural network for fast object detection [C]// Proceedings of the 14th European Conference on Computer Vision, LNCS 9908. Cham: Springer, 2016: 354-370.

    [21]FU C, LIU W, RANGA A, TYAGI A, et al. DSSD: deconvolutional single shot detector [EB/OL]. [2019-04-11]. https://arxiv.org/pdf/1701.06659.pdf.

    [22]楊康,宋慧慧,張開華.基于雙重注意力孿生網(wǎng)絡(luò)的實時視覺跟蹤[J].計算機應(yīng)用,2019,39(6):1652-1656.(YANG K, SONG H H, ZHANG K H. Real-time visual tracking based on dual attention Siamese network [J]. Journal of Computer Applications, 2019, 39(6): 1652-1656.)

    [23]QUAN Y, LI Z, ZHANG C. Object detection by combining deep dilated convolutions network and light-weight network [C]// Proceedings of the 12th International Conference on Knowledge Science, Engineering and Management, LNCS 11775. Cham: Springer, 2019: 452-463.

    [24]WANG P, CHEN P, YUAN Y, et al. Understanding convolution for semantic segmentation [C]// Proceedings of the 2018 IEEE Winter Conference on Applications of Computer Vision. Piscataway: IEEE, 2018: 1451-1460.

    [25]PENG D, SUN Z, CHEN Z, et al. Detecting heads using feature refine net and cascaded multi-scale architecture [C]// Proceedings of the 24th International Conference on Pattern Recognition. Piscataway: IEEE, 2018: 2528-2533.

    This work is partially supported by the Shanxi Provincial Key Research and Development Plan (201803D31212-1).

    SHEN Wenxiang, born in 1995, M. S. candidate. His research interests include deep learning, computer vision.

    QIN Pinle, born in 1978, Ph. D., associate professor. His research interests include computer vision, big data, medical imaging.

    ZENG Jianchao, born in 1963, Ph. D., professor. His research interests include evolutionary calculation, machine learning.

    收稿日期:2019-06-24;修回日期:2019-09-19;錄用日期:2019-09-19?;痦椖浚荷轿魇≈攸c研發(fā)計劃項目(201803D31212-1)。

    作者簡介:沈文祥(1995—),男,安徽淮南人,碩士研究生,主要研究方向:深度學(xué)習(xí)、計算機視覺; 秦品樂(1978—),男,山西長治人,副教授,博士,CCF會員,主要研究方向:機器視覺、大數(shù)據(jù)、醫(yī)學(xué)影像; 曾建潮(1963—)男,陜西大荔縣人,教授,博士,CCF會員,主要研究方向:演化計算、機器學(xué)習(xí)。

    文章編號:1001-9081(2019)12-3496-07DOI:10.11772/j.issn.1001-9081.2019061075

    猜你喜歡
    注意力機制
    基于注意力機制的行人軌跡預(yù)測生成模型
    基于注意力機制和BGRU網(wǎng)絡(luò)的文本情感分析方法研究
    多特征融合的中文實體關(guān)系抽取研究
    基于序列到序列模型的文本到信息框生成的研究
    基于深度學(xué)習(xí)的手分割算法研究
    從餐館評論中提取方面術(shù)語
    面向短文本的網(wǎng)絡(luò)輿情話題
    基于自注意力與動態(tài)路由的文本建模方法
    基于深度學(xué)習(xí)的問題回答技術(shù)研究
    基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
    夜夜夜夜夜久久久久| 女人被狂操c到高潮| 久久久久久人人人人人| 日本在线视频免费播放| 亚洲国产精品999在线| 中文字幕av在线有码专区| av片东京热男人的天堂| 久久久久久久午夜电影| 2021天堂中文幕一二区在线观| 精品国产乱子伦一区二区三区| 母亲3免费完整高清在线观看| 97人妻精品一区二区三区麻豆| 人妻夜夜爽99麻豆av| 麻豆一二三区av精品| 欧美大码av| 在线观看免费午夜福利视频| 麻豆国产97在线/欧美 | 99re在线观看精品视频| 在线观看66精品国产| 看片在线看免费视频| 国产精品永久免费网站| 欧美中文日本在线观看视频| 日本免费a在线| 亚洲乱码一区二区免费版| 午夜视频精品福利| 曰老女人黄片| 又黄又粗又硬又大视频| 两个人视频免费观看高清| 人人妻人人澡欧美一区二区| 全区人妻精品视频| 三级男女做爰猛烈吃奶摸视频| 国产精品久久电影中文字幕| 国产成人精品久久二区二区91| 亚洲全国av大片| 人妻夜夜爽99麻豆av| 亚洲一区二区三区色噜噜| 婷婷亚洲欧美| 熟妇人妻久久中文字幕3abv| 激情在线观看视频在线高清| 亚洲av电影不卡..在线观看| 欧美3d第一页| 成人三级做爰电影| 亚洲欧美精品综合久久99| cao死你这个sao货| 天天添夜夜摸| 中文字幕人成人乱码亚洲影| 动漫黄色视频在线观看| 欧美精品亚洲一区二区| 欧美绝顶高潮抽搐喷水| 亚洲第一电影网av| 欧美一级毛片孕妇| 熟女少妇亚洲综合色aaa.| 亚洲av熟女| 免费观看人在逋| 精品乱码久久久久久99久播| 国产熟女xx| 久久中文字幕人妻熟女| 国产高清激情床上av| 欧美黑人精品巨大| 黄色成人免费大全| 脱女人内裤的视频| 两性夫妻黄色片| 色精品久久人妻99蜜桃| 国产亚洲精品久久久久5区| 日韩欧美在线乱码| 亚洲国产中文字幕在线视频| 欧美日韩一级在线毛片| 亚洲五月天丁香| 国模一区二区三区四区视频 | av在线播放免费不卡| 在线观看一区二区三区| 亚洲成人中文字幕在线播放| 久久久久精品国产欧美久久久| 亚洲avbb在线观看| 深夜精品福利| 亚洲av成人av| av在线天堂中文字幕| 欧美成狂野欧美在线观看| 久久久精品国产亚洲av高清涩受| 非洲黑人性xxxx精品又粗又长| 99热6这里只有精品| 国产精品久久电影中文字幕| 亚洲av片天天在线观看| 欧美成人午夜精品| 舔av片在线| 九九热线精品视视频播放| 色播亚洲综合网| 麻豆国产av国片精品| 亚洲第一欧美日韩一区二区三区| 成熟少妇高潮喷水视频| 中文字幕久久专区| 韩国av一区二区三区四区| 午夜两性在线视频| 亚洲国产精品sss在线观看| 宅男免费午夜| 久久精品夜夜夜夜夜久久蜜豆 | 国产一区在线观看成人免费| 久久香蕉国产精品| 嫁个100分男人电影在线观看| 国产真实乱freesex| 亚洲成a人片在线一区二区| 国内久久婷婷六月综合欲色啪| 亚洲第一电影网av| 欧美高清成人免费视频www| 中文字幕av在线有码专区| 制服诱惑二区| 亚洲国产欧美一区二区综合| 色综合站精品国产| 哪里可以看免费的av片| 麻豆国产97在线/欧美 | 麻豆国产97在线/欧美 | 久久婷婷成人综合色麻豆| 老司机深夜福利视频在线观看| 国产久久久一区二区三区| 精品久久久久久久久久久久久| 久久久久精品国产欧美久久久| 高潮久久久久久久久久久不卡| 亚洲色图 男人天堂 中文字幕| 香蕉丝袜av| 国产精品一及| www日本黄色视频网| 国产野战对白在线观看| 国产亚洲精品久久久久久毛片| 国产免费男女视频| 一级毛片高清免费大全| 国产探花在线观看一区二区| 丁香六月欧美| 看免费av毛片| 日日摸夜夜添夜夜添小说| 香蕉久久夜色| 久久久精品大字幕| 最近最新中文字幕大全电影3| 熟女少妇亚洲综合色aaa.| 亚洲天堂国产精品一区在线| 欧美日韩亚洲国产一区二区在线观看| a级毛片在线看网站| 99在线视频只有这里精品首页| 亚洲人成伊人成综合网2020| 精品日产1卡2卡| 国产av麻豆久久久久久久| 国产午夜精品论理片| 亚洲欧美精品综合一区二区三区| 亚洲成av人片在线播放无| 淫妇啪啪啪对白视频| 正在播放国产对白刺激| 天堂av国产一区二区熟女人妻 | 成人18禁在线播放| 国产视频内射| 成人亚洲精品av一区二区| 中文字幕最新亚洲高清| 久久久精品大字幕| 欧美激情久久久久久爽电影| 999久久久精品免费观看国产| av免费在线观看网站| 成人特级黄色片久久久久久久| 老司机靠b影院| 一边摸一边做爽爽视频免费| 两性午夜刺激爽爽歪歪视频在线观看 | 精品欧美一区二区三区在线| 久久久久久亚洲精品国产蜜桃av| 中文字幕精品亚洲无线码一区| 国产真实乱freesex| 很黄的视频免费| 亚洲欧洲精品一区二区精品久久久| 丰满人妻熟妇乱又伦精品不卡| 两人在一起打扑克的视频| 精品欧美一区二区三区在线| 看免费av毛片| 搞女人的毛片| 97碰自拍视频| 国产av一区二区精品久久| 他把我摸到了高潮在线观看| 他把我摸到了高潮在线观看| 亚洲av美国av| 淫秽高清视频在线观看| 俺也久久电影网| 久久久久久亚洲精品国产蜜桃av| 中文字幕精品亚洲无线码一区| 亚洲一卡2卡3卡4卡5卡精品中文| 欧美丝袜亚洲另类 | 在线视频色国产色| 日本a在线网址| 亚洲黑人精品在线| 国产av不卡久久| 久久亚洲精品不卡| 国产欧美日韩精品亚洲av| 琪琪午夜伦伦电影理论片6080| a级毛片a级免费在线| 国产高清有码在线观看视频 | 国产人伦9x9x在线观看| 一级毛片精品| 国产精品久久久久久久电影 | 91老司机精品| 午夜影院日韩av| 亚洲精品久久国产高清桃花| 欧美乱码精品一区二区三区| 久久精品国产清高在天天线| 又爽又黄无遮挡网站| 日本黄色视频三级网站网址| 日本a在线网址| 久久久精品大字幕| www日本黄色视频网| 午夜精品在线福利| 成年版毛片免费区| 听说在线观看完整版免费高清| 成年女人毛片免费观看观看9| 精品不卡国产一区二区三区| 午夜亚洲福利在线播放| 亚洲av成人精品一区久久| 午夜福利18| 俺也久久电影网| 好看av亚洲va欧美ⅴa在| 18禁国产床啪视频网站| 久久久精品国产亚洲av高清涩受| 免费无遮挡裸体视频| 国产一区二区激情短视频| 欧美3d第一页| 日本黄大片高清| 天天添夜夜摸| 正在播放国产对白刺激| 麻豆一二三区av精品| 国产亚洲精品一区二区www| 99久久精品热视频| 亚洲欧美激情综合另类| 久久婷婷成人综合色麻豆| 久久久精品欧美日韩精品| 国内久久婷婷六月综合欲色啪| 精品国产亚洲在线| 国产伦人伦偷精品视频| 国产成人av激情在线播放| 人人妻,人人澡人人爽秒播| 午夜福利在线观看吧| 一级毛片精品| 黄色女人牲交| 亚洲欧美激情综合另类| 成人特级黄色片久久久久久久| 宅男免费午夜| aaaaa片日本免费| 又紧又爽又黄一区二区| 亚洲av熟女| 国产在线精品亚洲第一网站| 精品久久久久久,| 一级片免费观看大全| 亚洲欧洲精品一区二区精品久久久| 久久久久久人人人人人| 老鸭窝网址在线观看| 精品一区二区三区av网在线观看| 婷婷精品国产亚洲av在线| www.www免费av| 一区二区三区国产精品乱码| 国产免费av片在线观看野外av| 久久久久九九精品影院| 欧美日韩瑟瑟在线播放| 亚洲,欧美精品.| 免费搜索国产男女视频| 香蕉久久夜色| 亚洲中文av在线| 国内久久婷婷六月综合欲色啪| 亚洲中文字幕日韩| 大型av网站在线播放| 黄色毛片三级朝国网站| 午夜福利欧美成人| 99久久精品国产亚洲精品| 三级男女做爰猛烈吃奶摸视频| 国产午夜精品久久久久久| 99热这里只有精品一区 | 日韩欧美 国产精品| 国产成人精品无人区| 免费在线观看日本一区| 国产精品香港三级国产av潘金莲| 欧美日韩一级在线毛片| 久久国产精品影院| 日日干狠狠操夜夜爽| 成人一区二区视频在线观看| 久久精品国产清高在天天线| 婷婷丁香在线五月| 亚洲真实伦在线观看| 欧美成狂野欧美在线观看| 777久久人妻少妇嫩草av网站| 他把我摸到了高潮在线观看| 亚洲av电影不卡..在线观看| 无遮挡黄片免费观看| 性色av乱码一区二区三区2| 久久热在线av| 国产亚洲精品第一综合不卡| 午夜免费激情av| 岛国在线观看网站| 制服丝袜大香蕉在线| 成人欧美大片| 国产精品一区二区三区四区久久| 熟女少妇亚洲综合色aaa.| 黄色成人免费大全| 欧美在线一区亚洲| 国产精品电影一区二区三区| 99热只有精品国产| 少妇的丰满在线观看| 精品久久久久久久人妻蜜臀av| 色噜噜av男人的天堂激情| 免费在线观看成人毛片| 亚洲一区二区三区色噜噜| 夜夜爽天天搞| 中文资源天堂在线| 久久久久久大精品| 免费观看精品视频网站| 99热只有精品国产| 久久久久精品国产欧美久久久| 精品少妇一区二区三区视频日本电影| 岛国视频午夜一区免费看| 欧美黄色淫秽网站| av中文乱码字幕在线| 高清毛片免费观看视频网站| 变态另类成人亚洲欧美熟女| 99国产精品一区二区蜜桃av| 欧美乱色亚洲激情| 色综合站精品国产| 丁香六月欧美| 男女午夜视频在线观看| 毛片女人毛片| 久久精品91蜜桃| 男女视频在线观看网站免费 | 色综合站精品国产| 麻豆一二三区av精品| 免费高清视频大片| 可以在线观看毛片的网站| 日韩欧美三级三区| 国产成人av激情在线播放| 国产一区在线观看成人免费| 成人三级做爰电影| 美女免费视频网站| 国产精品亚洲av一区麻豆| 久久欧美精品欧美久久欧美| 久久久久性生活片| 久久欧美精品欧美久久欧美| 在线看三级毛片| 日本免费一区二区三区高清不卡| 久久午夜亚洲精品久久| 国产视频一区二区在线看| a级毛片在线看网站| 亚洲午夜精品一区,二区,三区| 国产精品九九99| 50天的宝宝边吃奶边哭怎么回事| 91麻豆精品激情在线观看国产| 精品日产1卡2卡| 欧美av亚洲av综合av国产av| 国产成人欧美在线观看| 国产真人三级小视频在线观看| 久久久精品国产亚洲av高清涩受| 亚洲全国av大片| 欧美日韩一级在线毛片| 一区二区三区高清视频在线| 午夜精品久久久久久毛片777| 国产亚洲精品久久久久久毛片| 免费人成视频x8x8入口观看| 白带黄色成豆腐渣| 99久久无色码亚洲精品果冻| 久久国产精品影院| 久久精品91无色码中文字幕| av免费在线观看网站| 免费人成视频x8x8入口观看| 亚洲熟女毛片儿| 亚洲九九香蕉| 免费在线观看视频国产中文字幕亚洲| 90打野战视频偷拍视频| 波多野结衣巨乳人妻| av有码第一页| 国产亚洲精品av在线| 久久久精品欧美日韩精品| 可以在线观看毛片的网站| 麻豆国产97在线/欧美 | 国产99白浆流出| 青草久久国产| 欧美日韩精品网址| a级毛片a级免费在线| 99热这里只有是精品50| www.999成人在线观看| 精品久久久久久久久久免费视频| 国产蜜桃级精品一区二区三区| 亚洲人成电影免费在线| 成人国产一区最新在线观看| 亚洲人成伊人成综合网2020| 国产野战对白在线观看| 老司机午夜十八禁免费视频| 日本五十路高清| 国产日本99.免费观看| 神马国产精品三级电影在线观看 | 欧美日本亚洲视频在线播放| 欧美黄色淫秽网站| 亚洲国产精品sss在线观看| 首页视频小说图片口味搜索| 巨乳人妻的诱惑在线观看| 国产成人aa在线观看| 精品国产亚洲在线| 麻豆国产av国片精品| 亚洲成人久久性| 女警被强在线播放| 亚洲 国产 在线| 午夜老司机福利片| 久久久久久人人人人人| 国产亚洲av嫩草精品影院| 夜夜看夜夜爽夜夜摸| 制服诱惑二区| 免费在线观看影片大全网站| 可以在线观看的亚洲视频| 国产爱豆传媒在线观看 | 999精品在线视频| 黄片大片在线免费观看| 999精品在线视频| 丝袜人妻中文字幕| 亚洲精品一卡2卡三卡4卡5卡| 最近最新中文字幕大全免费视频| 欧美日韩瑟瑟在线播放| 亚洲精华国产精华精| 亚洲专区国产一区二区| 午夜福利视频1000在线观看| 悠悠久久av| 青草久久国产| 午夜两性在线视频| 99在线视频只有这里精品首页| 日本成人三级电影网站| 日韩大码丰满熟妇| 精品少妇一区二区三区视频日本电影| 亚洲精品久久国产高清桃花| 精品一区二区三区视频在线观看免费| 中亚洲国语对白在线视频| 一级黄色大片毛片| tocl精华| 国产爱豆传媒在线观看 | 妹子高潮喷水视频| 别揉我奶头~嗯~啊~动态视频| 变态另类成人亚洲欧美熟女| 桃红色精品国产亚洲av| 午夜视频精品福利| 97超级碰碰碰精品色视频在线观看| 久久久久久人人人人人| 国产成人影院久久av| 精品一区二区三区视频在线观看免费| 俺也久久电影网| av福利片在线观看| 亚洲成av人片免费观看| 999久久久国产精品视频| 欧美色视频一区免费| 天天躁夜夜躁狠狠躁躁| 亚洲人成电影免费在线| 草草在线视频免费看| 三级毛片av免费| 亚洲真实伦在线观看| 久久草成人影院| 亚洲精品久久成人aⅴ小说| 桃色一区二区三区在线观看| 丁香欧美五月| 国产片内射在线| 亚洲成人中文字幕在线播放| 久久久久精品国产欧美久久久| 久久亚洲精品不卡| 最新美女视频免费是黄的| 中文字幕人妻丝袜一区二区| 亚洲av成人一区二区三| 国产精品爽爽va在线观看网站| 淫妇啪啪啪对白视频| 国产黄a三级三级三级人| 搡老熟女国产l中国老女人| 日本免费a在线| 亚洲国产精品合色在线| 日本a在线网址| 熟妇人妻久久中文字幕3abv| 中亚洲国语对白在线视频| 亚洲精品中文字幕在线视频| 中国美女看黄片| 亚洲一区二区三区色噜噜| 免费在线观看黄色视频的| 一区二区三区高清视频在线| 很黄的视频免费| www日本黄色视频网| 久久久久精品国产欧美久久久| 久久精品国产清高在天天线| 啦啦啦观看免费观看视频高清| 五月玫瑰六月丁香| 男女下面进入的视频免费午夜| 亚洲男人的天堂狠狠| 色综合亚洲欧美另类图片| 国产精品电影一区二区三区| 精品国产乱码久久久久久男人| 亚洲av中文字字幕乱码综合| 国产精品av久久久久免费| 国产精品亚洲美女久久久| 夜夜爽天天搞| 日韩中文字幕欧美一区二区| 非洲黑人性xxxx精品又粗又长| 神马国产精品三级电影在线观看 | 少妇人妻一区二区三区视频| 亚洲欧洲精品一区二区精品久久久| 日韩欧美三级三区| 欧美高清成人免费视频www| 狠狠狠狠99中文字幕| 中文亚洲av片在线观看爽| 好男人在线观看高清免费视频| 精品电影一区二区在线| 欧美一级毛片孕妇| 中文字幕人妻丝袜一区二区| 高潮久久久久久久久久久不卡| 国产午夜精品久久久久久| 91在线观看av| www.www免费av| 国内少妇人妻偷人精品xxx网站 | 亚洲av片天天在线观看| 亚洲五月天丁香| 999久久久国产精品视频| 久久久精品国产亚洲av高清涩受| 啦啦啦免费观看视频1| 久久久久久久久免费视频了| 午夜福利免费观看在线| 一本大道久久a久久精品| 精品久久久久久久末码| www.自偷自拍.com| 欧美中文日本在线观看视频| 精品乱码久久久久久99久播| 国产伦一二天堂av在线观看| 日韩大码丰满熟妇| 成人国产一区最新在线观看| 久久久久国产一级毛片高清牌| 色综合亚洲欧美另类图片| 男男h啪啪无遮挡| 久久亚洲真实| 天天躁夜夜躁狠狠躁躁| 精品日产1卡2卡| 老汉色av国产亚洲站长工具| 一区二区三区国产精品乱码| 亚洲国产精品成人综合色| 亚洲精品在线美女| 亚洲欧美激情综合另类| 91麻豆精品激情在线观看国产| 免费一级毛片在线播放高清视频| 日本a在线网址| 三级国产精品欧美在线观看 | 亚洲国产欧美网| 亚洲黑人精品在线| 亚洲全国av大片| 欧美一级毛片孕妇| 床上黄色一级片| 白带黄色成豆腐渣| 国产成人av教育| 国产精品久久久人人做人人爽| 成人欧美大片| av超薄肉色丝袜交足视频| 亚洲全国av大片| svipshipincom国产片| 变态另类丝袜制服| 岛国在线观看网站| 久9热在线精品视频| 97人妻精品一区二区三区麻豆| 最新美女视频免费是黄的| 国产精品精品国产色婷婷| 午夜两性在线视频| 又爽又黄无遮挡网站| 国产欧美日韩一区二区三| 免费一级毛片在线播放高清视频| 狠狠狠狠99中文字幕| 两个人的视频大全免费| 校园春色视频在线观看| 国产精品九九99| 亚洲欧美精品综合一区二区三区| 国产成人aa在线观看| 欧美黑人精品巨大| 日日爽夜夜爽网站| 国产黄色小视频在线观看| 久久香蕉精品热| 少妇的丰满在线观看| www日本黄色视频网| 亚洲 欧美一区二区三区| 欧美成人性av电影在线观看| ponron亚洲| 高清在线国产一区| 舔av片在线| 女同久久另类99精品国产91| 亚洲免费av在线视频| 国产精品,欧美在线| 女人爽到高潮嗷嗷叫在线视频| 国产黄色小视频在线观看| 久久精品91蜜桃| 老司机福利观看| 亚洲av日韩精品久久久久久密| 欧美激情久久久久久爽电影| 在线观看午夜福利视频| 在线观看www视频免费| 可以免费在线观看a视频的电影网站| 日日夜夜操网爽| 久久久久久大精品| 午夜福利成人在线免费观看| 草草在线视频免费看| 国产激情偷乱视频一区二区| 啪啪无遮挡十八禁网站| 欧美又色又爽又黄视频| 最新在线观看一区二区三区| 久久精品影院6| 亚洲欧美精品综合一区二区三区| 国产高清有码在线观看视频 | 人妻夜夜爽99麻豆av| 亚洲avbb在线观看| 精品一区二区三区视频在线观看免费| 久久久国产成人免费| 欧美精品亚洲一区二区| 亚洲欧美日韩高清专用| 久久精品国产亚洲av香蕉五月| 国产v大片淫在线免费观看| 欧美日韩中文字幕国产精品一区二区三区| 99热这里只有是精品50| 亚洲国产精品成人综合色| 熟妇人妻久久中文字幕3abv| 俺也久久电影网| 色噜噜av男人的天堂激情| 国产精品永久免费网站| 制服丝袜大香蕉在线| av免费在线观看网站| 久久这里只有精品19| 草草在线视频免费看|