• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多分支混合注意力的小目標(biāo)檢測(cè)算法

    2023-11-29 12:10:28秦強(qiáng)強(qiáng)廖俊國(guó)周弋荀
    計(jì)算機(jī)應(yīng)用 2023年11期
    關(guān)鍵詞:分支注意力混合

    秦強(qiáng)強(qiáng),廖俊國(guó),周弋荀

    基于多分支混合注意力的小目標(biāo)檢測(cè)算法

    秦強(qiáng)強(qiáng),廖俊國(guó)*,周弋荀

    (湖南科技大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,湖南 湘潭 411201)( ? 通信作者電子郵箱jgliao@hnust.edu.cn)

    針對(duì)圖像中的小目標(biāo)特征信息少、占比低、易受環(huán)境影響等特點(diǎn),提出一種基于多分支混合注意力的小目標(biāo)檢測(cè)算法SMAM-YOLO。首先,將通道注意力(CA)和空間注意力(SA)相結(jié)合,重新組合連接結(jié)構(gòu),提出一種混合注意力模塊(MAM),增強(qiáng)模型對(duì)小目標(biāo)特征在空間維度上的表達(dá)能力。其次,根據(jù)不同大小的感受野對(duì)目標(biāo)影響的不同,基于混合注意力提出一種多分支混合注意力模塊(SMAM);根據(jù)輸入特征圖的尺度自適應(yīng)調(diào)整感受野大小,同時(shí)使用混合注意力增強(qiáng)不同分支下對(duì)小目標(biāo)特征信息的捕獲能力。最后,使用SMAM改進(jìn)YOLOv5中的核心殘差模塊,提出一種基于CSPNet(Cross Stage Partial Network)和SMAM的特征提取模塊CSMAM,而且CSMAM的額外計(jì)算開(kāi)銷可以忽略不計(jì)。在TinyPerson數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,與基線算法YOLOv5s相比,當(dāng)交并比(IoU)閾值為0.5時(shí),SMAM-YOLO算法的平均檢測(cè)精度(mAP50)提升了4.15個(gè)百分點(diǎn),且檢測(cè)速度達(dá)到74 frame/s;此外,與現(xiàn)有的一些主流小目標(biāo)檢測(cè)模型相比,SMAM-YOLO算法在mAP50上平均提升了1.46~6.84個(gè)百分點(diǎn),且能滿足實(shí)時(shí)性檢測(cè)的需求。

    小目標(biāo)檢測(cè);多分支網(wǎng)絡(luò);混合注意力;特征融合;實(shí)時(shí)檢測(cè)

    0 引言

    隨著深度學(xué)習(xí)的不斷發(fā)展以及硬件成本的不斷降低,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法取得了長(zhǎng)足的進(jìn)步。與中大型目標(biāo)檢測(cè)相比,小目標(biāo)檢測(cè)具有目標(biāo)特征信息少、數(shù)據(jù)集比例不均衡以及易受環(huán)境影響等特點(diǎn),這些特點(diǎn)導(dǎo)致小目標(biāo)檢測(cè)的精度不高。小目標(biāo)檢測(cè)在海上救援、監(jiān)控識(shí)別、無(wú)人機(jī)識(shí)別、遙感衛(wèi)星、海洋生物檢測(cè)等任務(wù)中有廣泛的應(yīng)用。因此,研究小目標(biāo)檢測(cè)算法并提高小目標(biāo)的檢測(cè)精度與效率具有重要意義。

    由于不斷下采樣,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)在特征提取過(guò)程中過(guò)濾了相關(guān)噪聲,增強(qiáng)了目標(biāo)的特征表達(dá),同時(shí)也導(dǎo)致小目標(biāo)在網(wǎng)絡(luò)的前向傳播中丟失信息。為此,有些學(xué)者提出了基于特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network, FPN)[1]的多尺度特征融合網(wǎng)絡(luò),如路徑聚合網(wǎng)絡(luò)(Path Aggregation Network, PANet)[2]、神經(jīng)架構(gòu)搜索網(wǎng)絡(luò)(Neural Architecture Search Network, NAS-Net)[3]、深度特征金字塔網(wǎng)絡(luò)(Deep Feature Pyramid Network, DFPN)[4]、雙向加權(quán)特征金字塔網(wǎng)絡(luò)(Bidirectional Feature Pyramid Network, BiFPN)[5]等。但是,在這些網(wǎng)絡(luò)中,不同層之間的融合方式僅僅是簡(jiǎn)單求和,忽略了目標(biāo)在場(chǎng)景中的相關(guān)性,對(duì)于小目標(biāo)檢測(cè)的性能提升有限。擠壓-激勵(lì)網(wǎng)絡(luò)(Squeeze Excitation Network, SE-Net)[6]、卷積注意力模塊(Convolutional Block Attention Module, CBAM)[7]、頻域通道注意力網(wǎng)絡(luò)(Frequency channel attention Network, FcaNet)[8]等方法從通道和空間注意力等不同角度對(duì)小目標(biāo)建模,得到了兩個(gè)維度的注意力權(quán)重矩陣,從而增強(qiáng)小目標(biāo)特征表達(dá),抑制其他目標(biāo)及復(fù)雜環(huán)境信息;但是,這些注意力網(wǎng)絡(luò)設(shè)計(jì)忽略了不同卷積核對(duì)小目標(biāo)檢測(cè)的影響。

    針對(duì)上述問(wèn)題,本文提出了一種基于多分支網(wǎng)絡(luò)結(jié)構(gòu)與混合注意力的小目標(biāo)檢測(cè)算法SMAM-YOLO。該算法使用YOLOv5s作為小目標(biāo)檢測(cè)的基線算法,然后利用混合注意力機(jī)制和多分支網(wǎng)絡(luò)結(jié)構(gòu)對(duì)基線算法進(jìn)行改進(jìn)優(yōu)化。主要改進(jìn)如下:

    1)將通道注意力(Channel Attention, CA)和空間注意力(Spatial Attention, SA)相結(jié)合,重新組合連接結(jié)構(gòu),提出混合注意力模塊(Mixed Attention Module, MAM)。MAM可以獲得豐富的全局空間權(quán)重注意力矩陣,增強(qiáng)小目標(biāo)特征信息,抑制背景等無(wú)關(guān)信息。

    2)結(jié)合多分支網(wǎng)絡(luò)和MAM,提出一種新的多分支混合注意力模塊(Split Mixed Attention Module, SMAM)。SMAM可以根據(jù)輸入目標(biāo)的尺度自適應(yīng)調(diào)整感受野的大小,增強(qiáng)小目標(biāo)的特征表達(dá)。

    3)為提升小目標(biāo)的特征提取能力,改進(jìn)YOLOv5的核心殘差塊C3,將SMAM和C3結(jié)合,提出基于CSPNet(Cross Stage Partial Network)[9]的特征提取殘差塊CSMAM。CSMAM在特征提取時(shí)可以將更多的注意力聚焦在小目標(biāo)上,增強(qiáng)小目標(biāo)的特征信息。同時(shí)在P2層引入一個(gè)新的預(yù)測(cè)分支和小目標(biāo)檢測(cè)頭,以獲得更多的淺層信息,有利于小目標(biāo)的檢測(cè)。

    1 相關(guān)工作

    SMAM-YOLO是一種基于多分支混合注意力的小目標(biāo)檢測(cè)方法,涉及以下相關(guān)知識(shí):1)小目標(biāo)檢測(cè);2)多分支和注意力機(jī)制;3)多尺度特征融合;4)YOLO。本章對(duì)相關(guān)知識(shí)的研究工作進(jìn)行簡(jiǎn)述。

    1.1 小目標(biāo)檢測(cè)

    1.2 多分支和注意力機(jī)制

    基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法大多使用卷積神經(jīng)網(wǎng)絡(luò),然而不同的卷積核對(duì)不同大小的目標(biāo)敏感程度并不同。2017年,Szegedy等[15]提出的GoogleNet取得了巨大的成功,網(wǎng)絡(luò)中的Inception結(jié)構(gòu)由4個(gè)具有不同卷積核的網(wǎng)絡(luò)塊組成。之后Xie等[16]提出的ResNeXt在ResNet的Bottleneck中引入分組卷積,在基礎(chǔ)結(jié)構(gòu)中使用了多分支結(jié)構(gòu),并通過(guò)實(shí)驗(yàn)證明了多分支結(jié)構(gòu)的有效性。SE-Net通過(guò)在特征的通道層加入通道注意力機(jī)制來(lái)自適應(yīng)地重新標(biāo)定特征,從而增強(qiáng)有效目標(biāo)特征、抑制背景信息。SK-Net(Selective Kernel Network)[17]使用2個(gè)不同卷積核分支網(wǎng)絡(luò),通過(guò)對(duì)融合特征引入通道注意力機(jī)制、再自適應(yīng)拆分對(duì)分支網(wǎng)絡(luò)重標(biāo)定。ResNeSt[18]對(duì)SK-Net進(jìn)行改進(jìn),使用個(gè)不同卷積核,同時(shí)為了共享計(jì)算,后續(xù)卷積核使用第一個(gè)空洞卷積,引入通道注意力后,拆分為個(gè)注意力重新校準(zhǔn)不同感受野下的特征。CBAM使用通道間的均值和最大值之和重新定義通道注意力,同時(shí)引入空間注意力,使用通道和空間的串聯(lián)混合注意力重標(biāo)定特征圖,實(shí)驗(yàn)證明CBAM的效果比單一的注意力效果更優(yōu)。受到這些方法的啟發(fā),本文改進(jìn)混合注意力結(jié)構(gòu),將多分支網(wǎng)絡(luò)和混合注意力結(jié)合起來(lái),并通過(guò)實(shí)驗(yàn)驗(yàn)證了方法的有效性。

    1.3 多尺度特征融合

    目前,絕大多數(shù)目標(biāo)檢測(cè)算法都使用多次下采樣后的深層特征來(lái)分類和回歸。但是,小目標(biāo)的尺寸非常小,隨著網(wǎng)絡(luò)的不斷深入,小目標(biāo)的特征很難保留下來(lái),將顯著影響小目標(biāo)的檢測(cè);而淺層網(wǎng)絡(luò)的特征具有更加詳細(xì)的位置信息和小目標(biāo)信息,所以,將淺層特征和深層特征進(jìn)行多尺度特征融合是一種有效的解決方法。FPN通過(guò)自上而下的橫向連接網(wǎng)絡(luò)將深層和淺層特征融合起來(lái);然而,F(xiàn)PN自上而下的連接結(jié)構(gòu)導(dǎo)致網(wǎng)絡(luò)淺層擁有深層所有的語(yǔ)義信息,而深層沒(méi)有融合相對(duì)應(yīng)的淺層信息。PANet在FPN的基礎(chǔ)上增加了一條額外的自下而上的連接網(wǎng)絡(luò)解決了這一問(wèn)題。

    BiFPN改進(jìn)了PANet的拓?fù)浣Y(jié)構(gòu),并提出了更加高效的路徑聚合網(wǎng)絡(luò)。本文選擇帶有PANet的YOLOv5s作為基礎(chǔ)網(wǎng)絡(luò)。

    1.4 YOLO

    YOLO[19]是目標(biāo)檢測(cè)中單階段網(wǎng)絡(luò)結(jié)構(gòu)的典型算法,它的檢測(cè)速度比雙階段的Faster RCNN[20]、Mask RCNN[21]等算法更快,因?yàn)閅OLO算法的核心思想是將整個(gè)分類和定位當(dāng)成一個(gè)回歸問(wèn)題,在對(duì)圖像提取特征后直接回歸得到類別和位置,大幅降低了算法所消耗的資源和時(shí)間開(kāi)銷[22]。YOLOv2[23]在之前的基礎(chǔ)上改進(jìn)了錨框策略,使用K-means聚類生成更加貼合數(shù)據(jù)集的先驗(yàn)框;YOLOv3[24]使用Darknet53結(jié)構(gòu)的骨干網(wǎng)絡(luò),增強(qiáng)了特征提取的能力與效果;YOLOv4[25]使用改進(jìn)的CSPDarknet53結(jié)構(gòu),同時(shí)使用FPN的特征融合方法;YOLOv5在前述基礎(chǔ)上作了很多改進(jìn),根據(jù)網(wǎng)絡(luò)的深度和寬度提供不同復(fù)雜度的模型,包括YOLOv5n、YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x共五種大小的模型。YOLOv5整體網(wǎng)絡(luò)包括輸入(Input)、特征提取主干網(wǎng)絡(luò)(Backbone)、特征融合層(Neck)、檢測(cè)輸出(Head)四個(gè)部分。一般來(lái)說(shuō),在YOLOv5中,Backbone采用CSPDarknet53和快速空間金字塔池化(Spatial Pyramid Pooling-Fast, SPPF),Neck使用PANet。本文選擇YOLOv5s作為小目標(biāo)檢測(cè)的基線模型。

    2 SMAM?YOLO算法

    2.1 總體架構(gòu)

    與背景相比,小目標(biāo)的尺寸非常小,且自身信息非常缺乏,直接輸入YOLOv5會(huì)導(dǎo)致網(wǎng)絡(luò)將它當(dāng)成普通目標(biāo)計(jì)算,忽略了它的特殊性。首先,受文獻(xiàn)[7,18]工作的啟發(fā),本文改進(jìn)了單一感受野下的通道-空間注意力機(jī)制,并結(jié)合多分支網(wǎng)絡(luò)結(jié)構(gòu),提出多分支混合注意力模塊(SMAM)。相較于文獻(xiàn)[7]的方法,SMAM在增加少量計(jì)算量的情況下,能更加有效地挖掘小目標(biāo)的特征信息,并根據(jù)不同尺度的特征圖動(dòng)態(tài)地為小目標(biāo)的貢獻(xiàn)分配混合注意力權(quán)重。然后,在Backbone的最后一層引入改進(jìn)的特征提取模塊CSMAM,增強(qiáng)主干網(wǎng)絡(luò)的特征提取能力;同時(shí)在Neck的多尺度融合過(guò)程的上下采樣中引入SMAM和CSMAM,增強(qiáng)小目標(biāo)的特征表達(dá)。最后,在PANet的網(wǎng)絡(luò)結(jié)構(gòu)中增加一個(gè)P2檢測(cè)分支,用來(lái)檢測(cè)小目標(biāo)。綜上所述,SMAM-YOLO算法的整體網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,基于YOLOv5s主要作了以下改進(jìn):

    1)主干網(wǎng)絡(luò):在Backbone末端中引入所提出的基于CSPNet的CSMAM。

    2)特征融合網(wǎng)絡(luò):增加小目標(biāo)檢測(cè)分支,并在特征金字塔上采樣的每一層融合后插入SMAM模塊,在下采樣的每一層插入CSMAM和SMAM模塊。

    圖1 SMAM-YOLO算法的整體網(wǎng)絡(luò)結(jié)構(gòu)

    2.2 SMAM

    受文獻(xiàn)[7]中工作的啟發(fā),本文設(shè)計(jì)了2個(gè)卷積注意力模塊:CA模塊和SA模塊。

    CA的結(jié)構(gòu)如圖2所示,計(jì)算公式如式(1)所示:

    其中:輸入特征圖F大小為;Sigmoid為激活函數(shù),AdaAvgPooling為全局自適應(yīng)平均池化,AdaMaxPooling為全局自適應(yīng)最大池化; 為全連接網(wǎng)絡(luò)。首先,對(duì)特征圖F分別作全局自適應(yīng)平均池化和最大池化;然后將得到的2種通道權(quán)重通過(guò)全連接層fc(Conv+ReLU+Conv);最后對(duì)全連接的2個(gè)不同的權(quán)重求和,并由Sigmoid激活得到通道注意力XCA,此時(shí)大小為。

    SA的結(jié)構(gòu)如圖3所示,計(jì)算公式如式(2)所示:

    由于文獻(xiàn)[7]在通道注意力后先重標(biāo)定特征空間,再串聯(lián)空間注意力后再次重標(biāo)定,得到兩次注意力加權(quán)后的特征圖,但輸出是加權(quán)后的特征圖,不利于結(jié)合多分支網(wǎng)絡(luò);同時(shí)串聯(lián)方式雖然簡(jiǎn)單且效果良好,但是沒(méi)有充分考慮合理的連接方式對(duì)小目標(biāo)的影響。為了在不增加額外計(jì)算量的情況下更好地結(jié)合多分支網(wǎng)絡(luò)結(jié)構(gòu),對(duì)CBAM網(wǎng)絡(luò)結(jié)構(gòu)改進(jìn),提出MAM,結(jié)構(gòu)如圖4所示,計(jì)算公式如式(3)所示:

    其中:輸入特征圖F大小為;CA是通道注意力,輸出大小為;SA是空間注意力,輸出大小為;mul是矩陣乘法;XMAM是CA和SA的未重標(biāo)定的混合注意力權(quán)重,輸出大小為。

    圖4 MAM的結(jié)構(gòu)

    文獻(xiàn)[18]中的多分支注意力模塊僅使用了通道注意力對(duì)小目標(biāo)進(jìn)行特征提取,有一定的效果,但是缺乏對(duì)空間的思考,并不全面。因此,將MAM引入多分支網(wǎng)絡(luò),提出SMAM,它的網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

    分配好各分支的權(quán)重后,對(duì)多分支特征圖重標(biāo)定,并且對(duì)應(yīng)元素求和,得到多分支混合注意力加權(quán)后的特征圖out,如式(6)所示:

    其中:S為分支數(shù);i為重標(biāo)定的分支;Fi是第個(gè)分支。最后輸出大小為。

    2.3 特征提取模塊CSMAM

    YOLOv5中特征提取的核心模塊C3,主要使用基于CSPNet結(jié)構(gòu)堆疊的Bottleneck殘差塊。對(duì)C3結(jié)構(gòu)進(jìn)行改進(jìn),將殘差塊中的3×3卷積替換為SMAM;同時(shí)為了降低參數(shù)量,替換過(guò)后不再堆疊殘差塊,提出基于CSPNet和SMAM的特征提取模塊CSMAM,它的網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

    圖6 CSMAM的網(wǎng)絡(luò)結(jié)構(gòu)

    3 實(shí)驗(yàn)與結(jié)果分析

    3.1 數(shù)據(jù)集與評(píng)估標(biāo)準(zhǔn)

    3.1.1數(shù)據(jù)集概述

    本文實(shí)驗(yàn)的數(shù)據(jù)集是一個(gè)具有高質(zhì)量標(biāo)注的小目標(biāo)數(shù)據(jù)集TinyPerson[26],其中的圖像場(chǎng)景多數(shù)為遠(yuǎn)距離大背景航拍下的圖像,非常符合小目標(biāo)檢測(cè)的需求。TinyPerson數(shù)據(jù)集包含2個(gè)類別(earth person、sea person),一共有1 610張圖片(其中訓(xùn)練集794張圖片,測(cè)試集816張圖片),共包含72 651個(gè)人類目標(biāo)注釋。

    3.1.2評(píng)估標(biāo)準(zhǔn)

    為了評(píng)估模型的有效性,本文使用平均精度 (Average Percision, AP)、平均精度均值(mean Average Precision, mAP)、每秒10億次的浮點(diǎn)運(yùn)算次數(shù)(Giga Floating-point Operations Per Second, GFLOPs)及幀率(Frame Per Second, FPS)作為評(píng)估標(biāo)準(zhǔn)。

    再以軸為召回率、軸為精確率建立二維坐標(biāo)軸,同時(shí)繪制精確率-召回率(Precision-Recall, PR)曲線,PR曲線所圍面積即為AP大小,計(jì)算如式(9)所示:

    mAP為多個(gè)類別的平均精度均值,其中表示類別總數(shù),計(jì)算如式(10)所示:

    GFLOPs為每秒10億次的浮點(diǎn)運(yùn)算,一般用于衡量模型的計(jì)算復(fù)雜度。

    幀率表示每秒可以檢測(cè)圖片的數(shù)量(單位:frame/s),用于衡量算法是否具有實(shí)時(shí)性,一般認(rèn)為FPS大于30 frame/s即具備實(shí)時(shí)檢測(cè)效果。

    AP50、mAP50表示交并比(Intersection over Union, IoU)閾值為0.5時(shí)的平均精度和平均精度均值。一般來(lái)說(shuō),IoU越高,表示預(yù)測(cè)出目標(biāo)與真實(shí)目標(biāo)交集越大,越貼合真實(shí)目標(biāo),此時(shí)檢測(cè)精度越大即表明模型預(yù)測(cè)能力越強(qiáng)。由于小目標(biāo)占比像素少,如果使用較大的IoU,檢測(cè)精度將會(huì)非常低,不能較好地衡量小目標(biāo)檢測(cè)算法的效果,為此,本文選擇IoU為0.5的折中方案。

    3.2 實(shí)驗(yàn)環(huán)境及參數(shù)設(shè)置

    實(shí)驗(yàn)的硬件環(huán)境為Intel Core i7-10750H CPU@2.60 GHz、16 GB內(nèi)存、NVIDIA GeForce GTX 1660Ti GPU;軟件環(huán)境為Windows 11家庭中文版系統(tǒng)、Python3.8、PyTorch 1.8.2、CUDA 10.2。

    圖7為訓(xùn)練時(shí)回歸損失的變化曲線,其中BatchSize設(shè)置為4,訓(xùn)練150輪,前三輪為預(yù)熱,優(yōu)化器使用隨機(jī)梯度下降(Stochastic Gradient Descent, SGD),初始學(xué)習(xí)率設(shè)置為0.01,動(dòng)量設(shè)置為0.937,學(xué)習(xí)率衰減使用余弦策略。從圖7可以看出,訓(xùn)練的回歸損失值可以平滑下降,達(dá)到理想效果。除了必要的改進(jìn)外,本文實(shí)驗(yàn)中所有模型的超參數(shù)都設(shè)置為默認(rèn)(不一定是最佳參數(shù)),并在此設(shè)置下進(jìn)行訓(xùn)練、驗(yàn)證和測(cè)試。

    圖7 訓(xùn)練損失曲線

    3.3 分辨率實(shí)驗(yàn)及分析

    由于YOLOv5s默認(rèn)輸入大小是640×640,但是TinyPerson數(shù)據(jù)集中的目標(biāo)為小目標(biāo),圖片為遠(yuǎn)距離大背景下的航拍圖像,圖片大小都遠(yuǎn)大于默認(rèn)大小。顯然,輸入分辨率越大,對(duì)于檢測(cè)小目標(biāo)越有利,但是越大的分辨率會(huì)導(dǎo)致越大的計(jì)算開(kāi)銷,同時(shí)檢測(cè)圖像時(shí)的FPS也會(huì)更低。

    為此,將YOLOv5s和本文算法在不同分辨率下進(jìn)行測(cè)試,結(jié)果如表1所示。由表1可知,在TinyPerson數(shù)據(jù)集上,YOLOv5s訓(xùn)練的分辨率為960×960和1 280×1 280時(shí),mAP50相較于640×640時(shí)分別提高了9.07和15.65個(gè)百分點(diǎn),且測(cè)試分辨率為1 280×1 280時(shí)FPS都為122 frame/s;SMAM-YOLO在分辨率為960×960和1 280×1 280時(shí)mAP50相較于640×640分別提高了7.66和13.91個(gè)百分點(diǎn),且測(cè)試分辨率為1 280×1 280時(shí)FPS都為74 frame/s。由此可見(jiàn),在同一個(gè)目標(biāo)檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu)下增大模型的圖像分辨率可以提高模型的準(zhǔn)確率;但增大分辨率也使計(jì)算量成倍增加、訓(xùn)練時(shí)間成倍增長(zhǎng)。以SMAM-YOLO為例,在本文實(shí)驗(yàn)配置下,1 280×1 280分辨率輸入時(shí)訓(xùn)練1輪需要26 min左右,74.4 GFLOPs;然而,640×640分辨率輸入時(shí)訓(xùn)練1輪僅需要9 min左右,19.9 GFLOPs。同時(shí)生成的權(quán)重文件大小也會(huì)增加,加大模型部署難度。但是,如果同一個(gè)網(wǎng)絡(luò)結(jié)構(gòu)的算法使用不同分辨率訓(xùn)練得到的不同模型,在檢測(cè)時(shí)圖像的輸入使用同一分辨率,對(duì)于FPS并無(wú)影響,這表明訓(xùn)練時(shí)可以適當(dāng)增加模型輸入分辨率來(lái)提高檢測(cè)精度。此外,太大的分辨率也會(huì)導(dǎo)致過(guò)擬合,因此不能盲目增大分辨率。

    表1 分辨率實(shí)驗(yàn)結(jié)果

    注:FPS1 280中1 280表示測(cè)試時(shí)圖像的分辨率為1 280×1 280。

    3.4 消融實(shí)驗(yàn)及分析

    為了驗(yàn)證本文所提出的SMAM和CSMAM的有效性,以及增加小目標(biāo)檢測(cè)頭對(duì)結(jié)果的影響,對(duì)不同模塊對(duì)結(jié)果的影響進(jìn)行消融實(shí)驗(yàn)評(píng)估:使用YOLOv5s作為基線模型,訓(xùn)練圖像輸入分辨率為1 280×1 280,測(cè)試圖像分辨率為1 280×1 280的場(chǎng)景下,共訓(xùn)練150輪,使用預(yù)訓(xùn)練權(quán)重加速訓(xùn)練,實(shí)驗(yàn)結(jié)果如表2所示。

    1)額外檢測(cè)頭的影響。由表2可知,a模型為無(wú)改進(jìn)的基線模型,b模型在基線模型上增加了P2檢測(cè)頭,由于P2檢測(cè)層擁有更多的淺層信息,對(duì)小目標(biāo)檢測(cè)更加有利。實(shí)驗(yàn)結(jié)果表明,相較于a模型,b模型層數(shù)由270增加到328,GFLOPs由57.27到65.39,參數(shù)量從7.02×106增加到7.17×106,但是對(duì)于小目標(biāo)的mAP50增加了1.78個(gè)百分點(diǎn),同時(shí)FPS仍滿足實(shí)時(shí)檢測(cè)的需求。因此,增加少量的計(jì)算量,得到更好的小目標(biāo)檢測(cè)效果是值得的。

    2)MAM的影響。SMAM可以自適應(yīng)地結(jié)合混合注意力機(jī)制調(diào)整更適合小目標(biāo)的不同感受野,以此得到對(duì)小目標(biāo)充分加權(quán)并且重定向后的特征圖。c模型分別在Backbone的SPPF層前和Neck的上下采樣最后部分引入SMAM。相較于b模型,c模型的層數(shù)、GFLOPs、參數(shù)量分別增加了168、10.77個(gè)百分點(diǎn)、0.45×106,但mAP50提升了2.01個(gè)百分點(diǎn)。d模型以c模型為基礎(chǔ),在Neck的下采樣輸入Head之前,將原來(lái)無(wú)注意力加權(quán)的CSPNet結(jié)構(gòu)C3模塊替換成引入了SMAM的CSMAM結(jié)構(gòu)。相較于c模型,d模型層數(shù)增加了91,GFLOPs減少了1.76,參數(shù)量減少了0.25×106,同時(shí)mAP50上升了0.36個(gè)百分點(diǎn)。這說(shuō)明增加SMAM模塊和在特征提取中將C3替換成更輕量的CSMAM后,能夠使模型獲得更加豐富的小目標(biāo)特征。

    綜上所述,本文模型相較于基線模型YOLOv5s的mAP50提升了4.15個(gè)百分點(diǎn),大幅提升了小目標(biāo)的檢測(cè)精度,同時(shí)FPS達(dá)到了74 frame/s,具有一定的實(shí)時(shí)檢測(cè)效果。

    3.5 對(duì)比實(shí)驗(yàn)及分析

    在TinyPerson數(shù)據(jù)集上,對(duì)SMAM-YOLO和近年來(lái)已有的幾種小目標(biāo)檢測(cè)模型(主要包含CBAM、PP-YOLO[27]、DETR[28]、YOLOv7[29]、YOLOX[30]、YOLOv5)進(jìn)行對(duì)比實(shí)驗(yàn),其中YOLOX和PP-YOLO使用S版本,YOLOv7使用tiny版本,YOLOv5s使用較新的6.2版本,實(shí)驗(yàn)結(jié)果如表3所示。由表3可知,在對(duì)比的算法中,引入CBAM的YOLOv5具有最高的mAP50,達(dá)到50.61%,比SMAM-YOLO的mAP50低1.46個(gè)百分點(diǎn),其他參數(shù)與CBAM相差不大,在提高檢測(cè)精度的同時(shí),也保證了速度、參數(shù)量和模型大小的穩(wěn)定。YOLOv7-tiny具有最快的檢測(cè)速度,達(dá)到131.21 frame/s,同時(shí)參數(shù)量、模型大小、GFLOPs也最小,但是比SMAM-YOLO的mAP50低6.84個(gè)百分點(diǎn)。由此可見(jiàn),SMAM-YOLO算法將更多的注意力聚焦到小目標(biāo)身上,動(dòng)態(tài)地對(duì)不同尺度下特征圖中的小目標(biāo)重定向,不僅提高了檢測(cè)精度,同時(shí)保證了檢測(cè)速度,具有一定的實(shí)時(shí)性,在實(shí)時(shí)檢測(cè)小目標(biāo)任務(wù)上具有更大的優(yōu)勢(shì)。

    表2 消融實(shí)驗(yàn)結(jié)果

    表3 不同小目標(biāo)檢測(cè)模型的對(duì)比實(shí)驗(yàn)結(jié)果

    3.6 模塊可視化分析

    為了更直觀驗(yàn)證SMAM對(duì)小目標(biāo)特征的影響情況,以及對(duì)最后檢測(cè)小目標(biāo)時(shí)產(chǎn)生的影響,使用TinyPerson測(cè)試集中具有代表性的圖片驗(yàn)證。

    圖8(a)是沒(méi)有添加混合注意力的YOLOv5基線模型,圖8(b)是添加了混合注意力的YOLOv5模型,分別使用Grad-CAM[31]做熱力圖可視化。從圖的左上、右上、左下,右下對(duì)比中可以看出,在不同的角度,目標(biāo)數(shù)量多且小的時(shí)候,MAM可以更加有效地聚焦小目標(biāo)的特征,在圖中則表現(xiàn)為目標(biāo)邊界更加清晰,顏色與環(huán)境差異明顯,從而提高檢測(cè)效果。

    圖9是添加混合注意力前后的YOLOv5的實(shí)際檢測(cè)效果,其中紅色框是模型檢測(cè)的人類標(biāo)簽,黃色框?yàn)橹攸c(diǎn)標(biāo)出的差異。從圖9可以看出,在不同的條件下,陸地或者海上、白天或者傍晚,基線模型對(duì)于小目標(biāo)存在漏檢的情況,而添加混合注意力后可以較好地檢測(cè)出小目標(biāo)。

    綜上所述,SMAM可以有效提升小目標(biāo)的檢測(cè)效果。

    圖8 添加混合注意力前后的熱力圖

    圖9 添加混合注意力前后的檢測(cè)效果圖

    4 結(jié)語(yǔ)

    本文結(jié)合通道、空間注意力與多分支網(wǎng)絡(luò)結(jié)構(gòu),提出了多分支混合注意力模塊,通過(guò)自適應(yīng)的多感受野聚焦更適合小目標(biāo)的豐富尺度信息,再結(jié)合混合注意力對(duì)小目標(biāo)信息重標(biāo)定,使小目標(biāo)特征更加突出,以此提高對(duì)小目標(biāo)特征的識(shí)別能力。對(duì)本文所提出的小目標(biāo)檢測(cè)算法SMAM-YOLO在TinyPerson數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,SMAM-YOLO的檢測(cè)效果較為優(yōu)異,不僅檢測(cè)精度高,而且檢測(cè)速度高,能滿足實(shí)時(shí)檢測(cè)需求。

    本文主要使用多分支混合注意力模塊來(lái)改進(jìn)YOLOv5s模型,以提升小目標(biāo)檢測(cè)的效果,并沒(méi)有考慮與其他相關(guān)方法(如數(shù)據(jù)增強(qiáng)和自注意力機(jī)制等)相結(jié)合。因此,在后續(xù)的研究工作中,可以進(jìn)一步研究如何將SMAM-YOLO與更多先進(jìn)方法相結(jié)合,實(shí)現(xiàn)高性能的小目標(biāo)檢測(cè)。

    [1] LIN T Y, DOLLáR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2017: 936-944.

    [2] LIU S, QI L, QIN H, et al. Path aggregation network for instance segmentation[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 8759-8768.

    [3] GHIASI G, LIN T Y, LE Q V. NAS-FPN: learning scalable feature pyramid architecture for object detection[C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2019: 7029-7038.

    [4] LIANG Z, SHAO J, ZHANG D, et al. Small object detection using deep feature pyramid networks[C]// Proceedings of the 2018 Pacific Rim Conference on Multimedia, LNCS 11166. Cham: Springer, 2018: 554-564.

    [5] TAN M, PANG R, LE Q V. EfficientDet: scalable and efficient object detection[C]// Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2020: 10778-10787.

    [6] HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2018: 7132-7141.

    [7] WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module[C]// Proceedings of the 2018 European Conference on Computer Vision, LNCS 11211. Cham: Springer, 2018: 3-19.

    [8] QIN Z, ZHANG P, WU F, et al. FcaNet: frequency channel attention networks[C]// Proceedings of the 2021 IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE, 2021: 763-772.

    [9] WANG C Y, LIAO H Y M, WU Y H, et al. CSPNet: a new backbone that can enhance learning capability of CNN[C]// Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Washington, DC: IEEE Computer Society, 2020: 1571-1580.

    [10] 李科岑,王曉強(qiáng),林浩,等. 深度學(xué)習(xí)中的單階段小目標(biāo)檢測(cè)方法綜述[J]. 計(jì)算機(jī)科學(xué)與探索, 2022, 16(1):41-58.(LI K C, WANG X Q, LIN H, et al. A survey of one-stage small object detection methods in deep learning[J]. Journal of Frontiers of Computer Science and Technology, 2022, 16(1): 41-58.)

    [11] KISANTAL M, WOJNA Z, MURAWSKI J, et al. Augmentation for small object detection[EB/OL]. [2023-02-12].https://arxiv.org/pdf/1902.07296.pdf.

    [12] GONG Y, YU X, DING Y, et al. Effective fusion factor in FPN for tiny object detection[C]// Proceedings of the 2021 IEEE Winter Conference on Applications of Computer Vision. Piscataway: IEEE, 2021: 1159-1167.

    [13] JIANG N, YU X, PENG X, et al. SM+: refined scale match for tiny person detection[C]// Proceedings of the 2021 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway: IEEE, 2021: 1815-1819.

    [14] 李文濤,彭力. 多尺度通道注意力融合網(wǎng)絡(luò)的小目標(biāo)檢測(cè)算法[J]. 計(jì)算機(jī)科學(xué)與探索, 2021, 15(12):2390-2400.(LI W T, PENG L. Small objects detection algorithm with multi-scale channel attention fusion network[J]. Journal of Frontiers of Computer Science and Technology, 2021, 15(12): 2390-2400.)

    [15] SZEGEDY C, LIU W, JIA Y, et al. Going deeper with convolutions[C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2015: 1-9.

    [16] XIE S, GIRSHICK R, DOLLáR P, et al. Aggregated residual transformations for deep neural networks[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2017: 5987-5995.

    [17] LI X, WANG W, HU X, et al. Selective kernel networks[C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2019: 510-519.

    [18] ZHANG H, WU C, ZHANG Z, et al. ResNeSt: split-attention networks[C]// Proceedings of the 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Washington, DC: IEEE Computer Society, 2022: 2735-2745.

    [19] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]// Proceedings of the IEEE 2016 Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2016: 779-788.

    [20] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[C]// Proceedings of the 28th International Conference on Neural Information Processing Systems — Volume 1. Cambridge: MIT Press, 2015:91-99.

    [21] HE K, GKIOSARI G, DOLLáR P, et al. Mask R-CNN[C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2017: 2980-2988.

    [22] 曹家樂(lè),李亞利,孫漢卿,等.基于深度學(xué)習(xí)的視覺(jué)目標(biāo)檢測(cè)技術(shù)綜述[J].中國(guó)圖象圖形學(xué)報(bào),2022,27(6):1697-1722. (CAO J L, LI Y L, SUN H Q, et al. A survey on deep learning based visual object detection[J]. Journal of Image and Graphics, 2022, 27(6): 1697-1722.)

    [23] REDMON J, FARHADI A. YOLO9000: better, faster, stronger[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2017: 6517-6525.

    [24] REDMON J, FARHADI A. YOLOv3: an incremental improvement[EB/OL]. [2023-02-12].https://arxiv.org/pdf/1804.02767.pdf.

    [25] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4: optimal speed and accuracy of object detection[EB/OL]. [2023-02-12].https://arxiv.org/pdf/2004.10934.pdf.

    [26] YU X, GONG Y, JIANG N, et al. Scale match for tiny person detection[C]// Proceedings of the 2020 IEEE Winter Conference on Applications of Computer Vision. Piscataway: IEEE, 2020: 1246-1254.

    [27] LONG X, DENG K, WANG G, et al. PP-YOLO: an effective and efficient implementation of object detector[EB/OL]. [2023-02-12].https://arxiv.org/pdf/2007.12099.pdf.

    [28] ZHU X, SU W, LU L, et al. Deformable DETR: deformable transformers for end-to-end object detection[EB/OL]. [2023-02-12].https://arxiv.org/pdf/2010.04159.pdf.

    [29] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. YOLOv7: trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[EB/OL]. [2023-02-12].https://arxiv.org/pdf/2207.02696.pdf.

    [30] GE Z, LIU S, WANG F, et al. YOLOX: exceeding YOLO series in 2021[EB/OL]. [2023-02-12].https://arxiv.org/pdf/2107.08430.pdf.

    [31] SELVARAJU R R, COGSWELL M, DAS A, et al. Grad-CAM: visual explanations from deep networks via gradient-based localization[C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2017: 618-626.

    Small object detection algorithm based on split mixed attention

    QIN Qiangqiang, LIAO Junguo*, ZHOU Yixun

    (,,411201,)

    Focusing on the characteristics of small objects in images, such as less feature information, low percentage, and easy to be influenced by the environment, a small object detection algorithm based on split mixed attention was proposed, namely SMAM-YOLO. Firstly, by combining Channel Attention (CA) and Spatial Attention (SA), as well as recombining the connection structures, a Mixed Attention Module (MAM) was proposed to enhance the model’s representation of small object features in spatial dimension. Secondly, according to the different influence of receptive fields with different sizes on the object, a Split Mixed Attention Module (SMAM) was proposed to adaptively adjust the size of the receptive field according to the scale of the input feature map, and the mixed attention was used to enhance the ability to capture small object feature information in different branches. Finally, the core residual module in YOLOv5 was improved by using SMAM, and a feature extraction module CSMAM was proposed on the basis of CSPNet (Cross Stage Partial Network) and SMAM, and the additional computational overhead of CSMAM can be ignored. Experimental results on TinyPerson dataset show that compared with the baseline algorithm YOLOv5s, when the Intersection over Union (IoU) threshold is 0.5, the mean Average Precision (mAP50) of SMAM-YOLO algorithm is improved by 4.15 percentage points, and the detection speed reaches 74 frame/s. In addition, compared with some existing mainstream small object detection models, SMAM-YOLO algorithm improves the mAP50by 1.46 - 6.84 percentage points on average, and it can meet the requirements of real-time detection.

    small object detection; split network; mixed attention; feature fusion; real-time detection

    QIN Qiangqiang, born in 1990, M. S. candidate. His research interests include artificial intelligence, object detection.

    1001-9081(2023)11-3579-08

    10.11772/j.issn.1001-9081.2022111660

    2022?11?09;

    2023?03?03;

    秦強(qiáng)強(qiáng)(1997—),男,安徽蕪湖人,碩士研究生,CCF會(huì)員,主要研究方向:人工智能、目標(biāo)檢測(cè); 廖俊國(guó)(1972—),男,湖南衡陽(yáng)人,教授,博士,CCF會(huì)員,主要研究方向:網(wǎng)絡(luò)安全、人工智能、模式識(shí)別; 周弋荀(1998—),男,湖北黃石人,碩士研究生,CCF會(huì)員,主要研究方向:人工智能、目標(biāo)檢測(cè)。

    TP391; TP183

    A

    2023?03?03。

    LIAO Junguo, born in 1972, Ph. D., professor. Her research interests include cyber security, artificial intelligence, pattern recognition.

    ZHOU Yixun, born in 1998, M. S. candidate. His research interests include artificial intelligence, object detection.

    猜你喜歡
    分支注意力混合
    混合宅
    讓注意力“飛”回來(lái)
    一起來(lái)學(xué)習(xí)“混合運(yùn)算”
    巧分支與枝
    一類擬齊次多項(xiàng)式中心的極限環(huán)分支
    “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
    油水混合
    A Beautiful Way Of Looking At Things
    混合所有制
    生成分支q-矩陣的零流出性
    国产真实乱freesex| 国产精品久久视频播放| 午夜福利在线观看吧| 国产中年淑女户外野战色| 亚洲美女搞黄在线观看 | 亚洲精华国产精华液的使用体验 | 亚洲,欧美,日韩| 变态另类成人亚洲欧美熟女| 成人av一区二区三区在线看| 久久久久久伊人网av| 国产精品精品国产色婷婷| 两个人视频免费观看高清| 久久九九热精品免费| 精品日产1卡2卡| 免费一级毛片在线播放高清视频| 日本-黄色视频高清免费观看| 午夜福利在线在线| 天堂√8在线中文| videossex国产| 久久久国产成人精品二区| 成人综合一区亚洲| 亚洲第一区二区三区不卡| eeuss影院久久| 欧美性猛交黑人性爽| 久久久久九九精品影院| 一本精品99久久精品77| 波野结衣二区三区在线| 亚洲乱码一区二区免费版| 国产亚洲91精品色在线| 欧美色视频一区免费| 九九爱精品视频在线观看| 中国美白少妇内射xxxbb| 精品一区二区三区人妻视频| 美女高潮喷水抽搐中文字幕| 午夜免费激情av| 色av中文字幕| 黄色配什么色好看| 一级a爱片免费观看的视频| 国产一区二区激情短视频| a在线观看视频网站| 国产精品久久久久久久久免| 成人永久免费在线观看视频| 自拍偷自拍亚洲精品老妇| 亚洲熟妇熟女久久| 禁无遮挡网站| 国产高清三级在线| 小说图片视频综合网站| 久久久久久伊人网av| 男女视频在线观看网站免费| 国产精品久久电影中文字幕| 看免费成人av毛片| 精品久久久久久久久亚洲 | 国产精品一区二区三区四区免费观看 | 在线a可以看的网站| 亚洲自拍偷在线| 欧美一区二区国产精品久久精品| 国产精品一区www在线观看 | 偷拍熟女少妇极品色| 99在线视频只有这里精品首页| 久久久久精品国产欧美久久久| 欧美绝顶高潮抽搐喷水| 久久国产乱子免费精品| 搡老妇女老女人老熟妇| 91麻豆av在线| 少妇高潮的动态图| 欧美bdsm另类| 制服丝袜大香蕉在线| 久久热精品热| 亚洲精品一区av在线观看| 国产精品人妻久久久影院| 亚洲国产精品成人综合色| 欧美丝袜亚洲另类 | 国产av不卡久久| 欧美成人a在线观看| 极品教师在线视频| 天天一区二区日本电影三级| 午夜福利18| 最近视频中文字幕2019在线8| 欧美xxxx性猛交bbbb| 成人欧美大片| 亚洲真实伦在线观看| 国产一区二区三区在线臀色熟女| 久久久国产成人精品二区| 日韩欧美在线乱码| 久久人人精品亚洲av| 国产一区二区三区在线臀色熟女| 特大巨黑吊av在线直播| 精品福利观看| 亚洲av美国av| 最近在线观看免费完整版| 欧美一级a爱片免费观看看| 国产熟女欧美一区二区| 亚洲内射少妇av| 一进一出抽搐动态| 91狼人影院| 亚洲乱码一区二区免费版| 日本免费a在线| 特大巨黑吊av在线直播| 夜夜看夜夜爽夜夜摸| 亚洲一级一片aⅴ在线观看| 午夜免费激情av| 成人美女网站在线观看视频| 国产午夜福利久久久久久| 日本精品一区二区三区蜜桃| 美女 人体艺术 gogo| 亚洲成av人片在线播放无| 国产精品福利在线免费观看| 免费搜索国产男女视频| 别揉我奶头 嗯啊视频| 黄色日韩在线| 色吧在线观看| 男人和女人高潮做爰伦理| 大又大粗又爽又黄少妇毛片口| 免费在线观看影片大全网站| 极品教师在线免费播放| 欧美高清性xxxxhd video| 又紧又爽又黄一区二区| 少妇的逼好多水| 日韩 亚洲 欧美在线| 看片在线看免费视频| 亚洲精品亚洲一区二区| 69av精品久久久久久| 蜜桃久久精品国产亚洲av| .国产精品久久| 久久精品国产清高在天天线| 能在线免费观看的黄片| 欧美不卡视频在线免费观看| 国产成年人精品一区二区| 禁无遮挡网站| 国产伦在线观看视频一区| 午夜福利18| 少妇裸体淫交视频免费看高清| 久久久国产成人精品二区| 成人国产综合亚洲| 午夜a级毛片| 久久天躁狠狠躁夜夜2o2o| 99久久成人亚洲精品观看| 99精品在免费线老司机午夜| 国内精品美女久久久久久| 神马国产精品三级电影在线观看| 狂野欧美激情性xxxx在线观看| 桃色一区二区三区在线观看| 国产视频一区二区在线看| 日本精品一区二区三区蜜桃| 成人二区视频| 国产高清不卡午夜福利| 麻豆国产97在线/欧美| 亚洲欧美激情综合另类| 网址你懂的国产日韩在线| 久久久久久久久大av| 久久久久国内视频| 中文字幕高清在线视频| 亚洲美女视频黄频| 1024手机看黄色片| 午夜免费男女啪啪视频观看 | 欧美性猛交╳xxx乱大交人| 男人狂女人下面高潮的视频| 国产乱人伦免费视频| 免费电影在线观看免费观看| 久久精品国产亚洲网站| 天天一区二区日本电影三级| 国产国拍精品亚洲av在线观看| 99热6这里只有精品| 国产伦在线观看视频一区| 久久这里只有精品中国| 1024手机看黄色片| 99久久九九国产精品国产免费| 亚洲综合色惰| 国内精品久久久久久久电影| 久久香蕉精品热| 变态另类丝袜制服| 欧美成人免费av一区二区三区| 一级黄色大片毛片| 国内毛片毛片毛片毛片毛片| 国产探花在线观看一区二区| av天堂在线播放| 亚洲欧美日韩卡通动漫| 亚洲av中文字字幕乱码综合| 日韩中字成人| 简卡轻食公司| 日本成人三级电影网站| 舔av片在线| 亚洲美女搞黄在线观看 | 女生性感内裤真人,穿戴方法视频| 国产69精品久久久久777片| 亚洲精品一卡2卡三卡4卡5卡| 美女高潮喷水抽搐中文字幕| 国产日本99.免费观看| 国产精品98久久久久久宅男小说| 久久久久久国产a免费观看| 极品教师在线视频| 中文字幕av成人在线电影| 男女之事视频高清在线观看| av专区在线播放| 无遮挡黄片免费观看| 欧美黑人巨大hd| 精品一区二区三区av网在线观看| eeuss影院久久| 男人和女人高潮做爰伦理| 亚洲性久久影院| 久久精品国产亚洲av香蕉五月| 男人和女人高潮做爰伦理| 91狼人影院| 日日撸夜夜添| 性欧美人与动物交配| 亚洲成人免费电影在线观看| 免费观看人在逋| 精品久久久久久久久久久久久| 国产女主播在线喷水免费视频网站 | 午夜福利在线在线| 免费观看的影片在线观看| 搡老熟女国产l中国老女人| 黄色女人牲交| 成年免费大片在线观看| 网址你懂的国产日韩在线| 免费高清视频大片| 亚洲人成网站在线播| 日本黄大片高清| 免费看美女性在线毛片视频| 国内精品久久久久精免费| 午夜影院日韩av| 国产亚洲精品久久久com| 在线播放无遮挡| 九九久久精品国产亚洲av麻豆| 精品一区二区三区视频在线| 国产白丝娇喘喷水9色精品| 天堂√8在线中文| 国产视频内射| 国内精品美女久久久久久| 国产伦人伦偷精品视频| av在线老鸭窝| 国内揄拍国产精品人妻在线| 99精品久久久久人妻精品| 日本熟妇午夜| 琪琪午夜伦伦电影理论片6080| 国产精品久久电影中文字幕| 午夜福利18| 国内精品宾馆在线| 韩国av一区二区三区四区| 国产精品久久久久久精品电影| x7x7x7水蜜桃| 不卡一级毛片| 一边摸一边抽搐一进一小说| 中国美白少妇内射xxxbb| 我的女老师完整版在线观看| 日本撒尿小便嘘嘘汇集6| 在线a可以看的网站| av在线天堂中文字幕| 日韩欧美国产在线观看| 午夜影院日韩av| 亚洲四区av| 久久久久久久久久成人| 国产一区二区三区在线臀色熟女| 国产探花在线观看一区二区| 国产精品一及| 人妻久久中文字幕网| 成人av一区二区三区在线看| 嫁个100分男人电影在线观看| 欧美+日韩+精品| 在线免费观看的www视频| 欧美中文日本在线观看视频| 麻豆久久精品国产亚洲av| 91在线精品国自产拍蜜月| 成人综合一区亚洲| 日日撸夜夜添| 中文字幕免费在线视频6| 久久热精品热| 高清毛片免费观看视频网站| h日本视频在线播放| 欧美日韩中文字幕国产精品一区二区三区| 中文字幕人妻熟人妻熟丝袜美| av中文乱码字幕在线| 久久久久九九精品影院| .国产精品久久| av在线天堂中文字幕| 午夜精品一区二区三区免费看| av国产免费在线观看| 国产美女午夜福利| 亚洲电影在线观看av| 女人十人毛片免费观看3o分钟| 欧美最黄视频在线播放免费| 国产私拍福利视频在线观看| 国产久久久一区二区三区| 国产av在哪里看| 亚洲欧美日韩高清专用| 国产高清不卡午夜福利| 免费搜索国产男女视频| 成人高潮视频无遮挡免费网站| 欧美性猛交黑人性爽| 国产 一区 欧美 日韩| 久久国产乱子免费精品| 国产视频内射| 此物有八面人人有两片| 久99久视频精品免费| 亚洲专区国产一区二区| av视频在线观看入口| 国产精品电影一区二区三区| 天堂动漫精品| 国产在线精品亚洲第一网站| 日日撸夜夜添| 黄色丝袜av网址大全| 自拍偷自拍亚洲精品老妇| 最近在线观看免费完整版| 在线观看66精品国产| 免费看美女性在线毛片视频| 亚洲性久久影院| 女生性感内裤真人,穿戴方法视频| 国产大屁股一区二区在线视频| 日韩中字成人| 精品午夜福利视频在线观看一区| 日本与韩国留学比较| 久9热在线精品视频| 一级黄色大片毛片| 精品久久久久久久末码| 少妇高潮的动态图| 女人十人毛片免费观看3o分钟| 91在线观看av| 露出奶头的视频| 十八禁国产超污无遮挡网站| 亚洲av.av天堂| 国产精品久久久久久久久免| 国产 一区精品| 亚洲人与动物交配视频| 日韩人妻高清精品专区| 好男人在线观看高清免费视频| 免费av不卡在线播放| 观看美女的网站| 国产伦精品一区二区三区四那| 亚州av有码| 高清在线国产一区| 国产高清激情床上av| 亚洲精品456在线播放app | 午夜福利成人在线免费观看| 国产一区二区三区av在线 | 1024手机看黄色片| 色哟哟哟哟哟哟| 91久久精品国产一区二区成人| 日韩在线高清观看一区二区三区 | 国产精品永久免费网站| www日本黄色视频网| 韩国av在线不卡| ponron亚洲| 禁无遮挡网站| 国产一级毛片七仙女欲春2| 精品久久久久久久末码| 又紧又爽又黄一区二区| 亚洲欧美清纯卡通| 欧美三级亚洲精品| 毛片女人毛片| 日本-黄色视频高清免费观看| videossex国产| 网址你懂的国产日韩在线| 欧美成人性av电影在线观看| 成年版毛片免费区| 欧美在线一区亚洲| 网址你懂的国产日韩在线| 岛国在线免费视频观看| 日韩精品中文字幕看吧| 免费搜索国产男女视频| 免费av不卡在线播放| 日韩av在线大香蕉| 亚洲精品一卡2卡三卡4卡5卡| 日韩av在线大香蕉| 婷婷精品国产亚洲av| 91久久精品国产一区二区成人| 日本熟妇午夜| 丝袜美腿在线中文| 三级男女做爰猛烈吃奶摸视频| 99国产精品一区二区蜜桃av| 欧美激情久久久久久爽电影| 久久亚洲真实| 国产精品98久久久久久宅男小说| 国模一区二区三区四区视频| 国产精品久久久久久久电影| 亚洲欧美清纯卡通| 国产一区二区三区视频了| 男人的好看免费观看在线视频| av福利片在线观看| 午夜福利在线观看吧| 免费av不卡在线播放| 久久亚洲真实| 亚洲国产高清在线一区二区三| 亚洲va在线va天堂va国产| 在线观看免费视频日本深夜| 国产精品久久视频播放| 免费观看在线日韩| 麻豆国产av国片精品| 99久久久亚洲精品蜜臀av| 久9热在线精品视频| 两个人的视频大全免费| 亚洲四区av| 永久网站在线| 简卡轻食公司| 久久欧美精品欧美久久欧美| 别揉我奶头~嗯~啊~动态视频| 人妻夜夜爽99麻豆av| 亚洲四区av| 不卡一级毛片| 午夜激情欧美在线| 日本与韩国留学比较| 色视频www国产| 自拍偷自拍亚洲精品老妇| 色视频www国产| 美女免费视频网站| 亚洲精品乱码久久久v下载方式| 国产主播在线观看一区二区| 精品久久久久久成人av| 99久久精品热视频| 男女那种视频在线观看| АⅤ资源中文在线天堂| 中文字幕人妻熟人妻熟丝袜美| 99久久中文字幕三级久久日本| 欧美另类亚洲清纯唯美| 香蕉av资源在线| av黄色大香蕉| 99热只有精品国产| 国产成人a区在线观看| 亚洲18禁久久av| 联通29元200g的流量卡| 国产国拍精品亚洲av在线观看| av专区在线播放| 成人特级av手机在线观看| netflix在线观看网站| АⅤ资源中文在线天堂| 18+在线观看网站| a级毛片a级免费在线| 色5月婷婷丁香| 欧美一区二区亚洲| 婷婷亚洲欧美| 一边摸一边抽搐一进一小说| av在线蜜桃| 国产美女午夜福利| 国产午夜精品久久久久久一区二区三区 | 男人和女人高潮做爰伦理| 12—13女人毛片做爰片一| 亚洲成人久久爱视频| 久久精品人妻少妇| 成人二区视频| 99久久精品热视频| 免费人成在线观看视频色| 有码 亚洲区| 中文字幕高清在线视频| 嫩草影院新地址| 国产毛片a区久久久久| 亚洲精品影视一区二区三区av| av天堂中文字幕网| 久久九九热精品免费| 老熟妇仑乱视频hdxx| 狂野欧美白嫩少妇大欣赏| 国产精品久久久久久亚洲av鲁大| 女人被狂操c到高潮| 国产高清激情床上av| 国产又黄又爽又无遮挡在线| 免费高清视频大片| 在线观看舔阴道视频| 免费观看人在逋| 波野结衣二区三区在线| 1024手机看黄色片| 嫩草影视91久久| 又爽又黄无遮挡网站| 国产主播在线观看一区二区| 免费在线观看日本一区| 亚洲最大成人av| 成人永久免费在线观看视频| 99久久无色码亚洲精品果冻| 全区人妻精品视频| 久久久久九九精品影院| 国产免费一级a男人的天堂| 狠狠狠狠99中文字幕| 亚洲成av人片在线播放无| 乱人视频在线观看| 日日摸夜夜添夜夜添av毛片 | 欧美不卡视频在线免费观看| 观看美女的网站| 午夜视频国产福利| 最近视频中文字幕2019在线8| 在线国产一区二区在线| 91久久精品国产一区二区三区| 赤兔流量卡办理| 亚洲av一区综合| 日韩国内少妇激情av| 色精品久久人妻99蜜桃| 国产一区二区三区视频了| 精品无人区乱码1区二区| 国产男靠女视频免费网站| 女人被狂操c到高潮| 国产不卡一卡二| 久久国产精品人妻蜜桃| 露出奶头的视频| 日韩,欧美,国产一区二区三区 | 成年女人看的毛片在线观看| 午夜精品在线福利| 国产精品福利在线免费观看| 精品日产1卡2卡| 他把我摸到了高潮在线观看| 亚洲人成网站在线播| 午夜福利欧美成人| 亚洲图色成人| 99久久中文字幕三级久久日本| 日本一本二区三区精品| 免费看美女性在线毛片视频| 亚洲国产精品合色在线| 色精品久久人妻99蜜桃| 悠悠久久av| 91精品国产九色| 黄色女人牲交| 亚洲av成人精品一区久久| 国产精品三级大全| 在线观看舔阴道视频| 毛片一级片免费看久久久久 | 亚洲无线在线观看| 白带黄色成豆腐渣| 美女cb高潮喷水在线观看| 国产精品一区二区性色av| 国产视频内射| 国产高清激情床上av| 啦啦啦观看免费观看视频高清| 日韩强制内射视频| 国产白丝娇喘喷水9色精品| 男人和女人高潮做爰伦理| 国产男靠女视频免费网站| 精品99又大又爽又粗少妇毛片 | 国产亚洲精品av在线| 一区二区三区免费毛片| 久久久午夜欧美精品| 蜜桃久久精品国产亚洲av| 国产精品三级大全| 波多野结衣巨乳人妻| 欧美zozozo另类| 欧美三级亚洲精品| 一级黄片播放器| 国产精品无大码| 在线播放国产精品三级| 亚洲av日韩精品久久久久久密| 网址你懂的国产日韩在线| bbb黄色大片| 一区福利在线观看| 国产欧美日韩精品一区二区| 一个人观看的视频www高清免费观看| 国产女主播在线喷水免费视频网站 | 又爽又黄a免费视频| 亚洲最大成人av| 国产视频一区二区在线看| 欧美色欧美亚洲另类二区| 久久99热这里只有精品18| 麻豆一二三区av精品| 日本爱情动作片www.在线观看 | 国产av不卡久久| 国产毛片a区久久久久| 别揉我奶头~嗯~啊~动态视频| 在线观看一区二区三区| 赤兔流量卡办理| 国模一区二区三区四区视频| 国产男靠女视频免费网站| 真实男女啪啪啪动态图| 免费大片18禁| 欧美三级亚洲精品| 婷婷丁香在线五月| 亚洲国产欧美人成| 在线观看66精品国产| xxxwww97欧美| 国产精品人妻久久久影院| 日韩,欧美,国产一区二区三区 | 国产一区二区在线观看日韩| 99热这里只有是精品50| 国产黄色小视频在线观看| 亚洲成人久久性| 欧美极品一区二区三区四区| 有码 亚洲区| .国产精品久久| 国产视频内射| 国产精品一区二区三区四区久久| 成人国产综合亚洲| 午夜激情福利司机影院| 久久中文看片网| 少妇的逼水好多| 免费人成视频x8x8入口观看| 久久久久久九九精品二区国产| 精品午夜福利视频在线观看一区| 哪里可以看免费的av片| 亚洲最大成人中文| 国产成人aa在线观看| 久久婷婷人人爽人人干人人爱| 欧美日本视频| 午夜福利视频1000在线观看| 少妇人妻一区二区三区视频| 99精品在免费线老司机午夜| 一个人观看的视频www高清免费观看| 久久欧美精品欧美久久欧美| 日本一本二区三区精品| 久久久久久久精品吃奶| 日日啪夜夜撸| 亚洲久久久久久中文字幕| 欧美日韩中文字幕国产精品一区二区三区| 99视频精品全部免费 在线| 亚洲精品456在线播放app | 人妻制服诱惑在线中文字幕| 别揉我奶头~嗯~啊~动态视频| 国产免费av片在线观看野外av| 免费人成在线观看视频色| 毛片一级片免费看久久久久 | 亚洲中文字幕一区二区三区有码在线看| 午夜福利视频1000在线观看| 色在线成人网| 中文在线观看免费www的网站| 免费观看人在逋| 伦理电影大哥的女人| 真人一进一出gif抽搐免费| 亚洲成人精品中文字幕电影| 国产av麻豆久久久久久久| 高清毛片免费观看视频网站| 久久精品国产自在天天线| 淫妇啪啪啪对白视频| 性插视频无遮挡在线免费观看| 免费看a级黄色片|