• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多分支混合注意力的小目標(biāo)檢測(cè)算法

    2023-11-29 12:10:28秦強(qiáng)強(qiáng)廖俊國(guó)周弋荀
    計(jì)算機(jī)應(yīng)用 2023年11期
    關(guān)鍵詞:分支注意力混合

    秦強(qiáng)強(qiáng),廖俊國(guó),周弋荀

    基于多分支混合注意力的小目標(biāo)檢測(cè)算法

    秦強(qiáng)強(qiáng),廖俊國(guó)*,周弋荀

    (湖南科技大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,湖南 湘潭 411201)( ? 通信作者電子郵箱jgliao@hnust.edu.cn)

    針對(duì)圖像中的小目標(biāo)特征信息少、占比低、易受環(huán)境影響等特點(diǎn),提出一種基于多分支混合注意力的小目標(biāo)檢測(cè)算法SMAM-YOLO。首先,將通道注意力(CA)和空間注意力(SA)相結(jié)合,重新組合連接結(jié)構(gòu),提出一種混合注意力模塊(MAM),增強(qiáng)模型對(duì)小目標(biāo)特征在空間維度上的表達(dá)能力。其次,根據(jù)不同大小的感受野對(duì)目標(biāo)影響的不同,基于混合注意力提出一種多分支混合注意力模塊(SMAM);根據(jù)輸入特征圖的尺度自適應(yīng)調(diào)整感受野大小,同時(shí)使用混合注意力增強(qiáng)不同分支下對(duì)小目標(biāo)特征信息的捕獲能力。最后,使用SMAM改進(jìn)YOLOv5中的核心殘差模塊,提出一種基于CSPNet(Cross Stage Partial Network)和SMAM的特征提取模塊CSMAM,而且CSMAM的額外計(jì)算開(kāi)銷可以忽略不計(jì)。在TinyPerson數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,與基線算法YOLOv5s相比,當(dāng)交并比(IoU)閾值為0.5時(shí),SMAM-YOLO算法的平均檢測(cè)精度(mAP50)提升了4.15個(gè)百分點(diǎn),且檢測(cè)速度達(dá)到74 frame/s;此外,與現(xiàn)有的一些主流小目標(biāo)檢測(cè)模型相比,SMAM-YOLO算法在mAP50上平均提升了1.46~6.84個(gè)百分點(diǎn),且能滿足實(shí)時(shí)性檢測(cè)的需求。

    小目標(biāo)檢測(cè);多分支網(wǎng)絡(luò);混合注意力;特征融合;實(shí)時(shí)檢測(cè)

    0 引言

    隨著深度學(xué)習(xí)的不斷發(fā)展以及硬件成本的不斷降低,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法取得了長(zhǎng)足的進(jìn)步。與中大型目標(biāo)檢測(cè)相比,小目標(biāo)檢測(cè)具有目標(biāo)特征信息少、數(shù)據(jù)集比例不均衡以及易受環(huán)境影響等特點(diǎn),這些特點(diǎn)導(dǎo)致小目標(biāo)檢測(cè)的精度不高。小目標(biāo)檢測(cè)在海上救援、監(jiān)控識(shí)別、無(wú)人機(jī)識(shí)別、遙感衛(wèi)星、海洋生物檢測(cè)等任務(wù)中有廣泛的應(yīng)用。因此,研究小目標(biāo)檢測(cè)算法并提高小目標(biāo)的檢測(cè)精度與效率具有重要意義。

    由于不斷下采樣,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)在特征提取過(guò)程中過(guò)濾了相關(guān)噪聲,增強(qiáng)了目標(biāo)的特征表達(dá),同時(shí)也導(dǎo)致小目標(biāo)在網(wǎng)絡(luò)的前向傳播中丟失信息。為此,有些學(xué)者提出了基于特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network, FPN)[1]的多尺度特征融合網(wǎng)絡(luò),如路徑聚合網(wǎng)絡(luò)(Path Aggregation Network, PANet)[2]、神經(jīng)架構(gòu)搜索網(wǎng)絡(luò)(Neural Architecture Search Network, NAS-Net)[3]、深度特征金字塔網(wǎng)絡(luò)(Deep Feature Pyramid Network, DFPN)[4]、雙向加權(quán)特征金字塔網(wǎng)絡(luò)(Bidirectional Feature Pyramid Network, BiFPN)[5]等。但是,在這些網(wǎng)絡(luò)中,不同層之間的融合方式僅僅是簡(jiǎn)單求和,忽略了目標(biāo)在場(chǎng)景中的相關(guān)性,對(duì)于小目標(biāo)檢測(cè)的性能提升有限。擠壓-激勵(lì)網(wǎng)絡(luò)(Squeeze Excitation Network, SE-Net)[6]、卷積注意力模塊(Convolutional Block Attention Module, CBAM)[7]、頻域通道注意力網(wǎng)絡(luò)(Frequency channel attention Network, FcaNet)[8]等方法從通道和空間注意力等不同角度對(duì)小目標(biāo)建模,得到了兩個(gè)維度的注意力權(quán)重矩陣,從而增強(qiáng)小目標(biāo)特征表達(dá),抑制其他目標(biāo)及復(fù)雜環(huán)境信息;但是,這些注意力網(wǎng)絡(luò)設(shè)計(jì)忽略了不同卷積核對(duì)小目標(biāo)檢測(cè)的影響。

    針對(duì)上述問(wèn)題,本文提出了一種基于多分支網(wǎng)絡(luò)結(jié)構(gòu)與混合注意力的小目標(biāo)檢測(cè)算法SMAM-YOLO。該算法使用YOLOv5s作為小目標(biāo)檢測(cè)的基線算法,然后利用混合注意力機(jī)制和多分支網(wǎng)絡(luò)結(jié)構(gòu)對(duì)基線算法進(jìn)行改進(jìn)優(yōu)化。主要改進(jìn)如下:

    1)將通道注意力(Channel Attention, CA)和空間注意力(Spatial Attention, SA)相結(jié)合,重新組合連接結(jié)構(gòu),提出混合注意力模塊(Mixed Attention Module, MAM)。MAM可以獲得豐富的全局空間權(quán)重注意力矩陣,增強(qiáng)小目標(biāo)特征信息,抑制背景等無(wú)關(guān)信息。

    2)結(jié)合多分支網(wǎng)絡(luò)和MAM,提出一種新的多分支混合注意力模塊(Split Mixed Attention Module, SMAM)。SMAM可以根據(jù)輸入目標(biāo)的尺度自適應(yīng)調(diào)整感受野的大小,增強(qiáng)小目標(biāo)的特征表達(dá)。

    3)為提升小目標(biāo)的特征提取能力,改進(jìn)YOLOv5的核心殘差塊C3,將SMAM和C3結(jié)合,提出基于CSPNet(Cross Stage Partial Network)[9]的特征提取殘差塊CSMAM。CSMAM在特征提取時(shí)可以將更多的注意力聚焦在小目標(biāo)上,增強(qiáng)小目標(biāo)的特征信息。同時(shí)在P2層引入一個(gè)新的預(yù)測(cè)分支和小目標(biāo)檢測(cè)頭,以獲得更多的淺層信息,有利于小目標(biāo)的檢測(cè)。

    1 相關(guān)工作

    SMAM-YOLO是一種基于多分支混合注意力的小目標(biāo)檢測(cè)方法,涉及以下相關(guān)知識(shí):1)小目標(biāo)檢測(cè);2)多分支和注意力機(jī)制;3)多尺度特征融合;4)YOLO。本章對(duì)相關(guān)知識(shí)的研究工作進(jìn)行簡(jiǎn)述。

    1.1 小目標(biāo)檢測(cè)

    1.2 多分支和注意力機(jī)制

    基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法大多使用卷積神經(jīng)網(wǎng)絡(luò),然而不同的卷積核對(duì)不同大小的目標(biāo)敏感程度并不同。2017年,Szegedy等[15]提出的GoogleNet取得了巨大的成功,網(wǎng)絡(luò)中的Inception結(jié)構(gòu)由4個(gè)具有不同卷積核的網(wǎng)絡(luò)塊組成。之后Xie等[16]提出的ResNeXt在ResNet的Bottleneck中引入分組卷積,在基礎(chǔ)結(jié)構(gòu)中使用了多分支結(jié)構(gòu),并通過(guò)實(shí)驗(yàn)證明了多分支結(jié)構(gòu)的有效性。SE-Net通過(guò)在特征的通道層加入通道注意力機(jī)制來(lái)自適應(yīng)地重新標(biāo)定特征,從而增強(qiáng)有效目標(biāo)特征、抑制背景信息。SK-Net(Selective Kernel Network)[17]使用2個(gè)不同卷積核分支網(wǎng)絡(luò),通過(guò)對(duì)融合特征引入通道注意力機(jī)制、再自適應(yīng)拆分對(duì)分支網(wǎng)絡(luò)重標(biāo)定。ResNeSt[18]對(duì)SK-Net進(jìn)行改進(jìn),使用個(gè)不同卷積核,同時(shí)為了共享計(jì)算,后續(xù)卷積核使用第一個(gè)空洞卷積,引入通道注意力后,拆分為個(gè)注意力重新校準(zhǔn)不同感受野下的特征。CBAM使用通道間的均值和最大值之和重新定義通道注意力,同時(shí)引入空間注意力,使用通道和空間的串聯(lián)混合注意力重標(biāo)定特征圖,實(shí)驗(yàn)證明CBAM的效果比單一的注意力效果更優(yōu)。受到這些方法的啟發(fā),本文改進(jìn)混合注意力結(jié)構(gòu),將多分支網(wǎng)絡(luò)和混合注意力結(jié)合起來(lái),并通過(guò)實(shí)驗(yàn)驗(yàn)證了方法的有效性。

    1.3 多尺度特征融合

    目前,絕大多數(shù)目標(biāo)檢測(cè)算法都使用多次下采樣后的深層特征來(lái)分類和回歸。但是,小目標(biāo)的尺寸非常小,隨著網(wǎng)絡(luò)的不斷深入,小目標(biāo)的特征很難保留下來(lái),將顯著影響小目標(biāo)的檢測(cè);而淺層網(wǎng)絡(luò)的特征具有更加詳細(xì)的位置信息和小目標(biāo)信息,所以,將淺層特征和深層特征進(jìn)行多尺度特征融合是一種有效的解決方法。FPN通過(guò)自上而下的橫向連接網(wǎng)絡(luò)將深層和淺層特征融合起來(lái);然而,F(xiàn)PN自上而下的連接結(jié)構(gòu)導(dǎo)致網(wǎng)絡(luò)淺層擁有深層所有的語(yǔ)義信息,而深層沒(méi)有融合相對(duì)應(yīng)的淺層信息。PANet在FPN的基礎(chǔ)上增加了一條額外的自下而上的連接網(wǎng)絡(luò)解決了這一問(wèn)題。

    BiFPN改進(jìn)了PANet的拓?fù)浣Y(jié)構(gòu),并提出了更加高效的路徑聚合網(wǎng)絡(luò)。本文選擇帶有PANet的YOLOv5s作為基礎(chǔ)網(wǎng)絡(luò)。

    1.4 YOLO

    YOLO[19]是目標(biāo)檢測(cè)中單階段網(wǎng)絡(luò)結(jié)構(gòu)的典型算法,它的檢測(cè)速度比雙階段的Faster RCNN[20]、Mask RCNN[21]等算法更快,因?yàn)閅OLO算法的核心思想是將整個(gè)分類和定位當(dāng)成一個(gè)回歸問(wèn)題,在對(duì)圖像提取特征后直接回歸得到類別和位置,大幅降低了算法所消耗的資源和時(shí)間開(kāi)銷[22]。YOLOv2[23]在之前的基礎(chǔ)上改進(jìn)了錨框策略,使用K-means聚類生成更加貼合數(shù)據(jù)集的先驗(yàn)框;YOLOv3[24]使用Darknet53結(jié)構(gòu)的骨干網(wǎng)絡(luò),增強(qiáng)了特征提取的能力與效果;YOLOv4[25]使用改進(jìn)的CSPDarknet53結(jié)構(gòu),同時(shí)使用FPN的特征融合方法;YOLOv5在前述基礎(chǔ)上作了很多改進(jìn),根據(jù)網(wǎng)絡(luò)的深度和寬度提供不同復(fù)雜度的模型,包括YOLOv5n、YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x共五種大小的模型。YOLOv5整體網(wǎng)絡(luò)包括輸入(Input)、特征提取主干網(wǎng)絡(luò)(Backbone)、特征融合層(Neck)、檢測(cè)輸出(Head)四個(gè)部分。一般來(lái)說(shuō),在YOLOv5中,Backbone采用CSPDarknet53和快速空間金字塔池化(Spatial Pyramid Pooling-Fast, SPPF),Neck使用PANet。本文選擇YOLOv5s作為小目標(biāo)檢測(cè)的基線模型。

    2 SMAM?YOLO算法

    2.1 總體架構(gòu)

    與背景相比,小目標(biāo)的尺寸非常小,且自身信息非常缺乏,直接輸入YOLOv5會(huì)導(dǎo)致網(wǎng)絡(luò)將它當(dāng)成普通目標(biāo)計(jì)算,忽略了它的特殊性。首先,受文獻(xiàn)[7,18]工作的啟發(fā),本文改進(jìn)了單一感受野下的通道-空間注意力機(jī)制,并結(jié)合多分支網(wǎng)絡(luò)結(jié)構(gòu),提出多分支混合注意力模塊(SMAM)。相較于文獻(xiàn)[7]的方法,SMAM在增加少量計(jì)算量的情況下,能更加有效地挖掘小目標(biāo)的特征信息,并根據(jù)不同尺度的特征圖動(dòng)態(tài)地為小目標(biāo)的貢獻(xiàn)分配混合注意力權(quán)重。然后,在Backbone的最后一層引入改進(jìn)的特征提取模塊CSMAM,增強(qiáng)主干網(wǎng)絡(luò)的特征提取能力;同時(shí)在Neck的多尺度融合過(guò)程的上下采樣中引入SMAM和CSMAM,增強(qiáng)小目標(biāo)的特征表達(dá)。最后,在PANet的網(wǎng)絡(luò)結(jié)構(gòu)中增加一個(gè)P2檢測(cè)分支,用來(lái)檢測(cè)小目標(biāo)。綜上所述,SMAM-YOLO算法的整體網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,基于YOLOv5s主要作了以下改進(jìn):

    1)主干網(wǎng)絡(luò):在Backbone末端中引入所提出的基于CSPNet的CSMAM。

    2)特征融合網(wǎng)絡(luò):增加小目標(biāo)檢測(cè)分支,并在特征金字塔上采樣的每一層融合后插入SMAM模塊,在下采樣的每一層插入CSMAM和SMAM模塊。

    圖1 SMAM-YOLO算法的整體網(wǎng)絡(luò)結(jié)構(gòu)

    2.2 SMAM

    受文獻(xiàn)[7]中工作的啟發(fā),本文設(shè)計(jì)了2個(gè)卷積注意力模塊:CA模塊和SA模塊。

    CA的結(jié)構(gòu)如圖2所示,計(jì)算公式如式(1)所示:

    其中:輸入特征圖F大小為;Sigmoid為激活函數(shù),AdaAvgPooling為全局自適應(yīng)平均池化,AdaMaxPooling為全局自適應(yīng)最大池化; 為全連接網(wǎng)絡(luò)。首先,對(duì)特征圖F分別作全局自適應(yīng)平均池化和最大池化;然后將得到的2種通道權(quán)重通過(guò)全連接層fc(Conv+ReLU+Conv);最后對(duì)全連接的2個(gè)不同的權(quán)重求和,并由Sigmoid激活得到通道注意力XCA,此時(shí)大小為。

    SA的結(jié)構(gòu)如圖3所示,計(jì)算公式如式(2)所示:

    由于文獻(xiàn)[7]在通道注意力后先重標(biāo)定特征空間,再串聯(lián)空間注意力后再次重標(biāo)定,得到兩次注意力加權(quán)后的特征圖,但輸出是加權(quán)后的特征圖,不利于結(jié)合多分支網(wǎng)絡(luò);同時(shí)串聯(lián)方式雖然簡(jiǎn)單且效果良好,但是沒(méi)有充分考慮合理的連接方式對(duì)小目標(biāo)的影響。為了在不增加額外計(jì)算量的情況下更好地結(jié)合多分支網(wǎng)絡(luò)結(jié)構(gòu),對(duì)CBAM網(wǎng)絡(luò)結(jié)構(gòu)改進(jìn),提出MAM,結(jié)構(gòu)如圖4所示,計(jì)算公式如式(3)所示:

    其中:輸入特征圖F大小為;CA是通道注意力,輸出大小為;SA是空間注意力,輸出大小為;mul是矩陣乘法;XMAM是CA和SA的未重標(biāo)定的混合注意力權(quán)重,輸出大小為。

    圖4 MAM的結(jié)構(gòu)

    文獻(xiàn)[18]中的多分支注意力模塊僅使用了通道注意力對(duì)小目標(biāo)進(jìn)行特征提取,有一定的效果,但是缺乏對(duì)空間的思考,并不全面。因此,將MAM引入多分支網(wǎng)絡(luò),提出SMAM,它的網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

    分配好各分支的權(quán)重后,對(duì)多分支特征圖重標(biāo)定,并且對(duì)應(yīng)元素求和,得到多分支混合注意力加權(quán)后的特征圖out,如式(6)所示:

    其中:S為分支數(shù);i為重標(biāo)定的分支;Fi是第個(gè)分支。最后輸出大小為。

    2.3 特征提取模塊CSMAM

    YOLOv5中特征提取的核心模塊C3,主要使用基于CSPNet結(jié)構(gòu)堆疊的Bottleneck殘差塊。對(duì)C3結(jié)構(gòu)進(jìn)行改進(jìn),將殘差塊中的3×3卷積替換為SMAM;同時(shí)為了降低參數(shù)量,替換過(guò)后不再堆疊殘差塊,提出基于CSPNet和SMAM的特征提取模塊CSMAM,它的網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

    圖6 CSMAM的網(wǎng)絡(luò)結(jié)構(gòu)

    3 實(shí)驗(yàn)與結(jié)果分析

    3.1 數(shù)據(jù)集與評(píng)估標(biāo)準(zhǔn)

    3.1.1數(shù)據(jù)集概述

    本文實(shí)驗(yàn)的數(shù)據(jù)集是一個(gè)具有高質(zhì)量標(biāo)注的小目標(biāo)數(shù)據(jù)集TinyPerson[26],其中的圖像場(chǎng)景多數(shù)為遠(yuǎn)距離大背景航拍下的圖像,非常符合小目標(biāo)檢測(cè)的需求。TinyPerson數(shù)據(jù)集包含2個(gè)類別(earth person、sea person),一共有1 610張圖片(其中訓(xùn)練集794張圖片,測(cè)試集816張圖片),共包含72 651個(gè)人類目標(biāo)注釋。

    3.1.2評(píng)估標(biāo)準(zhǔn)

    為了評(píng)估模型的有效性,本文使用平均精度 (Average Percision, AP)、平均精度均值(mean Average Precision, mAP)、每秒10億次的浮點(diǎn)運(yùn)算次數(shù)(Giga Floating-point Operations Per Second, GFLOPs)及幀率(Frame Per Second, FPS)作為評(píng)估標(biāo)準(zhǔn)。

    再以軸為召回率、軸為精確率建立二維坐標(biāo)軸,同時(shí)繪制精確率-召回率(Precision-Recall, PR)曲線,PR曲線所圍面積即為AP大小,計(jì)算如式(9)所示:

    mAP為多個(gè)類別的平均精度均值,其中表示類別總數(shù),計(jì)算如式(10)所示:

    GFLOPs為每秒10億次的浮點(diǎn)運(yùn)算,一般用于衡量模型的計(jì)算復(fù)雜度。

    幀率表示每秒可以檢測(cè)圖片的數(shù)量(單位:frame/s),用于衡量算法是否具有實(shí)時(shí)性,一般認(rèn)為FPS大于30 frame/s即具備實(shí)時(shí)檢測(cè)效果。

    AP50、mAP50表示交并比(Intersection over Union, IoU)閾值為0.5時(shí)的平均精度和平均精度均值。一般來(lái)說(shuō),IoU越高,表示預(yù)測(cè)出目標(biāo)與真實(shí)目標(biāo)交集越大,越貼合真實(shí)目標(biāo),此時(shí)檢測(cè)精度越大即表明模型預(yù)測(cè)能力越強(qiáng)。由于小目標(biāo)占比像素少,如果使用較大的IoU,檢測(cè)精度將會(huì)非常低,不能較好地衡量小目標(biāo)檢測(cè)算法的效果,為此,本文選擇IoU為0.5的折中方案。

    3.2 實(shí)驗(yàn)環(huán)境及參數(shù)設(shè)置

    實(shí)驗(yàn)的硬件環(huán)境為Intel Core i7-10750H CPU@2.60 GHz、16 GB內(nèi)存、NVIDIA GeForce GTX 1660Ti GPU;軟件環(huán)境為Windows 11家庭中文版系統(tǒng)、Python3.8、PyTorch 1.8.2、CUDA 10.2。

    圖7為訓(xùn)練時(shí)回歸損失的變化曲線,其中BatchSize設(shè)置為4,訓(xùn)練150輪,前三輪為預(yù)熱,優(yōu)化器使用隨機(jī)梯度下降(Stochastic Gradient Descent, SGD),初始學(xué)習(xí)率設(shè)置為0.01,動(dòng)量設(shè)置為0.937,學(xué)習(xí)率衰減使用余弦策略。從圖7可以看出,訓(xùn)練的回歸損失值可以平滑下降,達(dá)到理想效果。除了必要的改進(jìn)外,本文實(shí)驗(yàn)中所有模型的超參數(shù)都設(shè)置為默認(rèn)(不一定是最佳參數(shù)),并在此設(shè)置下進(jìn)行訓(xùn)練、驗(yàn)證和測(cè)試。

    圖7 訓(xùn)練損失曲線

    3.3 分辨率實(shí)驗(yàn)及分析

    由于YOLOv5s默認(rèn)輸入大小是640×640,但是TinyPerson數(shù)據(jù)集中的目標(biāo)為小目標(biāo),圖片為遠(yuǎn)距離大背景下的航拍圖像,圖片大小都遠(yuǎn)大于默認(rèn)大小。顯然,輸入分辨率越大,對(duì)于檢測(cè)小目標(biāo)越有利,但是越大的分辨率會(huì)導(dǎo)致越大的計(jì)算開(kāi)銷,同時(shí)檢測(cè)圖像時(shí)的FPS也會(huì)更低。

    為此,將YOLOv5s和本文算法在不同分辨率下進(jìn)行測(cè)試,結(jié)果如表1所示。由表1可知,在TinyPerson數(shù)據(jù)集上,YOLOv5s訓(xùn)練的分辨率為960×960和1 280×1 280時(shí),mAP50相較于640×640時(shí)分別提高了9.07和15.65個(gè)百分點(diǎn),且測(cè)試分辨率為1 280×1 280時(shí)FPS都為122 frame/s;SMAM-YOLO在分辨率為960×960和1 280×1 280時(shí)mAP50相較于640×640分別提高了7.66和13.91個(gè)百分點(diǎn),且測(cè)試分辨率為1 280×1 280時(shí)FPS都為74 frame/s。由此可見(jiàn),在同一個(gè)目標(biāo)檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu)下增大模型的圖像分辨率可以提高模型的準(zhǔn)確率;但增大分辨率也使計(jì)算量成倍增加、訓(xùn)練時(shí)間成倍增長(zhǎng)。以SMAM-YOLO為例,在本文實(shí)驗(yàn)配置下,1 280×1 280分辨率輸入時(shí)訓(xùn)練1輪需要26 min左右,74.4 GFLOPs;然而,640×640分辨率輸入時(shí)訓(xùn)練1輪僅需要9 min左右,19.9 GFLOPs。同時(shí)生成的權(quán)重文件大小也會(huì)增加,加大模型部署難度。但是,如果同一個(gè)網(wǎng)絡(luò)結(jié)構(gòu)的算法使用不同分辨率訓(xùn)練得到的不同模型,在檢測(cè)時(shí)圖像的輸入使用同一分辨率,對(duì)于FPS并無(wú)影響,這表明訓(xùn)練時(shí)可以適當(dāng)增加模型輸入分辨率來(lái)提高檢測(cè)精度。此外,太大的分辨率也會(huì)導(dǎo)致過(guò)擬合,因此不能盲目增大分辨率。

    表1 分辨率實(shí)驗(yàn)結(jié)果

    注:FPS1 280中1 280表示測(cè)試時(shí)圖像的分辨率為1 280×1 280。

    3.4 消融實(shí)驗(yàn)及分析

    為了驗(yàn)證本文所提出的SMAM和CSMAM的有效性,以及增加小目標(biāo)檢測(cè)頭對(duì)結(jié)果的影響,對(duì)不同模塊對(duì)結(jié)果的影響進(jìn)行消融實(shí)驗(yàn)評(píng)估:使用YOLOv5s作為基線模型,訓(xùn)練圖像輸入分辨率為1 280×1 280,測(cè)試圖像分辨率為1 280×1 280的場(chǎng)景下,共訓(xùn)練150輪,使用預(yù)訓(xùn)練權(quán)重加速訓(xùn)練,實(shí)驗(yàn)結(jié)果如表2所示。

    1)額外檢測(cè)頭的影響。由表2可知,a模型為無(wú)改進(jìn)的基線模型,b模型在基線模型上增加了P2檢測(cè)頭,由于P2檢測(cè)層擁有更多的淺層信息,對(duì)小目標(biāo)檢測(cè)更加有利。實(shí)驗(yàn)結(jié)果表明,相較于a模型,b模型層數(shù)由270增加到328,GFLOPs由57.27到65.39,參數(shù)量從7.02×106增加到7.17×106,但是對(duì)于小目標(biāo)的mAP50增加了1.78個(gè)百分點(diǎn),同時(shí)FPS仍滿足實(shí)時(shí)檢測(cè)的需求。因此,增加少量的計(jì)算量,得到更好的小目標(biāo)檢測(cè)效果是值得的。

    2)MAM的影響。SMAM可以自適應(yīng)地結(jié)合混合注意力機(jī)制調(diào)整更適合小目標(biāo)的不同感受野,以此得到對(duì)小目標(biāo)充分加權(quán)并且重定向后的特征圖。c模型分別在Backbone的SPPF層前和Neck的上下采樣最后部分引入SMAM。相較于b模型,c模型的層數(shù)、GFLOPs、參數(shù)量分別增加了168、10.77個(gè)百分點(diǎn)、0.45×106,但mAP50提升了2.01個(gè)百分點(diǎn)。d模型以c模型為基礎(chǔ),在Neck的下采樣輸入Head之前,將原來(lái)無(wú)注意力加權(quán)的CSPNet結(jié)構(gòu)C3模塊替換成引入了SMAM的CSMAM結(jié)構(gòu)。相較于c模型,d模型層數(shù)增加了91,GFLOPs減少了1.76,參數(shù)量減少了0.25×106,同時(shí)mAP50上升了0.36個(gè)百分點(diǎn)。這說(shuō)明增加SMAM模塊和在特征提取中將C3替換成更輕量的CSMAM后,能夠使模型獲得更加豐富的小目標(biāo)特征。

    綜上所述,本文模型相較于基線模型YOLOv5s的mAP50提升了4.15個(gè)百分點(diǎn),大幅提升了小目標(biāo)的檢測(cè)精度,同時(shí)FPS達(dá)到了74 frame/s,具有一定的實(shí)時(shí)檢測(cè)效果。

    3.5 對(duì)比實(shí)驗(yàn)及分析

    在TinyPerson數(shù)據(jù)集上,對(duì)SMAM-YOLO和近年來(lái)已有的幾種小目標(biāo)檢測(cè)模型(主要包含CBAM、PP-YOLO[27]、DETR[28]、YOLOv7[29]、YOLOX[30]、YOLOv5)進(jìn)行對(duì)比實(shí)驗(yàn),其中YOLOX和PP-YOLO使用S版本,YOLOv7使用tiny版本,YOLOv5s使用較新的6.2版本,實(shí)驗(yàn)結(jié)果如表3所示。由表3可知,在對(duì)比的算法中,引入CBAM的YOLOv5具有最高的mAP50,達(dá)到50.61%,比SMAM-YOLO的mAP50低1.46個(gè)百分點(diǎn),其他參數(shù)與CBAM相差不大,在提高檢測(cè)精度的同時(shí),也保證了速度、參數(shù)量和模型大小的穩(wěn)定。YOLOv7-tiny具有最快的檢測(cè)速度,達(dá)到131.21 frame/s,同時(shí)參數(shù)量、模型大小、GFLOPs也最小,但是比SMAM-YOLO的mAP50低6.84個(gè)百分點(diǎn)。由此可見(jiàn),SMAM-YOLO算法將更多的注意力聚焦到小目標(biāo)身上,動(dòng)態(tài)地對(duì)不同尺度下特征圖中的小目標(biāo)重定向,不僅提高了檢測(cè)精度,同時(shí)保證了檢測(cè)速度,具有一定的實(shí)時(shí)性,在實(shí)時(shí)檢測(cè)小目標(biāo)任務(wù)上具有更大的優(yōu)勢(shì)。

    表2 消融實(shí)驗(yàn)結(jié)果

    表3 不同小目標(biāo)檢測(cè)模型的對(duì)比實(shí)驗(yàn)結(jié)果

    3.6 模塊可視化分析

    為了更直觀驗(yàn)證SMAM對(duì)小目標(biāo)特征的影響情況,以及對(duì)最后檢測(cè)小目標(biāo)時(shí)產(chǎn)生的影響,使用TinyPerson測(cè)試集中具有代表性的圖片驗(yàn)證。

    圖8(a)是沒(méi)有添加混合注意力的YOLOv5基線模型,圖8(b)是添加了混合注意力的YOLOv5模型,分別使用Grad-CAM[31]做熱力圖可視化。從圖的左上、右上、左下,右下對(duì)比中可以看出,在不同的角度,目標(biāo)數(shù)量多且小的時(shí)候,MAM可以更加有效地聚焦小目標(biāo)的特征,在圖中則表現(xiàn)為目標(biāo)邊界更加清晰,顏色與環(huán)境差異明顯,從而提高檢測(cè)效果。

    圖9是添加混合注意力前后的YOLOv5的實(shí)際檢測(cè)效果,其中紅色框是模型檢測(cè)的人類標(biāo)簽,黃色框?yàn)橹攸c(diǎn)標(biāo)出的差異。從圖9可以看出,在不同的條件下,陸地或者海上、白天或者傍晚,基線模型對(duì)于小目標(biāo)存在漏檢的情況,而添加混合注意力后可以較好地檢測(cè)出小目標(biāo)。

    綜上所述,SMAM可以有效提升小目標(biāo)的檢測(cè)效果。

    圖8 添加混合注意力前后的熱力圖

    圖9 添加混合注意力前后的檢測(cè)效果圖

    4 結(jié)語(yǔ)

    本文結(jié)合通道、空間注意力與多分支網(wǎng)絡(luò)結(jié)構(gòu),提出了多分支混合注意力模塊,通過(guò)自適應(yīng)的多感受野聚焦更適合小目標(biāo)的豐富尺度信息,再結(jié)合混合注意力對(duì)小目標(biāo)信息重標(biāo)定,使小目標(biāo)特征更加突出,以此提高對(duì)小目標(biāo)特征的識(shí)別能力。對(duì)本文所提出的小目標(biāo)檢測(cè)算法SMAM-YOLO在TinyPerson數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,SMAM-YOLO的檢測(cè)效果較為優(yōu)異,不僅檢測(cè)精度高,而且檢測(cè)速度高,能滿足實(shí)時(shí)檢測(cè)需求。

    本文主要使用多分支混合注意力模塊來(lái)改進(jìn)YOLOv5s模型,以提升小目標(biāo)檢測(cè)的效果,并沒(méi)有考慮與其他相關(guān)方法(如數(shù)據(jù)增強(qiáng)和自注意力機(jī)制等)相結(jié)合。因此,在后續(xù)的研究工作中,可以進(jìn)一步研究如何將SMAM-YOLO與更多先進(jìn)方法相結(jié)合,實(shí)現(xiàn)高性能的小目標(biāo)檢測(cè)。

    [1] LIN T Y, DOLLáR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2017: 936-944.

    [2] LIU S, QI L, QIN H, et al. Path aggregation network for instance segmentation[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 8759-8768.

    [3] GHIASI G, LIN T Y, LE Q V. NAS-FPN: learning scalable feature pyramid architecture for object detection[C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2019: 7029-7038.

    [4] LIANG Z, SHAO J, ZHANG D, et al. Small object detection using deep feature pyramid networks[C]// Proceedings of the 2018 Pacific Rim Conference on Multimedia, LNCS 11166. Cham: Springer, 2018: 554-564.

    [5] TAN M, PANG R, LE Q V. EfficientDet: scalable and efficient object detection[C]// Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2020: 10778-10787.

    [6] HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2018: 7132-7141.

    [7] WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module[C]// Proceedings of the 2018 European Conference on Computer Vision, LNCS 11211. Cham: Springer, 2018: 3-19.

    [8] QIN Z, ZHANG P, WU F, et al. FcaNet: frequency channel attention networks[C]// Proceedings of the 2021 IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE, 2021: 763-772.

    [9] WANG C Y, LIAO H Y M, WU Y H, et al. CSPNet: a new backbone that can enhance learning capability of CNN[C]// Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Washington, DC: IEEE Computer Society, 2020: 1571-1580.

    [10] 李科岑,王曉強(qiáng),林浩,等. 深度學(xué)習(xí)中的單階段小目標(biāo)檢測(cè)方法綜述[J]. 計(jì)算機(jī)科學(xué)與探索, 2022, 16(1):41-58.(LI K C, WANG X Q, LIN H, et al. A survey of one-stage small object detection methods in deep learning[J]. Journal of Frontiers of Computer Science and Technology, 2022, 16(1): 41-58.)

    [11] KISANTAL M, WOJNA Z, MURAWSKI J, et al. Augmentation for small object detection[EB/OL]. [2023-02-12].https://arxiv.org/pdf/1902.07296.pdf.

    [12] GONG Y, YU X, DING Y, et al. Effective fusion factor in FPN for tiny object detection[C]// Proceedings of the 2021 IEEE Winter Conference on Applications of Computer Vision. Piscataway: IEEE, 2021: 1159-1167.

    [13] JIANG N, YU X, PENG X, et al. SM+: refined scale match for tiny person detection[C]// Proceedings of the 2021 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway: IEEE, 2021: 1815-1819.

    [14] 李文濤,彭力. 多尺度通道注意力融合網(wǎng)絡(luò)的小目標(biāo)檢測(cè)算法[J]. 計(jì)算機(jī)科學(xué)與探索, 2021, 15(12):2390-2400.(LI W T, PENG L. Small objects detection algorithm with multi-scale channel attention fusion network[J]. Journal of Frontiers of Computer Science and Technology, 2021, 15(12): 2390-2400.)

    [15] SZEGEDY C, LIU W, JIA Y, et al. Going deeper with convolutions[C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2015: 1-9.

    [16] XIE S, GIRSHICK R, DOLLáR P, et al. Aggregated residual transformations for deep neural networks[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2017: 5987-5995.

    [17] LI X, WANG W, HU X, et al. Selective kernel networks[C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2019: 510-519.

    [18] ZHANG H, WU C, ZHANG Z, et al. ResNeSt: split-attention networks[C]// Proceedings of the 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Washington, DC: IEEE Computer Society, 2022: 2735-2745.

    [19] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]// Proceedings of the IEEE 2016 Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2016: 779-788.

    [20] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[C]// Proceedings of the 28th International Conference on Neural Information Processing Systems — Volume 1. Cambridge: MIT Press, 2015:91-99.

    [21] HE K, GKIOSARI G, DOLLáR P, et al. Mask R-CNN[C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2017: 2980-2988.

    [22] 曹家樂(lè),李亞利,孫漢卿,等.基于深度學(xué)習(xí)的視覺(jué)目標(biāo)檢測(cè)技術(shù)綜述[J].中國(guó)圖象圖形學(xué)報(bào),2022,27(6):1697-1722. (CAO J L, LI Y L, SUN H Q, et al. A survey on deep learning based visual object detection[J]. Journal of Image and Graphics, 2022, 27(6): 1697-1722.)

    [23] REDMON J, FARHADI A. YOLO9000: better, faster, stronger[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2017: 6517-6525.

    [24] REDMON J, FARHADI A. YOLOv3: an incremental improvement[EB/OL]. [2023-02-12].https://arxiv.org/pdf/1804.02767.pdf.

    [25] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4: optimal speed and accuracy of object detection[EB/OL]. [2023-02-12].https://arxiv.org/pdf/2004.10934.pdf.

    [26] YU X, GONG Y, JIANG N, et al. Scale match for tiny person detection[C]// Proceedings of the 2020 IEEE Winter Conference on Applications of Computer Vision. Piscataway: IEEE, 2020: 1246-1254.

    [27] LONG X, DENG K, WANG G, et al. PP-YOLO: an effective and efficient implementation of object detector[EB/OL]. [2023-02-12].https://arxiv.org/pdf/2007.12099.pdf.

    [28] ZHU X, SU W, LU L, et al. Deformable DETR: deformable transformers for end-to-end object detection[EB/OL]. [2023-02-12].https://arxiv.org/pdf/2010.04159.pdf.

    [29] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. YOLOv7: trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[EB/OL]. [2023-02-12].https://arxiv.org/pdf/2207.02696.pdf.

    [30] GE Z, LIU S, WANG F, et al. YOLOX: exceeding YOLO series in 2021[EB/OL]. [2023-02-12].https://arxiv.org/pdf/2107.08430.pdf.

    [31] SELVARAJU R R, COGSWELL M, DAS A, et al. Grad-CAM: visual explanations from deep networks via gradient-based localization[C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2017: 618-626.

    Small object detection algorithm based on split mixed attention

    QIN Qiangqiang, LIAO Junguo*, ZHOU Yixun

    (,,411201,)

    Focusing on the characteristics of small objects in images, such as less feature information, low percentage, and easy to be influenced by the environment, a small object detection algorithm based on split mixed attention was proposed, namely SMAM-YOLO. Firstly, by combining Channel Attention (CA) and Spatial Attention (SA), as well as recombining the connection structures, a Mixed Attention Module (MAM) was proposed to enhance the model’s representation of small object features in spatial dimension. Secondly, according to the different influence of receptive fields with different sizes on the object, a Split Mixed Attention Module (SMAM) was proposed to adaptively adjust the size of the receptive field according to the scale of the input feature map, and the mixed attention was used to enhance the ability to capture small object feature information in different branches. Finally, the core residual module in YOLOv5 was improved by using SMAM, and a feature extraction module CSMAM was proposed on the basis of CSPNet (Cross Stage Partial Network) and SMAM, and the additional computational overhead of CSMAM can be ignored. Experimental results on TinyPerson dataset show that compared with the baseline algorithm YOLOv5s, when the Intersection over Union (IoU) threshold is 0.5, the mean Average Precision (mAP50) of SMAM-YOLO algorithm is improved by 4.15 percentage points, and the detection speed reaches 74 frame/s. In addition, compared with some existing mainstream small object detection models, SMAM-YOLO algorithm improves the mAP50by 1.46 - 6.84 percentage points on average, and it can meet the requirements of real-time detection.

    small object detection; split network; mixed attention; feature fusion; real-time detection

    QIN Qiangqiang, born in 1990, M. S. candidate. His research interests include artificial intelligence, object detection.

    1001-9081(2023)11-3579-08

    10.11772/j.issn.1001-9081.2022111660

    2022?11?09;

    2023?03?03;

    秦強(qiáng)強(qiáng)(1997—),男,安徽蕪湖人,碩士研究生,CCF會(huì)員,主要研究方向:人工智能、目標(biāo)檢測(cè); 廖俊國(guó)(1972—),男,湖南衡陽(yáng)人,教授,博士,CCF會(huì)員,主要研究方向:網(wǎng)絡(luò)安全、人工智能、模式識(shí)別; 周弋荀(1998—),男,湖北黃石人,碩士研究生,CCF會(huì)員,主要研究方向:人工智能、目標(biāo)檢測(cè)。

    TP391; TP183

    A

    2023?03?03。

    LIAO Junguo, born in 1972, Ph. D., professor. Her research interests include cyber security, artificial intelligence, pattern recognition.

    ZHOU Yixun, born in 1998, M. S. candidate. His research interests include artificial intelligence, object detection.

    猜你喜歡
    分支注意力混合
    混合宅
    讓注意力“飛”回來(lái)
    一起來(lái)學(xué)習(xí)“混合運(yùn)算”
    巧分支與枝
    一類擬齊次多項(xiàng)式中心的極限環(huán)分支
    “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
    油水混合
    A Beautiful Way Of Looking At Things
    混合所有制
    生成分支q-矩陣的零流出性
    欧美性猛交黑人性爽| 久久久久免费精品人妻一区二区| 国产片内射在线| 亚洲 欧美一区二区三区| 成人永久免费在线观看视频| 777久久人妻少妇嫩草av网站| 日本免费一区二区三区高清不卡| 亚洲 国产 在线| 国产在线观看jvid| 久久精品影院6| 91大片在线观看| 桃红色精品国产亚洲av| 欧美日韩亚洲综合一区二区三区_| 欧美日韩中文字幕国产精品一区二区三区| 亚洲美女视频黄频| 每晚都被弄得嗷嗷叫到高潮| 精品福利观看| 精品一区二区三区av网在线观看| 狂野欧美白嫩少妇大欣赏| 亚洲欧美日韩高清专用| 日韩高清综合在线| 黄频高清免费视频| 国产精品久久久人人做人人爽| 国产精品久久久久久亚洲av鲁大| 超碰成人久久| 欧美中文综合在线视频| 国产成人aa在线观看| 欧美日韩一级在线毛片| 中文字幕人妻丝袜一区二区| 99re在线观看精品视频| 女人被狂操c到高潮| 男人舔女人下体高潮全视频| 亚洲国产精品sss在线观看| 国产精品影院久久| 日韩欧美国产一区二区入口| 亚洲自偷自拍图片 自拍| 国产又黄又爽又无遮挡在线| 国产成人欧美在线观看| 1024视频免费在线观看| 黄色视频,在线免费观看| 色在线成人网| 国产精品影院久久| 久久久久亚洲av毛片大全| 一区二区三区高清视频在线| 国产精品99久久99久久久不卡| 精品久久久久久久人妻蜜臀av| 国产aⅴ精品一区二区三区波| 在线免费观看的www视频| 欧美日韩瑟瑟在线播放| 大型黄色视频在线免费观看| 精品久久久久久,| 岛国视频午夜一区免费看| 少妇粗大呻吟视频| 国产精品一及| 国产av不卡久久| 一进一出抽搐gif免费好疼| 国产精品自产拍在线观看55亚洲| 日韩国内少妇激情av| 亚洲人成网站高清观看| 天堂av国产一区二区熟女人妻 | 国产精品一及| 久久久精品欧美日韩精品| 99国产综合亚洲精品| 最近最新免费中文字幕在线| 18美女黄网站色大片免费观看| 嫁个100分男人电影在线观看| 最近在线观看免费完整版| 热99re8久久精品国产| 国产成人影院久久av| 两性夫妻黄色片| 国产成人一区二区三区免费视频网站| 国产成人欧美在线观看| 成熟少妇高潮喷水视频| 国内精品久久久久精免费| 无人区码免费观看不卡| 国产精品av久久久久免费| av欧美777| 成人国产一区最新在线观看| 国产午夜福利久久久久久| 久久久久免费精品人妻一区二区| 亚洲av片天天在线观看| 香蕉久久夜色| 国产午夜福利久久久久久| 成人av一区二区三区在线看| 又黄又粗又硬又大视频| 免费无遮挡裸体视频| 精品高清国产在线一区| 欧美日韩亚洲国产一区二区在线观看| 成人18禁高潮啪啪吃奶动态图| 一本精品99久久精品77| 狂野欧美激情性xxxx| 中文在线观看免费www的网站 | 中出人妻视频一区二区| 久久九九热精品免费| 久久久久九九精品影院| 精品免费久久久久久久清纯| 久久久久久大精品| 国产三级黄色录像| 天堂√8在线中文| 天堂动漫精品| 哪里可以看免费的av片| 亚洲精品粉嫩美女一区| 亚洲熟妇中文字幕五十中出| 日本成人三级电影网站| 韩国av一区二区三区四区| 国产探花在线观看一区二区| 亚洲成a人片在线一区二区| xxxwww97欧美| 狂野欧美激情性xxxx| aaaaa片日本免费| 可以在线观看的亚洲视频| 欧美日韩福利视频一区二区| 岛国在线免费视频观看| 亚洲精品久久国产高清桃花| 午夜成年电影在线免费观看| 黄色成人免费大全| 波多野结衣巨乳人妻| 99国产综合亚洲精品| 日韩欧美一区二区三区在线观看| 久久久国产成人精品二区| 国产成人系列免费观看| 在线观看www视频免费| 99国产极品粉嫩在线观看| 色哟哟哟哟哟哟| 不卡一级毛片| 在线国产一区二区在线| 老司机深夜福利视频在线观看| 亚洲欧美精品综合久久99| 人妻久久中文字幕网| 成人国语在线视频| 欧美中文日本在线观看视频| 欧美色视频一区免费| bbb黄色大片| 亚洲欧美激情综合另类| 久久久久国产一级毛片高清牌| 狂野欧美白嫩少妇大欣赏| 可以在线观看的亚洲视频| cao死你这个sao货| 欧美人与性动交α欧美精品济南到| 1024视频免费在线观看| 男人的好看免费观看在线视频 | 这个男人来自地球电影免费观看| 18禁裸乳无遮挡免费网站照片| 国产精品美女特级片免费视频播放器 | avwww免费| 神马国产精品三级电影在线观看 | 国产激情久久老熟女| 国产1区2区3区精品| 黄色成人免费大全| 不卡av一区二区三区| 在线观看舔阴道视频| 国产精品亚洲一级av第二区| 好男人电影高清在线观看| 久久国产乱子伦精品免费另类| 少妇被粗大的猛进出69影院| 国产一区二区三区在线臀色熟女| 亚洲一码二码三码区别大吗| 在线观看午夜福利视频| 成人av在线播放网站| 久久伊人香网站| 国产激情偷乱视频一区二区| 国产成+人综合+亚洲专区| 亚洲专区国产一区二区| 欧美 亚洲 国产 日韩一| 日日摸夜夜添夜夜添小说| 窝窝影院91人妻| 欧美 亚洲 国产 日韩一| 夜夜看夜夜爽夜夜摸| 精品人妻1区二区| 999久久久精品免费观看国产| 日本黄大片高清| 国产精品国产高清国产av| 夜夜看夜夜爽夜夜摸| ponron亚洲| 久久香蕉精品热| 国产黄片美女视频| 欧美成人午夜精品| 色在线成人网| 国内少妇人妻偷人精品xxx网站 | 亚洲一卡2卡3卡4卡5卡精品中文| 久99久视频精品免费| 亚洲天堂国产精品一区在线| 国产在线精品亚洲第一网站| 久久午夜亚洲精品久久| 精品一区二区三区四区五区乱码| e午夜精品久久久久久久| 国产在线精品亚洲第一网站| 又紧又爽又黄一区二区| 国产成人系列免费观看| 啦啦啦免费观看视频1| 中文字幕人成人乱码亚洲影| 在线观看www视频免费| 又黄又爽又免费观看的视频| 欧美日韩黄片免| 夜夜躁狠狠躁天天躁| 蜜桃久久精品国产亚洲av| 99热这里只有是精品50| 国产精品久久电影中文字幕| 亚洲男人的天堂狠狠| 长腿黑丝高跟| 国产精品,欧美在线| 老熟妇乱子伦视频在线观看| 麻豆久久精品国产亚洲av| 午夜a级毛片| 嫩草影院精品99| 日日干狠狠操夜夜爽| 天天添夜夜摸| 色播亚洲综合网| 曰老女人黄片| 久久人妻av系列| 欧美精品啪啪一区二区三区| 999久久久精品免费观看国产| 18禁黄网站禁片免费观看直播| 一二三四社区在线视频社区8| 最近最新中文字幕大全免费视频| 一级片免费观看大全| 真人一进一出gif抽搐免费| 久久久国产成人精品二区| 最新美女视频免费是黄的| 变态另类成人亚洲欧美熟女| 久久欧美精品欧美久久欧美| 最好的美女福利视频网| 亚洲激情在线av| 视频区欧美日本亚洲| 91国产中文字幕| 操出白浆在线播放| 高清在线国产一区| 99热这里只有是精品50| 国产精品国产高清国产av| 欧美av亚洲av综合av国产av| 亚洲国产精品成人综合色| 亚洲欧洲精品一区二区精品久久久| 国产一级毛片七仙女欲春2| 一进一出好大好爽视频| 国产熟女午夜一区二区三区| 亚洲精品av麻豆狂野| 亚洲五月婷婷丁香| 亚洲精品国产一区二区精华液| 久久精品91蜜桃| 亚洲精品粉嫩美女一区| 久久伊人香网站| 免费看a级黄色片| 亚洲精品美女久久av网站| 国产亚洲欧美98| 手机成人av网站| 91麻豆精品激情在线观看国产| 给我免费播放毛片高清在线观看| 免费一级毛片在线播放高清视频| 久久国产乱子伦精品免费另类| 国产亚洲精品久久久久5区| 国产精品久久电影中文字幕| 亚洲一区二区三区色噜噜| 精品久久久久久,| 欧美一区二区精品小视频在线| 国产精品日韩av在线免费观看| 精品久久蜜臀av无| 亚洲精品av麻豆狂野| 免费看a级黄色片| 母亲3免费完整高清在线观看| 国产精品一区二区免费欧美| 大型黄色视频在线免费观看| av视频在线观看入口| svipshipincom国产片| 国语自产精品视频在线第100页| 精品国产亚洲在线| 久久久水蜜桃国产精品网| 久久久久性生活片| 看免费av毛片| 在线免费观看的www视频| 制服丝袜大香蕉在线| 91老司机精品| 无遮挡黄片免费观看| 90打野战视频偷拍视频| e午夜精品久久久久久久| 在线观看www视频免费| 亚洲狠狠婷婷综合久久图片| x7x7x7水蜜桃| 欧美成人免费av一区二区三区| 日本三级黄在线观看| 亚洲av中文字字幕乱码综合| 国产乱人伦免费视频| 精品电影一区二区在线| 国产精品久久久av美女十八| 久久精品国产清高在天天线| 午夜福利欧美成人| 免费av毛片视频| 久久精品综合一区二区三区| 老汉色av国产亚洲站长工具| 成人三级黄色视频| 亚洲av美国av| 成在线人永久免费视频| 热99re8久久精品国产| 欧美日韩亚洲国产一区二区在线观看| 欧美日韩国产亚洲二区| 国产精品1区2区在线观看.| 天天躁夜夜躁狠狠躁躁| 国产精品影院久久| av国产免费在线观看| 天堂√8在线中文| 日韩欧美三级三区| 久久人人精品亚洲av| 床上黄色一级片| 欧美日韩中文字幕国产精品一区二区三区| 一二三四社区在线视频社区8| 久久99热这里只有精品18| 欧美又色又爽又黄视频| 听说在线观看完整版免费高清| 国产v大片淫在线免费观看| 日韩国内少妇激情av| 夜夜看夜夜爽夜夜摸| 亚洲激情在线av| 亚洲aⅴ乱码一区二区在线播放 | 手机成人av网站| 成人永久免费在线观看视频| 两个人看的免费小视频| 99精品久久久久人妻精品| 久久久久久亚洲精品国产蜜桃av| 三级毛片av免费| 国产精品永久免费网站| 麻豆一二三区av精品| 亚洲av成人一区二区三| 国产区一区二久久| 亚洲中文日韩欧美视频| 在线十欧美十亚洲十日本专区| 国产亚洲精品久久久久久毛片| 国产男靠女视频免费网站| 国产真人三级小视频在线观看| 18禁观看日本| 精品乱码久久久久久99久播| 精品久久久久久久末码| 亚洲五月天丁香| 男女视频在线观看网站免费 | av福利片在线| 色精品久久人妻99蜜桃| 国内少妇人妻偷人精品xxx网站 | 99国产精品99久久久久| 成年人黄色毛片网站| 欧美日韩福利视频一区二区| 久久久久精品国产欧美久久久| 精品久久久久久久人妻蜜臀av| 国内少妇人妻偷人精品xxx网站 | 久久久久久人人人人人| 曰老女人黄片| 婷婷精品国产亚洲av在线| 国产一区二区激情短视频| 桃红色精品国产亚洲av| 日本撒尿小便嘘嘘汇集6| 精品久久久久久久人妻蜜臀av| 人人妻,人人澡人人爽秒播| 女生性感内裤真人,穿戴方法视频| 非洲黑人性xxxx精品又粗又长| 亚洲午夜理论影院| 久久人人精品亚洲av| 亚洲无线在线观看| 午夜精品在线福利| 啦啦啦观看免费观看视频高清| 久久精品91蜜桃| 日韩欧美一区二区三区在线观看| 天天添夜夜摸| 亚洲人与动物交配视频| 制服人妻中文乱码| 久久婷婷成人综合色麻豆| 在线免费观看的www视频| 亚洲黑人精品在线| 国产精品亚洲av一区麻豆| 久久 成人 亚洲| 久久午夜综合久久蜜桃| 亚洲熟女毛片儿| 久久人人精品亚洲av| 丝袜美腿诱惑在线| 在线观看66精品国产| 99热这里只有精品一区 | 亚洲av电影在线进入| 哪里可以看免费的av片| 日韩欧美在线乱码| 国产精品久久久久久久电影 | 久久久久久久久中文| 超碰成人久久| 99久久精品热视频| 日本一二三区视频观看| 免费在线观看完整版高清| 亚洲国产欧洲综合997久久,| 亚洲美女黄片视频| 中亚洲国语对白在线视频| 国产精品,欧美在线| 午夜亚洲福利在线播放| 国产成人欧美在线观看| 一级毛片高清免费大全| 亚洲人成网站在线播放欧美日韩| www.自偷自拍.com| 久久久久国产一级毛片高清牌| 90打野战视频偷拍视频| 免费在线观看成人毛片| 亚洲第一欧美日韩一区二区三区| 91九色精品人成在线观看| 欧美乱色亚洲激情| 国内揄拍国产精品人妻在线| 免费电影在线观看免费观看| 后天国语完整版免费观看| 中亚洲国语对白在线视频| 国产精品久久久人人做人人爽| 免费观看精品视频网站| 国产成人av教育| 琪琪午夜伦伦电影理论片6080| 观看免费一级毛片| 国产精品久久久人人做人人爽| 女人爽到高潮嗷嗷叫在线视频| 后天国语完整版免费观看| 国产人伦9x9x在线观看| 亚洲五月天丁香| 一进一出好大好爽视频| 国产精品久久视频播放| 级片在线观看| 熟女电影av网| 男女下面进入的视频免费午夜| 成人18禁在线播放| 色尼玛亚洲综合影院| 12—13女人毛片做爰片一| 亚洲天堂国产精品一区在线| 免费在线观看亚洲国产| 悠悠久久av| 日韩三级视频一区二区三区| 久久精品国产99精品国产亚洲性色| 日本黄色视频三级网站网址| 男人的好看免费观看在线视频 | www.自偷自拍.com| 18禁观看日本| 亚洲人成电影免费在线| 亚洲av成人不卡在线观看播放网| 久久性视频一级片| 观看免费一级毛片| 草草在线视频免费看| 国产单亲对白刺激| 中文字幕人成人乱码亚洲影| 亚洲欧美精品综合久久99| 国产又色又爽无遮挡免费看| www.熟女人妻精品国产| 精品国产美女av久久久久小说| √禁漫天堂资源中文www| 日韩欧美国产一区二区入口| 欧美zozozo另类| 可以免费在线观看a视频的电影网站| 成人精品一区二区免费| 欧美精品亚洲一区二区| 一级毛片女人18水好多| 色综合亚洲欧美另类图片| 91国产中文字幕| 国语自产精品视频在线第100页| 麻豆国产97在线/欧美 | 久久草成人影院| 国产黄片美女视频| 国内毛片毛片毛片毛片毛片| 国产片内射在线| 999久久久国产精品视频| 免费看十八禁软件| 黑人操中国人逼视频| 黄色女人牲交| 亚洲欧美精品综合久久99| 亚洲中文字幕日韩| 19禁男女啪啪无遮挡网站| 久久草成人影院| 日韩欧美 国产精品| 亚洲精品粉嫩美女一区| 午夜老司机福利片| 亚洲欧美精品综合一区二区三区| 久久香蕉国产精品| 久久伊人香网站| 国产三级中文精品| 午夜福利在线观看吧| 中文字幕高清在线视频| 欧美性长视频在线观看| 国产伦一二天堂av在线观看| 草草在线视频免费看| 亚洲五月天丁香| 欧美日本视频| www.999成人在线观看| 精品熟女少妇八av免费久了| 18禁观看日本| 成人三级做爰电影| 黄片小视频在线播放| 日韩大尺度精品在线看网址| 九九热线精品视视频播放| 亚洲最大成人中文| 桃红色精品国产亚洲av| 午夜视频精品福利| 中出人妻视频一区二区| 国产91精品成人一区二区三区| 免费在线观看日本一区| 亚洲美女视频黄频| 国内精品久久久久精免费| 一个人免费在线观看的高清视频| 老司机深夜福利视频在线观看| 中国美女看黄片| 老熟妇仑乱视频hdxx| 亚洲人成伊人成综合网2020| 久久这里只有精品中国| 免费观看精品视频网站| 香蕉丝袜av| 国产精品98久久久久久宅男小说| 1024手机看黄色片| 欧美日本亚洲视频在线播放| 国产精品 欧美亚洲| 亚洲精品美女久久av网站| 色综合婷婷激情| 色播亚洲综合网| 99久久久亚洲精品蜜臀av| 夜夜夜夜夜久久久久| 丰满的人妻完整版| 天堂av国产一区二区熟女人妻 | 中出人妻视频一区二区| 丰满人妻一区二区三区视频av | 在线观看日韩欧美| 女人高潮潮喷娇喘18禁视频| 一卡2卡三卡四卡精品乱码亚洲| 88av欧美| 久久久久免费精品人妻一区二区| 日日干狠狠操夜夜爽| 一边摸一边做爽爽视频免费| 国产成人av教育| 欧美在线黄色| 久久久久久久久免费视频了| 极品教师在线免费播放| 亚洲专区国产一区二区| 精品无人区乱码1区二区| 男人舔女人下体高潮全视频| 可以在线观看毛片的网站| 在线观看美女被高潮喷水网站 | 长腿黑丝高跟| 精品久久久久久久久久免费视频| 19禁男女啪啪无遮挡网站| 欧美日韩瑟瑟在线播放| 国产精华一区二区三区| 日韩中文字幕欧美一区二区| 久久久久性生活片| 国产精品久久久人人做人人爽| 99热这里只有是精品50| 久久人妻福利社区极品人妻图片| 在线观看66精品国产| 中文字幕精品亚洲无线码一区| 啦啦啦免费观看视频1| 50天的宝宝边吃奶边哭怎么回事| 精品国产乱码久久久久久男人| 精品少妇一区二区三区视频日本电影| bbb黄色大片| 中文字幕人成人乱码亚洲影| 校园春色视频在线观看| 少妇人妻一区二区三区视频| 欧美人与性动交α欧美精品济南到| 搡老熟女国产l中国老女人| 亚洲精品中文字幕在线视频| 亚洲五月婷婷丁香| 女人被狂操c到高潮| 亚洲一区中文字幕在线| 麻豆av在线久日| 天堂av国产一区二区熟女人妻 | 亚洲性夜色夜夜综合| 欧美日韩福利视频一区二区| 日韩中文字幕欧美一区二区| 毛片女人毛片| 午夜两性在线视频| 久久香蕉国产精品| 国模一区二区三区四区视频 | 婷婷亚洲欧美| 黄片小视频在线播放| 黄色毛片三级朝国网站| 叶爱在线成人免费视频播放| 国产熟女xx| 最好的美女福利视频网| 日韩有码中文字幕| 女人高潮潮喷娇喘18禁视频| 少妇的丰满在线观看| 欧美av亚洲av综合av国产av| 精品午夜福利视频在线观看一区| 欧美+亚洲+日韩+国产| xxxwww97欧美| 日本五十路高清| 美女 人体艺术 gogo| 亚洲欧美精品综合一区二区三区| 99久久无色码亚洲精品果冻| 曰老女人黄片| 国产亚洲精品久久久久5区| 老司机午夜十八禁免费视频| 又紧又爽又黄一区二区| 一本一本综合久久| 国产一级毛片七仙女欲春2| 好男人在线观看高清免费视频| 亚洲精品在线美女| www.www免费av| 欧美成人午夜精品| 在线观看午夜福利视频| 亚洲国产高清在线一区二区三| 99在线视频只有这里精品首页| www.自偷自拍.com| 婷婷丁香在线五月| 国产精品久久久久久精品电影| 精品久久久久久久久久久久久| 黄色女人牲交| 一级毛片女人18水好多| 天堂动漫精品| 日韩欧美在线乱码| 在线观看美女被高潮喷水网站 | 女同久久另类99精品国产91| 欧美乱妇无乱码| 亚洲av成人不卡在线观看播放网| 午夜精品在线福利| 亚洲人成网站在线播放欧美日韩| 国产一区二区三区在线臀色熟女| 精品国内亚洲2022精品成人| 男女下面进入的视频免费午夜| 久久伊人香网站| 免费高清视频大片| 中文字幕av在线有码专区| 精品免费久久久久久久清纯| 欧美激情久久久久久爽电影| 亚洲国产精品成人综合色|