• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    并行池化注意力及多特征融合增強(qiáng)目標(biāo)檢測(cè)方法

    2025-03-09 00:00:00程杰卞長(zhǎng)智張婧李小霞丁楠
    現(xiàn)代電子技術(shù) 2025年5期

    摘" 要: 針對(duì)通道注意力降維時(shí)導(dǎo)致細(xì)節(jié)信息損失和特征融合不充分的問題,提出一種并行池化注意力及多特征融合增強(qiáng)方法。首先,對(duì)輸入圖像使用兩種池化模塊并行處理,實(shí)現(xiàn)特征注意力增強(qiáng)。其中:熵引導(dǎo)池化模塊利用通道信息熵生成特征權(quán)重系數(shù),加強(qiáng)邊緣紋理等細(xì)節(jié)信息;方向感知池化模塊捕獲圖像在垂直和水平方向上的空間方向信息,再計(jì)算通道均值實(shí)現(xiàn)逐步降維保留關(guān)鍵特征。其次,多特征融合增強(qiáng)模塊利用特征圖尺度的對(duì)數(shù)函數(shù)自適應(yīng)選取卷積核的大小,再將卷積后的特征分組重塑為與輸入圖像維度相同的通道、高度和寬度方向上的三個(gè)特征子圖,并進(jìn)行元素相乘獲得增強(qiáng)特征圖。最后,增強(qiáng)特征圖與輸入圖像加權(quán)融合,同時(shí)增強(qiáng)目標(biāo)的位置和細(xì)節(jié)信息。實(shí)驗(yàn)結(jié)果表明,文中方法在參數(shù)量不變的情況下,在VOC2007數(shù)據(jù)集上,mAP@0.5較YOLOX和YOLOv7分別提升4.62%、4.46%,在COCO數(shù)據(jù)集上,mAP@0.5較YOLOX和YOLOv7分別提升4.57%、4.63%。

    關(guān)鍵詞: 通道注意力; 降維; 并行池化; 多特征融合增強(qiáng); 自適應(yīng); 目標(biāo)檢測(cè)

    中圖分類號(hào): TN911.73?34; TP391.4" " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " 文章編號(hào): 1004?373X(2025)05?0059?09

    Object detection method based on parallel pooling of attention"and multi?feature fusion enhancement

    CHENG Jie1, 2, BIAN Changzhi3, ZHANG Jing3, LI Xiaoxia1, 2, DING Nan1, 2

    (1. School of Information Engineering, Southwest University of Science and Technology, Mianyang 621010, China;

    2. Sichuan Industrial Autonomous and Controllable Artificial Intelligence Engineering Technology Research Center, Mianyang 621010, China;

    3. Mianyang Cigarette Factory, China Tobacco Sichuan Industrial Co., Ltd., Mianyang 621000, China)

    Abstract: A parallel pooling of attention and multi?feature fusion enhancement (PPA?MfFE) method is proposed to get rid of the detail information loss and inadequate feature fusion caused by channel attention dimension reduction. Firstly, two pooling modules are used to process the input image in parallel to enhance the feature attention. In the entropy?guided pooling module, the channel information entropy is used to generate the feature weight coefficient and enhance the detailed information of edge texture. The directional awareness pooling module is responsible for capturing the spatial direction information of the image in both vertical and horizontal directions. And then, the channel mean is calculated, so as to achieve gradual dimensionality reduction and retain the key features. Secondly, the multi?feature fusion enhancement module is used to select the size of the convolution kernel adaptively by the logarithmic function of the feature graph scale, and reshape the convolution feature group into three feature subgraphs in the directions of channel, height and width with the same dimension as the input image, and then multiply the elements to obtain the enhanced feature graph. Finally, the enhanced feature graph is weighted and fused with the input image to enhance the location and detail information of the object. Experimental results show that, with the same number of parameters, the mAP@0.5 of the proposed algorithm is 4.62% and 4.46% higher than those of YOLOX and YOLOv7 in VOC2007 dataset, respectively, and its mAP@0.5 is 4.57% and 4.63% higher than those of YOLOX and YOLOv7 in COCO dataset, respectively.

    Keywords: channel attention; dimensionality reduction; parallel pooling; multi?feature fusion enhancement; self?adaptation; object detection

    0" 引" 言

    目標(biāo)檢測(cè)在計(jì)算機(jī)視覺領(lǐng)域具有重要意義,其任務(wù)是準(zhǔn)確地定位和識(shí)別輸入圖像中的目標(biāo)物體[1]。這一任務(wù)被廣泛應(yīng)用于公共安全[2]、輔助駕駛[3]、智能醫(yī)療[4]、工業(yè)檢測(cè)[5]等多個(gè)領(lǐng)域。深度學(xué)習(xí)模型[6],尤其是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)為該領(lǐng)域的發(fā)展與應(yīng)用帶來了明顯的改善。然而,目標(biāo)檢測(cè)同樣也面臨著許多重要挑戰(zhàn),包括尺度變化、目標(biāo)遮擋、背景干擾等。

    近期研究表明,將注意力機(jī)制[7]應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)中,能夠顯著提升目標(biāo)檢測(cè)任務(wù)的性能。注意力機(jī)制使得模型能夠更加聚焦于圖像中的關(guān)鍵區(qū)域,提高對(duì)重要特征的感知能力。通過引入可學(xué)習(xí)的注意力權(quán)重,模型可以有選擇性地關(guān)注圖像的局部信息,從而提高目標(biāo)檢測(cè)的準(zhǔn)確性和魯棒性。

    通道注意力如文獻(xiàn)[8]提出的壓縮激勵(lì)(Squeeze and Excitation, SE)模塊。壓縮模塊通過全局平均池化(Global Average Pooling, GAP)來擠壓網(wǎng)絡(luò)中每個(gè)特征圖的維度,產(chǎn)生全局特征描述符;激勵(lì)模塊使用兩次全連接層對(duì)通道進(jìn)行聚合和擴(kuò)張,以獲得各個(gè)通道的注意力向量,并乘以特征圖以縮放輸入特征的通道數(shù)。

    為了減小模型復(fù)雜度,SE采用了減少通道數(shù)量的策略。然而,這一策略未能直接建立權(quán)重向量與輸入之間的顯式對(duì)應(yīng)關(guān)系,從而降低了結(jié)果的質(zhì)量。相比之下,文獻(xiàn)[9]提出的高效通道注意力(Efficient Channel Attention, ECA)模塊使用全局平均池化獲得通道權(quán)重,并借助1×1卷積將權(quán)重映射到原始特征圖上,實(shí)現(xiàn)了對(duì)通道的加權(quán)。這一方法避免了降維操作,同時(shí)能夠捕捉跨通道的相互作用,從而提升了模型的性能。

    同樣,文獻(xiàn)[10]提出的門控通道轉(zhuǎn)換(Gated Channel Transformation, GCT)模塊通過使用門控機(jī)制對(duì)通道間的特征關(guān)系進(jìn)行顯示建模,這一機(jī)制在促進(jìn)淺層特征之間合作的同時(shí),也引導(dǎo)深層特征之間的競(jìng)爭(zhēng)。由此,淺層特征能夠更好地捕捉通用屬性,而深層特征則更有效地提取與任務(wù)相關(guān)的鑒別性特征。

    文獻(xiàn)[11]提出了頻率通道注意力(Frequency Channel Attention, FCA)模塊,從壓縮角度分析捕獲的全局信息,并思考頻域中的全局平均池化,證明全局平均池化是離散余弦變換(DCT)僅保留直流分量時(shí)的特殊情況,因此模型通過引入更多的頻率分量來充分利用信息。

    此外,文獻(xiàn)[12]提出了一種無參通道注意力(Parameter?free Channel Attention, PFCA)模塊,使用全局平均池化將整個(gè)特征圖的高度和寬度降至1,同時(shí)保留通道數(shù),利用均值與方差統(tǒng)計(jì)不同通道中有用的信息來生成通道注意力權(quán)重,這些權(quán)重可以捕捉到圖像中的重要特征,并增強(qiáng)模型的性能。

    空間注意力如文獻(xiàn)[13]提出了一種利用特征上下文的聚集?激發(fā)注意力(Gather?Excite Attention, GE)模塊,可以在很大的空間范圍內(nèi)聚合特征響應(yīng),并將合并的信息重新分布到局部特征。聚集操作符用于從局部的空間位置上提取特征,激發(fā)操作符則用于將其進(jìn)行縮放還原回原始尺寸。

    文獻(xiàn)[14]提出了一種空間分組注意力(Spatial Group?wise Enhance, SGE)模塊,該模塊將卷積特征圖中的通道劃分為多個(gè)子特征,子特征以組的形式分布在每一層的特征圖中。SGE在每個(gè)子特征組內(nèi)生成一個(gè)注意力權(quán)重,注意力權(quán)重可以確定每個(gè)子特征的重要性,每個(gè)子特征組也可以有針對(duì)性地學(xué)習(xí)和抑制噪聲。

    通常情況下,引入單一的通道注意力或者空間注意力確實(shí)能夠提升模型性能,但這種提升往往受到限制。研究者們發(fā)現(xiàn),更進(jìn)一步的性能提升可以通過準(zhǔn)確組合通道注意力和空間注意力,充分發(fā)揮它們各自的優(yōu)勢(shì),從而更全面地捕捉特征信息[15]。

    基于這種思路,文獻(xiàn)[16]提出混合注意力(Convolutional Block Attention Module, CBAM)模塊,該模塊采用通道注意力與空間注意力串聯(lián)的方式。其中:通道注意力部分在SE基礎(chǔ)上引入了全局最大池化(Global Max Pooling, GMP),通過全局最大池化和全局平均池化來學(xué)習(xí)通道間的關(guān)系,并使用權(quán)重調(diào)節(jié)不同通道特征的貢獻(xiàn);空間注意力部分則是基于通道維度分別執(zhí)行最大值和平均值的操作,然后運(yùn)用7×7卷積來提取空間信息,以關(guān)注輸入數(shù)據(jù)中更重要的區(qū)域。

    SE在捕捉跨通道關(guān)系之前使用全局池化來整合全局空間信息,但它忽視了位置信息的重要性。CBAM采用卷積操作捕獲局部關(guān)系,但卻無法有效建模長(zhǎng)期依賴關(guān)系。為了克服這些限制,文獻(xiàn)[17]提出了協(xié)調(diào)注意力(Coordinate Attention, CA)模塊,CA通過將位置信息嵌入通道注意力中,使得網(wǎng)絡(luò)能夠以較小的計(jì)算成本關(guān)注重要區(qū)域。通過使用空間坐標(biāo)信息生成注意力權(quán)重,并將其應(yīng)用于原始特征圖以增強(qiáng)感興趣目標(biāo)的表示。

    此外,文獻(xiàn)[18]提出了一種協(xié)作注意力框架(Collaboration Attentions Trait, CAT),CAT將特征表示為可訓(xùn)練的系數(shù),以自適應(yīng)地結(jié)合不同注意模塊的貢獻(xiàn),更好地適應(yīng)不同的圖像層次和任務(wù)。同時(shí)設(shè)計(jì)了一種自適應(yīng)機(jī)制來捕捉不同注意力算子之間的內(nèi)在協(xié)作關(guān)系,并融合三種池化的輸出結(jié)果。

    文獻(xiàn)[19]從CA中得到啟發(fā),跨維度的交互作用有助于通道或空間注意力預(yù)測(cè),因此提出了一種新的跨空間學(xué)習(xí)方法(Efficient Multi?scale Attention, EMA),并設(shè)計(jì)了一個(gè)用于建立短期和長(zhǎng)期依賴關(guān)系的多尺度并行子網(wǎng)絡(luò)。在保留每個(gè)通道信息和減少計(jì)算開銷的基礎(chǔ)上,對(duì)部分通道進(jìn)行批量重構(gòu),并將通道維度分組為多個(gè)子特征,使空間語義特征在每個(gè)特征組內(nèi)均勻分布。

    盡管上述注意力機(jī)制在目標(biāo)檢測(cè)任務(wù)中取得了成功,但仍然面臨一些局限性:在獲得高精度的同時(shí),不可避免地增加了模型的參數(shù)量;盡管目前一些方法降低了計(jì)算成本,但是忽略了各個(gè)維度中信息的交互;利用通道降維建立跨通道關(guān)系會(huì)影響對(duì)深層特征的提取,導(dǎo)致信息丟失;在特征選擇時(shí)僅僅單獨(dú)考慮全局信息或局部信息,無法提升模型的泛化能力。

    針對(duì)以上問題,本文設(shè)計(jì)了一種并行池化注意力及多特征融合增強(qiáng)(Parallel Pooling of Attention and Multi?feature Fusion Enhancement, PPA?MfFE)方法。該方法結(jié)合了全局特征整合和方向性特征捕捉的優(yōu)勢(shì),采用雙分支并行處理,包括熵引導(dǎo)池化(Entropy Guided Pooling, EGP)模塊、方向感知池化(Direction Aware Pooling, DAP)模塊和多特征融合增強(qiáng)(Multi?feature Fusion Enhancement, MfFE)模塊。

    具體來說,原始特征圖被同時(shí)送入熵引導(dǎo)池化(EGP)模塊和方向感知池化(DAP)模塊。EGP模塊捕獲特征圖的平均信息和突出信息,使模型能夠全面理解圖像的全局特性。DAP模塊捕捉特征圖的坐標(biāo)信息,強(qiáng)化模型對(duì)復(fù)雜空間關(guān)系的識(shí)別能力。通過拼接整合全局特征和方向特征形成細(xì)節(jié)信息更全面的特征圖。然后,多特征融合增強(qiáng)(MfFE)模塊根據(jù)特征圖尺度自適應(yīng)計(jì)算一維卷積的卷積核大小,通過跨通道交互,獲取上下文信息,并將卷積后的特征分組重塑為寬度、高度和通道方向上的三個(gè)特征子圖。最后,三個(gè)特征子圖通過元素相乘后,再與原始特征圖相乘融合,獲得更具區(qū)分性的特征表示,有助于提升網(wǎng)絡(luò)對(duì)目標(biāo)特征的感知和檢測(cè)能力。

    1" 相關(guān)網(wǎng)絡(luò)

    1.1" YOLOX

    YOLOX[20]是由曠視科技推出的高性能目標(biāo)檢測(cè)網(wǎng)絡(luò),采用了數(shù)據(jù)增強(qiáng)、檢測(cè)頭和分類頭分離、無錨框設(shè)計(jì)和正負(fù)樣本匹配策略等改進(jìn)手段。其整體由三個(gè)部分構(gòu)成,分別是主干特征提取網(wǎng)絡(luò)(CSPDarknet[21])、增強(qiáng)特征提取網(wǎng)絡(luò)(SPP[22]+FPN[23])以及分類回歸模塊(YOLO Head)。

    主干特征提取網(wǎng)絡(luò)負(fù)責(zé)提取圖像的特征信息,首先,F(xiàn)ocus模塊調(diào)整輸入數(shù)據(jù)的尺度和通道數(shù),然后經(jīng)過4個(gè)殘差體(Resblock Body)模塊,最終獲得3個(gè)有效特征層。加強(qiáng)特征提取網(wǎng)絡(luò)先后通過兩次上采樣與兩次下采樣對(duì)上層網(wǎng)絡(luò)輸出的三層不同維度的特征進(jìn)行融合。YOLO Head是YOLOX的分類器和回歸器,通過加強(qiáng)特征提取網(wǎng)絡(luò)輸出的三個(gè)特征圖來判斷是否有物體與特征點(diǎn)對(duì)應(yīng)。

    1.2" YOLOv7

    YOLOv7是由文獻(xiàn)[24]提出的新一代目標(biāo)檢測(cè)網(wǎng)絡(luò),采用了重參數(shù)化、標(biāo)簽分配策略、帶輔助頭訓(xùn)練和分割梯度路徑層聚合架構(gòu)等改進(jìn)手段。其整體由三個(gè)部分構(gòu)成,分別是骨干網(wǎng)絡(luò)(Darknet?53[25])、頸部網(wǎng)絡(luò)(SPP+PAN[26])以及預(yù)測(cè)網(wǎng)絡(luò)(Prediction)。

    骨干網(wǎng)絡(luò)同樣用于提取圖像的特征信息。首先,3個(gè)堆疊的卷積塊用于提取輸入數(shù)據(jù)的初始特征,然后經(jīng)過下采樣和層聚合架構(gòu)ELAN提取首層、底層以及中間層的特征。頸部網(wǎng)絡(luò)將得到的3個(gè)特征層先自頂向下再自底向上進(jìn)行特征融合。預(yù)測(cè)網(wǎng)絡(luò)把融合后的特征圖經(jīng)矩陣融合和權(quán)重相加形成單特征圖,最終在特征圖上預(yù)測(cè)大、中、小型目標(biāo)。

    2" 具體方法

    本節(jié)介紹了并行池化注意力及多特征融合增強(qiáng)(PPA?MfFE)方法。首先,整體介紹了模塊對(duì)特征圖的處理流程,具體結(jié)構(gòu)如圖1所示,然后詳細(xì)描述了熵引導(dǎo)池化(EGP)模塊、方向感知池化(DAP)模塊以及多特征融合增強(qiáng)(MfFE)模塊。

    圖1中,[F∈RC×H×W]是輸入特征圖,其中[H]、[W]和[C]分別代表高度、寬度和通道。先利用并行池化結(jié)構(gòu)提取輸入圖像的全局池化特征和方向池化特征,將提取到的特征進(jìn)行拼接,生成細(xì)節(jié)信息更全面的特征。

    然后,使用一維卷積進(jìn)行更深層次的信息交互,在保留通道信息的同時(shí)整合不同高度和寬度位置的特征。將交互后的特征分組重塑為高度、寬度和通道方向上的3個(gè)特征子圖,對(duì)得到的特征子圖進(jìn)行元素相乘,形成注意力因子。

    最后,將輸入特征圖與注意力因子相乘,特征圖在不同維度上的重要性被凸顯,從而獲得更全面的特征表示。

    2.1" 熵引導(dǎo)池化模塊

    為減少單一池化造成空間維度上目標(biāo)信息的丟失,本文設(shè)計(jì)了熵引導(dǎo)池化(EGP)模塊。利用熵對(duì)通道特征的信息含量進(jìn)行度量,生成特征權(quán)重系數(shù),然后對(duì)全局池化結(jié)果進(jìn)行加權(quán),引導(dǎo)模型加強(qiáng)對(duì)邊緣紋理等細(xì)節(jié)信息的關(guān)注。熵引導(dǎo)池化模塊結(jié)構(gòu)如圖2所示。

    全局平均池化(GAP)計(jì)算特征圖中每個(gè)通道的平均值,保留特征圖的整體信息。全局最大池化(Global Max Pooling, GMP)提取特征圖中每個(gè)通道的最大值,突出特征圖中每個(gè)通道最顯著的局部特征。全局熵池化(GEP)計(jì)算特征圖中每個(gè)通道的熵值來評(píng)估特征的復(fù)雜度,從而識(shí)別通道中的信息含量。

    具體來說,GEP首先壓縮特征圖的高度和寬度維度,然后對(duì)每個(gè)通道內(nèi)的特征應(yīng)用Softmax操作,計(jì)算每個(gè)元素的概率分布[pi]。接著通過將[pi]與其對(duì)數(shù)的積累加求和來計(jì)算熵(entropy),具體操作如式(1)、式(2)所示:

    [pi=exp(xi)i=1H×Wexp(xi)] (1)

    式中[xi]表示輸入特征圖在通道[C]、位置[i]的特征值。

    [entropy=-i=1H×Wpi·ln[pi+μ]] (2)

    式中[μ]=[1×10-6],用于避免對(duì)數(shù)函數(shù)計(jì)算中出現(xiàn)零的情況。

    低熵值的通道表示特征較為一致、信息較少,對(duì)應(yīng)著無關(guān)的背景區(qū)域。高熵值的通道表示特征豐富、多樣性高,與邊緣和紋理信息相關(guān)。使用Sigmoid函數(shù)對(duì)熵值進(jìn)行映射,將其歸一化到[0,1]區(qū)間,然后分別乘以GAP和GMP的輸出對(duì)其進(jìn)行加權(quán),有助于增加模型對(duì)邊緣和紋理特征的關(guān)注,減少無關(guān)背景對(duì)模型的影響,抑制噪聲干擾。

    將經(jīng)過加權(quán)后的特征圖進(jìn)行元素相加(Add),完成通道維度上信息的融合,減少目標(biāo)信息的丟失,然后進(jìn)行張量重塑操作(Reshape),將得到的特征圖變?yōu)橐痪S的形式[[C,1]],提高計(jì)算效率。

    得到的全局池化特征為[FGP∈R1×C]。

    [FGP=R(GAP'⊕GMP')] (3)

    [GEP'=SigmoidRGEP(F)] (4)

    [GAP'=GEP'?GAP(F)] (5)

    [GMP'=GEP'?GMP(F)] (6)

    式中[R·]代表Reshape操作。

    2.2" 方向感知池化模塊

    為捕捉圖像的全局信息并構(gòu)建空間方向上的長(zhǎng)距離依賴關(guān)系,本文設(shè)計(jì)了方向感知池化(DAP)模塊。將圖像的高度信息和寬度信息分別集成到兩個(gè)不同的特征圖中,再使用逐步降維的方式保留關(guān)鍵特征,減少空間信息的丟失,模型能夠更精確地識(shí)別和定位感興趣的對(duì)象。方向感知池化模塊結(jié)構(gòu)如圖3所示。

    使用兩個(gè)空間池化核分別沿水平方向和垂直方向?qū)γ總€(gè)通道進(jìn)行編碼,將輸入圖像的高度信息和寬度信息分別集成到兩個(gè)不同的特征圖[[C,H,1]]和[[C,1,W]]中,具體操作如式(7)、式(8)所示:

    [FX=X_GAP(F)] (7)

    [FY=Y_GAP(F)] (8)

    式中:[X_GAP]表示沿寬度方向全局平均池化;[Y_GAP]表示沿高度方向全局平均池化。

    這種池化策略不僅可以捕捉到一個(gè)空間方向上的長(zhǎng)距離依賴關(guān)系,還能保持另一個(gè)空間方向上精確的位置信息。

    然后對(duì)兩個(gè)方向上得到的特征圖進(jìn)行通道平均(Channel Mean, CM)操作,強(qiáng)化不同通道之間的關(guān)聯(lián)性,減少不同通道之間的冗余信息。通過在通道方向上進(jìn)行平均,得到形狀為[[1,H,1]]和[[1,1,W]]的張量,隨后進(jìn)行Reshape操作,將特征圖形狀變?yōu)閇[1,H]]、[[1,W]],提高計(jì)算效率。具體操作如式(9)、式(10)所示:

    [FXX=RCM(FX)] (9)

    [FYY=RCM(FY)] (10)

    式中:[R·]代表Reshape操作;CM代表通道平均操作。

    最后,通過拼接(Concat)將兩個(gè)一維特征向量合并成更全面、更豐富的方向池化特征[FDP∈R1×(H+W)]。

    [FDP=Concat[FXX,F(xiàn)YY]] (11)

    2.3" 多特征融合增強(qiáng)模塊

    為減少因網(wǎng)絡(luò)深度增加而導(dǎo)致參數(shù)量增長(zhǎng),同時(shí)模型能夠自適應(yīng)獲取不同大小的感受野,本文設(shè)計(jì)了多特征融合增強(qiáng)(MfFE)模塊。根據(jù)特征圖尺度自適應(yīng)選取卷積核的大小,捕獲上下文信息,將卷積后的特征按照輸入圖像維度分組重塑為指定大小的通道、高度和寬度特征,并通過激活函數(shù)加權(quán)融合不同維度的特征信息,增強(qiáng)模型對(duì)不同層次語義信息的表征能力。多特征融合增強(qiáng)模塊結(jié)構(gòu)如圖4所示。

    多特征融合增強(qiáng)(MfFE)模塊的輸入為經(jīng)過熵引導(dǎo)池化(EGP)和方向感知池化(DAP)后通過拼接(Concat)得到的特征[FC∈R1×(C+H+W)]。具體操作如式(12)所示:

    [FC=Concat[FGP,F(xiàn)DP]] (12)

    由于[FC]在第三維度(特征維度)上拼接了來自EGP和DAP的全局池化特征和方向池化特征,因此使用一維卷積沿著特征維度滑動(dòng)卷積核,捕捉特征之間的局部依賴關(guān)系。

    MfFE根據(jù)特征圖尺度自適應(yīng)選取卷積核大小[K],實(shí)現(xiàn)感受野大小的動(dòng)態(tài)調(diào)整,避免因卷積核過大導(dǎo)致模型失去對(duì)局部特征的敏感性,同時(shí)也避免因卷積核過小,模型難以捕獲足夠廣泛的上下文信息。

    具體為利用對(duì)數(shù)函數(shù)將特征圖尺寸信息映射到卷積核大小范圍內(nèi),再進(jìn)一步壓縮卷積核大小并調(diào)整為奇數(shù),確保輸出尺度不變。對(duì)于給定的尺度([C+H+W]),卷積核[K]可以表示為:

    [K=k," " "k=Oddk+1," " " k=Even] (13)

    式中:[k=ceillog2(C+H+W)3],ceil表示向上取整。經(jīng)過一維卷積處理后的權(quán)重矩陣可以表示為[FC1∈R1×(C+H+W)]。

    [FC1=Conv1d(FC)] (14)

    之后,將經(jīng)過Sigmoid激活后的[FC1]與[FC]相乘,因?yàn)榻?jīng)過Sigmoid操作,特征被映射至0~1,相乘操作可以對(duì)[FC]中的特征進(jìn)行加權(quán),突出邊緣、紋理等細(xì)節(jié)信息。激活后的信息可以表示為[FC2∈R1×(C+H+W)]。

    [FC2=FC?Sigmoid(FC1)] (15)

    接著將[FC2]按照高度、寬度和通道的大小進(jìn)行分組(Split)操作,將特征圖分解為三個(gè)特征子圖,每個(gè)子圖可以獨(dú)立地表示輸入圖像在對(duì)應(yīng)維度上的特征。

    對(duì)每個(gè)分離的特征子圖進(jìn)行Reshape操作,讓特征子圖的形狀與輸入圖像維度相同,其形式為:[1,[H],1]、[1,1,[W]]、[[C],1,1]。對(duì)每個(gè)Reshape后的特征圖再次進(jìn)行Sigmoid操作,之后將三個(gè)特征圖進(jìn)行元素相乘,得到增強(qiáng)特征[Fa∈RC×H×W]。具體操作如式(16)~式(19)所示:

    [Fa=α?β?γ] (16)

    [α=SigmoidRSH(FC2)] (17)

    [β=SigmoidRSW(FC2)] (18)

    [γ=SigmoidRSC(FC2)] (19)

    式中:[SH(·)]、[SW(·)]、[SC(·)]分別代表從高度、寬度、通道進(jìn)行分組操作。

    最終,將原始特征[F]和增強(qiáng)特征[Fa]相乘,以獲得更具區(qū)分性的特征表示[FA∈RC×H×W]。

    [FA=F?Fa] (20)

    2.4" 引入PPA?MfFE方法的網(wǎng)絡(luò)結(jié)構(gòu)

    為驗(yàn)證提出的并行池化注意力及多特征融合增強(qiáng)(PPA?MfFE)方法的效果,將其加入到Y(jié)OLOX和YOLOv7目標(biāo)檢測(cè)網(wǎng)絡(luò)中進(jìn)行測(cè)試。

    PPA?MfFE方法在YOLOX和YOLOv7中的添加位置如圖5所示。在YOLOv7中使用空間金字塔池化注意力模塊(Spatial Pyramid Pooling Attention Module, SPPAM)替換SPPCSPC模塊,結(jié)構(gòu)如圖6所示。PPA?MfFE方法的功能是進(jìn)一步加強(qiáng)特征提取網(wǎng)絡(luò)的特征提取能力。由于將模塊添加到主干網(wǎng)絡(luò)中,就會(huì)改變主干網(wǎng)絡(luò)的預(yù)訓(xùn)練參數(shù),導(dǎo)致網(wǎng)絡(luò)的預(yù)測(cè)精度下降。所以選擇將模塊添加到增強(qiáng)特征網(wǎng)絡(luò)提取的部分,而不破壞主干網(wǎng)絡(luò)提取的原始特征,以提高對(duì)圖像中關(guān)鍵信息的有效捕捉。

    3" 實(shí)驗(yàn)結(jié)果與分析

    3.1" 數(shù)據(jù)集

    本文在Pascal VOC2007和MS COCO2017數(shù)據(jù)集上對(duì)提出的方法進(jìn)行對(duì)比實(shí)驗(yàn),在Pascal VOC2007+2012數(shù)據(jù)集上進(jìn)行消融實(shí)驗(yàn)。

    Pascal VOC2007數(shù)據(jù)集涵蓋了20個(gè)不同的對(duì)象類別,共計(jì)9 963張彩色圖像。Pascal VOC2012數(shù)據(jù)集是VOC2007數(shù)據(jù)集的升級(jí)版,數(shù)據(jù)集同樣包含20個(gè)不同的對(duì)象類別,共有11 530張彩色圖片。實(shí)驗(yàn)按照9∶1劃分訓(xùn)練集和測(cè)試集。

    MS COCO2017數(shù)據(jù)集涵蓋了80個(gè)不同的對(duì)象類別,共計(jì)163 957張彩色圖像,限于硬件條件,訓(xùn)練集從train2017中選取80張不同類別的圖片,然后在剩余圖片中隨機(jī)選取8 741張圖片,共計(jì)8 821張彩色圖片。同樣,測(cè)試集從val2017中選取80張不同類別的圖片,然后在剩余圖片中選取831張圖片,共計(jì)911張彩色圖片。

    3.2" 評(píng)估指標(biāo)

    實(shí)驗(yàn)使用IoU閾值為0.5時(shí)的AP(mAP@0.5)、計(jì)算量(FLOPs/(×109))、參數(shù)量(Parameters/(×106))、準(zhǔn)確率([P])和召回率([R])作為評(píng)價(jià)指標(biāo),驗(yàn)證本文方法的有效性。

    mAP是將所有類別的平均正確率(Average Precision, AP)進(jìn)行綜合加權(quán)平均得到的,其計(jì)算公式如下:

    [mAP=1nk=1nAPk] (21)

    [AP=01PRdR] (22)

    [P=TPFP+TP] (23)

    [R=TPTP+FN] (24)

    式中:TP代表預(yù)測(cè)為正,實(shí)際為正的個(gè)數(shù);FP代表預(yù)測(cè)為正,實(shí)際為負(fù)的個(gè)數(shù);FN代表預(yù)測(cè)為負(fù),實(shí)際為正的個(gè)數(shù);[P]代表精確率,表示分類正確的正樣本個(gè)數(shù)占分類器所有的預(yù)測(cè)正樣本個(gè)數(shù)的比例;[R]代表召回率,表示分類正確的正樣本個(gè)數(shù)占實(shí)際正樣本個(gè)數(shù)的比例;以召回率[R]為橫軸、準(zhǔn)確率[P]為縱軸繪制出的曲線又稱[P?R]曲線,其與坐標(biāo)軸圍成圖形的面積大小即為AP;[n]為目標(biāo)檢測(cè)的總類別數(shù)。

    計(jì)算量與參數(shù)量用來衡量模型的復(fù)雜程度,其值越小,運(yùn)行時(shí)速度越快,模型的復(fù)雜程度越低。當(dāng)輸入張量大小為[[Cin,H,W]],輸出張量大小為[[Cout,H,W]],卷積核大小為[[kh,kw]]時(shí),參數(shù)量與計(jì)算量計(jì)算公式如下:

    [Parameters=(kh×kw×Cin)×Cout+Cout] (25)

    [FLOPs=[(kh×kw×Cin)×Cout+Cout]×H×W] (26)

    3.3" 實(shí)驗(yàn)設(shè)置

    本文算法基于PyTorch框架,實(shí)驗(yàn)所使用的計(jì)算平臺(tái)為Ubuntu 20.04.4,硬件配置如下:Intel Xeon Gold 5120 CPU @ 2.20 GHz、NVIDIA GeForce RTX 3080 GPU(10 GB內(nèi)存)。在圖像預(yù)處理階段,對(duì)訓(xùn)練集的數(shù)據(jù)進(jìn)行概率為0.5的馬賽克數(shù)據(jù)增強(qiáng)處理,并對(duì)馬賽克增強(qiáng)后的圖片進(jìn)行概率為0.5的混合增強(qiáng)處理,數(shù)據(jù)增強(qiáng)操作只在前70個(gè)epoch生效。在訓(xùn)練模型階段,本文使用100個(gè)epoch和動(dòng)量參數(shù)為0.937的Adam優(yōu)化器訓(xùn)練網(wǎng)絡(luò),批量大小為8,圖像分辨率設(shè)置為640×640,采用余弦退火學(xué)習(xí)率,初值設(shè)為0.001,最小學(xué)習(xí)率設(shè)為0.000 01,權(quán)值衰減設(shè)為0。

    3.4" 消融實(shí)驗(yàn)

    為驗(yàn)證所提的并行池化注意力及多特征融合增強(qiáng)目標(biāo)檢測(cè)方法的性能,本文在YOLOv7上對(duì)并行池化模塊進(jìn)行消融實(shí)驗(yàn),其中還研究了熵引導(dǎo)池化(EGP)模塊中GAP和GMP之間的相互關(guān)系。

    實(shí)驗(yàn)結(jié)果如表1所示。表中加粗字體表示最優(yōu)結(jié)果,括號(hào)內(nèi)表示該指標(biāo)較于基準(zhǔn)網(wǎng)絡(luò)的提升量,“—”表示未添加對(duì)應(yīng)模塊,“√”表示添加對(duì)應(yīng)模塊。

    在實(shí)驗(yàn)2中,添加并行池化模塊,去除GAP、GEP結(jié)構(gòu),指標(biāo)mAP@0.5較基準(zhǔn)網(wǎng)絡(luò)提升2.39%,[P]提升2.35%,[R]提升1.52%。在實(shí)驗(yàn)3中,添加并行池化模塊,去除GMP、GEP結(jié)構(gòu),指標(biāo)mAP@0.5較基準(zhǔn)網(wǎng)絡(luò)提升2.23%,[P]提升2.25%,[R]提升1.54%。實(shí)驗(yàn)2和實(shí)驗(yàn)3的結(jié)果表明,在并行池化模塊中,GAP和GMP在捕捉不同層次、尺度和特征的信息方面發(fā)揮著互補(bǔ)的作用。

    在實(shí)驗(yàn)4中,添加DAP模塊,去除EGP模塊,指標(biāo)mAP@0.5較基準(zhǔn)網(wǎng)絡(luò)提升2.31%,[P]提升2.22%,[R]提升1.46%。在實(shí)驗(yàn)5中添加EGP模塊(不含GEP),去除DAP模塊,指標(biāo)mAP@0.5較基準(zhǔn)網(wǎng)絡(luò)提升2.15%,[P]提升2.09%,[R]提升1.40%。在實(shí)驗(yàn)6中,添加EGP模塊(不含GEP)和DAP模塊,指標(biāo)mAP@0.5值較基準(zhǔn)網(wǎng)絡(luò)提升3.17%,[P]提升3.09%,[R]提升2.29%。

    實(shí)驗(yàn)7驗(yàn)證了本文方法對(duì)目標(biāo)檢測(cè)的有效性。較基準(zhǔn)網(wǎng)絡(luò),在不增加參數(shù)量,計(jì)算量?jī)H增加0.01×109,就能獲得大幅精度提升,指標(biāo)mAP@0.5值較基準(zhǔn)網(wǎng)絡(luò)提升4.92%,[P]提升4.99%,[R]提升4.41%。

    3.5" 對(duì)比實(shí)驗(yàn)

    為驗(yàn)證所提方法的先進(jìn)性,在YOLOX網(wǎng)絡(luò)和YOLOv7網(wǎng)絡(luò)中添加各種主流注意力模塊,與并行池化注意力及多特征融合增強(qiáng)(PPA?MfFE)方法進(jìn)行比較。分別在VOC2007數(shù)據(jù)集和COCO2017數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表2所示。表中最好的結(jié)果用粗體表示,括號(hào)內(nèi)表示該指標(biāo)相比基準(zhǔn)網(wǎng)絡(luò)的提升量。

    本文方法(PPA?MfFE)只使用池化與一維卷積來提取特征權(quán)重,在參數(shù)量不變、計(jì)算量相當(dāng)?shù)那闆r下,本文提出的方法在VOC2007數(shù)據(jù)集和COCO2017數(shù)據(jù)集上的檢測(cè)精度優(yōu)于其他主流的注意力模塊。

    由表2可知,引入本文方法在參數(shù)量與基準(zhǔn)網(wǎng)絡(luò)相同的情況下,計(jì)算量較YOLOX和YOLOv7僅增加了0.013×109和0.01×109。在VOC2007數(shù)據(jù)集上, mAP@0.5較YOLOX和YOLOv7分別提升4.62%、4.46%,[P]分別提升4.43%、4.29%,[R]分別提升1.63%、4.71%。對(duì)于COCO數(shù)據(jù)集,mAP@0.5較YOLOX和YOLOv7分別提升4.57%、4.63%,[P]分別提升4.32%、4.64%,[R]分別提升3.37%、5.35%。實(shí)驗(yàn)結(jié)果表明,本文方法具有更高的精度。

    3.6" 可視化分析

    圖7中所選樣本分別為物體遮擋、昏暗場(chǎng)景、密集場(chǎng)景和復(fù)雜背景四種樣本。第一列為原始圖片,第二列為基準(zhǔn)網(wǎng)絡(luò)檢測(cè)后的圖片,后四列為基準(zhǔn)網(wǎng)絡(luò)加入相關(guān)注意力模塊檢測(cè)后的圖片。標(biāo)識(shí)框上方標(biāo)注了目標(biāo)置信度分?jǐn)?shù)。使用熱力圖展示網(wǎng)絡(luò)對(duì)圖像中目標(biāo)的關(guān)注程度,圖中熱點(diǎn)區(qū)域灰度值越小表示特征權(quán)重越大。

    從視覺效果可以看出,本文算法檢測(cè)出的目標(biāo)框明顯多于其他注意力模塊,對(duì)目標(biāo)位置的判斷更加準(zhǔn)確,且熱力圖呈現(xiàn)更集中,表明本文方法在目標(biāo)檢測(cè)任務(wù)中更具有優(yōu)勢(shì)。

    4" 結(jié)" 語

    針對(duì)通道注意力降維時(shí)導(dǎo)致細(xì)節(jié)信息損失和特征融合不充分的問題,本文提出一種并行池化注意力及多特征融合增強(qiáng)方法。利用熵引導(dǎo)池化模塊加強(qiáng)邊緣紋理等細(xì)節(jié)信息,使用方向感知池化模塊實(shí)現(xiàn)逐步降維,保留關(guān)鍵特征,減少空間信息損失,通過多特征融合增強(qiáng)模塊進(jìn)一步增強(qiáng)目標(biāo)的語義和位置信息。實(shí)驗(yàn)結(jié)果表明,本文方法在與基準(zhǔn)網(wǎng)絡(luò)參數(shù)量相同時(shí),在VOC2007數(shù)據(jù)集上mAP@0.5相比基準(zhǔn)網(wǎng)絡(luò)YOLOX和YOLOv7分別提升4.62%、4.46%,在COCO2017數(shù)據(jù)集上分別提升4.57%、4.63%。本文提出的方法優(yōu)于目前主流的注意力方法,本文的創(chuàng)新和改進(jìn)有望能為工程應(yīng)用中的目標(biāo)檢測(cè)任務(wù)提供有價(jià)值的參考。

    注:本文通訊作者為李小霞。

    參考文獻(xiàn)

    [1] ARANI E, GOWDA S, MUKHERJEE R, et al. A comprehensive study of real?time object detection networks across multiple domains: A survey [EB/OL]. [2022?08?29]. https://doi.org/10.48550/arXiv.2208.10895.

    [2] 龔益玲,張?chǎng)侮?,陳?基于深度學(xué)習(xí)的視頻異常檢測(cè)研究綜述[J].數(shù)據(jù)通信,2023(3):45?49.

    [3] LI C, CAO Y N, PENG Y K. Research on automatic driving target detection based on YOLOv5s [J]. Journal of physics: Conference series, 2022, 2171(1): 012047.

    [4] 吳志力,吳宇.目標(biāo)檢測(cè)集成框架在醫(yī)學(xué)圖像AI輔助分析中的應(yīng)用[J].人工智能,2018(4):38?50.

    [5] GORSCHLüTER F, ROJTBERG P, P?LLABAUER T. A survey of 6D object detection based on 3D models for industrial applications [J]. Journal of imaging, 2022, 8(3): 53.

    [6] GOODFELLOW I, BENGIO Y, COURVILLE A. Deep learning [M]. Cambridge, Massachusetts: MIT Press, 2016.

    [7] HASSANIN M, ANWAR S, RADWAN I, et al. Visual attention methods in deep learning: An in?depth survey [J]. Information fusion, 2024, 108: 102417.

    [8] HU J, SHEN L, SUN G. Squeeze?and?excitation networks [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2018: 7132?7141.

    [9] WANG Q L, WU B G, ZHU P F, et al. ECA?Net: Efficient channel attention for deep convolutional neural networks [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2020: 11534?11542.

    [10] YANG Z X, ZHU L C, WU Y, et al. Gated channel transformation for visual recognition [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2020: 11791?11800.

    [11] QIN Z Q, ZHANG P Y, WU F, et al. FcaNet: Frequency channel attention networks [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2021: 763?772.

    [12] SHI Y X, YANG L X, AN W P, et al. Parameter?free channel attention for image classification and super?resolution [EB/OL]. [2023?05?22]. https://doi.org/10.48550/arXiv.2303.11055.

    [13] HU J, SHEN L, ALBANIE S, et al. Gather?excite: Exploiting feature context in convolutional neural networks [C]// Advances in Neural Information Processing Systems 31: Annual Conference on Neural Information Processing Systems 2018. [S.l.: s.n.], 2018: 9423?9433.

    [14] LI X, HU X L, YANG J. Spatial group?wise enhance: Improving semantic feature learning in convolutional networks [EB/OL]. [2020?06?08]. http://arxiv.org/abs/1905.09646.

    [15] GUO M H, XU T X, LIU J J, et al. Attention mechanisms in computer vision: A survey [J]. Computational visual media, 2022, 8(3): 331?368.

    [16] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional block attention module [C]// Proceedings of the European Conference on Computer Vision (ECCV). Heidelberg: Springer, 2018: 3?19.

    [17] HOU Q B, ZHOU D Q, FENG J S. Coordinate attention for efficient mobile network design [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2021: 13713?13722.

    [18] WU Z Z, WANG M, SUN W W, et al. CAT: Learning to collaborate channel and spatial attention from multi?information fusion [J]. IET computer vision, 2023, 17(3): 309?318.

    [19] OUYANG D L, HE S, ZHANG G Z, et al. Efficient multi?scale attention module with cross?spatial learning [C]// IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). New York: IEEE, 2023: 1?5.

    [20] GE Z, LIU S T, WANG F, et al. YOLOX: Exceeding YOLO series in 2021 [C]// Online meeting: 2021 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE, 2021: 1?7.

    [21] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4: Optimal speed and accuracy of object detection [EB/OL]. [2020?04?28]. https://arxiv.org/abs/2004.10934.

    [22] HE K M, ZHANG X Y, REN S Q, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition [J]. IEEE transactions on pattern analysis and machine intelligence, 2015, 37(9): 1904?1916.

    [23] LIN T Y, DOLLáR P, GIRSHICK R, et al. Feature pyramid networks for object detection [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2017: 2117?2125.

    [24] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. YOLOv7: Trainable bag?of?freebies sets new state?of?the?art for real?time object detectors [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2023: 7464?7475.

    [25] REDMON J, FARHADI A. YOLOv3: An incremental improvement [EB/OL]. [2018?08?13]. http://arxiv.org/abs/1804.02767.

    [26] LIU S, QI L, QIN H F, et al. Path aggregation network for instance segmentation [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2018: 8759?8768.

    基金項(xiàng)目:國(guó)家自然科學(xué)基金面上項(xiàng)目(62071399);四川省科技計(jì)劃重點(diǎn)研發(fā)項(xiàng)目(2023YFG0262,2023NSFSC1388)

    作者簡(jiǎn)介:程" 杰(1996—),男,四川綿陽(yáng)人,碩士研究生,研究方向?yàn)槟繕?biāo)檢測(cè)、行人重識(shí)別。

    卞長(zhǎng)智(1986—),男,山東臨清人,工程師,研究方向?yàn)樽詣?dòng)化控制、人工智能。

    張" 婧(1986—),女,內(nèi)蒙古赤峰人,工程師,研究方向?yàn)槟繕?biāo)檢測(cè)。

    李小霞(1976—),女,北京人,博士研究生,教授,研究方向?yàn)槟J阶R(shí)別、計(jì)算機(jī)視覺。

    丁" 楠(1999—),男,河南周口人,碩士研究生,研究方向?yàn)獒t(yī)學(xué)圖像分割。

    校园人妻丝袜中文字幕| 大话2 男鬼变身卡| 亚洲四区av| 久久ye,这里只有精品| 亚洲av日韩在线播放| 麻豆精品久久久久久蜜桃| 欧美一区二区亚洲| 最新中文字幕久久久久| 五月开心婷婷网| videos熟女内射| 18禁裸乳无遮挡免费网站照片| 少妇人妻久久综合中文| 国产精品一区二区性色av| 80岁老熟妇乱子伦牲交| 国产精品国产三级国产专区5o| 天美传媒精品一区二区| 97人妻精品一区二区三区麻豆| 国产精品.久久久| 99热这里只有精品一区| 69人妻影院| 国产女主播在线喷水免费视频网站| 成人美女网站在线观看视频| 插阴视频在线观看视频| 亚洲综合色惰| 欧美区成人在线视频| 亚洲av成人精品一区久久| 少妇人妻精品综合一区二区| 青春草亚洲视频在线观看| 亚洲国产高清在线一区二区三| 成人美女网站在线观看视频| 超碰av人人做人人爽久久| 亚洲,欧美,日韩| 国产精品久久久久久久久免| 国语对白做爰xxxⅹ性视频网站| 五月玫瑰六月丁香| 成人毛片a级毛片在线播放| 亚洲国产精品国产精品| 国产精品一区www在线观看| 精华霜和精华液先用哪个| 亚洲在久久综合| 欧美3d第一页| 久久久国产一区二区| 午夜日本视频在线| 亚洲av中文字字幕乱码综合| 欧美xxxx性猛交bbbb| 中文精品一卡2卡3卡4更新| 成年版毛片免费区| 国产大屁股一区二区在线视频| 国产免费视频播放在线视频| 久久久成人免费电影| 国产精品99久久久久久久久| 日韩视频在线欧美| 亚洲人与动物交配视频| 久久影院123| 我要看日韩黄色一级片| 国产精品一及| 我的老师免费观看完整版| 亚洲国产成人一精品久久久| 国产精品国产三级国产av玫瑰| 欧美日韩一区二区视频在线观看视频在线 | 亚洲精品国产av成人精品| freevideosex欧美| 国产白丝娇喘喷水9色精品| 久久久欧美国产精品| 看黄色毛片网站| 国产精品伦人一区二区| 国产亚洲av嫩草精品影院| 丰满乱子伦码专区| 黄片wwwwww| 国产精品一区二区性色av| 99re6热这里在线精品视频| 国产乱人偷精品视频| 一区二区三区乱码不卡18| 国产亚洲91精品色在线| 久久99蜜桃精品久久| 少妇高潮的动态图| 精品人妻一区二区三区麻豆| 欧美xxxx性猛交bbbb| 九色成人免费人妻av| 久久精品国产亚洲av涩爱| 亚洲欧美中文字幕日韩二区| 一级毛片久久久久久久久女| 少妇人妻久久综合中文| 国产乱人视频| 免费av不卡在线播放| 国产成人a区在线观看| 水蜜桃什么品种好| 色视频在线一区二区三区| 日韩精品有码人妻一区| 国产白丝娇喘喷水9色精品| 九九爱精品视频在线观看| 最近中文字幕高清免费大全6| 久久精品人妻少妇| 成人毛片60女人毛片免费| 亚洲人成网站高清观看| 亚洲最大成人手机在线| 亚洲,一卡二卡三卡| 久久影院123| 婷婷色麻豆天堂久久| 成人欧美大片| 成年免费大片在线观看| 在现免费观看毛片| 18禁在线播放成人免费| 麻豆久久精品国产亚洲av| 在线精品无人区一区二区三 | 国产精品成人在线| 五月开心婷婷网| 成人午夜精彩视频在线观看| videossex国产| 国产欧美另类精品又又久久亚洲欧美| 国产精品久久久久久精品电影小说 | 久久人人爽人人片av| 国产免费视频播放在线视频| 色视频在线一区二区三区| 国产欧美另类精品又又久久亚洲欧美| 伦精品一区二区三区| 丝瓜视频免费看黄片| 久久精品夜色国产| 久久久久精品性色| 国产av国产精品国产| 精品国产三级普通话版| 免费高清在线观看视频在线观看| 日本黄大片高清| 五月开心婷婷网| 精品久久久久久久人妻蜜臀av| 女的被弄到高潮叫床怎么办| 免费在线观看成人毛片| 女人十人毛片免费观看3o分钟| 国产成年人精品一区二区| 可以在线观看毛片的网站| 亚洲精品第二区| 亚洲av免费高清在线观看| 亚洲精品久久午夜乱码| 高清av免费在线| 男人舔奶头视频| 国产免费福利视频在线观看| 日本一本二区三区精品| 麻豆精品久久久久久蜜桃| 欧美成人a在线观看| 国精品久久久久久国模美| 听说在线观看完整版免费高清| 亚洲一区二区三区欧美精品 | 国产一区二区三区av在线| 精品熟女少妇av免费看| 99久久九九国产精品国产免费| 国产一区二区三区综合在线观看 | 涩涩av久久男人的天堂| 亚洲国产成人一精品久久久| 免费观看的影片在线观看| 久久久久久国产a免费观看| 亚洲内射少妇av| 日产精品乱码卡一卡2卡三| 亚洲,欧美,日韩| 人妻一区二区av| 国产爽快片一区二区三区| 亚洲va在线va天堂va国产| 嫩草影院新地址| 国产精品福利在线免费观看| 三级男女做爰猛烈吃奶摸视频| 91狼人影院| tube8黄色片| 亚洲精品国产av蜜桃| 国产成人aa在线观看| 国产精品一区www在线观看| 女人十人毛片免费观看3o分钟| 有码 亚洲区| 欧美日韩视频精品一区| 边亲边吃奶的免费视频| 国产黄片美女视频| 国产精品人妻久久久久久| 别揉我奶头 嗯啊视频| 少妇人妻精品综合一区二区| 欧美成人一区二区免费高清观看| 在线观看国产h片| 亚洲欧洲国产日韩| 成人毛片a级毛片在线播放| 亚洲国产日韩一区二区| 麻豆成人av视频| 久热这里只有精品99| av线在线观看网站| 久久精品夜色国产| 亚洲av免费高清在线观看| 欧美日韩视频高清一区二区三区二| 午夜日本视频在线| 身体一侧抽搐| 国产探花极品一区二区| 波多野结衣巨乳人妻| 国产免费又黄又爽又色| 高清在线视频一区二区三区| 女人被狂操c到高潮| 国产淫片久久久久久久久| 99久国产av精品国产电影| 国产综合精华液| av国产精品久久久久影院| 麻豆成人午夜福利视频| 中文字幕亚洲精品专区| 久久这里有精品视频免费| 日日摸夜夜添夜夜添av毛片| 欧美+日韩+精品| 国产白丝娇喘喷水9色精品| 国产av码专区亚洲av| 欧美激情久久久久久爽电影| 99久久精品一区二区三区| 三级国产精品片| 毛片女人毛片| 性色avwww在线观看| 91在线精品国自产拍蜜月| 91久久精品国产一区二区成人| av在线播放精品| 亚洲四区av| 午夜精品国产一区二区电影 | 高清av免费在线| 舔av片在线| 国产av国产精品国产| 激情五月婷婷亚洲| 丰满乱子伦码专区| 成人无遮挡网站| 成人无遮挡网站| 校园人妻丝袜中文字幕| 亚洲精品日本国产第一区| 晚上一个人看的免费电影| 人妻 亚洲 视频| 黄色日韩在线| av免费观看日本| 狂野欧美激情性xxxx在线观看| 嫩草影院新地址| 精品人妻熟女av久视频| 亚洲欧美日韩卡通动漫| 国产亚洲一区二区精品| 97热精品久久久久久| 亚洲精品第二区| 涩涩av久久男人的天堂| 国产亚洲av片在线观看秒播厂| 国产综合懂色| 日本三级黄在线观看| 特大巨黑吊av在线直播| 18+在线观看网站| av在线蜜桃| 国产精品av视频在线免费观看| 日韩av免费高清视频| 国产精品一二三区在线看| 白带黄色成豆腐渣| 久久久精品94久久精品| 中文在线观看免费www的网站| 亚洲av欧美aⅴ国产| 亚洲av一区综合| 极品教师在线视频| 国产女主播在线喷水免费视频网站| 国产成人精品婷婷| 日韩 亚洲 欧美在线| 熟女av电影| 精品久久久久久电影网| 少妇 在线观看| 国产毛片a区久久久久| 亚州av有码| 午夜老司机福利剧场| 国产乱人偷精品视频| 日韩人妻高清精品专区| 嫩草影院入口| 男人添女人高潮全过程视频| 精品国产三级普通话版| 久久精品国产亚洲网站| 日本黄大片高清| 超碰av人人做人人爽久久| 新久久久久国产一级毛片| 91午夜精品亚洲一区二区三区| 啦啦啦中文免费视频观看日本| 国产一区有黄有色的免费视频| 日本午夜av视频| 禁无遮挡网站| 欧美激情国产日韩精品一区| 亚洲内射少妇av| 欧美 日韩 精品 国产| 日韩国内少妇激情av| 国产精品三级大全| 中文字幕免费在线视频6| 麻豆久久精品国产亚洲av| 欧美另类一区| 国产久久久一区二区三区| 日韩一本色道免费dvd| 99九九线精品视频在线观看视频| 尤物成人国产欧美一区二区三区| 身体一侧抽搐| 免费大片18禁| 最近最新中文字幕大全电影3| 国产乱人视频| 一区二区三区四区激情视频| 午夜视频国产福利| 自拍偷自拍亚洲精品老妇| 女人十人毛片免费观看3o分钟| 国产色婷婷99| 国产伦精品一区二区三区视频9| 国产人妻一区二区三区在| 在线a可以看的网站| 午夜免费鲁丝| 国产伦在线观看视频一区| 国产精品三级大全| 男人添女人高潮全过程视频| 777米奇影视久久| 亚洲精品乱码久久久v下载方式| 一区二区三区精品91| 下体分泌物呈黄色| 亚洲av日韩在线播放| 97热精品久久久久久| 久久鲁丝午夜福利片| 国产视频首页在线观看| 国产色婷婷99| 亚洲一级一片aⅴ在线观看| 亚洲精品国产av蜜桃| 欧美亚洲 丝袜 人妻 在线| 禁无遮挡网站| 欧美高清性xxxxhd video| 网址你懂的国产日韩在线| 亚洲av.av天堂| 国产片特级美女逼逼视频| 亚洲三级黄色毛片| 大陆偷拍与自拍| 精品国产三级普通话版| 欧美成人一区二区免费高清观看| 国产精品久久久久久精品古装| 男人添女人高潮全过程视频| kizo精华| 99久久精品一区二区三区| 国产精品99久久99久久久不卡 | 亚洲第一区二区三区不卡| 午夜福利在线观看免费完整高清在| 自拍偷自拍亚洲精品老妇| 3wmmmm亚洲av在线观看| 欧美精品国产亚洲| 最近中文字幕高清免费大全6| 亚洲av免费高清在线观看| 女的被弄到高潮叫床怎么办| 欧美潮喷喷水| 网址你懂的国产日韩在线| 91午夜精品亚洲一区二区三区| 精品久久久久久电影网| 综合色av麻豆| 天美传媒精品一区二区| 熟女人妻精品中文字幕| 极品少妇高潮喷水抽搐| 91精品一卡2卡3卡4卡| 国产免费一级a男人的天堂| 精品一区二区免费观看| 少妇裸体淫交视频免费看高清| 激情五月婷婷亚洲| 婷婷色综合www| 欧美日韩亚洲高清精品| 色5月婷婷丁香| 99精国产麻豆久久婷婷| 欧美日韩在线观看h| 国产亚洲91精品色在线| 免费观看性生交大片5| 国产人妻一区二区三区在| 国产亚洲av片在线观看秒播厂| 日日摸夜夜添夜夜添av毛片| 午夜福利高清视频| 亚洲精品乱久久久久久| 日本av手机在线免费观看| 麻豆乱淫一区二区| 水蜜桃什么品种好| 成人二区视频| 日日啪夜夜爽| 另类亚洲欧美激情| 精品国产露脸久久av麻豆| 在线观看一区二区三区| 99久久精品热视频| 欧美激情在线99| 久久久久精品性色| 高清毛片免费看| 欧美人与善性xxx| 欧美日韩一区二区视频在线观看视频在线 | 亚洲国产av新网站| 亚洲av一区综合| 下体分泌物呈黄色| 亚洲精品一区蜜桃| 欧美人与善性xxx| 麻豆久久精品国产亚洲av| av网站免费在线观看视频| 日韩制服骚丝袜av| 久久精品久久精品一区二区三区| 久久精品夜色国产| 久久精品国产鲁丝片午夜精品| 欧美人与善性xxx| 在线观看av片永久免费下载| 99久久精品热视频| 日韩av免费高清视频| 97热精品久久久久久| 在线 av 中文字幕| 久久精品国产鲁丝片午夜精品| 亚洲精品一二三| 久久精品人妻少妇| 国产男女内射视频| 国产精品久久久久久av不卡| 国产视频内射| 人人妻人人看人人澡| 日韩av在线免费看完整版不卡| av免费在线看不卡| av国产久精品久网站免费入址| 丝袜脚勾引网站| 免费少妇av软件| 日韩电影二区| 国产午夜福利久久久久久| 黄片wwwwww| 一本色道久久久久久精品综合| 国产av国产精品国产| 久久精品国产亚洲网站| 国产免费又黄又爽又色| 久久久久久久久久久免费av| 亚洲成人精品中文字幕电影| 国产视频首页在线观看| 国产精品国产三级国产专区5o| 在线播放无遮挡| 只有这里有精品99| 成人特级av手机在线观看| 狂野欧美白嫩少妇大欣赏| 联通29元200g的流量卡| 在线看a的网站| 久久人人爽人人爽人人片va| 国产亚洲精品久久久com| 男女那种视频在线观看| 肉色欧美久久久久久久蜜桃 | 18禁在线无遮挡免费观看视频| 一本一本综合久久| 成人综合一区亚洲| 两个人的视频大全免费| 777米奇影视久久| 久久久久精品性色| 在线观看一区二区三区激情| 日本黄大片高清| 七月丁香在线播放| 免费黄网站久久成人精品| 在线观看一区二区三区激情| 亚洲电影在线观看av| 亚洲国产欧美人成| 蜜桃亚洲精品一区二区三区| 久久女婷五月综合色啪小说 | 激情 狠狠 欧美| 欧美 日韩 精品 国产| 日本黄大片高清| 精品少妇久久久久久888优播| 观看免费一级毛片| 国产精品偷伦视频观看了| 一本久久精品| 人妻 亚洲 视频| 久久精品久久久久久噜噜老黄| 精品一区二区三区视频在线| 91精品伊人久久大香线蕉| 午夜福利视频精品| 亚洲av不卡在线观看| 欧美区成人在线视频| 狂野欧美激情性xxxx在线观看| 国产久久久一区二区三区| 日韩av不卡免费在线播放| 丝袜美腿在线中文| 亚洲av中文字字幕乱码综合| 精品久久久久久久久亚洲| 麻豆乱淫一区二区| 纵有疾风起免费观看全集完整版| 欧美日韩国产mv在线观看视频 | kizo精华| 2018国产大陆天天弄谢| 在线亚洲精品国产二区图片欧美 | h日本视频在线播放| 亚洲精品一二三| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 国产亚洲av片在线观看秒播厂| 免费观看a级毛片全部| 色婷婷久久久亚洲欧美| 国产成人精品福利久久| 久久综合国产亚洲精品| 欧美97在线视频| 亚洲精品乱久久久久久| 亚洲av在线观看美女高潮| 蜜臀久久99精品久久宅男| 亚洲国产精品成人久久小说| 白带黄色成豆腐渣| 有码 亚洲区| 久久精品国产a三级三级三级| 国产乱人视频| 性插视频无遮挡在线免费观看| 国产午夜精品一二区理论片| 国产精品久久久久久精品电影| 亚洲精品第二区| 国产高潮美女av| 91精品伊人久久大香线蕉| 80岁老熟妇乱子伦牲交| 一本色道久久久久久精品综合| 晚上一个人看的免费电影| 久久久久久九九精品二区国产| 禁无遮挡网站| 人妻一区二区av| 精品久久国产蜜桃| 中文字幕免费在线视频6| 国产女主播在线喷水免费视频网站| 69av精品久久久久久| 欧美高清成人免费视频www| 菩萨蛮人人尽说江南好唐韦庄| 三级国产精品片| 午夜福利高清视频| 国语对白做爰xxxⅹ性视频网站| 伦精品一区二区三区| 亚洲国产欧美在线一区| 亚洲av不卡在线观看| 日韩av不卡免费在线播放| 性色avwww在线观看| 国产一区有黄有色的免费视频| 肉色欧美久久久久久久蜜桃 | 熟女人妻精品中文字幕| 在线精品无人区一区二区三 | 日韩大片免费观看网站| 美女视频免费永久观看网站| 天天躁夜夜躁狠狠久久av| 日韩免费高清中文字幕av| 久久久久国产网址| 日本猛色少妇xxxxx猛交久久| 精品99又大又爽又粗少妇毛片| 国产乱人视频| 热99国产精品久久久久久7| 久久鲁丝午夜福利片| 嫩草影院精品99| 青春草视频在线免费观看| 菩萨蛮人人尽说江南好唐韦庄| 成年免费大片在线观看| 欧美精品一区二区大全| 男插女下体视频免费在线播放| 黄色配什么色好看| 嫩草影院精品99| 亚洲av成人精品一区久久| 国产成人91sexporn| 久久精品国产亚洲网站| 久久久久久九九精品二区国产| 午夜老司机福利剧场| 女人久久www免费人成看片| 久久影院123| 免费少妇av软件| 少妇人妻久久综合中文| 国产精品伦人一区二区| 日韩人妻高清精品专区| 性色avwww在线观看| 少妇高潮的动态图| 亚洲精品国产色婷婷电影| 在线观看一区二区三区激情| 亚洲欧美成人综合另类久久久| 久久久久性生活片| 边亲边吃奶的免费视频| 一区二区三区免费毛片| 精品少妇黑人巨大在线播放| 国产一区二区亚洲精品在线观看| 亚洲人成网站高清观看| 日本色播在线视频| 最近的中文字幕免费完整| 亚洲国产高清在线一区二区三| 日本爱情动作片www.在线观看| 国产在线男女| 国产精品人妻久久久影院| 国产在线一区二区三区精| 免费观看a级毛片全部| 三级国产精品片| 日韩一本色道免费dvd| 99久国产av精品国产电影| .国产精品久久| 少妇猛男粗大的猛烈进出视频 | 日韩av不卡免费在线播放| 久久久精品欧美日韩精品| 国产淫语在线视频| 高清日韩中文字幕在线| 97精品久久久久久久久久精品| 麻豆久久精品国产亚洲av| 成年女人在线观看亚洲视频 | 久久99热6这里只有精品| 国产爱豆传媒在线观看| 日本一二三区视频观看| 免费av不卡在线播放| 色播亚洲综合网| 国产精品不卡视频一区二区| 久久久国产一区二区| 丝袜喷水一区| 国产真实伦视频高清在线观看| 少妇 在线观看| 91久久精品电影网| 免费观看的影片在线观看| 网址你懂的国产日韩在线| 久久韩国三级中文字幕| 人妻制服诱惑在线中文字幕| 嫩草影院精品99| 国产午夜精品一二区理论片| 色哟哟·www| 联通29元200g的流量卡| 97超视频在线观看视频| 国产久久久一区二区三区| 久久精品久久久久久噜噜老黄| 国产一级毛片在线| 日日啪夜夜撸| 国产成人aa在线观看| 日韩av不卡免费在线播放| 国产人妻一区二区三区在| 成人毛片60女人毛片免费| 亚洲国产色片| 午夜福利网站1000一区二区三区| 久久久色成人| 国产精品一区二区性色av| 国产成人aa在线观看| 国产乱人视频| 少妇 在线观看| 亚洲av国产av综合av卡| 国产精品国产三级国产专区5o| 日产精品乱码卡一卡2卡三| 韩国高清视频一区二区三区| 国产精品无大码| 国产视频内射| 91aial.com中文字幕在线观看| 亚洲国产成人一精品久久久| 精品久久久久久电影网| av黄色大香蕉| 国产精品国产三级国产av玫瑰|