• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于YOLOX的輕量化目標檢測算法及其應(yīng)用

    2025-08-07 00:00:00柴煒朕王朝立孫占全
    上海理工大學學報 2025年3期
    關(guān)鍵詞:主干特征提取卷積

    中圖分類號:TP391 文獻標志碼:A

    Lightweight object detection algorithm based on YOLOX and its application

    CHAI Weizhen, WANG Chaoli, SUN Zhanquan (School of Optical-Electrical and Computer Engineering, University of Shanghai for Science and Technology, Shanghai 200093, China)

    Abstract: Object detection algorithms are widely used in the field of production safety. To address the problems of slow detection speed and low detection accuracy in complex construction environments, an improved YOLOX detection algorithm was proposed. First, based on the lightweight convolution module Ghost moudle, the backbone network was reconstructed to compress the model parameters and computational complexity, thereby improving detection speed. Second, embedding the coordinate attention mechanism at the output of the backbone network to enhance the model's ability to learn key position information. Finally, recursive gated convolution was introduced into the neck network to enhance the model's spatial position perception ability and capture long-range dependencies in the image. The improved model are experimentally validated on the Pascal VOC and SHWD datasets, comparing with the baseline model, mean average precision increase by 1.69% and 1.1% respectively, model parameter count decrease by 18.8% , computational load decrease by 23.3% , and frame rate increase by 7.6% . Deploying the purposed model on terminal devices can be applied to real-time monitoring and detection in construction environments.

    Keywords: object detection; lightweight; coordinate attention; recursive gated convolution

    目標檢測算法在生產(chǎn)安全領(lǐng)域應(yīng)用廣泛,它可以代替?zhèn)鹘y(tǒng)的人工監(jiān)督方法,節(jié)約人力物力。在智慧工地建設(shè)中,將目標檢測算法應(yīng)用于工人安全帽佩戴檢測,可以有效保障復(fù)雜施工環(huán)境下工人的生命安全。但在實際應(yīng)用場景中,對算法的實時性和檢測精度都有較高的要求。

    傳統(tǒng)的目標檢測方法需要人工設(shè)計圖像特征提取算子再進行檢測,代表算法有HOG[1和DPM[2],這種方法過程繁瑣,模型通用性和魯棒性較差,檢測準確率較低。深度學習方法不用人為設(shè)置圖像特征,可以根據(jù)圖像本身學習其內(nèi)在的屬性,基于深度學習的目標檢測算法已被廣泛應(yīng)用于生產(chǎn)安全領(lǐng)域,例如安全帽檢測、人臉識別、火焰檢測等。目前,基于深度學習的目標檢測算法可大致分為2類:一類是兩階段(two-stage)目標檢測算法,其代表有Fast R-CNN[3]、Faster R-CNN[4];另一類是單階段(one-stage)的目標檢測算法,其代表有YOLO[5]、SSD和ATSS[等。兩階段檢測算法的思路,是將可能存在物體的區(qū)域視為候選區(qū)域(region proposal),在此候選區(qū)域的基礎(chǔ)上完成分類和回歸任務(wù)。這種方法的網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜、計算量大,檢測速度與單階段檢測算法差距很大,不能滿足安全帽檢測這一實時應(yīng)用場景的需求。而在單階段的檢測算法中,省去了候選區(qū)域的提取工作,經(jīng)過單階段的網(wǎng)絡(luò)直接完成分類和回歸任務(wù),因此其檢測速度大大提高,可以滿足實時檢測應(yīng)用場景的需求。在單階段檢測算法中,YOLO系列檢測方法既可以保持較高的精度,又有很快的檢測速度,因此在安全帽檢測中應(yīng)用最為廣泛。張業(yè)寶等在SSD的基礎(chǔ)上,采用 VGGl6[9] 預(yù)訓練模型進行遷移學習,加速訓練過程,提高了檢測速度和檢測精度。謝國波等[10]在 YOLOv4[11] 的基礎(chǔ)上,融合通道注意力機制、增加特征尺度,改善了算法的檢測精度,但檢測速度和精度還顯不足,主要原因是YOLOv4使用的是DarkNet-53主干網(wǎng)絡(luò)。呂宗喆等[12]在YOLOv5的基礎(chǔ)上,對邊界框損失函數(shù)和置信度損失函數(shù)進行優(yōu)化,改善了對密集小目標特征的學習效果。

    YOLOv3[13]是YOLO系列的集大成者,但其需要人工設(shè)計檢測框的大小。在FCOS[14]中,作者將特征圖像素坐標映射回到原圖,通過1個解耦頭直接完成分類和回歸任務(wù),省去了復(fù)雜的錨框設(shè)計。Ge等[15借鑒了FCOS的解耦頭設(shè)計,在YOLOv3的基礎(chǔ)上改進得到Y(jié)OLOX。該算法引入SimOTA標簽分配策略篩選正樣本、加快網(wǎng)絡(luò)推理速度,采用無錨框檢測思路省去了復(fù)雜的錨框設(shè)計、節(jié)省了計算資源,并且采用解耦頭分別預(yù)測回歸任務(wù)和分類任務(wù),提高了檢測精度。YOLOX在保證高檢測精度的前提下,檢測速度快、模型參數(shù)量小、部署簡便,非常適用于實際場景中的實時檢測。本文在YOLOX的基礎(chǔ)上,對算法繼續(xù)進行改進,進一步提升網(wǎng)絡(luò)的檢測精度和檢測速度,主要工作為:

    a.在主干網(wǎng)絡(luò)中引入了輕量化卷積模組Ghostmoudle[16],構(gòu)建了新的主干網(wǎng)絡(luò)G-Backbone,在保證檢測精度幾乎沒有損失的前提下,大大壓縮了模型參數(shù)量和計算量,提高了檢測速度。

    b.在主干網(wǎng)絡(luò)的輸出端融入了坐標注意力(coordinate attention,CA)機制[17],有效解決了安全帽檢測中復(fù)雜背景帶來的特征提取困難的問題,減少了關(guān)鍵特征信息的損失,同時還能學習到空間位置信息,有助于模型快速定位與識別。

    c.提出了基于遞歸門控卷積模組 gnConv[18] 的特征提取模塊g-CSP,將其融入到頸部網(wǎng)絡(luò)中構(gòu)建了新的頸部網(wǎng)絡(luò)g-Neck,增強了網(wǎng)絡(luò)的空間位置感知能力,改善了多目標的檢測,且在 gnConv 中還采用了 7×7 的大卷積核,有利于擴大網(wǎng)絡(luò)的感受野,捕獲長距離依賴關(guān)系。

    YOLOX目標檢測算法

    YOLOX的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,其主體結(jié)構(gòu)由主干網(wǎng)絡(luò)(backbone)、頸部網(wǎng)絡(luò)(neck)、檢測頭(head)3部分構(gòu)成。在輸入端,使用Mosaic和Mixup數(shù)據(jù)增強策略提高數(shù)據(jù)的豐富性,緩解因數(shù)據(jù)不足而造成的網(wǎng)絡(luò)過擬合現(xiàn)象;主干網(wǎng)絡(luò)為Darknet-53,用于初步提取圖像特征,主體結(jié)構(gòu)為Focus和CSP組件。Focus的操作過程如圖2所示,具體為在輸入圖片上隔像素取值,以進行下采樣,采樣得到的特征圖通道數(shù)變?yōu)樵瓉淼?倍,最后再經(jīng)過1個 3×3 卷積提取特征。Focus操作可以把原來單通道上的信息拓展到通道空間上,并且減少了下采樣過程中的信息丟失。CSP組件為融合了殘差塊的全卷積特征提取模塊,在主干網(wǎng)絡(luò)中,通過多次堆疊特征提取模塊,可以加深網(wǎng)絡(luò)層數(shù),擴大網(wǎng)絡(luò)感受野,提取深層次的圖像信息。輸入圖像經(jīng)過主干網(wǎng)絡(luò)后,分別輸出3個不同尺度的特征圖,隨后進入路徑聚合特征金字塔網(wǎng)絡(luò)(pathaggregation-featurepyramidnetwork,PA-FPN)中進行多尺度的特征融合。首先,在特征金字塔網(wǎng)絡(luò)(featurepyramidnetwork,F(xiàn)PN)中采用自頂向下的方式,將深層信息上采樣后與淺層信息融合;其次,在路徑聚合網(wǎng)絡(luò)(pathaggregationnetwork,PAN)中則采用自底向上的方式,將淺層信息下采樣后與深層信息融合,融合過后依然得到3個不同尺度的特征圖,這3個尺度的特征圖分別對應(yīng)著不同大小的感受野并用于檢測不同大小的物體;最終,將頸部網(wǎng)絡(luò)輸出的特征再輸入到圖3所示的解耦頭中,在解耦頭中將特征信息解耦,分為兩條支路,分別負責預(yù)測分類任務(wù)和回歸任務(wù),預(yù)測結(jié)果包含分類分數(shù)、位置參數(shù)和置信度3部分。

    2 模型改進

    2.1 輕量化主干網(wǎng)絡(luò)G-backbone

    常規(guī)卷積如圖4所示,對于輸入數(shù)據(jù)X∈Rc×h×w ,c、h、w分別表示輸入特征圖的通道數(shù)、高和寬,常規(guī)卷積操作如下:

    圖1YOLOX網(wǎng)絡(luò)模型Fig.1 YOLOX network
    圖3解耦頭
    圖4常規(guī)卷積Fig.4Traditional convolution

    Y=X*f+b

    式中:*表示卷積操作;b為偏置項;Y∈Rxh′xw為輸出特征圖,n'、h、 w 分別表示輸出特征圖的通道數(shù)、高和寬; f∈Rc×k×k×n 為卷積操作, k×k 為卷積核大小, n 為卷積核個數(shù)。

    常規(guī)卷積操作的輸出特征圖中往往包含很多相似的冗余信息,為壓縮模型參數(shù)量,提高網(wǎng)絡(luò)的檢測速度,本文引入了圖5所示的輕量化卷積Ghostmoudle重建主干網(wǎng)絡(luò)。Ghostmoudle先通過常規(guī)卷積操作,輸出m層初始特征圖Y∈ Rmxh'xw

    如式(2)所示:

    Y'=X*f'

    式中, f'∈Rc×k×k×m 為卷積操作且 m?n 。再將其通過一系列廉價的線性變換操作,得到相似的 (n-m) 層特征圖,如式(3)所示:

    yiji,j(yi'),?i=1,…,mj=1,…,s

    式中:y代表通過線性變換得到的 (n-m) 層相似特征圖, s=n/m 為擴充的倍數(shù); Φ 為線性變換,其具體實現(xiàn)為卷積核大小為 d×d 的深度可分離卷積。最后,把初始特征圖 Y 恒等映射后的結(jié)果和線性變換后的結(jié)果y拼接作為最終的輸出特征圖。

    Kconv=cnk2h'w'

    考慮到 d≈k 以及 s?c ,常規(guī)卷積與Ghostmoudle的計算量之比為

    由此可見,常規(guī)卷積的計算量是Ghostmoudle的 s 倍。因此,通過Ghostmoudle重新構(gòu)建主干網(wǎng)絡(luò),可以達到減少計算量、加速計算的目的,本文中 s 取2。

    基于Ghostmodule構(gòu)建的特征提取模塊Ghostbottleneck的結(jié)構(gòu)如圖6所示。當步長stride :=1 時,Ghostbottleneck由2個Ghost moudle構(gòu)成,輸入輸出維度相同。當stride σ=2σ 時,Ghost bottleneck由2個Ghostmoudle和1個深度可分離卷積塊組成,殘差連接部分加入卷積操作降維,在第一個Ghostmoudle后,同樣采用深度可分離卷積降維。此時,模塊除了可以進行特征提取,還兼具下采樣的功能?;贕hostbottleneck重構(gòu)的主干網(wǎng)絡(luò)結(jié)構(gòu)如表1所示,將原網(wǎng)絡(luò)的CBS和CSP模塊替換為更加輕量的Ghostbottleneck,考慮到輕量化網(wǎng)絡(luò)可能會帶來信息的丟失問題,在主干網(wǎng)絡(luò)中嵌入SE(squeeze-and-excitation)[19]模塊,增強關(guān)鍵特征,提高主干網(wǎng)絡(luò)的特征提取能力。更改后,主干網(wǎng)絡(luò)的模型參數(shù)量大幅下降,檢測速度更快。

    圖5輕量化卷積GhostmoudleFig.5Lightweight convolutional Ghost moudle
    圖6Ghostbottleneck結(jié)構(gòu)Fig.6 Thestructure of Ghost bottleneck
    表1重構(gòu)的主干網(wǎng)絡(luò)Tab.1 Reconstructed backbonenetwork

    2.2 坐標注意力機制

    為避免安全帽檢測中復(fù)雜背景帶來的冗余信息感干擾,彌補YOLOX網(wǎng)絡(luò)檢測精度的不足,使網(wǎng)絡(luò)關(guān)注到更有意義的信息,在主干網(wǎng)絡(luò)的輸出端引入注意力機制。傳統(tǒng)的通道注意力機制SE采用了全局池化對空間信息進行編碼,但它將全局信息壓縮到通道描述中,因此很難保存位置信息,而位置信息在視覺任務(wù)中對于捕獲空間位置結(jié)構(gòu)至關(guān)重要。在本文中,引入了CA機制,它采用“分而治之”的思想,將全局池化分解為垂直方向和水平方向上的平均池化,進而實現(xiàn)位置信息的編碼,其結(jié)構(gòu)如圖7所示。

    圖7坐標注意力機制Fig.7 Coordinateattentionmechanism

    對于輸入數(shù)據(jù) X∈Rc×h×w ,分別使用平均池化核 (H, 1) 和(1, W) 編碼水平方向和垂直方向的信息,則第 Ψc 個通道在高 h 處的編碼信息為

    式中: xc(h,j) 指輸入特征圖第 c 個通道上位置坐標(h,j) 處的像素值。

    同樣地,第 Ψc 個通道在寬 w 處的編碼信息為

    式中: xc(j,w) 指輸入特征圖第 Ψc 個通道上位置坐標(j,w) 處的像素值。

    隨后,將兩部分編碼信息拼接,經(jīng)過1個1×1 卷積層 F1 和非線性激活函數(shù)層 δ ,將特征圖通道數(shù)壓縮為 c/r ,生成包含位置信息的中間特征層f∈Rc/r×(h+w) ,即

    f=δ{F1([zh,zw])}

    再將 f 沿空間維度分解為2個向量 fh∈Rc/r×h 和fw∈Rc/r×w ,后再經(jīng)過2個 1×1 卷積層 Fh 、 Fw 和2個Sigmoid激活函數(shù)層 δ ,將通道數(shù)還原為 c ,得到2個獨立空間方向的注意力權(quán)重為

    最終的輸出為

    yc(i,j)=xc(i,j)×gch(i)×gcw(j)

    區(qū)別于通道注意力模塊僅考慮不同通道的重要程度,CA模塊考慮了空間信息的編碼,從而可以讓模型更加準確地定位感興趣對象的確切位置。本文中,將CA模塊引入到圖1中dark3、dark4、dark5的輸出端,可以顯著提升模型的檢測精度。

    2.3 融合空間信息的頸部網(wǎng)絡(luò)g-Neck

    YOLOX頸部網(wǎng)絡(luò)用于進一步的特征提取與特征融合,此過程中的卷積操作全部為標準的卷積操作,但標準的卷積操作沒有考慮到空間之間的相互作用,在經(jīng)過多次的卷積、上采樣、拼接操作后,會造成細節(jié)空間信息損失,不利于對多目標和小目標物體的檢測。為解決以上問題,本文引入了遞歸門控卷積模組 gnConv 模塊,設(shè)計了新的CSP組件和新的頸部網(wǎng)絡(luò)g-Neck。

    gnConv 是1個實現(xiàn)長期和高階空間交互作用的模塊, n 代表空間交互的階數(shù)。此模塊具有類似于自注意力self-attention[20]的作用,它借鑒了Vit[21]中對于空間交互作用的建模。Vit的成功主要歸因于自注意力機制對視覺數(shù)據(jù)中的空間交互作用進行了適當?shù)慕?。但是,自注意力操作引入的巨大參?shù)量,對于要求實時性的YOLOX模型來說并不實用。而 gnConv 通過標準卷積、線性映射和矩陣元素相乘等廉價操作實現(xiàn)空間交互,計算量代價更小。本文引入的三階 g3Conv 的結(jié)構(gòu)如圖8所示。

    gnConv 的基礎(chǔ)結(jié)構(gòu)為 n=1 的一階門控卷積gConv,對于輸入特征圖 X∈Rc×h×w ,gConv的輸出 y 為

    [p0hw×c,q0hw×c]=Φin(x)∈Rhw×2c

    y=Φout[f(q0)?p0]∈Rhw×c

    式中: Φin 和 Φout 為執(zhí)行通道混合操作的線性映射操作,具體實現(xiàn)是卷積核大小為 1×1 的常規(guī)卷積; f 為卷積核大小為 7×7 的深度可分離卷積,大卷積核旨在增大網(wǎng)絡(luò)的感受野,更容易捕獲長期依賴關(guān)系; p0 和 q0 是將線性映射操作的結(jié)果在通道維度上切分后的特征層; ? 為按元素相乘的操作。以此類推,將此過程重復(fù) n 次,即可得到n 階的遞歸門控卷積 gnConv 。圖8中演示的為三階遞歸門控卷積。通過這種建模通道間信息交互的做法,可以極大地提升模型的空間建模能力。

    本文基于由 gnConv 卷積模塊構(gòu)建的特征提取模塊 g -Block,重新設(shè)計了新的特征提取組件gCSP。 g -Block模塊借鑒了self-attention的元架構(gòu)設(shè)計,其結(jié)構(gòu)如圖9所示,它包含了1個空間混合模塊HorBlock和1個前饋網(wǎng)絡(luò)(feed-forwardnetwork,F(xiàn)FN)。空間混合模塊HorBlock是1個歸一化層和 gnConv 組成的殘差塊,完成空間交互建模;FFN為1個歸一化層和多層感知機(multilayerperceptron,MLP)構(gòu)成的殘差塊。 g -Block旨在用簡單的操作建模長距離的空間信息,使其適用于輕量化的網(wǎng)絡(luò)中。

    圖8遞歸門控卷積模組
    圖9 g. -Block結(jié)構(gòu)Fig.9The structure of g-Block

    重新設(shè)計的特征提取組件g-CSP結(jié)構(gòu)如圖10所示。在g-CSP中,輸入特征先經(jīng)過1個常規(guī)卷積塊提取特征,后進入 g -Block和深度可分離卷積塊中提取特征,將其與另一條支路的常規(guī)卷積塊提取的特征拼接后,再次輸入到1個深度可分離卷積塊中并輸出最終結(jié)果。引人深度可分離卷積的目的是降低參數(shù)量。本文基于 g -CSP組件,設(shè)計了新的頸部特征融合網(wǎng)絡(luò) g -Neck,其結(jié)構(gòu)如圖11所示,C3、C4、C5分別為從主干網(wǎng)絡(luò)輸出的3個尺度的特征層,其尺寸大小分別為 80×80×128 !40×40×256 、 20×20×512 。3個尺度的特征經(jīng)過上采樣、下采樣和拼接融合后,輸出3個特征層P3、P4、P5,其尺寸大小分別為 80×80×128 、 40×40× 256、 20×20×512 。圖1所示的YOLOX頸部網(wǎng)絡(luò)采用了CSP組件進行特征提取與融合。本文將頸部網(wǎng)絡(luò)中原始的CSP組件替換為重新設(shè)計的 g -CSP組件,旨在改善模型的空間特征提取能力。

    圖10g-CSP結(jié)構(gòu)
    圖11g-Neck結(jié)構(gòu)Fig.11 The structure of g-Neck

    3 實驗結(jié)果與分析

    3.1 數(shù)據(jù)集與實驗環(huán)境

    實驗數(shù)據(jù)采用2個開源的數(shù)據(jù)集:第一個數(shù)據(jù)集為SHWD安全帽數(shù)據(jù)集,針對生產(chǎn)安全領(lǐng)域的安全帽檢測問題;第二個數(shù)據(jù)集為PASCALVOC07+12[22-23] 通用數(shù)據(jù)集,用于對改進后的算法做進一步的驗證。其中SHWD安全帽數(shù)據(jù)集包含7581張圖片,訓練集和測試集按 7:3 劃分,訓練集包含5307張圖片,測試集包含2274張圖片,包含hat和person2個類別;PascalVOC數(shù)據(jù)集由PascalVOC2007和PascalVOC2012這2個數(shù)據(jù)集合并得到,訓練集由2個數(shù)據(jù)集共同組成,一共含16551張圖片,測試集由PascalVOC2007提供,包含4952張圖片,包含cat、person、dog等20個類別。

    實驗在Linux操作系統(tǒng)上進行訓練和測試,處理器型號為Intel(R)Xeon(R)Platinum6l64CPU @ 1.90GHz ,內(nèi)存大小為24GB,顯卡型號為NVIDIAGeForceRTX3090,深度學習框架為Pytorch,每個模型從頭開始訓練,網(wǎng)絡(luò)輸入大小為 640×640 ,epoch為200輪,初始學習率為0.0025。在前5輪訓練中,凍結(jié)學習率,使網(wǎng)絡(luò)熟悉數(shù)據(jù);后195輪訓練中優(yōu)化器設(shè)置為SGD,其動量和衰減系數(shù)分別為0.9和0.0005,單次訓練樣本數(shù)量batch size為16。訓練數(shù)據(jù)采用Mosaic和Mixup數(shù)據(jù)增強以增加數(shù)據(jù)的多樣性:Mosaic數(shù)據(jù)增強為隨機選擇4張圖片,將其縮放后拼接為1張圖片;Mixup數(shù)據(jù)增強為隨機選擇2張圖片,將其按一定比例融合為1張圖片。

    3.2 評價指標

    為了衡量模型檢測效果,本文采用模型參數(shù)量衡量模型大小,采用每秒10億次的浮點運算數(shù)表示模型的計算量,采用幀率衡量模型的檢測速度,采用平均精度 A 和平均精度均值 MAP 衡量模型的檢測精度。 A 與 MAP 綜合考量了精準率 P 和召回率 R : P 是指正確預(yù)測某類的數(shù)量占全部預(yù)測為該類的數(shù)量的比例; R 是指正確預(yù)測某類的數(shù)量占實際上全部為該類的數(shù)量的比例。 A 可以用來評估每一類的檢測效果,它是以召回率為橫軸、以精確率為縱軸組成的曲線圍成的面積。將所有類的 A 值取均值可以得到 MAP 。計算公式為

    式中: NTP 為正確預(yù)測為正類的樣本數(shù)量; NFP 為錯誤預(yù)測為正類的樣本數(shù)量; NFN 為漏檢的正類樣本數(shù)量; a 為所有類別數(shù)。

    YOLOX的損失函數(shù)包含3部分,分別為分類損失、置信度損失和錨框的回歸損失,計算公式為

    式中: LCE 和 LCIoU 分別表示交叉熵損失函數(shù)和CIoU[24]損失函數(shù);Npos表示正樣本的數(shù)量;Q和G 分別表示預(yù)測樣本和標簽;上標pos和neg分別表示訓練過程中的正樣本和負樣本; λ1 和 λ2 分別表示置信度損失和錨框回歸損失的權(quán)重值;下標Cls表示分類任務(wù),Obj表示置信度預(yù)測任務(wù),Reg表示錨框回歸任務(wù)。圖12演示了預(yù)測框 B 與目標框 Bgt 的相交情形, ρ 為兩框中心點的距離,1為兩框的最小外接矩形的對角線的長度, wgt 為目標框 Bgt 的寬, hgt 為目標框 Bgt 的高。CIoU損失函數(shù)計算式為

    式中: I 為交并比,即2個矩形框交集的面積與并集的面積之比; 分別表示預(yù)測框和目標框的中心點; α 為權(quán)重系數(shù); ν 為高寬比的一致性。圖13展示了訓練過程中的損失變化曲線,totalloss代表總損失,ciouloss代表錨框回歸損失,confloss代表置信度損失,clsloss代表分類損失??梢园l(fā)現(xiàn),訓練到200輪epoch時,4項損失值均已收斂。

    3.3 消融實驗

    為檢驗?zāi)P偷挠行?,在訓練參?shù)相同的情況下,對3處改進進行消融實驗。在SHWD數(shù)據(jù)集上的結(jié)果如表2所示, A1 和 A2 分別表示對佩戴安全帽和未佩戴安全帽的工人的檢測精度。實驗1為本文基線模型YOLOX的實驗結(jié)果;實驗2采用輕量化的特征提取模塊重新構(gòu)建了主干網(wǎng)絡(luò),改進模型的參數(shù)量下降了 21.5% ,計算量下降了24.5% ,檢測速度提高了 14.1% ,檢測精度基本保持不變;實驗3添加了CA模塊,較基線網(wǎng)絡(luò)的平均精度均值提升了 0.9% ,說明CA模塊可以讓模型更加關(guān)注網(wǎng)絡(luò)感興趣的區(qū)域、過濾冗余的信息、提高模型的性能,而添加CA后的模型參數(shù)量和計算量基本保持不變;實驗4采用空間交互能力更強的g-Neck頸部特征融合網(wǎng)絡(luò)替換原網(wǎng)絡(luò),較基線網(wǎng)絡(luò)的平均精度均值提高了 0.82% ,其原因在于模型學習了更多的空間位置信息,定位能力更強,這對于目標檢測任務(wù)而言至關(guān)重要,雖然模型參數(shù)量和計算量稍稍增加,犧牲了少量的檢測速度,但仍滿足使用需求;實驗5替換輕量化主干網(wǎng)絡(luò)的同時,添加了坐標注意力CA模塊,結(jié)果顯示,CA模塊在只增加少量參數(shù)量和計算量的情況下,彌補了輕量化網(wǎng)絡(luò)帶來的檢測精度損失;實驗6為本文最終改進模型,同時添加了3處改進,較基線網(wǎng)絡(luò)的參數(shù)量下降 18.8% ,計算量下降 23.3% ,檢測速度提高 7.6% ,平均精度均值提高 1.69% ,證明最終改進模型是一種更快、更強的檢測模型。圖14為平均精度均值變化曲線,藍色代表基線模型YOLOX,紅色代表本文最終改進模型。結(jié)果表明,改進后的模型以更高的精度收斂。

    "
    表2SHWD數(shù)據(jù)集上的結(jié)果Tab.2Theresults on SHWD dataset
    圖14平均精度均值變化曲線 Fig.14The curves of mean average precision change

    在基線模型上分別添加3種不同的注意力機制 SE、CBAM[25]、CA,實驗結(jié)果如表3所示。SE采用全局池化的方法將通道信息壓縮,沒有考慮到位置信息;CBAM在SE的基礎(chǔ)上嘗試通過卷積操作捕獲空間位置信息,但卷積操作在建模長期依賴關(guān)系時效果不佳;CA選擇在特征圖的 h 和w 方向上壓縮位置信息,再將其嵌入到通道注意力中,效果更佳。實驗結(jié)果表明,添加CA相較于添加SE和CBAM,平均精度均值分別提高了0.28% 和 0.24% 。

    表3添加不同注意力機制的結(jié)果對比

    3.4 對比實驗

    為進一步驗證模型的有效性,本文在公開數(shù)據(jù)集SHWD和PascalVOC上與現(xiàn)階段目標檢測的主流模型進行性能比較,選用的對比模型有兩階段檢測算法FastR-CNN、FasterR-CNN和單階段檢測算法SSD300、YOLOV3、YOLOV4、YOLOV5、YOLOX這7個主流模型,對比結(jié)果如表4和表5所示。在數(shù)據(jù)集SHWD上,本文改進模型的平均精度均值可以達到 88.0% ,檢測速度可以達到99f/s ,2項指標在所有模型中均為最高。在PascalVOC數(shù)據(jù)集上,本文改進模型的平均精度均值達到 83.0% ,相較于基線網(wǎng)絡(luò)提高 1.1% ,檢測速度為 99f/s ,2項指標同樣在所有模型中最高。

    表4不同模型在SHWD數(shù)據(jù)集上的結(jié)果對比
    表5不同模型在PascalVOC數(shù)據(jù)集上的結(jié)果對比

    在SHWD數(shù)據(jù)集和PascalVOC數(shù)據(jù)集中,分別選取3組圖片,分別使用改進后的YOLOX算法和原始YOLOX算法進行檢測。在SHWD數(shù)據(jù)集上的對比結(jié)果如圖15所示,第1組和第2組圖片中:原算法存在被遮擋物的漏檢情況;改進后的算法檢測出了被遮擋的安全帽,說明改進后的算法特征提取能力更強。第3組圖片中:原算法不僅存在遠處小目標的漏檢,還存在錯檢的情況;改進后的算法不僅檢測到了圖片較遠處的小目標物體,錯檢率也明顯下降。與原算法相比,改進后的算法檢測置信度得分明顯提高,檢測更加精確。在PascalVOC數(shù)據(jù)集上的對比結(jié)果如圖16所示,第1組圖片中,改進后的算法檢測置信度較高,且錯檢的情況減少;第2組和第3組圖片檢測結(jié)果相同,但是改進后的算法檢測置信度同樣提高。

    圖15SHWD數(shù)據(jù)集可視化結(jié)果對比
    圖16PascalVOC數(shù)據(jù)集可視化結(jié)果對比Fig.16 Comparison of visualization results on Pascal VOC dataset

    4結(jié)論

    為提高實時檢測算法的檢測速度、檢測精度,并將其應(yīng)用于生產(chǎn)安全領(lǐng)域,本文在基線模型YOLOX的基礎(chǔ)上提出3點改進。首先,將主干網(wǎng)絡(luò)替換為更輕量、速度更快的G-backbone,加快檢測速度;其次,在主干網(wǎng)絡(luò)的輸出端引入CA,使得模型特征提取能力增強,可以更好地關(guān)注到網(wǎng)絡(luò)感興趣的區(qū)域,過濾冗余信息;最后,在頸部網(wǎng)絡(luò)中融合了空間建模能力更強的 g-CSP ,使得模型更容易學習到空間位置信息,捕獲圖像中的長距離依賴關(guān)系。在SHWD和PascalVOC數(shù)據(jù)集上分別進行實驗驗證,結(jié)果表明3種改進策略均起到效果,最終的改進模型相較于基線網(wǎng)絡(luò),不僅檢測精度有提高,模型參數(shù)量和計算量也有所減少,而且檢測速度更快,可以應(yīng)用于施工環(huán)境下的實時監(jiān)控檢測中

    參考文獻:

    [1]DALAL N, TRIGGS B.Histograms of oriented gradients for human detection[C]//2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05). San Diego:IEEE,2005: 886-893.

    [2]FELZENSZWALB P, MCALLESTER D, RAMANAN D. A discriminativelytrained,multiscale,deformablepart model[C]//20o8 IEEE Conference on Computer Vision and Pattern Recognition. Anchorage: IEEE, 2008:1-8.

    [3]GIRSHICK R. Fast R-CNN[C]//Proceedings of the 2015 IEEE International Conference on Computer Vision. Santiago: IEEE,2015:1440-1448.

    [4]RENSQ,HEKM,GIRSHICKR,etal.Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

    [5]REDMON J, DIVVALA S, GIRSHICK R, et al. You only lookonce:unified, real-timeobjectdetection[C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016: 779-788.

    [6]LIU W,ANGUELOV D, ERHAN D, et al. SSD:single shot MultiBox detector[C]//14th European Conference on Computer Vision. Amsterdam: Springer, 2016: 21-37.

    [7] ZHANG S F, CHI C, YAO Y Q, et al. Bridging the gap between anchor-based and anchor-free detection via adaptive training sample selection[C]//Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE, 2020: 9756-9765.

    [8]張業(yè)寶,徐曉龍.基于改進 SSD的安全帽佩戴檢測方法 [J].電子測量技術(shù),2020,43(19):80-84.

    [9] SIMONYAN K, ZISSERMAN A. Very deep convolutional networksforlarge-scaleimagerecognition[DB/OL]. [2015-04-10]. https://arxiv.org/abs/1409.1556.

    [10]謝國波,唐晶晶,林志毅,等.復(fù)雜場景下的改進 YOLOv4安全帽檢測算法[J].激光與光電子學進展, 2023,60(12): 139-147.

    [11] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4: Optimal speed and accuracy of object detection[DB/OL].[2020-04-23].https://arxiv.0rg/abs/ 2004.10934.

    [12]呂宗喆,徐慧,楊驍,等.面向小目標的YOLOv5安全帽 檢測算法[J].計算機應(yīng)用,2023,43(6):1943-1949.

    [13] REDMON J, FARHADI A. YOLOv3: An incremental improvement[DB/OL]. [2018-04-08]. https://arxiv.org/abs/ 1804.02767.

    [14] TIAN Z, SHEN C H, CHEN H, et al. FCOS: fully convolutional one-stage object detection[C]//Proceedings of the 2019 IEEE/CVF International Conferenceon Computer Vision. Seoul: IEEE,2019: 9626-9635.

    [15] GE Z, LIU S T, WANG F,et al. YOLOX: exceeding YOLO series in 2021[DB/OL]. [2021-08-06]. https://arxiv. org/abs/2107.08430.

    [16] HAN K, WANG Y H, TIAN Q, et al. GhostNet: more features from cheap operations[C]//Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE, 2020: 1577-1586.

    [17]HOU QB, ZHOU D Q,F(xiàn)ENG J S. Coordinate attention for efficient mobile network design[C]//Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville: IEEE, 2021: 13708-13717.

    [18] RAO Y M, ZHAO W L, TANG Y S, et al. HorNet: efficient high-order spatial interactions with recursive gated convolutions[DB/OL]. [2022-10-11]. https://arxiv.org/abs/ 2207.14284.

    [19] HU J, SHENL, SUN G. Squeeze-and-excitation networks[C]/Proceedingsofthe2018IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 7132-7141.

    [20]VASWANI A,SHAZEERN,PARMARN, etal. Attention is all you need[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. Long Beach: Curran Associates Inc., 2017: 6000-6010.

    [21]DOSOVITSKIY A, BEYER L, KOLESNIKOV A, et al. An image is worth 16xl6 words: transformers for image recognition at scale[DB/OL]. [2021-06-03]. http://arxiv.org/ abs/2010.11929.

    [22] EVERINGHAM M, VAN GOOL L, WILLIAMS C K I, et al.The Pascal visual object classes (VOC) challenge[J]. International Journal of Computer Vision, 2010,88(2): 303-338.

    [23] EVERINGHAM M, ESLAMI S M A, VAN GOOL L, et al. ThePascal visual object classeschallenge:a retrospective[J]. International Journal of Computer Vision, 2015,111(1): 98-136.

    [24] ZHENG Z H, WANG P,LIU W, et al. Distance-IoU loss: fasterandbetterlearningforbounding box regression[C]//Proceedings of the 34th AAAI Conference onArtificial Intelligence. New York: AAAI, 2020: 12993-13000.

    [25] WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module[C]//Proceedingsof the15th European Conference on Computer Vision. Munich: Springer,2018: 3-19.

    (編輯:董偉)

    猜你喜歡
    主干特征提取卷積
    基于ResNet18改進模型的玉米葉片病害識別
    果園復(fù)雜環(huán)境下的酥梨檢測算法研究
    一種基于點云數(shù)據(jù)的單木幾何參數(shù)提取方法
    ‘明5一5’甜櫻桃在陜西澄城的引種表現(xiàn)及關(guān)鍵栽培技術(shù)
    山西果樹(2025年4期)2025-08-15 00:00:00
    基于時間圖卷積網(wǎng)絡(luò)的交通流時空預(yù)測模型
    基于圖卷積的自適應(yīng)特征融合MRI腦腫瘤分割方法
    基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
    電子制作(2019年15期)2019-08-27 01:12:00
    一種基于LBP 特征提取和稀疏表示的肝病識別算法
    基于MED和循環(huán)域解調(diào)的多故障特征提取
    Walsh變換在滾動軸承早期故障特征提取中的應(yīng)用
    軸承(2010年2期)2010-07-28 02:26:12
    韩国精品一区二区三区| av电影中文网址| 国产精品乱码一区二三区的特点 | 999精品在线视频| 婷婷六月久久综合丁香| 成年人免费黄色播放视频| 国产成人精品无人区| 国产成人av教育| 级片在线观看| 欧美精品亚洲一区二区| 午夜福利一区二区在线看| 性色av乱码一区二区三区2| 美女 人体艺术 gogo| 国产在线精品亚洲第一网站| 亚洲欧美激情在线| a级片在线免费高清观看视频| 男女下面插进去视频免费观看| 精品久久久久久电影网| 国产亚洲精品综合一区在线观看 | 午夜精品久久久久久毛片777| 搡老乐熟女国产| 亚洲av五月六月丁香网| 亚洲欧美日韩另类电影网站| 日本欧美视频一区| 大型av网站在线播放| 国产97色在线日韩免费| 99国产精品一区二区三区| 国产av在哪里看| 美女高潮到喷水免费观看| 国产av又大| av天堂久久9| 久热爱精品视频在线9| 久久狼人影院| 亚洲aⅴ乱码一区二区在线播放 | 久久久久久久午夜电影 | 在线视频色国产色| 满18在线观看网站| 亚洲国产中文字幕在线视频| 一二三四在线观看免费中文在| 精品国产一区二区三区四区第35| 免费搜索国产男女视频| 色尼玛亚洲综合影院| 亚洲午夜精品一区,二区,三区| 国产成人系列免费观看| 天堂中文最新版在线下载| 亚洲成a人片在线一区二区| 国产精品电影一区二区三区| 女人被躁到高潮嗷嗷叫费观| 亚洲精品粉嫩美女一区| 操出白浆在线播放| 国产精品电影一区二区三区| 国产欧美日韩一区二区三区在线| 久久精品人人爽人人爽视色| 免费在线观看亚洲国产| 欧美 亚洲 国产 日韩一| 日本五十路高清| 久久久久久久午夜电影 | 男女午夜视频在线观看| 欧美成人性av电影在线观看| 十分钟在线观看高清视频www| 亚洲国产中文字幕在线视频| 国产黄a三级三级三级人| 丰满的人妻完整版| 欧美老熟妇乱子伦牲交| 国产真人三级小视频在线观看| 欧美黑人精品巨大| 亚洲av美国av| 国产一区二区三区在线臀色熟女 | 国产激情久久老熟女| 级片在线观看| 99国产精品99久久久久| 欧美精品啪啪一区二区三区| 黄网站色视频无遮挡免费观看| 亚洲成人免费电影在线观看| 91九色精品人成在线观看| 国产精品永久免费网站| 制服人妻中文乱码| 午夜91福利影院| 三上悠亚av全集在线观看| 999久久久国产精品视频| 欧美日本亚洲视频在线播放| 午夜福利,免费看| 99在线人妻在线中文字幕| 日本黄色日本黄色录像| 亚洲aⅴ乱码一区二区在线播放 | 正在播放国产对白刺激| 在线观看舔阴道视频| www日本在线高清视频| 亚洲精品一卡2卡三卡4卡5卡| 亚洲欧美激情在线| 亚洲国产精品999在线| 少妇被粗大的猛进出69影院| 天天添夜夜摸| a在线观看视频网站| 日韩有码中文字幕| 成人18禁在线播放| 成人永久免费在线观看视频| 在线观看免费视频网站a站| 久久久久久久久久久久大奶| 亚洲精品久久午夜乱码| 免费看a级黄色片| 精品国产乱码久久久久久男人| 久久久国产成人精品二区 | 桃红色精品国产亚洲av| 真人做人爱边吃奶动态| 日韩成人在线观看一区二区三区| 久久久久国内视频| 精品高清国产在线一区| 国产xxxxx性猛交| 欧美在线一区亚洲| av天堂久久9| 精品一区二区三区视频在线观看免费 | 精品人妻在线不人妻| 亚洲五月天丁香| 天堂影院成人在线观看| 成人国产一区最新在线观看| 亚洲精品中文字幕一二三四区| 日本一区二区免费在线视频| svipshipincom国产片| 琪琪午夜伦伦电影理论片6080| 中文字幕另类日韩欧美亚洲嫩草| 亚洲一卡2卡3卡4卡5卡精品中文| 成年女人毛片免费观看观看9| 日日爽夜夜爽网站| 变态另类成人亚洲欧美熟女 | 99久久久亚洲精品蜜臀av| 一区二区日韩欧美中文字幕| 久久99一区二区三区| 精品日产1卡2卡| 国产熟女xx| 神马国产精品三级电影在线观看 | 久久这里只有精品19| 日韩大尺度精品在线看网址 | 美女国产高潮福利片在线看| 午夜影院日韩av| 人人妻人人爽人人添夜夜欢视频| 免费高清在线观看日韩| 99在线视频只有这里精品首页| 夜夜躁狠狠躁天天躁| 日韩免费高清中文字幕av| 久久香蕉精品热| av中文乱码字幕在线| 在线观看免费视频网站a站| 国产一区二区在线av高清观看| 久久99一区二区三区| 黄色片一级片一级黄色片| 国产高清国产精品国产三级| 女人爽到高潮嗷嗷叫在线视频| 在线观看免费视频日本深夜| 亚洲自拍偷在线| 午夜福利,免费看| 欧美成人性av电影在线观看| 热99re8久久精品国产| 黑人猛操日本美女一级片| av电影中文网址| 国产高清视频在线播放一区| 午夜福利一区二区在线看| 在线观看免费日韩欧美大片| 咕卡用的链子| 日韩欧美一区视频在线观看| 一级作爱视频免费观看| 水蜜桃什么品种好| 男女床上黄色一级片免费看| 少妇的丰满在线观看| 亚洲专区国产一区二区| 国产av精品麻豆| 高清av免费在线| 久久香蕉精品热| 成人免费观看视频高清| 精品欧美一区二区三区在线| 女人被躁到高潮嗷嗷叫费观| 日本免费a在线| 成人18禁在线播放| 婷婷精品国产亚洲av在线| 精品福利永久在线观看| 亚洲精品av麻豆狂野| 在线视频色国产色| 桃红色精品国产亚洲av| 欧美 亚洲 国产 日韩一| 两个人免费观看高清视频| 国产精品 国内视频| 女人被狂操c到高潮| 国产精品1区2区在线观看.| 国产欧美日韩精品亚洲av| 性少妇av在线| 色哟哟哟哟哟哟| 中文字幕人妻丝袜制服| 亚洲精品久久午夜乱码| 日韩精品免费视频一区二区三区| x7x7x7水蜜桃| 亚洲精品在线美女| 在线看a的网站| 精品久久久久久久久久免费视频 | 久久午夜亚洲精品久久| 老熟妇乱子伦视频在线观看| 国产欧美日韩精品亚洲av| 欧美中文日本在线观看视频| 在线国产一区二区在线| 黄网站色视频无遮挡免费观看| 99精品欧美一区二区三区四区| 成人黄色视频免费在线看| 好看av亚洲va欧美ⅴa在| 午夜福利一区二区在线看| 在线观看免费午夜福利视频| 久久久久国产精品人妻aⅴ院| 岛国视频午夜一区免费看| 亚洲免费av在线视频| 在线观看免费视频日本深夜| 久久人妻熟女aⅴ| 9色porny在线观看| 国产不卡一卡二| tocl精华| 婷婷丁香在线五月| 精品高清国产在线一区| 久久精品国产清高在天天线| 性欧美人与动物交配| 国产视频一区二区在线看| 亚洲人成77777在线视频| 黑人猛操日本美女一级片| 欧美+亚洲+日韩+国产| 一个人观看的视频www高清免费观看 | 日本撒尿小便嘘嘘汇集6| 亚洲欧美精品综合一区二区三区| 精品国产乱码久久久久久男人| 久久影院123| 欧美日本亚洲视频在线播放| 久99久视频精品免费| 女性被躁到高潮视频| 99在线人妻在线中文字幕| 成人三级做爰电影| 久久欧美精品欧美久久欧美| 欧美精品一区二区免费开放| 亚洲欧美精品综合一区二区三区| 51午夜福利影视在线观看| 国产精品一区二区免费欧美| 国产不卡一卡二| 18禁黄网站禁片午夜丰满| 一二三四在线观看免费中文在| 午夜福利在线免费观看网站| 久久青草综合色| 精品一品国产午夜福利视频| 女人被狂操c到高潮| 亚洲精品中文字幕在线视频| 一级,二级,三级黄色视频| 一区二区三区国产精品乱码| 99国产精品免费福利视频| 99久久综合精品五月天人人| 99国产极品粉嫩在线观看| 久久精品91无色码中文字幕| 不卡av一区二区三区| 久久久水蜜桃国产精品网| 成人亚洲精品av一区二区 | 在线av久久热| 大型黄色视频在线免费观看| 午夜精品在线福利| 久久香蕉精品热| 51午夜福利影视在线观看| 亚洲精品av麻豆狂野| 日韩欧美一区二区三区在线观看| 久久草成人影院| 一进一出抽搐gif免费好疼 | 日韩精品青青久久久久久| 免费看十八禁软件| 亚洲一区中文字幕在线| 丝袜美腿诱惑在线| 午夜日韩欧美国产| 久久香蕉国产精品| 免费观看精品视频网站| 18禁国产床啪视频网站| 黑人猛操日本美女一级片| 国产野战对白在线观看| 午夜老司机福利片| 一进一出抽搐gif免费好疼 | 色在线成人网| 视频区图区小说| 一区二区三区激情视频| 一级,二级,三级黄色视频| 午夜福利影视在线免费观看| 亚洲狠狠婷婷综合久久图片| 91精品国产国语对白视频| 久久中文看片网| 老司机午夜福利在线观看视频| 国产高清视频在线播放一区| 国产av又大| 九色亚洲精品在线播放| 国产成人精品无人区| 9191精品国产免费久久| 午夜福利免费观看在线| 看片在线看免费视频| 亚洲激情在线av| 精品欧美一区二区三区在线| 精品久久久久久,| 在线观看免费午夜福利视频| 悠悠久久av| 这个男人来自地球电影免费观看| 国产精品一区二区精品视频观看| 高清黄色对白视频在线免费看| 看黄色毛片网站| 十八禁网站免费在线| 多毛熟女@视频| 亚洲欧美日韩无卡精品| 老司机午夜十八禁免费视频| 日本免费一区二区三区高清不卡 | 久久人妻av系列| 久久狼人影院| 色婷婷av一区二区三区视频| 亚洲av成人不卡在线观看播放网| 18禁黄网站禁片午夜丰满| 精品一区二区三区视频在线观看免费 | 中文字幕色久视频| 涩涩av久久男人的天堂| 精品熟女少妇八av免费久了| 999久久久精品免费观看国产| 人成视频在线观看免费观看| a级毛片黄视频| 少妇裸体淫交视频免费看高清 | 欧美激情 高清一区二区三区| 熟女少妇亚洲综合色aaa.| 亚洲成人免费av在线播放| 欧美日韩一级在线毛片| 纯流量卡能插随身wifi吗| 国产精品偷伦视频观看了| 777久久人妻少妇嫩草av网站| 免费女性裸体啪啪无遮挡网站| 美女福利国产在线| 久久久久久大精品| 99久久99久久久精品蜜桃| 欧美激情极品国产一区二区三区| 脱女人内裤的视频| 黄色视频不卡| 一级毛片精品| 国产三级黄色录像| 丁香六月欧美| 长腿黑丝高跟| 久久久久久久久免费视频了| 中文字幕人妻丝袜一区二区| 怎么达到女性高潮| 十八禁网站免费在线| 丰满迷人的少妇在线观看| 亚洲自拍偷在线| 三级毛片av免费| 老熟妇仑乱视频hdxx| 两性夫妻黄色片| 侵犯人妻中文字幕一二三四区| 狠狠狠狠99中文字幕| 亚洲专区字幕在线| 精品免费久久久久久久清纯| 欧美日韩瑟瑟在线播放| 久久99一区二区三区| 日韩国内少妇激情av| 黑丝袜美女国产一区| 国产99久久九九免费精品| 日韩欧美三级三区| 国产成人啪精品午夜网站| 午夜福利欧美成人| 欧美日韩亚洲国产一区二区在线观看| 国产xxxxx性猛交| 少妇的丰满在线观看| 亚洲成人免费av在线播放| e午夜精品久久久久久久| 日韩欧美国产一区二区入口| 极品人妻少妇av视频| 亚洲全国av大片| 精品熟女少妇八av免费久了| 韩国精品一区二区三区| e午夜精品久久久久久久| 日本五十路高清| 美女 人体艺术 gogo| 久久人人97超碰香蕉20202| 一级作爱视频免费观看| 97碰自拍视频| e午夜精品久久久久久久| 亚洲精品在线观看二区| 成人国语在线视频| 日本欧美视频一区| 多毛熟女@视频| 黄色女人牲交| 最近最新中文字幕大全电影3 | 丰满饥渴人妻一区二区三| 超色免费av| 在线观看www视频免费| 午夜亚洲福利在线播放| 老司机深夜福利视频在线观看| 叶爱在线成人免费视频播放| 又黄又粗又硬又大视频| 亚洲aⅴ乱码一区二区在线播放 | 黑丝袜美女国产一区| 人妻丰满熟妇av一区二区三区| 91老司机精品| 变态另类成人亚洲欧美熟女 | 亚洲片人在线观看| 日本撒尿小便嘘嘘汇集6| 女人被躁到高潮嗷嗷叫费观| a在线观看视频网站| 在线十欧美十亚洲十日本专区| 久久香蕉国产精品| 人妻久久中文字幕网| 国产av在哪里看| 成人手机av| 不卡av一区二区三区| 国产一区二区在线av高清观看| 国产单亲对白刺激| 悠悠久久av| 久久天躁狠狠躁夜夜2o2o| 亚洲专区字幕在线| 99在线人妻在线中文字幕| 黑人猛操日本美女一级片| 国产三级在线视频| 国产熟女午夜一区二区三区| 岛国在线观看网站| 久久久水蜜桃国产精品网| 高清av免费在线| 999久久久国产精品视频| www.www免费av| 国产免费男女视频| 久久香蕉国产精品| 久久国产精品人妻蜜桃| 久久国产乱子伦精品免费另类| 亚洲色图 男人天堂 中文字幕| 午夜激情av网站| 成年人免费黄色播放视频| 国产精品秋霞免费鲁丝片| 黄色成人免费大全| 亚洲av电影在线进入| 精品国产国语对白av| 99精国产麻豆久久婷婷| 亚洲午夜精品一区,二区,三区| 亚洲一区二区三区欧美精品| 老汉色∧v一级毛片| 三级毛片av免费| 色在线成人网| svipshipincom国产片| 日韩欧美一区二区三区在线观看| 看免费av毛片| 国产一区二区三区在线臀色熟女 | 亚洲一区二区三区欧美精品| 悠悠久久av| x7x7x7水蜜桃| 男女下面进入的视频免费午夜 | av超薄肉色丝袜交足视频| 国产亚洲av高清不卡| 制服诱惑二区| 日韩精品青青久久久久久| 久久久国产成人精品二区 | 亚洲色图综合在线观看| 叶爱在线成人免费视频播放| 777久久人妻少妇嫩草av网站| 超色免费av| 国产欧美日韩一区二区三区在线| 国产单亲对白刺激| 91麻豆精品激情在线观看国产 | 亚洲狠狠婷婷综合久久图片| 99国产精品一区二区三区| 在线看a的网站| 一边摸一边抽搐一进一出视频| 午夜福利在线观看吧| 热re99久久精品国产66热6| 波多野结衣一区麻豆| 国产精品影院久久| av网站在线播放免费| 久久天堂一区二区三区四区| 人人妻人人添人人爽欧美一区卜| 亚洲av电影在线进入| 亚洲国产精品合色在线| 青草久久国产| 韩国精品一区二区三区| 美女扒开内裤让男人捅视频| 深夜精品福利| 女人爽到高潮嗷嗷叫在线视频| 亚洲欧美一区二区三区黑人| 黑人巨大精品欧美一区二区mp4| 成人黄色视频免费在线看| av中文乱码字幕在线| 成熟少妇高潮喷水视频| 天堂动漫精品| 一本大道久久a久久精品| 母亲3免费完整高清在线观看| 国产一区二区三区视频了| 久久这里只有精品19| 亚洲国产看品久久| 国产在线精品亚洲第一网站| 一个人免费在线观看的高清视频| 成年版毛片免费区| 久久午夜亚洲精品久久| 亚洲美女黄片视频| 国产aⅴ精品一区二区三区波| 国产黄a三级三级三级人| 日韩免费高清中文字幕av| 久久久久久久久久久久大奶| 麻豆久久精品国产亚洲av | 免费av毛片视频| 日日摸夜夜添夜夜添小说| 天堂中文最新版在线下载| 国产亚洲精品久久久久久毛片| 国产国语露脸激情在线看| 日韩 欧美 亚洲 中文字幕| 婷婷丁香在线五月| 在线观看一区二区三区| 午夜久久久在线观看| 国产高清激情床上av| 免费久久久久久久精品成人欧美视频| 午夜a级毛片| 欧美另类亚洲清纯唯美| 一a级毛片在线观看| 一二三四在线观看免费中文在| 亚洲黑人精品在线| 国产精品99久久99久久久不卡| 免费搜索国产男女视频| 色老头精品视频在线观看| 大型av网站在线播放| 欧美激情久久久久久爽电影 | 国产黄色免费在线视频| 亚洲欧美激情在线| 中文欧美无线码| 欧美成人午夜精品| 欧美乱妇无乱码| 999精品在线视频| 欧美色视频一区免费| 丝袜在线中文字幕| 日韩有码中文字幕| 亚洲伊人色综图| 99热国产这里只有精品6| 大型黄色视频在线免费观看| 很黄的视频免费| 乱人伦中国视频| 亚洲欧美激情综合另类| 亚洲美女黄片视频| 性欧美人与动物交配| 波多野结衣高清无吗| 国产精品秋霞免费鲁丝片| 人人妻,人人澡人人爽秒播| 免费不卡黄色视频| 国产成人系列免费观看| 校园春色视频在线观看| 国产免费av片在线观看野外av| 在线播放国产精品三级| 欧美黄色片欧美黄色片| 国产成人av激情在线播放| 国产一区二区三区综合在线观看| 中文字幕av电影在线播放| 成人亚洲精品一区在线观看| 香蕉久久夜色| 午夜福利在线观看吧| 久久久久亚洲av毛片大全| 国产av一区在线观看免费| 国产成人精品在线电影| 国产精品免费视频内射| 极品人妻少妇av视频| 国产欧美日韩一区二区三| 黑人操中国人逼视频| 18禁裸乳无遮挡免费网站照片 | 香蕉久久夜色| 久久性视频一级片| 在线观看一区二区三区激情| 我的亚洲天堂| 狠狠狠狠99中文字幕| 99久久久亚洲精品蜜臀av| 精品日产1卡2卡| 亚洲精品粉嫩美女一区| 97人妻天天添夜夜摸| 美女 人体艺术 gogo| 他把我摸到了高潮在线观看| 在线观看舔阴道视频| 国产精华一区二区三区| 国产精品久久久av美女十八| 精品国产乱子伦一区二区三区| 最近最新中文字幕大全免费视频| 国产高清视频在线播放一区| 夫妻午夜视频| 久久久精品欧美日韩精品| 女同久久另类99精品国产91| 久久久久久亚洲精品国产蜜桃av| 亚洲男人天堂网一区| 欧美国产精品va在线观看不卡| 亚洲色图 男人天堂 中文字幕| 国产不卡一卡二| 一区二区三区国产精品乱码| www.www免费av| 波多野结衣av一区二区av| 亚洲欧美日韩高清在线视频| 高清黄色对白视频在线免费看| 日本免费一区二区三区高清不卡 | 欧美成人午夜精品| 性欧美人与动物交配| 亚洲精品美女久久av网站| 国产乱人伦免费视频| aaaaa片日本免费| 深夜精品福利| 手机成人av网站| 美女 人体艺术 gogo| 欧美激情 高清一区二区三区| 欧美性长视频在线观看| 精品熟女少妇八av免费久了| 另类亚洲欧美激情| 亚洲自偷自拍图片 自拍| 精品熟女少妇八av免费久了| 国产欧美日韩一区二区三| 中文字幕精品免费在线观看视频| 99香蕉大伊视频| 国产精品国产av在线观看| 好看av亚洲va欧美ⅴa在| 91国产中文字幕| 国产又色又爽无遮挡免费看| 色综合婷婷激情| 大香蕉久久成人网| 日韩 欧美 亚洲 中文字幕| 丝袜美足系列| 大香蕉久久成人网| 国产不卡一卡二| 久久精品国产综合久久久| 真人一进一出gif抽搐免费| 亚洲精品久久成人aⅴ小说| 搡老熟女国产l中国老女人| 一区二区三区精品91| 欧美在线黄色|