• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      融合瓶頸注意力模塊的改進(jìn)YOLOv7 織物疵點(diǎn)檢測算法

      2024-03-16 02:42:38孫麗麗孟洪兵楊安迪孫文彬
      棉紡織技術(shù) 2024年3期
      關(guān)鍵詞:疵點(diǎn)注意力卷積

      陳 軍 孫麗麗 孟洪兵 楊安迪 孫文彬

      [1.塔里木大學(xué),新疆阿拉爾,843300;2.塔里木綠洲農(nóng)業(yè)教育部重點(diǎn)實(shí)驗(yàn)室(塔里木大學(xué)),新疆阿拉爾,843300]

      當(dāng)前,人工視覺檢測仍是主要的織物質(zhì)量檢驗(yàn)方式,但人工檢測容易產(chǎn)生主觀誤判和漏檢,影響生產(chǎn)效率和產(chǎn)品質(zhì)量[1-3]。隨著深度學(xué)習(xí)在圖像特征提取和目標(biāo)定位上取得優(yōu)異效果,深度學(xué)習(xí)算法逐步應(yīng)用于織物疵點(diǎn)檢測領(lǐng)域中。

      基于深度學(xué)習(xí)的檢測算法,以基于單階段檢測算法(One-stage)和基于兩階段檢測算法(Twostage)為代表。后者首先生成目標(biāo)候選框,然后再對候選框進(jìn)行分類和位置回歸,以Faster RCNN 系列和Mask RCNN 系列算法為代表[4-5],對目標(biāo)的檢測精度高,但檢測速度較慢,計(jì)算量和時(shí)間復(fù)雜度高,難以適應(yīng)工業(yè)檢測實(shí)時(shí)性要求。前者直接使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)預(yù)測目標(biāo)的類別和位置,不需要生成候選區(qū)域,以SSD、YOLO 系列等算法為代表[6-7],計(jì)算速度快,實(shí)時(shí)性好,因此易滿足工業(yè)實(shí)時(shí)檢測的需求。如蔡兆信等提出改進(jìn)Faster RCNN 網(wǎng)絡(luò)的RPN 結(jié)構(gòu)來融合多層不同尺度特征圖,增加圖像細(xì)節(jié)提取的能力[8];陳夢琦等將注意力機(jī)制與Faster RCNN 模型相結(jié)合,優(yōu)化網(wǎng)絡(luò)模型,提高網(wǎng)絡(luò)對疵點(diǎn)圖像的檢測精度和速度[9];黃漢林等利用MobileNet 的深度可分離卷積取代SSD 主干網(wǎng)絡(luò)中的普通卷積,加快網(wǎng)絡(luò)的檢測速度,提高檢測準(zhǔn)確率[10];石玉文等改進(jìn)YOLOv5-Eff,將EfficientNet-B1 網(wǎng)絡(luò)作為主干特征提取網(wǎng)絡(luò),引入ACmix 注意力模塊提高網(wǎng)絡(luò)對小尺度目標(biāo)的敏感度,將SiLU 與Swish 激活函數(shù)結(jié)合,根據(jù)目標(biāo)數(shù)量和密度動態(tài)調(diào)整閾值,提高算法靈活性[11]。

      基于上述算法,疵點(diǎn)檢測取得較好成果,但在實(shí)際應(yīng)用中,針對多尺度、微小目標(biāo)的疵點(diǎn)檢測精度和速度依然是行業(yè)應(yīng)用的瓶頸問題,但隨著YOLOv7 提出高效長程注意力網(wǎng)絡(luò)架構(gòu),目標(biāo)檢測算法的精度和速度有了進(jìn)一步提升,YOLOv7相同體量下比YOLOv5 精度更高,速度快120%。為了提升疵點(diǎn)檢測精度和速度,本研究針對疵點(diǎn)尺度不一、目標(biāo)微小、形狀多變的特點(diǎn),提出了一種改進(jìn)YOLOv7 模型的織物疵點(diǎn)檢測算法,以期提升檢測精度和速度。本研究首先采用可形變卷積(DConv)[12]替換YOLOv7 網(wǎng)絡(luò)中的標(biāo)準(zhǔn)卷積模塊,融合更多感受野,在采樣時(shí)更貼近疵點(diǎn)的形狀和尺寸特征,更具有魯棒性;其次,在網(wǎng)絡(luò)中嵌入頸部注意力模塊(Bottleneck Attention Module,BAM)[13],捕獲更多疵點(diǎn)的特征信息,強(qiáng)化對微小疵點(diǎn)目標(biāo)的敏感度;最后,構(gòu)建包含扎洞、擦洞、織稀、吊經(jīng)、跳花、污漬6 種疵點(diǎn)類型的織物疵點(diǎn)數(shù)據(jù)集,通過對樣本集進(jìn)行預(yù)處理送入模型訓(xùn)練,在織物疵點(diǎn)數(shù)據(jù)集進(jìn)行消融和對比試驗(yàn),驗(yàn)證本研究改進(jìn)算法對織物疵點(diǎn)檢測的有效性和魯棒性。

      1 YOLOv7 網(wǎng)絡(luò)結(jié)構(gòu)

      YOLOv7 是目前YOLO 系列最為先進(jìn)的檢測算法之一,提出了高效聚合網(wǎng)絡(luò)(ELAN)、重參數(shù)化卷積、輔助頭檢測、模型縮放、動態(tài)標(biāo)簽分配等策略。YOLOv7 首先對輸入的圖片調(diào)整大小后再將其輸入到特征提取網(wǎng)絡(luò)(Backbone)中進(jìn)行特征提取,然后送入檢測頭(Head)進(jìn)行特征融合網(wǎng)絡(luò)處理,經(jīng)過RepConv 結(jié)構(gòu)輸出預(yù)測結(jié)果。YOLOv7 網(wǎng)絡(luò)結(jié)構(gòu)圖如圖1 所示。

      圖1 YOLOv7 網(wǎng)絡(luò)結(jié)構(gòu)圖

      YOLOv7 網(wǎng)絡(luò)模型的Backbone 部分主要由標(biāo)準(zhǔn)卷積、ELAN 模塊、MP 模塊構(gòu)成50 層網(wǎng)絡(luò)。其中ELAN 模塊的高效網(wǎng)絡(luò)結(jié)構(gòu)可以控制最短和最長的梯度路徑,學(xué)習(xí)到更多的特征,它的優(yōu)勢是保持特征大小不變,僅在最后一個(gè)CBS 輸出為需要的通道數(shù);MP 模塊中兩個(gè)分支完成空間降采樣后進(jìn)行合并,得到通道數(shù)相等但空間分辨率縮小2 倍的特征圖,重復(fù)堆疊ELAN 模塊和MP模塊即可輸出包含主要信息的3 個(gè)特征層,再利用特征金字塔(Feature Pyramid Networks,F(xiàn)PN)[14]對3 個(gè)特征層進(jìn)行特征再提取獲得3 個(gè)加強(qiáng)特征層,采用FPN+PAN(PANet)結(jié)構(gòu),對特征進(jìn)行上、下采樣實(shí)現(xiàn)特征融合;SPPCSPC 模塊經(jīng)過并行多次的MaxPool 操作,避免圖像失真、訓(xùn)練梯度消失等問題。

      2 改進(jìn)的YOLOv7 疵點(diǎn)檢測算法

      YOLOv7 中有限的感受野設(shè)計(jì)對圖像中的微小目標(biāo)檢測能力有限,缺乏特征重用限制了其捕捉物體之間空間關(guān)系的能力。因此針對疵點(diǎn)檢測中尺度不一、目標(biāo)微小、形狀多變的特點(diǎn),本研究從替換標(biāo)準(zhǔn)卷積塊和嵌入瓶頸注意力模塊改進(jìn)YOLOv7,優(yōu)化疵點(diǎn)檢測算法。

      2.1 采用可變形卷積提取特征信息

      標(biāo)準(zhǔn)卷積進(jìn)行卷積操作時(shí),將卷積核權(quán)重與輸入特征圖對應(yīng)位置元素相乘并求和得到輸出特征圖元素,滑動窗口計(jì)算輸出特征圖,對形狀規(guī)則的物體效果較好,但疵點(diǎn)形狀、大小不規(guī)則時(shí),模型適應(yīng)性差,泛化能力弱,因此采用可變形卷積實(shí)現(xiàn)自動調(diào)整尺度或者感受野??勺冃尉矸e[15]是在標(biāo)準(zhǔn)卷積操作中采樣位置增加了一個(gè)調(diào)整卷積核的偏移量(offset),使得卷積核的形態(tài)更貼近特征物,集中于目標(biāo)區(qū)域??勺冃尉矸e示意圖如圖2所示。

      圖2 可變形卷積示意圖

      可變形卷積對應(yīng)的卷積采樣區(qū)域?yàn)檎叫尉矸e核表示的點(diǎn)向各方向偏移的點(diǎn),因此采用可變形卷積在采樣時(shí)可以更貼近疵點(diǎn)的形狀和尺寸,感受野更大。

      2.2 嵌入瓶頸注意力模塊

      注意力機(jī)制主要通過嵌入額外網(wǎng)絡(luò)結(jié)構(gòu)加強(qiáng)學(xué)習(xí)輸入數(shù)據(jù)對輸出數(shù)據(jù)貢獻(xiàn),過濾掉與目標(biāo)相比不太關(guān)注的背景信息,著重于感興趣的目標(biāo)信息。在疵點(diǎn)檢測中,本研究建立疵點(diǎn)特征提取工程融合注意力機(jī)制,讓模型有效且精準(zhǔn)地提取特征,讓下游任務(wù)更聚焦與任務(wù)關(guān)系更密切的信號。常用的注意力模塊是卷積塊注意力模塊(Convolutional Block Attention Module,CBAM),融合了通道注意力和空間注意力機(jī)制,通過最大池化和平均池化增加通道注意力的語義豐富性,提升了圖片的全局信息關(guān)注,但在注意力加權(quán)計(jì)算時(shí)沒有殘差結(jié)構(gòu),計(jì)算量稍大,同時(shí)通過標(biāo)準(zhǔn)卷積操作提取特征,對微小目標(biāo)的關(guān)注不夠。因此本研究提出采用頸部注意力模塊(Bottleneck Attention Module,BAM),BAM 是融合通道和空間注意力的混合注意力機(jī)制,網(wǎng)絡(luò)結(jié)構(gòu)如圖3 所示,上面分支為通道注意力機(jī)制,先經(jīng)過全局平均池化層,減少參數(shù)量,增強(qiáng)模型的準(zhǔn)確性和穩(wěn)定性,抑制網(wǎng)絡(luò)中的過擬合,然后是兩層全連接層,最后是批量標(biāo)準(zhǔn)化模塊BN 層進(jìn)行歸一化,無激活函數(shù);下面分支為空間注意力,先將特征層通過1×1 的卷積將輸入通道數(shù)量壓縮,再經(jīng)過兩個(gè)3×3的膨脹卷積做特征融合,加強(qiáng)模型對圖像每個(gè)像素與周圍關(guān)系的理解,通道數(shù)不變,最后通過一個(gè)1×1 的卷積將通道數(shù)變成1。將通道注意力機(jī)制與空間注意力機(jī)制生成的特征圖MC(F)、MS(F)融合成和輸入特征尺寸大小相同的特征圖,再與原始輸入圖做跳層連接后輸出尺寸大小不變的特征圖。

      圖3 BAM 網(wǎng)絡(luò)結(jié)構(gòu)

      由于BAM 模塊中參考了ResNet 網(wǎng)絡(luò)中的殘差結(jié)構(gòu),采用BN 層,因此訓(xùn)練效率更高,同時(shí)使用了膨脹卷積,對目標(biāo)細(xì)節(jié)建模效果更好。利用梯度加權(quán)類激活映射(Gradient-weighted Class Activation Mapping,Grad-CAM)[16]對BAM 注意力機(jī)制效果進(jìn)行可視化,如圖4 所示。

      圖4 BAM 注意力機(jī)制效果圖

      可以發(fā)現(xiàn),引入BAM 后,特征覆蓋到了待識別物體的更多部位,這表明BAM 注意力機(jī)制讓網(wǎng)絡(luò)學(xué)會了關(guān)注重點(diǎn)信息,可以提高目標(biāo)檢測和物體分類的精度。

      2.3 改進(jìn)后的YOLOv7 模型

      改進(jìn)后的YOLOv7 模型網(wǎng)絡(luò)結(jié)構(gòu)如圖5 所示,在特征提取網(wǎng)絡(luò)中采用可形變卷積替換標(biāo)準(zhǔn)卷積模塊,融合更多感受野,在采樣時(shí)更貼近疵點(diǎn)的形狀和尺寸特征;在特征網(wǎng)絡(luò)3 個(gè)特征輸出層前嵌入頸部注意力模塊,捕獲更多疵點(diǎn)的特征信息以提高對微小疵點(diǎn)目標(biāo)的敏感度,具體改進(jìn)點(diǎn)如圖5 中紅色標(biāo)記塊。

      圖5 改進(jìn)后的YOLOv7 模型網(wǎng)絡(luò)結(jié)構(gòu)

      3 試驗(yàn)結(jié)果與分析

      3.1 數(shù)據(jù)集

      本研究使用的織物疵點(diǎn)數(shù)據(jù)集是來自于江蘇陽光集團(tuán)公開的織物圖像數(shù)據(jù)集[17]和阿克蘇紡織工業(yè)園區(qū)3 家紡織科技公司真實(shí)生產(chǎn)場景下采集的織物數(shù)據(jù)。經(jīng)過篩選可用于模型訓(xùn)練的數(shù)據(jù)包含扎洞、擦洞、織稀、吊經(jīng)、跳花、污漬6 種疵點(diǎn)類型,樣本數(shù)量分別為1 260 張、480 張、510 張、532張、335 張、1 421 張,共計(jì)4 538 張,圖6 為不同類型的疵點(diǎn)圖像示例。此外,沒有包含任何疵點(diǎn)的正常圖像作為背景類,樣本數(shù)量為4 000 張。樣本集原始圖像分辨率為2 560 pixel×1 920 pixel,圖像特征細(xì)節(jié)清晰,數(shù)據(jù)標(biāo)注前全部經(jīng)過經(jīng)驗(yàn)豐富的驗(yàn)布工人確認(rèn)疵點(diǎn)類型。

      圖6 不同類型的疵點(diǎn)圖像

      3.2 數(shù)據(jù)預(yù)處理

      原始數(shù)據(jù)集中圖像存在3 個(gè)問題:一是樣本類別不均衡,如正常樣本與跳花樣本比例超過12∶1,扎洞與跳花樣本比例超過3∶1;二是疵點(diǎn)區(qū)域占比很小,疵點(diǎn)占比不到1%的樣本超過82%;三是疵點(diǎn)尺度變化大,疵點(diǎn)尺寸長度小到100 pixel、大到2 500 pixel。數(shù)據(jù)樣本的問題會導(dǎo)致模型訓(xùn)練過擬合、精度差、泛化能力弱,除此之外,原始圖像分辨率較大,YOLOv7 采用640 pixel×640 pixel 大小輸入,直接調(diào)整會犧牲微小疵點(diǎn)目標(biāo)的圖像細(xì)節(jié)特征,降低圖像所帶的信息量,所以需要對訓(xùn)練數(shù)據(jù)進(jìn)行預(yù)處理。針對上述問題,本研究首先以滑動窗口為640 pixel×640 pixel 大小,滑動步長為320 pixel 進(jìn)行移動裁剪,將每張?jiān)紙D像切割成48 張圖像細(xì)節(jié)不變的小尺寸圖像,原尺寸圖像則直接縮小為640 pixel×640 pixel 大小,達(dá)到增加帶疵點(diǎn)圖像的樣本和增加小尺度疵點(diǎn)樣本數(shù)量的目的;然后再針對處理后疵點(diǎn)圖像進(jìn)行數(shù)據(jù)增強(qiáng),從現(xiàn)有的疵點(diǎn)樣本中利用多種能夠生成可信圖像的隨機(jī)變換來增加樣本以提升模型泛化能力,本研究中所有數(shù)據(jù)增強(qiáng)使用Mosaic、Mixup、cutout、HSV、隨機(jī)抖動和幾何變換等方法[18-20]。最終,模型訓(xùn)練樣本集經(jīng)過篩選最終選擇無疵點(diǎn)圖像4 000 張和扎洞2 680 張、擦洞1 980 張、織稀2 126 張、吊經(jīng)2 230 張、跳花1 870張、污漬2 960 張,共計(jì)17 846 張作為訓(xùn)練樣本。

      3.3 試驗(yàn)環(huán)境

      本試驗(yàn)運(yùn)行環(huán)境基于64 位Win10 操作系統(tǒng),CPU 為Intel(R) Core(TM) i9-12900K,GPU 為NVIDIA GeForce RTX 3080 Ti 12 G,GPU 加速為CUDA11.0,編譯語言Python3.10.9,深度學(xué)習(xí)框架為PyTorch2.0.1,數(shù)據(jù)集按8∶1∶1 的比例劃分為訓(xùn)練集、驗(yàn)證集和測試集。模型訓(xùn)練前設(shè)置訓(xùn)練參數(shù):選用官方提供的YOLOv7. pt 預(yù)訓(xùn)練權(quán)重進(jìn)行,輸入圖像尺寸為640 pixel×640 pixel,標(biāo)簽格式為YOLO 格式,Batchsize 大小為8,以最大限度地提高GPU 設(shè)備的內(nèi)存使用率,優(yōu)化器為Adam 優(yōu)化器并設(shè)置初始學(xué)習(xí)率為0.01,迭代次數(shù)Epoch 為200。

      3.4 評價(jià)指標(biāo)

      為了評價(jià)模型對疵點(diǎn)識別檢測結(jié)果的優(yōu)劣,評價(jià)標(biāo)準(zhǔn)選用精確率(Precision,P)、召回率(Recall,R)、平均精度(Average Precision,AP)、平均精度均值(Mean Average Precision,mAP)與檢測速度(Frames Per Second,F(xiàn)PS)[21],計(jì)算公式如式(1)~式(5)所示。

      式中:TP為正確識別的數(shù)目,即樣本預(yù)測標(biāo)簽為正且實(shí)際的標(biāo)簽也為正;FP為錯(cuò)誤識別的數(shù)目,即樣本預(yù)測標(biāo)簽為正但實(shí)際的標(biāo)簽為負(fù);FN為未檢測到的正確目標(biāo)的數(shù)目,即樣本預(yù)測標(biāo)簽為負(fù)而實(shí)際標(biāo)簽為正;AP是以召回率R為橫坐標(biāo),精確率P為縱坐標(biāo)繪制P-R曲線,曲線與坐標(biāo)軸圍成的面積,P-R曲線可以直觀地顯示出樣本的精確率和召回率在總體數(shù)據(jù)上的關(guān)系,衡量模型對某類疵點(diǎn)識別的效果;mAP為各類平均精度;FPS即每秒內(nèi)檢測圖片數(shù)量,采用“幀/s”表示,其數(shù)值越大,表明模型的檢測速度越快,檢測速度是實(shí)現(xiàn)實(shí)時(shí)檢測的基礎(chǔ);n為模型處理圖片張數(shù);T為所消耗時(shí)間。

      3.5 消融試驗(yàn)

      為驗(yàn)證本研究提出的YOLOv7 改進(jìn)算法有效性,在數(shù)據(jù)集上進(jìn)行了8 組消融試驗(yàn),結(jié)果如表1 所示。mAP@0.5 為所有類別的識別平均準(zhǔn)確率均值(IoU閾值為0.5),均在輸入圖像大小為640 pixel×640 pixel 時(shí)計(jì)算得出。

      表1 消融試驗(yàn)

      從表1 可以看出,試驗(yàn)1 僅采用YOLOv7 模型,其檢測精確率為92.1%,檢測速度為53.1 幀/s。試驗(yàn)2 對數(shù)據(jù)樣本進(jìn)行預(yù)處理后,檢測精確率提高1.3 個(gè)百分點(diǎn),說明預(yù)處理對提升模型檢測精度具有積極作用,有效提升了疵點(diǎn)圖像特征信息量;檢測速度降低了0.2 幀/s,模型整體性能有所提升。試驗(yàn)3 只優(yōu)化了特征提取網(wǎng)絡(luò),將標(biāo)準(zhǔn)卷積塊替換為可形變卷積,檢測精確率提升了2.6 個(gè)百分點(diǎn),說明可形變卷積擴(kuò)大感受野,對疵點(diǎn)的特征信息學(xué)習(xí)效果更好,但同時(shí)檢測速度下降了3.7 幀/s,因?yàn)樵谔卣魈崛【W(wǎng)絡(luò)中增加了偏移量的計(jì)算;試驗(yàn)4 在特征網(wǎng)絡(luò)3 個(gè)特征輸出層前嵌入了BAM 注意力機(jī)制,檢測精確率提升了3.6個(gè)百分點(diǎn),效果明顯,說明注意力機(jī)制使得模型對疵點(diǎn)關(guān)注更高,降低了背景信息的干擾,更好地進(jìn)行特征信息提?。辉囼?yàn)5 加入數(shù)據(jù)預(yù)處理和可形變卷積,使得檢測精確率提升了3.7 個(gè)百分點(diǎn),說明優(yōu)化組合效果優(yōu)于單一處理優(yōu)化的效果;試驗(yàn)6 加入可形變卷積和BAM 注意力機(jī)制,檢測精確率提升了4.2 個(gè)百分點(diǎn),說明可形變卷積+BAM的組合效果優(yōu)于數(shù)據(jù)預(yù)處理+可形變卷積;試驗(yàn)7 加入數(shù)據(jù)預(yù)處理和BAM 注意力機(jī)制,檢測精確率提升了3.9 個(gè)百分點(diǎn),說明數(shù)據(jù)預(yù)處理+BAM組合效果優(yōu)于數(shù)據(jù)預(yù)處理+可形變卷積組合,但效果不如可形變卷積+BAM 的組合;試驗(yàn)8 是融合本研究提出的優(yōu)化方式,檢測精度提升了5.2個(gè)百分點(diǎn),mAP@0.5 增加了14.3 個(gè)百分點(diǎn),提升效果最優(yōu),但同時(shí)檢測速度降低了8.6 幀/s,因?yàn)樵诰W(wǎng)絡(luò)中參數(shù)量提升帶來了計(jì)算量的增加。由消融試驗(yàn)可得,模型加入BAM 作用最有效其次是加入可形變卷積,兩者組合處理優(yōu)于單一處理,三者組合優(yōu)于兩者組合,數(shù)據(jù)預(yù)處理、DConv、BAM對疵點(diǎn)識別的性能整體提升具有積極作用。本研究改進(jìn)算法檢測結(jié)果如圖7 所示。

      圖7 本研究提出的改進(jìn)YOLOv7 模型檢測效果圖

      3.6 注意力機(jī)制對比試驗(yàn)

      為了進(jìn)一步驗(yàn)證本研究BAM 注意力機(jī)制針對疵點(diǎn)微小目標(biāo)的有效性,在本研究改進(jìn)的YOLOv7 特征提取網(wǎng)絡(luò)的同樣位置分別嵌入scSE、CBAM、SCNet 和BAM 共4 種注意力機(jī)制做對比試驗(yàn),然后在相同的配置下使用同一測試集進(jìn)行網(wǎng)絡(luò)性能測試,結(jié)果如表2 所示??梢钥闯?,在網(wǎng)絡(luò)中分別嵌入4 種注意力機(jī)制,都能實(shí)現(xiàn)對模型檢測性能的提升,其中BAM 注意力機(jī)制對網(wǎng)絡(luò)性能的提升較大,原因在于scSE 只是增強(qiáng)有意義的特征,抑制無用特征,沒有重點(diǎn)采樣微小目標(biāo),CBAM 和SCNet 擴(kuò)大了空間位置的感受野,提升了全局注意力,但對微小目標(biāo)的關(guān)注不夠,通過對比試驗(yàn)證明了BAM 注意力機(jī)制對微小目標(biāo)檢測的先進(jìn)性。

      表2 不同注意力機(jī)制對比試驗(yàn)

      3.7 主流算法對比試驗(yàn)

      為驗(yàn)證本研究提出方法的有效性與先進(jìn)性,將近年來基于機(jī)器視覺的目標(biāo)檢測主流算法[22]與本研究方法在同一試驗(yàn)環(huán)境下進(jìn)行性能對比,結(jié)果如表3 所示。

      表3 主流算法性能對比

      由表3 可知,本研究改進(jìn)的YOLOv7 疵點(diǎn)檢測算法在保持較快檢測速度的同時(shí)對疵點(diǎn)目標(biāo)的檢測效果更好。通過試驗(yàn)發(fā)現(xiàn),兩階段目標(biāo)檢測算法對目標(biāo)檢測定位更準(zhǔn)確,可以檢測多尺度的物體,但檢測速度慢,需要更強(qiáng)的算力。YOLO系列和SDD 同為單階段目標(biāo)檢測算法,最明顯的優(yōu)勢是快速和高效,易于訓(xùn)練,適用于實(shí)時(shí)疵點(diǎn)目標(biāo)檢測,缺點(diǎn)是對微小目標(biāo)檢測能力不足,容易出現(xiàn)漏檢情況。YOLOv7 相比于其他算法在檢測速度和精度之間達(dá)到了良好的平衡,同時(shí)通過改進(jìn)的YOLOv7 不僅提高了網(wǎng)絡(luò)的mAP,而且彌補(bǔ)了原始模型在微小疵點(diǎn)目標(biāo)檢測方面的不足,提升了全局信息獲取能力和強(qiáng)化了對微小目標(biāo)的敏感度,使得模型適應(yīng)能力更好,魯棒性更強(qiáng)。

      4 結(jié)語

      在疵點(diǎn)圖像檢測識別中,因疵點(diǎn)目標(biāo)尺度不一、微小目標(biāo)特征難以捕獲,檢測效率低、容易漏檢等問題,本研究基于YOLOv7 算法提出改進(jìn)特征提取網(wǎng)絡(luò)中的卷積塊以擴(kuò)展感受野,豐富提取的特征信息和嵌入頸部注意力機(jī)制強(qiáng)化對微小目標(biāo)的敏感度,同時(shí)對數(shù)據(jù)集進(jìn)行預(yù)處理,擴(kuò)充有效數(shù)據(jù)集以提升模型性能,提高泛化能力。相比于原始YOLOv7 算法,本研究改進(jìn)的YOLOv7 算法的檢測精確率提升了5.2 個(gè)百分點(diǎn),mAP@0.5 提高了14.3 個(gè)百分點(diǎn)。通過消融試驗(yàn)證明了本研究改進(jìn)方法的有效性,同時(shí)與Faster RCNN、YOLO 系列等模型檢測對比,采用精確率、召回率、mAP@0.5 值、FPS值進(jìn)行定量分析,結(jié)果顯示改進(jìn)的YOLOv7 在檢測精度和速度方面具有較好的性能,基本滿足織物疵點(diǎn)檢測需求。但由于疵點(diǎn)種類繁多,疵點(diǎn)樣本收集受限,在今后的工作中需要進(jìn)一步加強(qiáng)織物疵點(diǎn)圖像種類和數(shù)量的擴(kuò)充,嘗試更多性能提升方法,以提高疵點(diǎn)檢測模型的檢測精度和速度。

      猜你喜歡
      疵點(diǎn)注意力卷積
      讓注意力“飛”回來
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      噴絲板疵點(diǎn)檢測系統(tǒng)設(shè)計(jì)
      基于FPGA的圖像疵點(diǎn)處理設(shè)計(jì)與實(shí)現(xiàn)
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      家蠶品種單粒繭絲疵點(diǎn)差異及遺傳性研究初報(bào)
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
      傳媒評論(2017年3期)2017-06-13 09:18:10
      A Beautiful Way Of Looking At Things
      一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
      荔浦县| 台中县| 弥渡县| 白城市| 保康县| 郁南县| 千阳县| 锡林浩特市| 且末县| 长武县| 普安县| 房产| 沭阳县| 高陵县| 类乌齐县| 凤冈县| 名山县| 西丰县| 鹰潭市| 昌都县| 台北市| 镇康县| 镇宁| 唐海县| 五华县| 盘锦市| 麟游县| 佛山市| 上虞市| 锦州市| 青海省| 平顶山市| 阿拉善盟| 建宁县| 曲沃县| 长葛市| 新龙县| 昌黎县| 临汾市| 青岛市| 凤庆县|