• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于改進(jìn)YOLO v5的輕量化蘋果檢測方法

      2024-12-31 00:00:00溫彬彬張華孟祥龍
      江蘇農(nóng)業(yè)科學(xué) 2024年12期
      關(guān)鍵詞:目標(biāo)檢測

      摘要:為了實(shí)現(xiàn)蘋果采摘過程中準(zhǔn)確快速的識別,本研究提出一種融合FasterNet模型的YOLO v5改進(jìn)蘋果檢測算法。首先在基準(zhǔn)圖像特征提取模塊中使用FasterNet架構(gòu)替代YOLO v5模型中的卷積塊和CSPLayer,降低算法復(fù)雜度并增強(qiáng)小目標(biāo)的特征提取能力;然后提出了利用ECIoU損失函數(shù)來預(yù)測目標(biāo)位置偏差,通過增加邊框角點(diǎn)損失來描述預(yù)測框與真實(shí)目標(biāo)框之間的位置偏差信息,進(jìn)一步提高了蘋果檢測的準(zhǔn)確性,解決了YOLO v5算法對有遮擋的密集目標(biāo)檢測效果不佳的問題;最后在檢測后處理階段提出ECIoU-NMS方法以優(yōu)化重疊目標(biāo)框的選擇。在通用數(shù)據(jù)集MS COCO和自建數(shù)據(jù)集上對本研究所提方法與YOLO v5算法進(jìn)行了對比試驗(yàn)。本研究所提算法模型參數(shù)量下降了12%,計(jì)算量下降了25%,幀率提升了23%。在通用數(shù)據(jù)集MS COCO上mAP0.5和mAP0.5 ∶0.95指標(biāo)分別提升了2.9、1.9百分點(diǎn),在自建蘋果數(shù)據(jù)集上mAP0.5和mAP0.5 ∶0.95指標(biāo)分別提升了2.5、1.9百分點(diǎn)。本研究方法性能優(yōu)于YOLO v5,且模型的輕量化使其更容易在蘋果采摘機(jī)器人上部署。

      關(guān)鍵詞:目標(biāo)檢測;YOLO v5;FasterNet網(wǎng)絡(luò);邊框角點(diǎn);ECIoU

      中圖分類號:TP391.41 文獻(xiàn)標(biāo)志碼:A

      文章編號:1002-1302(2024)12-0217-07

      隨著科技的發(fā)展,蘋果種植、采摘技術(shù)正朝著機(jī)械化、智能化方向發(fā)展,其中蘋果檢測技術(shù)對于智能果園的生產(chǎn)管理、病害預(yù)測、果實(shí)采摘及果實(shí)質(zhì)量評估等具有重要作用[1-3]。目前,蘋果檢測技術(shù)在國內(nèi)外已有較多研究,然而,果實(shí)大小、樹葉和果實(shí)遮擋等因素仍是制約蘋果檢測的關(guān)鍵問題[4-5]。

      近年來,深度學(xué)習(xí)技術(shù)在蘋果檢測中得到了廣泛的應(yīng)用,其中主流的算法有R-CNN系列和YOLO系列算法。CNN系列算法利用神經(jīng)網(wǎng)絡(luò)提取候選區(qū)域特征,從而對樣本進(jìn)行分類、預(yù)測、識別,具有較高的準(zhǔn)確性[6];YOLO系列算法將目標(biāo)檢測問題轉(zhuǎn)化為回歸問題,通過在圖像上劃分網(wǎng)格并預(yù)測每個網(wǎng)格內(nèi)的目標(biāo)類別和位置,實(shí)現(xiàn)了端到端的目標(biāo)檢測,由于其高實(shí)時性和高準(zhǔn)確性而備受關(guān)注[7]。YOLO系列算法包括YOLO v1、YOLO v2、YOLO v3、YOLO v4、YOLO v5、YOLO v6、YOLO v7。YOLO v5使用更強(qiáng)的CSPDarkNet網(wǎng)絡(luò)模型和目標(biāo)邊框損失函數(shù),相較于前代算法在檢測速度和精確性方面性能較好[8]。YOLO v6、YOLO v7等引入了新的網(wǎng)絡(luò)結(jié)構(gòu)和多尺度特征融合技術(shù),采用數(shù)據(jù)增強(qiáng)和正則化提升了小目標(biāo)的檢測精度、算法魯棒性及模型泛化能力,然而網(wǎng)絡(luò)結(jié)構(gòu)和模型參數(shù)的增加,導(dǎo)致算法實(shí)時性相對較差[9-10]。

      考慮到目標(biāo)檢測的實(shí)時性和精確度的要求,YOLO v5算法被應(yīng)用于農(nóng)作物的檢測、分類和病害診斷方面。胡陣等提出一種采用輕量級PP-LCNet替換CSPDarknet53的YOLO v5s改進(jìn)算法,用以檢測玉米雄穗,該方法降低了原模型復(fù)雜度并加快檢測速度[11]。彭炫等提出了一種基于YOLO v5s的改進(jìn)識別模型,引入CPP-CBAM注意力機(jī)制與SIOU邊界框回歸損失函數(shù),提升了棉花頂芽檢測準(zhǔn)確率[12]。閆彬等設(shè)計(jì)了BottleneckCSP-B 特征提取模塊和中等尺寸目標(biāo)檢測層的特征圖進(jìn)行跨接融合的方法,提升了蘋果果實(shí)的識別精度[13]。王勇等提出了一種使用動態(tài)卷積和STB模塊實(shí)現(xiàn)不同成熟度蘋果高精度分類檢測方法[14]。耿磊等提出一種基于融合注意力機(jī)制的自動識別和分類模型EBm-Net,通過提取蘋果表面的顏色紋理特征對蘋果品種分類[15]。這些基于YOLO v5算法的目標(biāo)檢測具有高效且準(zhǔn)確的優(yōu)點(diǎn)。然而其應(yīng)用到工業(yè)系統(tǒng)的蘋果檢測中仍存在一些缺點(diǎn):(1)對小目標(biāo)檢測效果不佳;(2)對有遮擋的密集目標(biāo)檢測效果不佳;(3)模型參數(shù)較高,難以在低算力設(shè)備上完成實(shí)時檢測。

      針對上述問題,本研究提出一種融合FasterNet模型的輕量化YOLO v5網(wǎng)絡(luò)用于蘋果檢測。該算法在基準(zhǔn)圖像特征提取模塊采用FasterNetBlock來代替卷積塊和CSPLayer結(jié)構(gòu),減小網(wǎng)絡(luò)模型中的卷積核和通道數(shù)目,在增強(qiáng)小目標(biāo)特征提取能力的同時降低目標(biāo)檢測計(jì)算時間。在檢測頭預(yù)測模塊,提出ECIOU損失函數(shù)預(yù)測目標(biāo)位置偏差,該方法通過增加邊框角點(diǎn)損失檢測,描述小目標(biāo)框之間的邊框損失,提高小目標(biāo)檢測精度,同時有利于克服遮擋對目標(biāo)檢測的影響。最后將所提方法與YOLO v5算法在MS COCO數(shù)據(jù)集和自建數(shù)據(jù)集上進(jìn)行試驗(yàn),通過模型參數(shù)量、計(jì)算量(GFLOPs)、幀率(fps)、mAP0.5和mAP0.5 ∶0.95等指標(biāo)驗(yàn)證所提方法的有效性。

      1 融合FasterNet模型的YOLO v5 蘋果檢測方法

      1.1 YOLO v5算法

      YOLO v5是YOLO系列的第5代算法,相較于初代算法,在模型架構(gòu)、錨框匹配、損失函數(shù)等方面做出了大量改進(jìn),并最終在速度和精度之間取得了更好的平衡。YOLO v5模型的整體結(jié)構(gòu)包含基準(zhǔn)圖像特征提取模塊、中間層特征增強(qiáng)模塊以及檢測頭預(yù)測模塊。

      基準(zhǔn)圖像特征提取模塊是YOLO v5模型的主干網(wǎng)絡(luò),由卷積塊和CSPLayer模塊組成,負(fù)責(zé)從輸入圖像中提取豐富的特征表示[16]。CSPLayer模塊是CSPDarknet53模型的基本組件,含2個分支:第1個分支直接使用卷積塊提取特征;另1個分支先使用卷積塊提取特征,然后輸入到DarknetBottleneck組件以強(qiáng)化特征提取。最后將2個分支提取到的特征信息以維度相加的方法融合以得到輸出特征?;鶞?zhǔn)圖像特征提取模塊的最后一層是特征金字塔增強(qiáng)模塊,其分別將輸入特征圖經(jīng)過卷積塊和多個最大池化層來增強(qiáng)圖像特征,最后采用特征圖維度相加的方法來得到中間層特征圖,有效地提取了不同感受野下的圖像特征信息。YOLO v5模型的基準(zhǔn)圖像特征提取模塊可以有效增強(qiáng)特征的提取與表達(dá)。然而卷積塊和CSPLayer模塊在訓(xùn)練過程中不斷減小特征圖的尺寸和通道數(shù),導(dǎo)致信息丟失和壓縮,從而降低了模型對細(xì)節(jié)和小目標(biāo)的感知能力。同時這個過程使用了大量的卷積核和通道數(shù),導(dǎo)致模型的參數(shù)量和計(jì)算量較大,算法的實(shí)時性較差。因此,對于蘋果檢測這種小目標(biāo)、實(shí)時性要求高的檢測任務(wù),YOLO v5的基準(zhǔn)圖像特征提取模塊特征表達(dá)能力有限,且增加了模型的推理時間和資源消耗。

      YOLO v5的中間層特征增強(qiáng)模塊采用了特征金字塔(feature pyramid)結(jié)構(gòu)。該結(jié)構(gòu)通過在不同層級上提取特征,并將提取到的特征圖融合在一起,以便同時檢測多尺度目標(biāo)對象。與基準(zhǔn)圖像特征提取模塊類似的是,在YOLO v5的中間層特征增強(qiáng)模塊中基本組件也是卷積塊和CSPLayer模塊。

      YOLO v5的檢測頭預(yù)測模塊由3個不同尺寸的輸出層組成,每個輸出層同時預(yù)測目標(biāo)的類別、置信分?jǐn)?shù)以及邊界框偏移量。對于YOLO v5-P5模型,輸入圖像分辨率為640×640,3個輸出層的寬高尺寸分別為80×80、40×40和20×20。在訓(xùn)練時,使用交叉熵?fù)p失預(yù)測目標(biāo)類別和置信分?jǐn)?shù);使用CIOU損失函數(shù)(complete intersection over union loss)預(yù)測目標(biāo)位置偏差[17]。其中,CIOU損失函數(shù)考慮了2個目標(biāo)框的交并比與中心點(diǎn)距離的關(guān)系,更好地解決了高重疊度目標(biāo)框與真實(shí)目標(biāo)框之間的損失相似的問題。然而,CIOU未特定增加輸出項(xiàng),對于區(qū)分小目標(biāo)效果不明顯,尤其是在蘋果檢測中,蘋果相對小且易被樹上的枝葉遮擋,CIOU的位置偏差預(yù)測效果較差。

      1.2 融合FasterNet模型的YOLO v5改進(jìn)算法

      蘋果檢測屬于小目標(biāo)檢測,同時,為保證采摘效率,蘋果檢測的實(shí)時性要求較高。因此,為了提高蘋果的檢測精度和檢測速度,本研究提出一種融合FasterNet模型的改進(jìn)YOLO v5模型。該模型的網(wǎng)絡(luò)結(jié)構(gòu)見圖1。首先,YOLO v5模型的基準(zhǔn)圖像特征提取模塊中的卷積塊以及CSPLayer結(jié)構(gòu)用FasterNet模型替代,以解決YOLO v5模型中由于使用了大量的卷積核和通道數(shù),導(dǎo)致模型的參數(shù)量和計(jì)算量較大的問題。其次,提出在檢測頭預(yù)測模塊使用ECIoU損失函數(shù)預(yù)測目標(biāo)偏差,用以實(shí)現(xiàn)小目標(biāo)檢測,提高蘋果檢測精度。

      1.2.1 FasterNet網(wǎng)絡(luò)

      FasterNet網(wǎng)絡(luò)是基于PConv(partial convolution)構(gòu)建得到[18],如圖2所示。輸入圖像首先經(jīng)過嵌入層得到四倍下采樣后的特征圖,再依次送入FasterNetBlock、Merging模塊中。FasterNetBlock模塊將輸入特征圖分為2個分支,其中1個分支先送入PConv以提取特征,再依次送入1×1的卷積層、批量歸一化層、ReLU激活函數(shù)以及1×1的卷積層來緩化特征;另1個分支直接作為輸入特征圖。最后采取殘差連接的方法將2個分支得到的特征圖按維度相加,逐漸增加網(wǎng)絡(luò)的深度和感受野,以提取更豐富的圖像特征。

      PConv是一種通過減少冗余計(jì)算和內(nèi)存訪問來更快速且更有效地提取空間特征的方法,PConv僅需在輸入通道的前一小部分應(yīng)用卷積操作進(jìn)行空間特征提取,并保持其余通道不變。對于連續(xù)或規(guī)則的內(nèi)存訪問,PConv將第1個或最后1個連續(xù)的通道視為整個特征圖的整體代表進(jìn)行計(jì)算。因此,在浮點(diǎn)運(yùn)算數(shù)FLOPs(floating point operations)方面,相較于普通的卷積操作,PConv只有其1/4。因此,在YOLO v5的主干網(wǎng)絡(luò)中引入PConv卷積,由于卷積核和通道數(shù)減少,降低了模型的參數(shù)量,進(jìn)而減少了特征提取的計(jì)算量。

      在特征提取方面,PConv對輸入特征圖中的一部分采取卷積操作,剩下的大部分都是直接保留得到,因此相較于普通的卷積操作能較完整地保留提取到的圖像信息,而不會損害小目標(biāo)對象的特征信息;在FasterNetBlock模塊內(nèi)部中,堆疊的PConv、卷積層以及殘差連接能保證目標(biāo)特征提取的完整性,進(jìn)而為高性能目標(biāo)檢測提供基石;在計(jì)算量方面,相較于YOLO v5-S模型的16.4 GFLOPs,本研究同等尺寸的模型的計(jì)算量僅有12.3 GFLOPs,計(jì)算量的減少主要受益于PConv操作對圖像特征提取的高效性。

      1.2.2 ECIoU 損失函數(shù)

      YOLO v5的檢測頭預(yù)測模塊中,損失函數(shù)用于衡量模型的預(yù)測與實(shí)際目標(biāo)真實(shí)標(biāo)簽之間的差異,以預(yù)測目標(biāo)位置偏差。交并比損失(intersection over union loss,IoU Loss)是常用的損失函數(shù)[19],其存在2個明顯的缺點(diǎn):(1)如果2個目標(biāo)框不重合,則不能定量衡量2個目標(biāo)框之間的距離差異;(2)基于2個目標(biāo)框之間的交并比來計(jì)算位置差異,無法精確地反映2個目標(biāo)框的重合程度。為了解決上述問題,CIoU Loss提出結(jié)合目標(biāo)框交并比、寬高比與中心點(diǎn)距離來更準(zhǔn)確地衡量2個目標(biāo)框之間的相似性,計(jì)算方法如下:

      式中:IoU是預(yù)測目標(biāo)框與真實(shí)目標(biāo)框之間的交并比;ρ表示2個矩形框的歐式距離;c是2個目標(biāo)框的閉包區(qū)域的對角線距離;b、bgt分別表示2個矩形框的中心點(diǎn);wgt、hgt、w、h分別表示真實(shí)目標(biāo)框的寬、高以及預(yù)測框的寬、高; λ是衡量長寬比一致性的參數(shù),是由預(yù)測框與真實(shí)框長寬和角度得到。

      由于考慮了目標(biāo)框交并比與中心點(diǎn)距離之間的關(guān)系,CIoU Loss能更精確地衡量2個目標(biāo)框之間的位置偏差,在應(yīng)用中取得了比IoU Loss更精確的跟蹤結(jié)果。然而,CIOU Loss未特定增加輸出項(xiàng),對小目標(biāo)框的計(jì)算不夠精確,在小目標(biāo)檢測尤其是蘋果目標(biāo)檢測時精度較低。為解決上述問題,本研究在CIoU Loss的基礎(chǔ)上提出一種基于邊框角點(diǎn)損失LCorner的ECIoU Loss函數(shù)。該函數(shù)考慮到蘋果檢測中2個小目標(biāo)框之間的差異不易檢測,引入目標(biāo)邊框角點(diǎn)損失函數(shù)來刻畫2個小目標(biāo)框之間的差異。目標(biāo)邊框角點(diǎn)損失越大,2個目標(biāo)框之間的重疊度越高。邊框角點(diǎn)損失LCorner的計(jì)算方法如下所示:

      式中:x2、x1、y2和y1分別表示真實(shí)目標(biāo)框的左上角橫坐標(biāo)、預(yù)測框的左上角橫坐標(biāo)、真實(shí)目標(biāo)框的左上角縱坐標(biāo)以及預(yù)測框的左上角縱坐標(biāo); δ是尺度放大參數(shù),用于放大2個小目標(biāo)框之間的差異,以調(diào)整整體邊框損失,默認(rèn)設(shè)置為1.5。角點(diǎn)損失用于刻畫2個目標(biāo)框之間的重疊偏差損失,當(dāng)2個目標(biāo)框之間的重疊度越高時,其邊框角點(diǎn)損失越大。在邊框角點(diǎn)損失計(jì)算過程中,由于2個小目標(biāo)框之間的差異被放大,使其較易被檢測。

      式中:Lcorner是本研究提出的邊框角點(diǎn)損失;α是調(diào)節(jié)權(quán)重超參數(shù),默認(rèn)設(shè)為0.8。

      本研究提出的改進(jìn)YOLO v5輕量化模型的檢測頭預(yù)測模塊中采用ECIoU Loss預(yù)測目標(biāo)偏差。ECIoU Loss是在CIoU Loss基礎(chǔ)上通過增加邊框角點(diǎn)損失檢測,描述小目標(biāo)框之間的邊框損失,使其更易被檢測,提高了目標(biāo)檢測精度。進(jìn)一步,為了解決模型對重疊目標(biāo)框的抑制,在檢測后處理階段采用ECIoU非極大值抑制(non-maximum supression,NMS)來代替原YOLO v5模型中的NMS來過濾重疊的目標(biāo)框,其中ECIoU NMS是在NMS基礎(chǔ)上將原先的IoU計(jì)算換成ECIoU,在訓(xùn)練階段與檢測階段保持一致,同時抑制掉高重疊度的目標(biāo)框。

      2 試驗(yàn)與分析

      2.1 數(shù)據(jù)集

      本研究在目標(biāo)檢測權(quán)威公開數(shù)據(jù)集MS COCO以及自建蘋果數(shù)據(jù)集上對所提算法和YOLO v5算法進(jìn)行了對比試驗(yàn)。試驗(yàn)于2023年9—11月在河北工業(yè)職業(yè)技術(shù)大學(xué)智能制造學(xué)院完成。試驗(yàn)的硬件平臺為Nvidia RTX 3090。MS COCO數(shù)據(jù)集包含2014、2015、2017 3個版本,本研究使用的數(shù)據(jù)集為2017版本,其中訓(xùn)練集包含118 287張圖片,驗(yàn)證集總計(jì)5 000張圖片,數(shù)據(jù)集總共包含80個類別。本研究自建數(shù)據(jù)集總計(jì)包含9 198張圖像,其中訓(xùn)練集和驗(yàn)證集分別包含7 280和1 820張圖片,剩下的98張圖片作為測試集。自建數(shù)據(jù)集包含蘋果這一個類別,所有蘋果目標(biāo)的標(biāo)注都采取矩形框的形式,部分原始圖像見圖3。

      2.2 試驗(yàn)超參數(shù)設(shè)置

      本研究所提算法在訓(xùn)練過程中的一些重要的超參數(shù)見表1??偟挠?xùn)練輪數(shù)以及批次分為設(shè)置為300和64,初始學(xué)習(xí)率、動量以及權(quán)重衰減分別設(shè)置為0.01、0.937、0.000 5,目標(biāo)損失、目標(biāo)類別損失以及目標(biāo)邊框損失的權(quán)重系數(shù)分別為1.0、0.5以及0.05。此外,在數(shù)據(jù)集增強(qiáng)方面,圖像色相、飽和度以及明度值變換的概率分為設(shè)為0.015、0.7、0.4;mosaic數(shù)據(jù)增強(qiáng)策略為1。

      2.3 試驗(yàn)結(jié)果對比

      2.3.1 模型輕量化對比

      在YOLO v5骨干特征提取網(wǎng)絡(luò)中使用FasterNet架構(gòu)替代原模型中的卷積塊和CSPLayer能夠使模型輕量化,減少運(yùn)算量,加快檢測時間。為了驗(yàn)證本研究所提算法模型的優(yōu)越性,使用同一數(shù)據(jù)集、設(shè)備及參數(shù)設(shè)置來進(jìn)行訓(xùn)練對比,選擇參數(shù)量、計(jì)算量、幀率作為性能指標(biāo),試驗(yàn)結(jié)果見表2,相較于原始YOLO v5模型,模型參數(shù)量下降了12%,計(jì)算量下降了25%,幀率提升了23%。

      2.3.2 在公開MS COCO數(shù)據(jù)集上性能測試

      對本研究所提算法與YOLO v5算法(結(jié)合考慮精度和速度影響,本研究使用YOLO v5-S模型)在MS COCO數(shù)據(jù)集進(jìn)行試驗(yàn)。采用mAP0.5與mAP0.5 ∶0.95指標(biāo)的對比圖作為性能指標(biāo)。mAP0.5指標(biāo)是在目標(biāo)邊框交并比閾值為0.5的條件下所有類別的平均精度,mAP0.5 ∶0.95指標(biāo)是在目標(biāo)邊框交并比閾值在0.50、0.55、0.60、0.65、0.70、0.75、0.80、0.85、0.90以及0.95這10個條件下的所有類別的平均精度,mAP0.5與mAP0.5 ∶0.95指標(biāo)越高表明檢測性能越強(qiáng)。試驗(yàn)結(jié)果分別見圖4、圖5。實(shí)線為本研究所提算法的mAP0.5與mAP0.5 ∶0.95性能曲線,點(diǎn)畫線為YOLO v5-S模型的mAP0.5與mAP0.5 ∶0.95性能曲線。

      由圖4可知,YOLO v5算法在訓(xùn)練到70輪時出現(xiàn)指標(biāo)極速下降的情形,原因是YOLO v5算法在基準(zhǔn)圖像特征提取模塊對于圖像特征的提取不夠充分,導(dǎo)致在出現(xiàn)圖像數(shù)據(jù)增強(qiáng)時不能準(zhǔn)確識別目標(biāo)。相比于YOLO v5,本研究所提算法保證目標(biāo)特征提取的完整性和足夠魯棒的區(qū)分性,因此其訓(xùn)練過程平穩(wěn),且在mAP0.5和mAP0.5 ∶0.95方面的性能指標(biāo)較高。本研究所提方法的mAP0.5性能指標(biāo)是59.1%,YOLO v5的mAP0.5指標(biāo)為56.2%,本研究所提方法在mAP0.5性能指標(biāo)上提升了2.9百分點(diǎn)。

      本研究所提方法與YOLO v5-S模型在MS COCO數(shù)據(jù)集上mAP0.5 ∶0.95指標(biāo)對比見圖5。同樣,YOLO v5算法在訓(xùn)練到70輪時出現(xiàn)指標(biāo)極速下降的情形。相較于YOLO v5,本研究所提方法有著更平穩(wěn)的訓(xùn)練過程和較高的mAP0.55 ∶0.95指標(biāo)。YOLO v5的mAP0.55 ∶0.95指標(biāo)為36.8%,本研究所提方法達(dá)到38.7%,整體提升1.9百分點(diǎn),這更大受益于本研究提出的ECIoU Loss在訓(xùn)練過程能更好地學(xué)習(xí)密集目標(biāo)與小目標(biāo)框與真實(shí)標(biāo)簽之間的差異。

      2.3.3 在自建數(shù)據(jù)集上性能測試

      對本研究所提方法與YOLO v5算法(YOLO v5-S模型)在自建蘋果數(shù)據(jù)集上進(jìn)行mAP0.5和mAP0.5 ∶0.95指標(biāo)的對比試驗(yàn),試驗(yàn)結(jié)果見圖6和圖7。實(shí)線為本研究所提算法的mAP0.5與mAP0.5 ∶0.95性能曲線,點(diǎn)畫線為 YOLO v5-S 模型的mAP0.5與mAP0.5 ∶0.95性能曲線。

      本研究所提方法與YOLO v5-S模型在自建蘋果數(shù)據(jù)集上mAP0.5指標(biāo)對比見圖6。從試驗(yàn)結(jié)果可以看出,YOLO v5-S模型在mAP0.5指標(biāo)上可達(dá)到95.1%,本研究所提算法在mAP0.5指標(biāo)上可達(dá)到97.6%,相較于YOLO v5-S模型提升了2.5百分點(diǎn)。本研究所提方法與YOLO v5-S模型在自建蘋果數(shù)據(jù)集上mAP0.5 ∶0.95指標(biāo)對比圖如圖7所示。從試驗(yàn)結(jié)果可以看出,YOLO v5-S模型在mAP0.5 ∶0.95指標(biāo)上可達(dá)到83.8%,本研究所提算法在mAP0.5 ∶0.95指標(biāo)上可達(dá)到85.7%,相較于YOLO v5-S模型提升了1.9百分點(diǎn)。

      3 結(jié)論

      本研究針對當(dāng)前蘋果目標(biāo)檢測中識別率低、識別速度慢的問題,提出了改進(jìn)YOLO v5算法的輕量化模型,利用 FasterNet 網(wǎng)絡(luò)作為主干特征提取網(wǎng)絡(luò),增強(qiáng)小目標(biāo)的特征提取能力,且實(shí)現(xiàn)了網(wǎng)絡(luò)檢測推理速度的大幅提升,所提方法的幀率(fps)提升了23%;提出ECIoU Loss預(yù)測目標(biāo)偏差位置,解決YOLO v5算法對有遮擋的密集目標(biāo)檢測效果不佳的問題,提高蘋果檢測的準(zhǔn)確性;提出ECIoU-NMS方法進(jìn)一步優(yōu)化重疊目標(biāo)框的選擇;與YOLO v5算法進(jìn)行了對比試驗(yàn),結(jié)果表明,相同參數(shù)的情況下,經(jīng)優(yōu)化后的方法,在通用數(shù)據(jù)集MS COCO上mAP0.5和mAP0.5 ∶0.95指標(biāo)分別提升了2.9、1.9百分點(diǎn),在自建數(shù)據(jù)集上mAP0.5和mAP0.5 ∶0.95指標(biāo)分別提高2.5、1.9百分點(diǎn)。本研究所提方法在識別準(zhǔn)確性和實(shí)時性方面優(yōu)于YOLO v5,對蘋果采摘機(jī)器人實(shí)現(xiàn)快速準(zhǔn)確的識別蘋果目標(biāo)具有重要意義。

      參考文獻(xiàn):

      [1]孫豐剛,王云露,蘭 鵬,等. 基于改進(jìn)YOLO v5s和遷移學(xué)習(xí)的蘋果果實(shí)病害識別方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),202 8(11):171-179.

      [2]王麗娟,陳浩然,季石軍,等. 機(jī)器視覺成熟度檢測的蘋果色選分揀機(jī)設(shè)計(jì)[J]. 農(nóng)業(yè)與技術(shù),2022,42(12):36-40.

      [3]周桂紅,馬 帥,梁芳芳. 基于改進(jìn)YOLO v4模型的全景圖像蘋果識別[J]. 農(nóng)業(yè)工程學(xué)報(bào),202 8(21):159-168.

      [4]張境鋒,陳 偉,魏慶宇,等. 基于Des-YOLO v4的復(fù)雜環(huán)境下蘋果檢測方法[J]. 農(nóng)機(jī)化研究,2023,45(5):20-25.

      [5]楊福增,雷小燕,劉志杰,等. 基于CenterNet的密集場景下多蘋果目標(biāo)快速識別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2022,53(2):265-273.

      [6]Girshick R. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision (ICCV).Santiago:IEEE,2015:1440-1448.

      [7]Redmon J,Divvala S,Girshick R,et al. You only look once:unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas:IEEE,2016:779-788.

      [8]張志遠(yuǎn),羅銘毅,郭樹欣,等. 基于改進(jìn)YOLO v5的自然環(huán)境下櫻桃果實(shí)識別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2022,53(增刊1):232-240.

      [9]Li C Y,Li L L,Jiang H L,et al. YOLO v6:a single-stage object detection framework for industrial applications[EB/OL]. (2022-09-07)[2023-10-09].http://arxiv.org/abs/2209.02976.

      [10]Wang C Y,Bochkovskiy A,Liao H Y M. YOLO v7:trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[EB/OL]. (2022-07-06) [2023-10-09].http://arxiv.org/abs/2207.02696.

      [11]胡 陣,馬宗軍,黃傳寶,等. PSOS-YOLO v5s:一種輕量級玉米雄穗快速檢測算法[J/OL]. 無線電工程,2023:1-11[2023-10-09]. https://kns.cnki.net/kcms/detail/13.1097.TN.20230915.1739.002.html.

      [12]彭 炫,周建平,許 燕,等. 改進(jìn)YOLO v5識別復(fù)雜環(huán)境下棉花頂芽[J]. 農(nóng)業(yè)工程學(xué)報(bào),2023,39(16):191-197.

      [13]閆 彬,樊 攀,王美茸,等. 基于改進(jìn)YOLO v5m的采摘機(jī)器人蘋果采摘方式實(shí)時識別[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2022,53(9):28-38,59.

      [14]王 勇,陶兆勝,石鑫宇,等. 基于改進(jìn)YOLO v5s的不同成熟度蘋果目標(biāo)檢測方法[J/OL]. 南京農(nóng)業(yè)大學(xué)學(xué)報(bào),2023:1-13[2023-10-09].https://kns.cnki.net/kcms/detail/32.1148.S.20230926.1201.002.html.

      [15]耿 磊,黃亞龍,郭永敏. 基于融合注意力機(jī)制的蘋果品種分類方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2022,53(6):304-310,369.

      [16]Bochkovskiy A,Wang C Y,Liao H Y M. YOLO v4:optimal speed and accuracy of object detection[EB/OL]. (2020-04-23)[2023-10-09]. http://arxiv.org/abs/2004.10934.

      [17]劉龍哲,劉 剛,徐紅鵬,等. 面向單階段目標(biāo)檢測的損失函數(shù)優(yōu)化設(shè)計(jì)[J/OL]. 電光與控制,2023:1-11[2023-11-18]. https://kns.cnki.net/kcms/detail/41.1227.TN.20231115.1522.018.html.

      [18]Chen J R,Kao S H,He H,et al. Run,don't walk:chasing higher FLOPS for faster neural networks[EB/OL]. (2023-05-21)[2023-11-18]. http://arxiv.org/abs/2303.03667.

      [19]Ma X L,Guo F M,Niu W,et al. PCONV:the missing but desirable sparsity in DNN weight pruning for real-time execution on mobile devices[EB/OL]. (2019-09-06)[2023-11-18]. http://arxiv.org/abs/1909.05073.

      收稿日期:2023-12-19

      基金項(xiàng)目:河北省自然科學(xué)基金(編號:C2021204034);石家莊市科技計(jì)劃(編號:231130351);河北省“三三三人才工程”項(xiàng)目(編號:A202101035)。

      作者簡介:溫彬彬(1989—),女,河北邢臺人,碩士,講師,主要從事圖像處理及模式識別研究。E-mail:ge_wenbinbin@163.com。

      通信作者:張 華,碩士,副教授,主要從事計(jì)算機(jī)視覺及模式識別研究。E-mail:94472907@qq.com。

      猜你喜歡
      目標(biāo)檢測
      多視角目標(biāo)檢測與跟蹤技術(shù)的研究與實(shí)現(xiàn)
      視頻中目標(biāo)檢測算法研究
      軟件(2016年4期)2017-01-20 09:38:03
      行為識別中的人體運(yùn)動目標(biāo)檢測方法
      移動機(jī)器人圖像目標(biāo)識別
      基于視頻監(jiān)控的運(yùn)動圖像檢測算法研究
      基于背景建模法的運(yùn)動目標(biāo)檢測
      基于P3電位的目標(biāo)檢測研究
      科技視界(2016年4期)2016-02-22 13:09:19
      智能視頻技術(shù)在電力系統(tǒng)領(lǐng)域的應(yīng)用
      相關(guān)K分布雜波中擴(kuò)展目標(biāo)積累檢測性能分析
      基于連通域標(biāo)記的目標(biāo)檢測算法設(shè)計(jì)與實(shí)現(xiàn)
      洛南县| 宁阳县| 新兴县| 新宾| 德清县| 安徽省| 沧源| 宁陵县| 五河县| 治县。| 淮安市| 重庆市| 泰来县| 稷山县| 黑水县| 七台河市| 江孜县| 张掖市| 共和县| 湾仔区| 宁武县| 抚宁县| 新野县| 石柱| 涞水县| 盖州市| 阿瓦提县| 宁河县| 虹口区| 西林县| 玉田县| 三都| 乌审旗| 新余市| 东源县| 马公市| 沧州市| 施秉县| 彭水| 邹平县| 墨竹工卡县|