關(guān)鍵詞:玉米;葉斑病;改進(jìn);YOLOv8模型;快速識(shí)別
中圖分類號(hào):S126;TP391.41 文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):0439-8114(2025)05-0160-07
DOI:10.14088/j.cnki.issn0439-8114.2025.05.025 開(kāi)放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):□
A rapid identification method for maize leaf spot disease based on the improved YOLOv8 model
ZHANGLu,WUXue-lian (Economics and Management School,Yangtze University,Jingzhou ,Hubei,China)
Abstract:Toachieverapididentificationofmaizeleafspotdisease,thedetectionperformanceoftheimprovedYOLOv8modelwasoptimizedbyintegratingtheGlobalAtentionModule(GAM),Slim-Necklightweightmodule,andInner-CIoUlossfunction.Compared with the original YOLOv8 model,the improved YOLOv8 model(GAM + Slim-Neck+Inner-CIoU)showed increases of 4.15% in Precision, 5.51% in Recall, 3.91% in mAP @ 0.5,and 11.35% in mAP @[0.5: 0.95],while the number of parameters and detection time decreased by10.39% and 3.42% ,respectively. The improved YOLOv8 model outperformed other models(YOLOv3,YOLO v5 ,YOLO v6 ,and Faster R-CNN) in Precision,Recall,mAP @ 0.5,and mAP ,while also demonstrating significant advantagesinparameterquantitynddetectiontime,combining higheficiencywithlightweightcharacteristics.TheimprovedYOLOv8model eficientlycaurediticaliforation,fullyitegatedultdimesioalatures,ndratioallloatedomputatioalrouces,thereby enhancing recognition accuracy.
Key words:maize;leaf spot disease;improvement;YOLOv8 model; rapid identification
隨著農(nóng)業(yè)生產(chǎn)規(guī)模的擴(kuò)大和氣候變化的影響,玉米葉斑病已成為全球玉米生產(chǎn)中的主要病害。傳統(tǒng)的人工檢測(cè)方法依賴于農(nóng)民的經(jīng)驗(yàn)或?qū)<业默F(xiàn)場(chǎng)指導(dǎo),存在效率低、成本高、主觀性強(qiáng)等問(wèn)題。
為了解決這些問(wèn)題,研究人員將機(jī)器視覺(jué)技術(shù)應(yīng)用于玉米病害識(shí)別領(lǐng)域,通過(guò)提取病害特征實(shí)現(xiàn)快速高效的診斷。在國(guó)際上,機(jī)器視覺(jué)技術(shù)被廣泛應(yīng)用于農(nóng)業(yè)病害識(shí)別。趙玉霞1利用計(jì)算機(jī)視覺(jué)技術(shù)對(duì)玉米葉部病害進(jìn)行識(shí)別診斷,識(shí)別準(zhǔn)確率超過(guò)90% 。樊湘鵬等2通過(guò)改進(jìn)區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(FasterR-CNN)在復(fù)雜田間環(huán)境中實(shí)現(xiàn)了高達(dá)97.23% 的識(shí)別準(zhǔn)確率。這些研究表明,機(jī)器視覺(jué)技術(shù)在玉米病害識(shí)別中具有顯著優(yōu)勢(shì)。慕君林等3和邊柯橙等4積極探索機(jī)器視覺(jué)和深度學(xué)習(xí)技術(shù)在玉來(lái)病害識(shí)別中的應(yīng)用。深度學(xué)習(xí)技術(shù)的引入為農(nóng)業(yè)病害識(shí)別帶來(lái)了新的思路和方法。卷積神經(jīng)網(wǎng)絡(luò)(CNN)通過(guò)其層次化特征學(xué)習(xí)機(jī)制,自動(dòng)提取圖像的深層語(yǔ)義特征,展現(xiàn)出強(qiáng)大的適應(yīng)性和高準(zhǔn)確率。然而,在復(fù)雜的野外環(huán)境中,這些模型的泛化能力和識(shí)別精度仍然存在一定的局限性[5]。目前,大多數(shù)用于檢測(cè)玉米葉斑病的深度學(xué)習(xí)模型更注重準(zhǔn)確性,但檢測(cè)時(shí)間較長(zhǎng),無(wú)法實(shí)現(xiàn)實(shí)時(shí)檢測(cè)。此外,這些模型大多在實(shí)驗(yàn)室環(huán)境中開(kāi)展測(cè)試,無(wú)法有效模擬真實(shí)現(xiàn)場(chǎng)條件,從而限制了其在生產(chǎn)中的實(shí)際應(yīng)用。
針對(duì)玉米葉斑病識(shí)別精度和效率較低的問(wèn)題,本研究提出基于YOLOv8的增強(qiáng)方法。Slim-Neck模塊的加入取代了YOLOv8中原有的骨干網(wǎng)絡(luò),使模型更加輕量化,從而降低計(jì)算成本;引人全局注意力機(jī)制(Globalattentionmodule,GAM),通過(guò)增強(qiáng)關(guān)鍵區(qū)域的特征計(jì)算能力提升模型對(duì)病害區(qū)域的定位精度。在 Inner–CIoU 框架中構(gòu)建輔助邊界框監(jiān)督,并采用CIoU損失函數(shù)同步優(yōu)化位置回歸,通過(guò)優(yōu)化梯度傳播路徑顯著加快了模型的收斂過(guò)程。
本研究旨在通過(guò)改進(jìn)YOLOv8模型,提出高效、輕量化的解決方案,以提高玉米葉斑病在復(fù)雜田間環(huán)境中的識(shí)別精度和效率,同時(shí)降低計(jì)算成本。通過(guò)引入輕量化模塊和注意力機(jī)制,優(yōu)化模型性能,為農(nóng)業(yè)病害識(shí)別提供創(chuàng)新的技術(shù)支持,推動(dòng)智慧農(nóng)業(yè)的發(fā)展。
1 數(shù)據(jù)與方法
1.1 數(shù)據(jù)收集和數(shù)據(jù)集構(gòu)建
數(shù)據(jù)采集工作于湖北省宜昌市宜都市枝城鎮(zhèn)漫水橋村玉米種植區(qū)進(jìn)行,采集的樣本圖像涵蓋不同光照條件和復(fù)雜田間背景(圖1)。在玉米葉片檢測(cè)中,弱光條件下病斑特征明顯,強(qiáng)光條件下病斑特征模糊。實(shí)際玉米田間環(huán)境還存在葉片遮擋等干擾因素。本研究共采集350張玉米葉病害圖像,并從公開(kāi)數(shù)據(jù)集補(bǔ)充450張玉米葉斑病圖像,
為提高數(shù)據(jù)質(zhì)量和模型泛化能力,對(duì)部分圖像進(jìn)行數(shù)據(jù)擴(kuò)增,包括旋轉(zhuǎn)、鏡像、亮度調(diào)整、添加高斯噪聲和隨機(jī)遮罩[8],將數(shù)據(jù)擴(kuò)增到1000張。這些操作有助于模型在各種情境下準(zhǔn)確識(shí)別葉斑病。數(shù)據(jù)經(jīng)過(guò)人工標(biāo)記后,分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,比例為8:1:1,最終獲得800張訓(xùn)練圖像、100張驗(yàn)證圖像和100張測(cè)試圖像。該劃分方案確保了模型訓(xùn)練的充分性和評(píng)估的可靠性,有效提升模型的泛化性能。
1.2 研究方法
1.2.1YOLOv8網(wǎng)絡(luò)模型YOLO系列算法是單階段目標(biāo)檢測(cè)算法,只需1次特征提取即可完成目標(biāo)檢測(cè)。自2015年創(chuàng)立以來(lái),Y0L0系列算法經(jīng)歷多次迭代和改進(jìn),包括YOLOv1、YOLOv2、YOLOv3、YOLOv4及YOLOv8。YOLOv8的架構(gòu)主要由輸入、骨干網(wǎng)絡(luò)(Backbone)、Neck模塊和輸出組成[9]。在Backbone和Neck部分,YOLOv8利用C2f結(jié)構(gòu),能夠合并不同的梯度特征并進(jìn)行微調(diào),從而提高模型的整體性能。在Head部分,YOLOv8采用解耦Head結(jié)構(gòu)[10],有效分離了分類和檢測(cè)功能。同時(shí),YOLOv8將分布焦點(diǎn)損失函數(shù)合并到損失函數(shù)中,進(jìn)一步增強(qiáng)模型的性能。這些優(yōu)化使得YOLOv8在目標(biāo)檢測(cè)任務(wù)中表現(xiàn)出色。YOLOv8的創(chuàng)新設(shè)計(jì)提升了檢測(cè)精度[],,被廣泛應(yīng)用于各種實(shí)際場(chǎng)景。
1.2.2Slim-Neck模塊YOLOv8模型雖然在目標(biāo)檢測(cè)任務(wù)中表現(xiàn)優(yōu)異,但也存在計(jì)算效率不足的問(wèn)題,難以滿足田間實(shí)時(shí)檢測(cè)的需求。為解決這一問(wèn)題,本研究在YOLOv8模型中引入了 輕量級(jí)網(wǎng)絡(luò)結(jié)構(gòu),降低網(wǎng)絡(luò)復(fù)雜度,從而減少檢測(cè)時(shí)間。
模塊是廣泛用于實(shí)時(shí)檢測(cè)的輕量級(jí)網(wǎng)絡(luò)結(jié)構(gòu)。目前,多種輕量級(jí)網(wǎng)絡(luò)架構(gòu)(如Xception和MobileNets系列)通過(guò)采用深度可分離卷積有效降低了計(jì)算復(fù)雜度,提升檢測(cè)效率[13]。雖然這些方法在減少計(jì)算時(shí)間方面取得了成功,但也降低了整體檢測(cè)精度。
模塊采用分組可分離卷積(GSConv)替代傳統(tǒng)卷積操作,通過(guò)解耦空間和通道維度特征提取,有效降低計(jì)算復(fù)雜度。GSConv是混合卷積結(jié)構(gòu),能夠有效降低計(jì)算成本并簡(jiǎn)化網(wǎng)絡(luò)復(fù)雜度,同時(shí)保持模型的優(yōu)異性能(圖2a)。
在Slim-Neck模塊中引入基于GSConv的一次性聚合機(jī)制[14],構(gòu)建了VoV-GSCSP模塊。通過(guò)以VoV-GSCSP替代原有的C2f模塊,不僅簡(jiǎn)化網(wǎng)絡(luò)架構(gòu),而且實(shí)現(xiàn)模型的輕量化效果。VoV-GSCSP模塊的結(jié)構(gòu)如圖2b所示。在確保模型準(zhǔn)確性的同時(shí),降低網(wǎng)絡(luò)結(jié)構(gòu)的復(fù)雜性,解決檢測(cè)過(guò)程中的耗時(shí)問(wèn)題,為農(nóng)業(yè)病害實(shí)時(shí)檢測(cè)研究提供可行的技術(shù)方案。
1.2.3全局注意力機(jī)制目前,應(yīng)用較多的注意力機(jī)制包括SE(Squeezeandexcitation)和CBAM(卷積塊注意力機(jī)制)。SE通過(guò)為每個(gè)通道分配不同的權(quán)重獲取關(guān)鍵元素的更多信息(圖3a)。CBAM則結(jié)合空間和通道注意力機(jī)制(圖3b)。然而,SE和CBAM僅在各自維度進(jìn)行注意力操作[15],未充分考慮通道和空間維度的相互關(guān)系,忽視了跨維度信息的重要性。因此,本研究引入GAM(圖3c),GAM明顯提升模型性能,同時(shí)只增加了少量參數(shù)。GAM能有效緩解通道間信息丟失問(wèn)題,優(yōu)化計(jì)算資源分配,增強(qiáng)模型對(duì)玉米葉斑病的檢測(cè)能力。集成GAM和Slim-Neck的改進(jìn)模型在檢測(cè)玉米葉斑病時(shí)表現(xiàn)更佳[16]。1.2.4損失函數(shù)改進(jìn)在目標(biāo)檢測(cè)算法中,損失函數(shù)的設(shè)計(jì)對(duì)檢測(cè)性能至關(guān)重要。CIoU損失函數(shù)涵蓋了覆蓋面積、質(zhì)心距離和縱橫比,是應(yīng)用最廣泛的損失函數(shù)之一。CIoU損失函數(shù)的計(jì)算式如下。
Lc=1-CIoU
式中, IoU 表示預(yù)測(cè)框和真實(shí)框的交集; ρ 表示預(yù)測(cè)框中心與真實(shí)框的歐幾里得距離; b,bgt 表示預(yù)測(cè)框和真實(shí)框的中心坐標(biāo); ∣c∣ 表示預(yù)測(cè)框和真實(shí)框之間最小閉合區(qū)域的對(duì)角線距離; w 和 h 分別表示預(yù)測(cè)框的寬度和高度; wgt 和 hgt 分別表示真實(shí)框的寬度和高度; Lc 表示損失函數(shù)的權(quán)重。
盡管基于 CIoU 損失函數(shù)通過(guò)引入新的損失項(xiàng)來(lái)加速收斂,但這種方法忽略了新?lián)p失項(xiàng)的局限性,可能導(dǎo)致不同檢測(cè)任務(wù)中的收斂速度較慢和泛化能力較差。因此,本研究在 CIoU 損失函數(shù)的基礎(chǔ)上引人 Inner–IoU 損失函數(shù)[17],結(jié)構(gòu)如圖4所示。這種方法適應(yīng)性更強(qiáng),可以針對(duì)特定檢測(cè)器和任務(wù)進(jìn)行定制,從而提高模型的收斂速度和泛化能力。
中心點(diǎn) x 坐標(biāo); yc 表示預(yù)測(cè)框的中心點(diǎn) y 坐標(biāo);ratio表示輔助邊界框的比例因子,用于調(diào)整輔助邊界框的大小。
Inner-IoU損失函數(shù)明顯提升模型性能,同時(shí)降低網(wǎng)絡(luò)模型的復(fù)雜性。改進(jìn)后的模型通過(guò)調(diào)整輔助邊界尺度,有效加速收斂速度,同時(shí)抑制訓(xùn)練過(guò)程中的過(guò)擬合問(wèn)題,從而明顯提升整體性能[18]
1.2.5改進(jìn)的YOLOv8模型以YOLOv8模型為基礎(chǔ)進(jìn)行優(yōu)化,改進(jìn)后的模型結(jié)構(gòu)如圖5所示,旨在提升真實(shí)田間復(fù)雜環(huán)境下玉米葉斑病的識(shí)別與檢測(cè)性能。
1)骨干網(wǎng)絡(luò)和Neck部分。使用GSConv和VoV-GSCSP代替基礎(chǔ)模型中的Conv卷積和C2f模塊,降低模型的網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜度[19]。這些改進(jìn)使模型更輕量化,減少計(jì)算成本。
union=(wgt×hgt)×(ratio)2+(w×h)×
LInner-CIoU=LCIoU+1-IoUinner
式中, LInner-CIoU 表示Inner-CIoU損失函數(shù)的值,用于衡量預(yù)測(cè)框和真實(shí)框的差異; bgtl 表示真實(shí)框的左邊界坐標(biāo); bgtr 表示真實(shí)框的右邊界坐標(biāo); bgtt 表示真實(shí)框的頂部邊界坐標(biāo); bgtb 表示真實(shí)框的底部邊界坐標(biāo); bι 表示預(yù)測(cè)框的左邊界坐標(biāo); br 表示預(yù)測(cè)框的右邊界坐標(biāo); bt 表示預(yù)測(cè)框的頂部邊界坐標(biāo); bb 表示預(yù)測(cè)框的底部邊界坐標(biāo); xgtc 表示真實(shí)框的中心點(diǎn) x 坐標(biāo); ygtc 表示真實(shí)框的中心點(diǎn) y 坐標(biāo); xc 表示預(yù)測(cè)框的
2)GAM。在Neck模塊的末尾引人 GAM[20] ,通過(guò)整合各維度的信息來(lái)增強(qiáng)特征提取能力。該機(jī)制能夠自適應(yīng)地聚焦玉米葉斑病的關(guān)鍵區(qū)域,在提升定位精度的同時(shí)減少冗余計(jì)算,實(shí)現(xiàn)更高效率的病害檢測(cè)。
3)Inner-IoU損失函數(shù)。在CIoU的基礎(chǔ)上引人Inner-IoU損失函數(shù)[21],使模型能夠及時(shí)調(diào)整最適合檢測(cè)任務(wù)的輔助邊緣尺度,加速模型收斂,提高模型的泛化能力。這些改進(jìn)措施明顯提升了模型在復(fù)雜田間環(huán)境中的檢測(cè)性能,使其能夠更準(zhǔn)確、快速地識(shí)別玉米葉斑病,為農(nóng)業(yè)生產(chǎn)提供強(qiáng)有力的技術(shù)支持。
1.3 評(píng)估指標(biāo)
使用召回率、精確度、平均精度均值( ΠmAP@ 0.5) mAP@[0.5:0.95] 、總參數(shù)計(jì)數(shù)和推理時(shí)間作
為評(píng)估和改進(jìn)模型的主要指標(biāo),并與其他控制模型進(jìn)行比較。
召回率 (Recall) 表示在預(yù)測(cè)陽(yáng)性樣本中被正確識(shí)別的概率,計(jì)算式如下。
精確度(Precision)表示在預(yù)測(cè)為陰性的樣本中被正確識(shí)別為陽(yáng)性樣本的概率,計(jì)算式如下。
平均精度均值 是衡量Precision和Recall的綜合表現(xiàn),反映模型在某一類別上的檢測(cè)能力,計(jì)算式如下。
式中, TP (True positives)是陽(yáng)性樣本被正確識(shí)別為陽(yáng)性樣本的數(shù)量; FN (Falsenegatives)是陽(yáng)性樣本被錯(cuò)誤識(shí)別為陰性樣本的數(shù)量; FP (False posi-tives)是陰性樣本被錯(cuò)誤識(shí)別為陽(yáng)性樣本的數(shù)量;APi 表示第 i 個(gè)類別的平均精度。此外,總參數(shù)計(jì)數(shù)和推理時(shí)間被納入考量,以全面評(píng)估模型的性能。總參數(shù)計(jì)數(shù)反映模型的復(fù)雜度,而推理時(shí)間則衡量模型的實(shí)時(shí)檢測(cè)能力。通過(guò)這些評(píng)估指標(biāo)可以全面了解模型的檢測(cè)性能,并與其他模型進(jìn)行對(duì)比,從而驗(yàn)證改進(jìn)方法的有效性。
1.4 試驗(yàn)環(huán)境
試驗(yàn)環(huán)境的配置如表1所示[22]。試驗(yàn)設(shè)置初始學(xué)習(xí)率為0.01,動(dòng)量為 0.937[23] ,圖像輸入大小為901px×506px ,批量大小為16,訓(xùn)練周期為300。該配置充分利用硬件計(jì)算資源,在保證訓(xùn)練效率的同時(shí)優(yōu)化模型性能。
2 結(jié)果與分析
2.1 算法性能分析
為了評(píng)估不同算法的性能,本研究選取多種常用注意力機(jī)制模塊進(jìn)行對(duì)比分析,包括GAM、SE、MCA、Context及CBAM。試驗(yàn)在相同的數(shù)據(jù)集和參數(shù)設(shè)置下進(jìn)行。結(jié)果(圖6)表明,GAM在識(shí)別性能
方面優(yōu)于其他模塊。
在GAM基礎(chǔ)上引入 模塊,將其與GDM模塊、DWConv模塊和RFA模塊進(jìn)行比較。結(jié)果(圖7)表明,
模塊在識(shí)別效果上明顯優(yōu)于其他模塊。
改進(jìn)的YOLOv8模型在復(fù)雜田間環(huán)境中表現(xiàn)出卓越的識(shí)別性能,提升了玉米葉斑病的檢測(cè)精度和效率。
2.2 消融試驗(yàn)
與 YOLOv8 模型相比,GAM的引入明顯提升了模型性能,盡管參數(shù)數(shù)量增加,但Precision、Recall、mAP@0.5 和 分別增加 2.27% 、2.92%.1.71% 和 4.82% (表2)。這表明GAM能夠有效引導(dǎo)模型聚焦關(guān)鍵區(qū)域,從而顯著提升識(shí)別精度。與YOLOv8模型相比,改進(jìn)YOLOv8模型( GAM+ Slim-Neck+Inner-CIoU)的Precision、Recall、 mAP@
0.5和 分別增加 4.15%,5.51% 、3.91% 和 11.35% ,參數(shù)量和檢測(cè)時(shí)間分別減少10.39% 和 3.42% 。明顯減少了模型總參數(shù)數(shù)量,簡(jiǎn)化了模型架構(gòu)。 GAM,Slim-Neck,Inner-CIoU 的引入明顯提升了 YOLOv8 模型的性能(圖8)。
2.3 模型比較
為驗(yàn)證改進(jìn)后 YOLOv8 模型的綜合性能,本研究選取具有代表性的單階段與雙階段檢測(cè)模型進(jìn)行橫向?qū)Ρ?,包括YOLOv3模型、YOLOv5模型、YO-LOv6模型、YOLOv8模型及FasterR-CNN模型。所有試驗(yàn)均在統(tǒng)一數(shù)據(jù)集與超參數(shù)配置下完成訓(xùn)練與測(cè)試,以嚴(yán)格控制變量干擾。由表3可知,改進(jìn)后的YOLOv8 模型在 Precision,Recall,mAP@0.5 和 mAP@ [0.5:0.95] 方面普遍優(yōu)于其他模型,同時(shí)在參數(shù)量和檢測(cè)時(shí)間上也表現(xiàn)出顯著的優(yōu)勢(shì),兼具高效性與輕量化特點(diǎn)。改進(jìn)的YOLOv8模型能夠更高效地捕獲關(guān)鍵信息,充分融合多維度特征,合理分配計(jì)算資源,從而提升識(shí)別準(zhǔn)確率。這使得模型在復(fù)雜現(xiàn)場(chǎng)環(huán)境中不僅能夠快速精準(zhǔn)地定位疾病位置,還可以準(zhǔn)確判斷疾病類型,展現(xiàn)出卓越的性能與適應(yīng)性。
為驗(yàn)證改進(jìn)后YOLOv8模型的檢測(cè)性能,采用改進(jìn)YOLOv8模型對(duì)玉米葉斑病圖像進(jìn)行分析與驗(yàn)證。
改進(jìn)YOLOv8模型能夠準(zhǔn)確辨別玉米葉斑病的位置,沒(méi)有出現(xiàn)假陽(yáng)性實(shí)例(圖9),該模型在玉米葉斑病識(shí)別任務(wù)中表現(xiàn)優(yōu)異,具有顯著的實(shí)用價(jià)值與推廣潛力。
3 小結(jié)
首先,引入了GAM,增強(qiáng)模型對(duì)重要區(qū)域的關(guān)注能力,從而提高識(shí)別的準(zhǔn)確性。其次,Slim-Neck模塊的應(yīng)用簡(jiǎn)化了模型結(jié)構(gòu),降低計(jì)算成本,同時(shí)保持高識(shí)別精度。此外,Inner-IoU損失函數(shù)的引入加速模型的收斂,提高泛化能力,進(jìn)一步優(yōu)化模型性能。改進(jìn)的YOLOv8模型在復(fù)雜田間環(huán)境中能高效識(shí)別葉斑病,并準(zhǔn)確標(biāo)定其位置。與YOLOv3模型、YOLOv5模型、YOLOv6模型、YOLOv8模型、FasterR-CNN模型相比,改進(jìn)的YOLOv8模型不僅性能增強(qiáng),而且參數(shù)復(fù)雜度降低,網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)化,為農(nóng)業(yè)生產(chǎn)提供了強(qiáng)有力的技術(shù)支持。
參考文獻(xiàn):
[1]趙玉霞.基于圖像識(shí)別的玉米葉部病害診斷技術(shù)研究[D].北京:北京郵電大學(xué),2007.
[2]樊湘鵬,周建平,許燕.基于改進(jìn)區(qū)域卷積神經(jīng)網(wǎng)絡(luò)的田間玉米葉部病害識(shí)別[J].華南農(nóng)業(yè)大學(xué)學(xué)報(bào),2020,41(6):10.
[3]慕君林,馬博,王云飛,等.基于深度學(xué)習(xí)的農(nóng)作物病蟲(chóng)害檢測(cè)算法綜述[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2023,54(S2):301-313.
[4]邊柯橙,楊海軍,路永華.深度學(xué)習(xí)在農(nóng)業(yè)病蟲(chóng)害檢測(cè)識(shí)別中的應(yīng)用綜述[J].軟件導(dǎo)刊,2021,20(3):26-33.
[5]楊鋒,姚曉通.基于改進(jìn)YOLOv8的小麥葉片病蟲(chóng)害檢測(cè)輕量化模型[J].智慧農(nóng)業(yè)中英文,2024,6(1):147-157.
[6]劉潤(rùn)飛.基于改進(jìn)YOLOv8的棉花蟲(chóng)害檢測(cè)算法[J].農(nóng)業(yè)工程,2024,14(7):42-47.
[7]朱婷茹.基于無(wú)人機(jī)影像的松林變色立木識(shí)別方法研究[D].南京:南京林業(yè)大學(xué),2023.
[8]高偉鋒.基于YOLOv8的柑橘病蟲(chóng)害識(shí)別系統(tǒng)研究與設(shè)計(jì)[J].智慧農(nóng)業(yè)導(dǎo)刊,2023,3(15):27-30.
[9]張書(shū)貴,陳書(shū)理,趙展.改進(jìn)YOLOv8的農(nóng)作物葉片病蟲(chóng)害識(shí)別算法[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2024,45(7):255-260.
[10]李志良,李夢(mèng)霞,董勇,等.基于改進(jìn)YOLO 的輕量化玉米害蟲(chóng)識(shí)別方法[J].江蘇農(nóng)業(yè)科學(xué),2024,52(14):196-206.
[11]SHRIVASTAVAA,GUPTA A.Contextual priming and feedbackforfasterR-CNN[A].Computer vision-ECCV 2016:14th Euro-pean conference[C].Amsterdam,Netherlands:Springer,2016.
[12]HE K, ZHANG X,REN S,et al. Spatial pyramid pooling in deepconvolutional networks for visual recognition[J]. IEEE transac-tions on pattern analysis and machine intelligence,2O15,37(9):1904-1916.
[13]DEVRIEST,TAYLORG W.Improved regularization of convolu-tional neural networkswith cutout[J].arXiv preprint arXiv:170804552. 2017.
[14]ZHANGH,CISSE M,DAUPHINYN,etal.Mixup:Beyond em-pirical risk minimization[J].arXiv preprint arXiv:171009412.2017.
[15]HENDRYCKSD,MUN,CUBUKED,et al.Augmix:A simpledata processing method to improve robustness and uncertainty[J].arXiv preprint arXiv:191202781.2019.
[16]ROY A M,BHADURI J.DenseSPH-YOLOv5:An automated
damage detection model based on denseNet and swin-transformer prediction head-enabled YOLOv5 with attention mechanism[J]. Advanced engineering informatics,2023,56:102007.
[17]ROYAM,BHADURIJ,KUMART,etal.WilDect-YOLO:An efficient and robust computer vision-based accurate object localizationmodel forautomated endangered wildlifedetection[J].Ecologicalinformatics,2023,75:101919.
[18]WUD,JIANGS,ZHAOE,etal.Detection ofCamellia oleifera fruit in complex scenes by using YOLOv7 and data augmentation[J].Applied sciences,2022,12(22):11318.
[19]ZHAOQ,YANGL,LYUN.A driver stress detection model via data augmentation based on deep convolutional recurrent neural network[J].Expert systems with applications,2024,238:122056.
[20]LIF,ZHANGH,XUH,etal.Mask dino:Towardsaunified transformer-based framework for object detection and segmentation[A]. IEEE conference on computer vision and pattern recognition[C]. IEEE,2023.3041-3050.
[21]YE Z,GUOQ,WEI J,et al.Recognition of terminal buds of densely-planted Chinese firseedlingsusingimproved YOLOv5by integrating attention mechanism[J].Frontiers in plant science, 2022,13:991929.
[22]ZHENG Z,HUY,QIAOY,etal.Real-time detection of winter jujubes based on improved YOLOX-nano network[J].Remote sensing,2022,14(19):4833.
[23]HU J,SHEN L,SUNG.Squeeze-and-excitation networks[A]. Proceedings of the IEEE conference on computer vision and patternrecognition[C].IEEE,2018.7132-7141.
(責(zé)任編輯雷霄飛)