收稿日期:2024-06-18
基金項目:四川省科技廳關鍵技術攻關項目(22ZDYF0095)
作者簡介:李 芳(2001-),女,四川巴中人,碩士研究生,研究方向為機器視覺和目標檢測。(E-mail)18116718920@163.com
通訊作者:危疆樹,(E-mail)weijiangshu66@163.com
摘要: 為了解決辣椒病害檢測速度慢,漏檢率和誤檢率高的問題,本研究以YOLOv8n為基線模型,引入Adown下采樣模塊替代原模型骨干網絡(Backbone)的卷積下采樣層,引入SlimNeck模塊將原模型頸部網絡中的卷積層和特征聚合模塊(C2f)替換為混合卷積模塊(GSConv)和跨階段部分網絡(VoVGSCSP)模塊,并利用輔助訓練頭Aux Head(Auxiliary head)融合原有的檢測頭,構建改進的YOLOv8n模型(YOLOv8n-ATA模型)。最后利用辣椒炭疽病、褐斑病、臍腐病和細菌性葉斑病等4種病害影像數據集對改進后的模型性能進行分析。結果表明,改進后模型的浮點計算量和模型大小比原YOLOv8n模型增加19.5%和10.2%,但模型對辣椒病害的識別精確率、平均精度均值mAP50和mAP50∶95分別提升2.6個百分點、2.9個百分點和2.9個百分點,同時每1 s傳輸幀數增加15.1%。因此,改進后的模型能夠對辣椒病害進行有效識別,較好實現模型識別準確度與效率的平衡。
關鍵詞: 辣椒病害;YOLOv8n模型;目標檢測;Adown下采樣模塊;SlimNeck模塊;Aux Head檢測頭
中圖分類號: S24;TP391.4"" 文獻標識碼: A"" 文章編號: 1000-4440(2025)02-0323-12
A chili disease detection method based on an improved YOLOv8n model
LI Fang1, WEI Jiangshu1, WANG Yuchao2, ZHANG Yao1, XIE Yuxin1
(1.College of Information Engineering, Sichuan Agricultural University, Ya’an 625014, China;2.College of Mechanical and Electrical Engineering, Sichuan Agricultural University, Ya’an 625014, China)
Abstract: To solve the problems of slow detection speed, high missed detection rate, and high 1 detection rate in chili disease detection, this study used YOLOv8n as the baseline model and constructed an improved YOLOv8n model (YOLOv8n-ATA model). The Adown downsampling module was introduced to replace the convolutional downsampling layer of the Backbone of the original model. The SlimNeck module was introduced to replace the convolutional layer and feature aggregation module (C2f) in the neck network of the original model with the hybrid convolution module (GSConv) and the cross-stage partial network (VoVGSCSP) module. Moreover, the auxiliary training head Aux Head (Auxiliary head) was used to fuse the original detection head. Finally, the performance of the improved model was evaluated using the image datasets of four chili diseases, such as anthracnose, brown spot, blossom-end rot and bacterial leaf spot. The results showed that the floating-point calculations and size of the improved model were 19.5% and 10.2% higher than those of the original YOLOv8n model. However, the identification accuracy, mAP50 and mAP50∶95 of the model for chili diseases increased by 2.6 percentage points, 2.9 percentage points and 2.9 percentage points, respectively. At the same time, the number of frames per second increased by 15.1%. Therefore, the improved model can effectively identify chili diseases and better achieve the balance between accuracy and efficiency of model recognition.
Key words: chili diseases;YOLOv8n model;target detection;Adown downsampling module;SlimNeck module;Aux Head
辣椒(Capsicum annuum L)是茄科辣椒屬一年生或有限多年生草本或灌木植物,具有適應性強、風味多樣、營養(yǎng)豐富等特點,備受消費者喜愛[1]。辣椒是中國重要的蔬菜產品,2022年辣椒種植面積達2.23×106 hm2,總產量約6.4×107 t,產值超過2.7×1011元[2]。辣椒種植過程中,病害是導致辣椒產量和品質下降的主要原因之一,及時精準地診斷辣椒病害不但可以提升辣椒品質與產量,同時還能降低環(huán)境負擔、增強生產效能[3]。
隨著信息技術的發(fā)展,人工智能和圖像識別技術在現代農業(yè)中得到了廣泛應用。目前基于卷積神經網絡的深度學習技術越來越受到關注。基于深度學習的目標檢測算法主要分為單階段檢測算法與雙階段檢測算法兩類。單階段檢測算法常以某個神經網絡模型直接預測圖像中的目標位置和類別,常用的模型有YOLO系列[4]、SSD[5]、RetinaNet[6]等,具有快速、簡潔及適應性強的優(yōu)勢;雙階段檢測算法一般分為兩個獨立的階段進行檢測,首先提取檢測目標所在區(qū)域,再進行目標分類和邊界框回歸。經典的雙階段檢測算法有R-CNN[7]、Faster R-CNN[8]、SPP-Net[9]等,雙階段檢測算法具有較高的識別準確度,但識別效率相對較低。
在基于深度學習的作物病害識別方面已有較多研究。儲鑫等[10]在YOLOv4模型的基礎上,利用K均值聚類算法調整先驗框維度,將寬度因子為0.25的MobileNetV1替代CSPDarknet53網絡來提取特征進行模型優(yōu)化。優(yōu)化后的模型參數量比原模型減少80%,對番茄葉片病害識別的平均精度均值(mAP)達98.76%。施杰等[11]通過集成SimAm注意力機制和引入EIOU損失函數對YOLOv5s模型進行優(yōu)化,優(yōu)化后的模型對玉米病蟲害的識別平均精度提高至88.8%。劉詩怡等[12]基于改進的YOLOv7模型,強化了模型對黃瓜葉片微小病斑的識別性能。周維等[13]利用輕量化的GhostNet網絡替換YOLOv4的主干網絡,構建了YOLOv4-GhostNet模型,構建的模型對水稻病蟲害的識別精度和效率均得到提升。鄒瑋等[14]基于YOLOv2模型對辣椒葉片上的蚜蟲進行定位和識別,結果顯示,該模型對辣椒葉片上的蚜蟲識別平均準確率達到96.49%。尚俊平等[15]在MobileNetV3的基礎上,構建了Mobile-LU模型,并用于辣椒病害的識別,結果發(fā)現該模型的識別準確率達98.2%。李西興等[16] 引入注意力機制對MaxViT模型進行了改進,改進后的模型對辣椒病毒病、根腐病的識別能力顯著提升,識別準確率達到98.10%。姚飛[17]優(yōu)化了Faster R-CNN模型,并將其用于辣椒炭疽病、病毒病、白粉病、青枯病和疫病等病害的識別,有效降低原模型的漏檢率,提高模型的檢測效率。丁文寬[18]基于卷積神經網絡和機器視覺開發(fā)了自然環(huán)境中辣椒果實的識別與定位,為智能采摘機器人的研發(fā)提供基礎。王啟錕等[19]在YOLOv5模型中引入注意力機制,有效降低自然環(huán)境中辣椒果實識別中的漏檢或錯檢問題,模型的識別平均準確率達93.1%。Pratap等[20]利用改進的EffecientNetB4模型對辣椒卷葉病、葉斑病等進行識別和分類,取得了較好的效果。Kanaparthi等[21]利用深度學習技術比較了不同SqueezNet層數和訓練參數對模型識別準確率的影響,實現了辣椒葉片病害的早期檢測。
雖然利用深度學習技術進行辣椒病害檢測已取得了較多成果,但上述研究主要針對單一背景的病害,并沒有考慮自然環(huán)境的復雜性,此外,現有的辣椒病害數據集還不夠豐富,難以覆蓋眾多的辣椒病害,這限制了現有模型在生產中的應用。針對這些問題,本研究以YOLOv8n為基線模型,提出了一種改進的辣椒病害檢測方法,旨在提高自然環(huán)境背景下辣椒病害的檢測精度,提高模型效率,為模型在移動設備中的應用提供技術支持。
1 材料與方法
1.1 數據集
本研究選取炭疽病、褐斑病、臍腐病和細菌性葉斑病等4種辣椒生產中常見的病害進行識別。病害示例如圖1所示。原始數據集由2022年科大訊飛辣椒病蟲害圖像識別挑戰(zhàn)賽中使用的部分病害圖片和課題組在巴中市辣椒種植地拍攝的病害圖片構成,共1 025張影像。為解決病害樣本分布不均衡的問題,通過旋轉與縮放技術對原始數據進行增強,增強后的數據集共有1 937張影像。使用LabelImg軟件對所有數據集中的病害類型進行標注,并按照7∶2∶1的比例劃分為訓練集、驗證集和測試集,分別包含1 355張影像、387張影像和195張影像。
1.2 辣椒病害檢測模型
1.2.1 YOLOv8模型 YOLOv8模型是YOLO系列中性能較好的單階段檢測模型,相比于Faster R-CNN等雙階段目標檢測模型具有更快的檢測速度和更高的準確率[22]。YOLOv8模型包括4個主要部分:接收圖像的輸入部分,負責圖像特征學習和提取的主干網絡(Backbone),進行池化和特征融合的頸部(Neck)網絡,檢測類別和檢測目標回歸框[23]及輸出的檢測頭(Head)。YOLOv8模型有YOLOv8n、YOLOv8s、YOLOv8m、YOLOv8l和YOLOv8x等版本,它們通過調整網絡架構的深度、寬度和參數量等來滿足不同的應用需求。隨著模型規(guī)模的增加,網絡的復雜度、計算量和推理時間都逐漸增加,同時精度也得到提升。YOLOv8n是最小且最快的版本,適用于資源受限的實時檢測任務;YOLOv8s則適合中等精度需求的場景;YOLOv8m在精度和速度之間提供良好的平衡,適合復雜應用;YOLOv8l適用于需要較高精度的任務,如復雜圖像分析;而YOLOv8x則提供最佳精度,適合高精度要求的任務,如醫(yī)學影像分析等。
為提高自然環(huán)境中辣椒病害檢測準確率和效率,本研究在YOLOv8n模型的基礎上,通過一系列的改進措施構建辣椒病害識別模型YOLOv8n-ATA,模型的整體結構如圖2所示。改進措施主要有3個方面:首先將Backbone中原有的卷積(Conv)下采樣層替換為Adown下采樣層,以降低模型的計算量和復雜度,其次引入輕量塊SlimNeck,將頸部網絡中的卷積層和特征聚合塊(C2f)替換為混合卷積塊(GSConv)和跨階段部分網絡(VoVGSCSP)模塊,保留原有頸部網絡連接通道,減少參數堆疊,以提升模型檢測精度和加速模型的推理;最后用輔助訓練頭AUXHead(Auxiliary head)融合原有的檢測頭,更好地融合辣椒病害深層和淺層特征,并綜合主檢測頭和輔助檢測頭的預測結果,實現更全面、更準確的目標檢測。
1.2.2 Adown下采樣模塊 檢測目標較小時,常規(guī)的下采樣操作可能會導致檢測目標信息丟失或者模糊,從而影響模型的檢測性能。為提升模型捕捉目標特征的能力,減少計算量,本研究引入Adown下采樣模塊[24],替換YOLOv8n主干網絡(Backbone)的3個卷積(Conv)下采樣層,Adown下采樣模塊的結構如圖3所示。
Adown下采樣模塊可減少特征圖的空間維度,能更好地檢測不同尺度的病害信息,特別適合較小檢測目標的特征提取和識別。Adown下采樣模塊先對輸入特征進行平均池化操作,再將結果分為兩個部分,分別進行卷積和最大池化處理,這樣一方面可加強參數的共享,另一方面可減少模型的參數量,最后將處理后的特征圖拼接起來作為下采樣處理后的結果返回,這樣能保留較多的輸入特征,有效減少信息的損失。
1.2.3 SlimNeck YOLOv8n模型中Neck網絡通過特征融合技術將不同尺度的特征圖進行拼接,恢復因下采樣而丟失的空間分辨率的同時,還能保留高層的語義信息。Neck中的C2f模塊在特征融合中起重要作用,但其也增加了模型的復雜度,導致訓練和推理時間增加。因此,為更好地提升模型性能,本研究將Neck中的Conv和C2f模塊替換為SlimNeck[25]的混合卷積模塊(GSConv)和跨階段部分網絡(VoVGSCSP)模塊。
GSConv是由標準卷積(SC)、深度可分離卷積(DSC)和混洗(Shuffle)操作共同組成的混合卷積。通過Shuffle操作,將SC生成的信息傳遞到DSC的各個部分,可最大限度地減少DSC缺陷對模型的影響并有效利用DSC的優(yōu)勢,GSConv結構如圖4所示。首先輸入一個普通卷積進行下采樣,然后使用深度卷積(DWConv),并將兩個Conv的結果拼接起來,最后采用重塑、轉置等方法對輸出張量進行Shuffle操作,實現對通道維度的分割和重組。這種分組卷積的方式可以提高模型對不同區(qū)域的感知能力,同時提高特征多樣性,有效增強目標檢測的性能?;诨旌暇矸e模塊(GSConv),結合一次性聚合方法構建跨階段部分網絡模塊(VoVGSCSP),如圖5所示。使用VoVGSCSP模塊來替換原模型中的C2f模塊,能夠較大程度地減輕計算負擔,強化模型提取病害特征的能力,有利于模型較好地捕捉目標關鍵信息。
1.2.4 Aux Head檢測頭 自然環(huán)境中,辣椒病害的病斑尺寸及空間位置往往存在較大差異,這給病害特征的提取和目標檢測帶來了極大的挑戰(zhàn)。此外,訓練初期主檢測頭可能會受到梯度消失或梯度爆炸的影響而導致學習困難。針對這些問題,本研究在YOLOv8n的檢測頭部分增加Aux輔助訓練頭[26],構成Aux Head檢測頭(圖6)。輔助檢測頭可以提供額外的梯度反饋,能加速模型的收斂。Aux輔助訓練頭僅在訓練時使用,而在模型推理過程中仍使用普通檢測頭。Aux Head有助于網絡中間層學習到更多的信息,從而幫助模型訓練,增強模型檢測不同尺寸目標的性能。
1.3 模型對辣椒病害的識別性能比較
首先比較了YOLOv8n、YOLOv8s、YOLOv8m、YOLOv8l和YOLOv8x模型對辣椒炭疽病的識別性能;然后比較了YOLOv8n和YOLOv8n-ATA模型對辣椒病害識別性能的差異,并開展模型改進方案的消融試驗(表1),明確不同改進模塊對辣椒病害識別性能的影響,最后將改進后的YOLOv8n-ATA模型與其他主流目標檢測模型YOLOv5s、YOLOv7-Tiny、YOLOv7-W6、YOLOv9-Tiny、SSD和RetinaNet進行比較,以驗證改進后的模型在辣椒病害識別中的優(yōu)勢。
1.4 系統(tǒng)開發(fā)環(huán)境及模型評價指標
1.4.1 模型系統(tǒng)開發(fā)環(huán)境及參數設置 本研究中改進的YOLOv8n模型在Windows10專業(yè)版操作系統(tǒng)下開發(fā),開發(fā)環(huán)境為Pycharm,所用語言為Python3.8.18,CPU型號為Intel(R) Xeon(R) Gold 6230R CPU @ 2.10GHz,運行內存為256 GB,GPU型號為NVIDIA GeForce RTX 4090,顯存為24 GB,并使用CUDA對GPU進行加速?;谏疃葘W習框架Torch 1.9.1進行模型訓練,具體參數設置如下:圖片尺寸640×640像素,使用隨機梯度下降算法(SGD)優(yōu)化器,共迭代訓練200次,學習率0.008,動量(Momentum)0.937,批量大?。˙atchSize)8。在訓練過程中使用馬賽克(Mosaic)數據增強,不使用混合提升(MixUp)數據增強。為了使模型更準確地學習,不使用預訓練權重,模型從頭開始訓練。
1.4.2 模型評價指標 研究中為表達模型對辣椒病害的檢測性能及檢測目標在圖像中的具體位置和置信度,采用混淆矩陣(Confusion matrix)和熱力圖(Heatmap)進行模型對辣椒病害識別性能的評估。具體的指標包括精確率(Precision)、召回率(Recall)、交并比(Intersection over Union, IoU)閾值為0.5時的平均精度均值(mAP50)、IoU閾值為0.5到0.95范圍的平均精度均值(mAP50∶95)、浮點運算量、模型大小、參數量和每1 s傳輸幀數(FPS),計算方法如下:
Precision=TPTP+FP(1)
Recall=TPTP+FN(2)
AP=∫10Precision(Recall)dRecall(3)
mAP=1C∑Ci=1AP(4)
FPS=1 000P+I+PS(5)
式中,C為病害類別數量,研究中取值為4;TP表示預測為正樣本實際也為正樣本的數量;FP表示預測為正樣本但實際為負樣本的數量;FN表示預測為負樣本但實際為正樣本的數量;P為數據從原始輸入到模型輸入之間的處理時間;I為模型對圖像進行前向推理并生成預測結果所需的時間;PS為模型輸出之后進行的后續(xù)處理時間。
2 結果與分析
2.1 不同版本YOLOv8模型對數據集中炭疽病害識別效果
5個版本YOLOv8模型對數據集中辣椒炭疽病害識別效果如表2所示。從表可以看出,YOLOv8x模型對辣椒炭疽病害識別的精確率(Precision)、召回率(Recall)、平均精度均值mAP50和mAP50∶95比YOLOv8n模型提升-0.2個百分點、0.9個百分點、0.2個百分點和1.5個百分點,但其浮點運算量、模型大小和模型參數量分別是YOLOv8n模型的31.5倍、22.0倍、22.7倍,每1 s傳輸幀數(FPS)亦遠低于YOLOv8n模型。YOLOv8s模型的精確率比YOLOv8n高0.5個百分點,但其平均精度均值mAP50和mAP50∶95均比YOLOv8n模型低,且其浮點運算量、模型大小和模型參數量分別是YOLOv8n模型的3.5倍、3.6倍、3.7倍。上述結果說明,復雜的模型結構雖然能提升識別精度,但會極大地增加計算量,降低模型效率。因此,從模型輕量化的角度,本研究選擇YOLOv8n作為基線模型是適宜的。
2.2 消融試驗結果
不同改進模塊對模型識別性能影響的消融試驗結果如表3所示。從表中可以看出,3個改進模塊均能有效提高模型的檢測性能,提升模型識別效率。利用Adown下采樣模塊替換YOLOv8n模型骨干網絡(Backbone)中原有的Conv下采樣模塊的方案1,模型對辣椒病害識別的召回率下降0.9個百分點,但mAP50、mAP50∶95和精確率較基線模型(方案0)提升0.1個百分點、0.9個百分點和2.2個百分點,且浮點運算量和模型大小分別降低8.5%和11.9%,說明Adown模塊能夠有效簡化模型結構,優(yōu)化計算效率,加速模型處理速度。引入SlimNeck模塊的方案2,模型對辣椒病害識別的召回率下降0.7個百分點,但mAP50、mAP50∶95和精確率較基線模型分別提升0.5個百分點、1.5個百分點和0.8個百分點,浮點運算量和模型大小分別降低9.8%和5.1%,說明GSConv和VoVGSCSP模塊能夠提高模型的感受野和特征提取能力,有效地學習辣椒病害的特征。引入Aux Head模塊的方案3,模型對辣椒病害識別的召回率、mAP50、mAP50∶95和精確率較基線模型分別提升0.4個百分點、1.5個百分點、1.1個百分點和0.2個百分點,而浮點運算量和模型大小分別增加36.6%和25.4%,說明Aux Head模塊的應用能提升模型的精確率、mAP等,但也一定程度上增加了模型的復雜度,主要是因為它引入了額外的網絡分支和計算流程,以及需要額外的資源來計算和反向傳播額外的損失函數。同時引入Adown模塊和SlimNeck模塊的方案4、引入Adown模塊和Aux Head的方案5以及引入SlimNeck模塊和Aux Head的方案6,模型的復雜度雖有一定程度的提升,但模型亦能提取出更多的特征信息,避免特征丟失,從而使得模型對辣椒病害識別的召回率、mAP50、mAP50∶95和精確率均有不同程度的提升。同時引入Adown模塊、SlimNeck模塊和Aux Head模塊的方案7(YOLOv8n-ATA模型)對辣椒病害識別的召回率、mAP50、mAP50∶95和精確率較基線模型分別提升3.5個百分點、2.9個百分點、2.9個百分點和2.6個百分點,結果表明在模型浮點運算量和模型大小分別增加19.5%和10.2%條件下,mAP50、mAP50∶95、精確率和召回率分別達到85.2%、44.7%、87.3%和79.9%。綜上所述,改進后的YOLOv8n-ATA模型雖然浮點運算量和模型大小有所增加,但模型提取病害特征信息的能力得到了較大程度的提升。即改進方案能有效均衡模型的精度和效率。
不同消融試驗方案的模型識別結果熱力圖如圖7所示。從圖中可以看出,消融試驗方案1至方案6,模型在識別時都能成功關注到炭疽病害,但普遍存在將無病害的背景或葉片誤識別為病斑的情況。相比之下,原模型錯誤地將部分葉片識別為細菌性葉斑病病斑,漏檢了真正的炭疽病病斑。而采用3個改進模塊的模型能夠正確識別病斑,不存在誤檢情況。
2.3 改進模型YOLOv8n-ATA對辣椒病害的識別效果
2.3.1 YOLOv8n模型改進前后的識別效果比較 YOLOv8n模型改進前后對辣椒病害的識別效果如表4所示。從表中可以看出,改進后的模型(YOLOv8n-ATA)對辣椒病害的識別效果比原YOLOv8n模型有顯著的提升。雖然YOLOv8n-ATA的浮點運算量和模型大小比原YOLOv8n模型增加19.5%和10.2%,但辣椒病害的識別精確率、召回率、mAP50和mAP50∶95分別提升2.6個百分點、3.5個百分點、2.9個百分點和2.9個百分點,同時每1 s傳輸幀數增加15.1%,提升4.7s。由此可以看出,本研究改進后的模型能更好地實現模型復雜度和準確率的平衡。YOLOv8n模型和YOLOv8n-ATA模型在驗證集上的mAP50和損失變化曲線如圖8所示。從圖中可以看出,隨著迭代次數的增加,2個模型的mAP50和損失呈現相似的變化特征,即平均精度均值快速增加并達到穩(wěn)定,而損失則快速下降并達到穩(wěn)定。但在相同的迭代次數下,YOLOv8n-ATA模型擁有更高的平均精度均值和更低的損失值。
YOLOv8n模型與YOLOv8n-ATA模型對測試集辣椒病害識別結果的可視化效果如圖9所示。從圖中可以看出,改進前的模型(YOLOv8n模型)在較復雜環(huán)境下對辣椒病害存在誤檢,將非病害信息誤判為炭疽病和臍腐病,顯示YOLOv8n模型的學習能力和檢測準確度相對較低。此外,原模型對病害的邊緣和整體信息學習不足,導致臍腐病出現多個檢測框,同時對褐斑病和細菌性葉斑病存在漏檢等現象。相比之下,改進后的YOLOv8n-ATA模型能顯著減少誤檢和漏檢。
2.3.2 混淆矩陣 利用YOLOv8n模型與YOLOv8n-ATA模型對驗證集中辣椒病害識別的混淆矩陣如圖10所示。由圖中可以看出,YOLOv8n-ATA模型在辣椒病害識別方面表現出色,與基線模型(YOLOv8n模型)相比,改進后的模型對各類別病害的檢測準確率均有所提升,正確分類病害樣本的數量分別從原來的217個、189個、152個和90個增加到218個、194個、161個和96個。另外,YOLOv8n-ATA模型還消除了基線模型對于臍腐病的3個錯檢點,且誤判為背景的次數減少??偟膩碚f,改進后的模型(YOLOv8n-ATA模型)在所有類別病害識別上均展現了更好的性能,在細粒度的類別區(qū)分上有了更高的識別能力。
2.4 模型對比試驗結果
采用YOLOv8n-ATA模型和YOLOv5s模型、YOLOv7-Tiny模型、YOLOv7-W6模型、YOLOv9-Tiny模型、SSD模型、RetinaNet模型對辣椒病害的識別效果如表5所示。從表中可以看出,YOLOv5s模型的浮點計算量和模型大小分別是YOLOv8n-ATA模型的1.6倍和2.2倍,且模型對病害的識別精確率、召回率、平均精度均值均低于YOLOv8n-ATA模型。YOLOv7-Tiny模型對病害識別的精確率、召回率和mAP50、mAP50∶95分別比YOLOv8n-ATA低4.0個百分點、4.1個百分點、6.9個百分點和7.0個百分點,且識別效率也低。使用Aux檢測頭的YOLOv7-W6模型識別精度低于YOLOv8n-ATA模型,且浮點運算量和參數量大幅度上升,進而導致識別效率大幅度下降。YOLOv9-Tiny模型雖然有較低的模型大小和參數量,但其對辣椒病害識別的mAP50、mAP50∶95、精確率和召回率均低于YOLOv8n-ATA模型。同樣,SSD模型和RetinaNet模型的浮點運算量、參數量和模型大小均遠高于YOLOv8n-ATA模型,且模型對病害識別的精確率、召回率和mAP50、mAP50∶95亦低于YOLOv8n-ATA模型。從上述分析可知,與其他模型相比,YOLOv8n-ATA模型對辣椒病害不但具有較高的識別準確率,同時也具有較高的識別效率。
不同模型對辣椒病害識別結果的熱力圖如圖11所示。從圖中可以看出,對于辣椒炭疽病、臍腐病和細菌性葉斑病,YOLOv8n-ATA模型具有最高的置信度,且不存在多余的檢測框及將大塊病斑分為小塊病斑進行識別的現象;對于病斑較小的褐斑病,YOLOv8n-ATA模型也能更準確、精確地定位到病斑上,其他模型不同程度存在漏檢、多余的檢測框及將大塊病斑分為小塊病斑識別的現象。即YOLOv8n-ATA模型在辣椒炭疽病、臍腐病、褐斑病和細菌性葉斑病的識別中均表現出良好的性能,具有較高的識別準確率。
3 結論
本研究基于YOLOv8n模型,利用平均池化、卷積和最大池化等操作構成Adown下采樣模塊替代原模型Backbone中的3個下采樣Conv層,引入GSConv和VovGSCSP模塊替代原模型頸部網絡中的卷積層和C2f模塊,并將輔助訓練頭Aux融入到原檢測頭中,建立了一個辣椒炭疽病、臍腐病、褐斑病和細菌性葉斑病的檢測模型——YOLOv8n-ATA模型。測試結果表明,改進后的YOLOv8n-ATA模型在對辣椒病害進行識別時,雖然浮點計算量和模型大小比原YOLOv8n模型增加19.5%和10.2%,但對辣椒病害的識別精確率、召回率、mAP50和mAP50∶95分別提升2.6個百分點、3.5個百分點、2.9個百分點和2.9個百分點,每1 s傳輸幀數增加15.1%。同時,與其他模型相比,YOLOv8n-ATA模型能夠在不過分增加模型復雜度的情況下提高檢測準確率,既保持了單階段檢測模型在計算和內存消耗方面的優(yōu)勢,又融合了雙階段檢測模型在檢測精度方面的優(yōu)勢,使得模型性能更加均衡,滿足了移動端設備的應用需求,更適用于實際場景下的辣椒病害檢測。
參考文獻:
[1] 張子峰. 我國辣椒產業(yè)發(fā)展現狀、主要挑戰(zhàn)與應對之策[J]. 北方園藝,2023(14):153-158.
[2] 喬立娟,趙幫宏,宗義湘,等. 我國辣椒產業(yè)發(fā)展現狀、趨勢及對策[J]. 中國蔬菜,2023(11):9-15.
[3] 祝顯萍. 辣椒種植技術及病害防治[J]. 種子科技,2023,41(21):93-95.
[4] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once:unified,real-time object detection[C]//THE COMPUTER VISION FOUNDATION. 2016 IEEE conference on computer vision and pattern recognition (CVPR). Las Vegas,NV,USA:IEEE,2016:779-788.
[5] LIU W, ANGUELOV D, ERHAN D, et al. SSD:single shot MultiBox detector[M]//LEIBE B, MATAS J, SEBE N, et al. Computer vision-ECCV 2016 Part1. Cham:Springer International Publishing,2016:21-37.
[6] LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,42(2):318-327.
[7] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//IEEE. 2014 IEEE conference on computer vision and pattern recognition. Columbus,OH,USA:IEEE,2014:580-587.
[8] REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.
[9] HE K M, ZHANG X Y, REN S Q, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(9):1904-1916.
[10]儲 鑫,李 祥,羅 斌,等. 基于改進YOLOv4算法的番茄葉部病害識別方法[J]. 江蘇農業(yè)學報,2023,39(5):1199-1208.
[11]施 杰,林雙雙,張 威,等. 基于輕量化改進型YOLOv5s的玉米病蟲害檢測方法[J]. 江蘇農業(yè)學報,2024,40(3):427-437.
[12]劉詩怡,胡 濱,趙 春. 基于改進YOLOv7的黃瓜葉片病蟲害檢測與識別[J]. 農業(yè)工程學報,2023,39(15):163-171.
[13]周 維,牛永真,王亞煒,等. 基于改進的YOLOv4-GhostNet水稻病蟲害識別方法[J]. 江蘇農業(yè)學報,2022,38(3):685-695.
[14]鄒 瑋,岳延濱,馮恩英,等. 基于YOLOv2的辣椒葉部蚜蟲圖像識別[J]. 山東農業(yè)大學學報(自然科學版),2023,54(5):700-709.
[15]尚俊平,張冬陽,席 磊,等. 基于多尺度特征融合和注意力機制的辣椒病害識別模型[J]. 河南農業(yè)大學學報,2024,58(6):1021-1033.
[16]李西興,陳佳豪,吳 銳,等. 基于改進MaxViT的辣椒病害識別分類方法[J]. 華中農業(yè)大學學報,2024,43(2):123-133.
[17]姚 飛. 基于卷積神經網絡的辣椒病害檢測方法研究與應用[D]. 重慶:重慶大學,2022.
[18]丁文寬. 基于卷積神經網絡和機器視覺的辣椒檢測與識別[D]. 天津:天津理工大學,2017.
[19]王啟錕,王 旭. 基于改進YOLOv5的辣椒目標檢測算法研究[J]. 建模與仿真,2023,12(5):4654-4662.
[20]PRATAP V K, KUMAR N S. High-precision multiclass classification of chili leaf disease through customized EffecientNetB4 from chili leaf images[J]. Smart Agricultural Technology,2023,5:100295.
[21]KANAPARTHI K R, SUDHAKAR ILANGO S. A survey on training issues in chili leaf diseases identification using deep learning techniques[J]. Procedia Computer Science,2023,218:2123-2132.
[22]劉子洋,徐慧英,朱信忠,等. Bi-YOLO:一種基于YOLOv8n改進的輕量化目標檢測算法[J]. 計算機工程與科學,2024,46(8):1444-1454.
[23]付辰伏,任力生,王 芳. 基于改進YOLOv8的牛只行為識別與跟蹤方法[J]. 農業(yè)機械學報,2024,55(5):290-301.
[24]WANG C Y, YEH I H, MARK LIAO H Y. YOLOv9:learning what you want to learn using programmable gradient information[Z/OL]. (2024-02-29). http://arxiv.org/pdf/2402.13616.
[25]LI H L, LI J, WEI H B, et al. Slim-neck by GSConv:a lightweight-design for real-time detector architectures[J]. Journal of Real-Time Image Processing,2024,21(3):62.
[26]WANG C Y, BOCHKOVSKIY A, MARK LIAO H Y. YOLOv7:trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]//IEEE. 2023 IEEE/CVF conference on computer vision and pattern recognition (CVPR). Vancouver,BC,Canada:IEEE,2023:7464-7475.
(責任編輯:石春林)