摘要:隨著農(nóng)業(yè)智能化水平不斷提升,蘋果葉片病害自動(dòng)化檢測(cè)十分必要,而現(xiàn)有的自動(dòng)化檢測(cè)模型由于網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,難以在移動(dòng)端進(jìn)行部署?;诖?,構(gòu)建一種YOLOv5—SCFG輕量模型。首先,引入輕量型網(wǎng)絡(luò)ShuffleNetv2重新構(gòu)建YOLOv5骨干網(wǎng)絡(luò),保證網(wǎng)絡(luò)整體輕量化;然后,在頸部網(wǎng)絡(luò)引入CARAFE上采樣算子和FasterNet模塊,增強(qiáng)特征提取能力,加快特征融合速度;最后,添加全局注意力機(jī)制GAM,彌補(bǔ)網(wǎng)絡(luò)輕量化帶來(lái)的精度損失。結(jié)果表明,YOLOv5—SCFG模型權(quán)重大小為6.2 MB,平均精度均值mAP為85.9%,計(jì)算量FLOPs為6.3 G。相比于YOLOv5s,模型權(quán)重大小減少57%,mAP下降0.2%,F(xiàn)LOPs減小61%。
關(guān)鍵詞:蘋果葉片;輕量化模型;病害檢測(cè);YOLOv5s
中圖分類號(hào):S436.611; TP391.4" " " 文獻(xiàn)標(biāo)識(shí)碼:A" " " 文章編號(hào):2095?5553 (2025) 04?0126?07
Research and implementation of a lightweight YOLOv5 for apple leaf disease detection
Zhou Junchang Zeng Wei Peng Peng Pang Jicheng Liu Junjun Yang Xilin
(1. College of Computer Science and Cyber Security, Chengdu University of Technology, Chengdu, 610059, China;
2. Sichuan Engineering Technology Research Center of Industrial Internet Intelligent Monitoring and Application, Chengdu, 610059, China)
Abstract: With the continuous improvement of agricultural intelligence level, the automatic detection method of apple leaf disease becomes important and necessary, but the existing automatic detection algorithm model is often difficult to deploy on the mobile terminal due to the complex network structure, a lightweight model of YOLOv5—SCFG is proposed in this paper. Firstly, the lightweight ShuffleNetv2 network is introduced to rebuild the YOLOv5 backbone network, so as to ensure the overall lightweight network. Additionally, the CARAFE up?sampling operator and FasterNet module are introduced into the neck network, so as to enhance feature extraction capabilities and speed up feature fusion. Finally, the global attention mechanism (GAM) is introduced to compensate for the loss of precision caused by network lightweighting. The experimental results show that the weight size of YOLOv5—SCFG model is 6.2 MB, mAP is 85.9%, and FLOPs is 6.3 G. Compared with YOLOv5s, the weight size of YOLOV5-SCFG model is reduced by 57%, mAP is decreased by 0.2%, and FLOPs is decreased by 61%.
Keywords: apple leaves; lightweight model; disease detection; YOLOv5s
0 引言
蘋果作為重要的農(nóng)業(yè)作物,具有豐富的營(yíng)養(yǎng)價(jià)值和經(jīng)濟(jì)價(jià)值,為人類的健康生活提供物質(zhì)保障[1]。但在蘋果種植過(guò)程中,蘋果葉片容易受到各種病蟲的侵害,如果不能及時(shí)檢測(cè)和控制,將極大影響蘋果的產(chǎn)量與質(zhì)量[2]。因此,對(duì)蘋果葉片病害的快速、精準(zhǔn)識(shí)別十分關(guān)鍵。傳統(tǒng)的蘋果葉部病害識(shí)別方法多是依賴人工識(shí)別,然后采取噴灑化學(xué)藥劑等相應(yīng)措施進(jìn)行防治[3]。但這種方法時(shí)間成本高、效率低,由于病害的多樣性,果農(nóng)可能會(huì)做出誤判、漏判等情況,導(dǎo)致蘋果病害進(jìn)一步惡化。
隨著人工智能的不斷發(fā)展,基于深度學(xué)習(xí)的各種技術(shù)已應(yīng)用于各個(gè)領(lǐng)域[4]。其中,由于卷積神經(jīng)網(wǎng)絡(luò)具備優(yōu)秀的特征提取能力,如雙階段檢測(cè)模型R—CNN[5]、Fast R-CNN[6]、Faster R-CNN[7]等,單階段檢測(cè)模型YOLO[8]、SSD[9]、RetinaNet[10]等,十分適用于目標(biāo)檢測(cè)領(lǐng)域。因此,人們逐步將其應(yīng)用于農(nóng)業(yè)作物的病害檢測(cè),并取得顯著進(jìn)展。曹躍騰等[11]提出一種輕量化網(wǎng)絡(luò)Simplify—RestNet,對(duì)植物葉片病害檢測(cè)準(zhǔn)確率達(dá)92.45%。宋中山等[12]提出一種基于Faster R—CNN二值化的方法對(duì)柑橘病蟲害進(jìn)行檢測(cè),準(zhǔn)確率均在85%以上。徐會(huì)杰等[13]通過(guò)改進(jìn)YOLOv3對(duì)玉米葉片病害進(jìn)行檢測(cè),準(zhǔn)確率為93.31%。
在蘋果葉片病害檢測(cè)領(lǐng)域中,Zhong等[14]使用DenseNet—121卷積網(wǎng)絡(luò),并通過(guò)回歸、多標(biāo)簽分類和焦點(diǎn)損失函數(shù)3種方法來(lái)識(shí)別蘋果葉部病害,分別取得了93.51%、93.31%和93.71%的準(zhǔn)確率。Sun等[15]利用MEAN模塊和Inception模塊構(gòu)建一種新的蘋果葉病害檢測(cè)模型MEAN—SSD,mAP達(dá)到83.12%。徐艷蕾等[16]使用Transformer構(gòu)建CaTNet對(duì)蘋果病害檢測(cè)達(dá)到80%的精度。Zhu等[17]在YOLOv5中引入CA注意力機(jī)制和FEM特征增強(qiáng)模塊對(duì)蘋果葉片病害進(jìn)行檢測(cè),mAP達(dá)到95.9%。Zhu等[18]構(gòu)建新輕量網(wǎng)絡(luò)LAD—Net對(duì)蘋果葉片病害進(jìn)行檢測(cè),準(zhǔn)確率達(dá)98.58%。Zhang等[19]構(gòu)建新網(wǎng)絡(luò)BCTNet并部署在自建物理聯(lián)網(wǎng)上對(duì)4種蘋果葉片病害進(jìn)行檢測(cè),試驗(yàn)結(jié)果均符合實(shí)際需求。Jiang等[20]通過(guò)引入CA注意力改進(jìn)MobileNetV3對(duì)蘋果葉片病害進(jìn)行檢測(cè),準(zhǔn)確率達(dá)到98.31%。
上述學(xué)者在基于深度學(xué)習(xí)方面的蘋果葉片病害檢測(cè)研究中取得進(jìn)展,但仍存在一些不足。一方面模型準(zhǔn)確率高,但模型不夠輕量,不能滿足需要長(zhǎng)時(shí)間戶外作業(yè)的農(nóng)業(yè)人員;另一方面盡管使用輕量化模型,但模型的魯棒性均明顯下降,不能滿足復(fù)雜背景下蘋果葉片病害檢測(cè)。因此,找到一種既能兼顧準(zhǔn)確性和魯棒性,又相對(duì)輕量化的模型是蘋果病害相關(guān)研究者的共同目標(biāo)。
本文提出一種改進(jìn)的YOLOv5蘋果葉片病害檢測(cè)模型YOLOv5—SCFG,以解決模型在輕量化和魯棒性無(wú)法更好平衡的問(wèn)題。在模型方面,首先選擇ShuffleNetV2作為骨干網(wǎng)絡(luò),保證模型的整體輕量;然后使用CARAFE采樣算子和FasterNet模塊去優(yōu)化頸部網(wǎng)絡(luò),以增強(qiáng)特征提取和重組能力,并加快特征融合速度;最后引入全局注意力機(jī)制GAM,在不顯著增加計(jì)算資源的基礎(chǔ)上,彌補(bǔ)部分網(wǎng)絡(luò)輕量化帶來(lái)的精度損失。在魯棒性方面,選擇蘋果葉片的5種常見(jiàn)病害來(lái)構(gòu)建葉片檢測(cè)數(shù)據(jù)集,這些圖片是在復(fù)雜的野生環(huán)境中收集的,以提高模型的泛化能力。
1 改進(jìn)的YOLOv5病害檢測(cè)模型
1.1 YOLOv5—SCFG網(wǎng)絡(luò)結(jié)構(gòu)
YOLOv5—SCFG網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,主要由輸入層(Input)、骨干網(wǎng)絡(luò)(Backbone)、頸部網(wǎng)絡(luò)(Neck)和輸出層(Head)4部分組成。其中輸入層主要負(fù)責(zé)圖片的預(yù)處理,如自適應(yīng)錨框計(jì)算、自適應(yīng)圖片計(jì)算等;骨干網(wǎng)絡(luò)主要進(jìn)行圖片的特征提取,使用ShuffleNetv2基本模塊和全局注意力機(jī)制GAM構(gòu)建特征提取網(wǎng)絡(luò),替換原有網(wǎng)絡(luò)CSP—Darknet53實(shí)現(xiàn)骨干網(wǎng)絡(luò)輕量化;頸部網(wǎng)絡(luò)則負(fù)責(zé)將骨干網(wǎng)絡(luò)的特征進(jìn)行融合,使用CARAFE采樣算子替換原有上采樣算子最鄰近插值,增強(qiáng)特征提取與融合能力,使用FasterNet模塊替換頸部網(wǎng)絡(luò)的C3模塊,輕量化頸部網(wǎng)絡(luò)并加快運(yùn)算速度;輸出層最后負(fù)責(zé)輸出置信度得分最高的預(yù)測(cè)類別以及坐標(biāo)位置。
1.2 骨干網(wǎng)絡(luò)輕量化
1.2.1 ShuffleNetv2
ShuffleNetv2[21]是一種輕量化網(wǎng)絡(luò),為使檢測(cè)速度和精度性能平衡,該網(wǎng)絡(luò)充分考慮不同內(nèi)存訪問(wèn)成本(MAC),提出更加高效的網(wǎng)絡(luò)單元,如圖2所示,Unit1負(fù)責(zé)特征提取,Unit2主要負(fù)責(zé)下采樣。在Unit1中對(duì)輸入的特征圖先進(jìn)行通道劃分(Channel split),左右兩側(cè)各占輸入特征圖的一半,其中左側(cè)分支不處理,右側(cè)依次進(jìn)行卷積、批量歸一化等操作,當(dāng)右側(cè)完成卷積后,兩側(cè)便會(huì)進(jìn)行Concat操作,最后進(jìn)行通道混洗。在Unit2中對(duì)輸入的特征圖不進(jìn)行通道劃分,而是將特征圖分別輸入到左右兩側(cè),各自進(jìn)行卷積、批量歸一化等操作,之后通過(guò)Concat得到兩倍輸入的通道數(shù),以此增強(qiáng)特征提取能力,最后經(jīng)過(guò)通道混洗,并輸出。
1.2.2 GAM注意力
GAM[22]注意力機(jī)制通過(guò)減少信息的丟失和放大全局跨維度交互特征的注意力機(jī)制,其結(jié)構(gòu)如圖3所示。
GAM全局注意力采用CBAM中的順序通道,特征圖[F1]首先由通道注意力重新分配目標(biāo)權(quán)重后,再進(jìn)入空間注意力進(jìn)一步重新分配目標(biāo)權(quán)重,得到最終輸出特征圖[F3]。
通道注意力如圖4所示,首先將大小為[C×W×H]([H、W、]C分別表示特征圖高、寬、通道數(shù))的特征圖[F1]轉(zhuǎn)換為[W×H×C],再通過(guò)MLP來(lái)放大跨維通道,之后重置特征圖維度,再將結(jié)果通過(guò)Sigmoid函數(shù)激活,得到最后的特征圖[F2]。
空間注意力機(jī)制如圖5所示,將大小為[C×W×H]的特征圖先后通過(guò)2個(gè)7×7的卷積使空間信息得到融合,之后再通過(guò)Sigmoid函數(shù)激活得到最后的特征圖[F3]。
1.3 頸部網(wǎng)絡(luò)優(yōu)化
1.3.1 上采樣算子
YOLOv5采用的上采樣方式為最鄰近插值,通過(guò)采用點(diǎn)四周相鄰像素點(diǎn)中距離最近像素點(diǎn)的灰度值,該采樣方式簡(jiǎn)單、速度快,但忽略相鄰其他像素點(diǎn)的影響,導(dǎo)致灰度值不連續(xù),出現(xiàn)鋸齒狀,對(duì)圖像信息有影響。采用CARAFE[23]上采樣算子,該算子具有特征融合能力強(qiáng)、運(yùn)行速度快等特點(diǎn),如圖6所示。
該算子由核預(yù)測(cè)與特征重組2個(gè)模塊組成,首先是核預(yù)測(cè)模塊,該部分先通過(guò)1×1卷積將特征圖通道壓縮為[Cm],再通過(guò)卷積進(jìn)行內(nèi)容編碼,使特征通道變?yōu)閇σ2×k" " 2up]([σ]表示上采樣倍率,[k" " 2up]表示上采樣尺寸),接著按照空間維度展開(kāi)成[σH×σW×k" " 2up]大小并進(jìn)行歸一化處理,生成重組內(nèi)核模塊;其次特征重組模塊則是將未進(jìn)行通道壓縮的特征圖與維度展開(kāi)的核預(yù)測(cè)模塊進(jìn)行點(diǎn)積,得到最終特征圖。
1.3.2 FasterNet模塊
YOLOv5的頸部網(wǎng)絡(luò)中,C3卷積模塊是負(fù)責(zé)特征融合的一個(gè)重要部分,采用深度可分離卷積和跨階段連接的設(shè)計(jì)思想,減少網(wǎng)絡(luò)的參數(shù)量和計(jì)算量,提高網(wǎng)絡(luò)的效率和準(zhǔn)確性。但由于其較深的網(wǎng)絡(luò)結(jié)構(gòu),需要更多硬件資源,尤其是在高分辨率圖像上的處理會(huì)更加耗時(shí)。使用FasterNet[24]模塊來(lái)代替C3卷積,其結(jié)構(gòu)如圖7所示,由一個(gè)PConv和兩個(gè)逐點(diǎn)卷積組成一個(gè)殘差網(wǎng)絡(luò)的結(jié)構(gòu)。對(duì)輸入的特征圖先進(jìn)行PConv卷積,降低冗余計(jì)算,以快速獲得部分通道的特征信息,并保留未被卷積的通道,之后再使用兩次1×1的逐點(diǎn)卷積,處理所有通道的特征信息,并將得到的結(jié)果與輸入相加并輸出。
PConv卷積原理如圖8所示,輸入通道的其中一部分使用普通Conv進(jìn)行空間特征提取,其余通道均保持不變。在不損失一般性的前提下,輸入和輸出特征圖將是恒等的通道數(shù)量。對(duì)于連續(xù)或規(guī)則的內(nèi)存訪問(wèn),將第一個(gè)或最后一個(gè)連續(xù)的通道視為整個(gè)特征圖的計(jì)算代表,用于進(jìn)行PConv卷積的浮點(diǎn)計(jì)算。
2 數(shù)據(jù)制作與試驗(yàn)準(zhǔn)備
2.1 數(shù)據(jù)收集
圖像數(shù)據(jù)來(lái)自公開(kāi)數(shù)據(jù)集AppleLeaf9[25],該數(shù)據(jù)集融合了4個(gè)已公開(kāi)數(shù)據(jù)集,為增強(qiáng)模型應(yīng)對(duì)環(huán)境變化能力,增強(qiáng)模型的魯棒性,該數(shù)據(jù)集選用的圖片中野外復(fù)雜背景的圖片占比為94%。數(shù)據(jù)集包含蘋果健康葉片、銹病、斑點(diǎn)落葉病等9種蘋果葉片病害,選取其中5種葉片病害作為試驗(yàn)樣本,部分樣本如圖9所示,共2 830張圖像。
2.2 數(shù)據(jù)預(yù)處理
試驗(yàn)通過(guò)Labelimg軟件對(duì)葉片病害區(qū)域進(jìn)行標(biāo)注,生成XML標(biāo)注文件,通過(guò)格式轉(zhuǎn)化的腳本,將XML標(biāo)注文件轉(zhuǎn)化為YOLO需要的txt標(biāo)注文件,并以8∶2將數(shù)據(jù)集劃分為訓(xùn)練集和測(cè)試集。由于挑選的5種葉片病害中部分?jǐn)?shù)據(jù)樣本數(shù)量相對(duì)較少,網(wǎng)絡(luò)泛化性較差,為避免出現(xiàn)網(wǎng)絡(luò)過(guò)擬合并增強(qiáng)模型的魯棒性,使用python語(yǔ)言編寫一個(gè)數(shù)據(jù)增強(qiáng)的腳本,包括添加高斯噪聲、垂直翻轉(zhuǎn)、旋轉(zhuǎn)等幾種方式,最終得到圖片數(shù)量如表1所示,總共4 490張圖片,訓(xùn)練集3 592張,測(cè)試集898張。
2.3 環(huán)境設(shè)置
試驗(yàn)均在工作室計(jì)算機(jī)實(shí)現(xiàn),Window 11操作系統(tǒng),硬件配置為處理器Intel(R) Core(TM) i7-12700KF@3.61 GHz,內(nèi)存為64.0 GB;搭配24 G顯存的Nvidia GeForce RTX 3090,使用Python 3.7.16 和Pytorch 1.13.1,CUDA 11.6構(gòu)建深度學(xué)習(xí)環(huán)境。
YOLOv5—SCFG訓(xùn)練時(shí)輸入圖像為640像素×640像素,采用每批次樣本數(shù)為16,線程設(shè)置2,動(dòng)量因子為0.937,初始學(xué)習(xí)率為0.01,采用隨機(jī)梯度下降法(SGD)進(jìn)行訓(xùn)練,共訓(xùn)練200輪。
2.4 評(píng)價(jià)指標(biāo)
使用精確率P、召回率R、平均精度均值mAP、模型大小Size、浮點(diǎn)運(yùn)算FLOPs、參數(shù)量Params來(lái)體現(xiàn)網(wǎng)絡(luò)的性能。其中精確率、召回率計(jì)算如式(1)、式(2)所示。
利用精確率和召回率繪制PR曲線并求出積分得到每種類別平均精度AP,見(jiàn)式(3),再對(duì)所有類別(Total classes)的AP取平均值,即得到mAP,計(jì)算如式(4)所示。
3 試驗(yàn)結(jié)果與分析
3.1 YOLOv5—SCFG與YOLOv5s對(duì)比
為直觀體現(xiàn)YOLOv5—SCFG網(wǎng)絡(luò)模型的性能,與原YOLOv5s模型的參數(shù)對(duì)照如表2所示。YOLOv5—SCFG模型相比于YOLOv5s,浮點(diǎn)運(yùn)算減少61%,模型大小減少57%,但由于特征提取網(wǎng)絡(luò)輕量化后,卷積參數(shù)減少,對(duì)模型的特征提取能力減弱,導(dǎo)致模型平均精度均值降低0.2%,但由于其輕量化的效果明顯,為后續(xù)實(shí)現(xiàn)移動(dòng)端部署提供較大可能。
為更直觀地體現(xiàn)所提出模型的有效性,使用Grad—CAM[26]對(duì)YOLOv5—SCFG和YOLOv5s進(jìn)行熱力圖可視化對(duì)比,結(jié)果如圖10所示。
在落葉斑點(diǎn)病中,YOLOv5—SCFG的特征提取相對(duì)YOLOv5s效果略差,部分病害區(qū)域僅得到少許關(guān)注;在褐斑病、灰斑病和鐵銹病的特征提取中,二者特征提取效果相差無(wú)幾;在花斑病中,YOLOv5—SCFG表現(xiàn)效果更好,更加關(guān)注病害區(qū)域的主體部分,具有更強(qiáng)的病害特征提取能力。
3.2 模型消融試驗(yàn)對(duì)比
為較客觀地分析使用ShuffleNetv2卷積模塊、FasterNet模塊和GAM注意力機(jī)制以及CARAFE算子較原模型的提升,進(jìn)行消融試驗(yàn),結(jié)果如表3所示。試驗(yàn)1為原始YOLOv5s模型,在不添加和替換任何模塊的條件下,mAP為86.1%,參數(shù)量為7 M,浮點(diǎn)運(yùn)算為15.8 G,模型大小為14.4 MB;在試驗(yàn)2中將原有骨干網(wǎng)絡(luò)替換為ShuffleNetV2,在參數(shù)量、浮點(diǎn)運(yùn)算以及模型大小均減少50%的情況下,mAP也相應(yīng)減少6.1%,說(shuō)明模型輕量化后,會(huì)造成精度損失;試驗(yàn)3將C3模塊替換為FasterNet模塊,頸部網(wǎng)絡(luò)得到輕量化,模型體積減少14%,但mAP下降0.8%;試驗(yàn)4將原有最鄰近插值算子替換為CARAFE,mAP增加1.7%,說(shuō)明該算子特征提取融合能力較好,但復(fù)雜度相比原有算子更高,導(dǎo)致模型體積等參數(shù)均有上升;試驗(yàn)5則是在YOLOv5s的網(wǎng)絡(luò)中添加GAM注意力機(jī)制,mAP較原網(wǎng)絡(luò)提升0.6%,參數(shù)量、浮點(diǎn)運(yùn)算、模型大小均有所增加,說(shuō)明在不顯著增加計(jì)算量的基礎(chǔ)上,對(duì)精度提升有幫助;試驗(yàn)6在試驗(yàn)2的基礎(chǔ)上進(jìn)一步輕量化,mAP較YOLOv5s下降6.3%,但參數(shù)量、浮點(diǎn)運(yùn)算、模型大小均進(jìn)一步減少25%;試驗(yàn)7在試驗(yàn)6的基礎(chǔ)上增加CARAFE算子,在保持輕量化程度不變的情況下,mAP相比原YOLOv5s模型減少1.1%;試驗(yàn)8在試驗(yàn)7的基礎(chǔ)上添加GAM注意力機(jī)制,mAP增加0.9%,進(jìn)一步說(shuō)明,在不顯著增加計(jì)算量的情況下,GAM對(duì)精度提升有一定幫助,相比于原YOLOv5s,盡管mAP減少0.2%,但這對(duì)于實(shí)際戶外檢測(cè)影響較小,且整體網(wǎng)絡(luò)輕量化得到巨大提升,有利于在計(jì)算資源有限的移動(dòng)端設(shè)備上開(kāi)展智能化病害檢測(cè)。
3.3 不同檢測(cè)模型對(duì)比
本文提出的模型與SSD、YOLOv3、YOLOv3—tiny、YOLOv4、YOLOv4—tiny等模型參數(shù)對(duì)比結(jié)果如表4所示。SSD作為最初的單階段模型,mAP相對(duì)較低,且模型大小以及運(yùn)算量等不如其他后續(xù)發(fā)展的模型;YOLOv3與YOLOv4作為YOLO系列的后續(xù)版本,mAP值相對(duì)SSD效果較好,但由于其較大的計(jì)算量以及模型體積,嚴(yán)重占用硬件的計(jì)算資源以及內(nèi)存空間,不適合移動(dòng)端部署。YOLOv3—tiny與YOLOv4—tiny作為各自模型的輕量化,輕量化效果相比原模型較好,但綜合效果不如YOLOv5的輕量版YOLOv5s,YOLOv5—SCFG作為YOLOv5s的改進(jìn),mAP相比YOLOv5s降低0.2%,但計(jì)算量、浮點(diǎn)運(yùn)算以及模型體積均降低55%以上,在實(shí)現(xiàn)硬件端部署,提供更大可能性。
4 結(jié)論
1) 對(duì)YOLOv5s的骨干網(wǎng)絡(luò)進(jìn)行改進(jìn),采用更輕量的ShuffleNetv2作為新的骨干網(wǎng)絡(luò),進(jìn)行特征提取;實(shí)現(xiàn)頸部網(wǎng)絡(luò)的優(yōu)化,通過(guò)使用FasterNet模塊去替換C3模塊,保證頸部網(wǎng)絡(luò)的輕量化,再對(duì)上采樣算子進(jìn)行優(yōu)化,使用CARAFE替換原有的最鄰近插值方法,使得在上采樣過(guò)程擁有更強(qiáng)的特征提取與融合能力;在不顯著增加計(jì)算量的情況下,在骨干網(wǎng)絡(luò)中添加GAM注意力機(jī)制彌補(bǔ)部分模型因過(guò)多輕量化而導(dǎo)致的精度損失。
2) 提出的YOLOv5s改進(jìn)算法平均精度均值達(dá)到85.9%,參數(shù)量為2.9 M、浮點(diǎn)運(yùn)算為6.3 G、模型大小為6.2 MB,相比于YOLOv5s,檢測(cè)精度下降0.2%,但模型更加輕量化,與SSD、YOLOv3、YOLOv3—tiny、YOLOv4、YOLOv4—tiny相比,所提出的模型精度均值最高,對(duì)硬件消耗的資源最少,有利于將模型部署在移動(dòng)終端等資源受限的設(shè)備上,為后續(xù)研究提供新思路和方向。
參 考 文 獻(xiàn)
[ 1 ] Khan A I, Quadri s MK, Banday S, et al. Deep diagnosis: A real?time apple leaf disease detection system based on deep learning [J]. Computers and Electronics in Agriculture, 2022, 198: 107093.
[ 2 ] Ding R, Qiao Y, Yang X, et al. Improved resnet based apple leaf diseases identification [J]. IFAC?PapersOnLine, 2022, 55(32): 78-82.
[ 3 ] Dutot M, Nelson L M, Tyson R C. Predicting the spread of postharvest disease in stored fruit, with application to apples [J]. Postharvest Biology and Technology, 2013, 85: 45-56.
[ 4 ] Sarker I H. Deep learning: A comprehensive overview on techniques, taxonomy, applications and research directions [J]. SN Computer Science, 2021, 2(6): 420.
[ 5 ] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580-587.
[ 6 ] Girshick R. Fast R—CNN [C]. 2015 IEEE International Conference on Computer Vision (ICCV) 2015: 1440-1448.
[ 7 ] Ren S, He K, Girshick R, et al. Faster R—CNN: Towards real?time object detection with region proposal networks [J]. IEEE Transactions Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.
[ 8 ] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real?time object detection [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 779-788.
[ 9 ] Liu W, Anguelov D, Erhan D, et al. SSD: Single shot multibox detector [C]. Computer Vision?ECCV 2016: 14th European Conference, Amsterdam, the Netherlands, October 11-14, 2016, Proceedings, part I 14. Springer International Publishing, 2016: 21-37.
[10] Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(2): 318-327.
[11] 曹躍騰, 朱學(xué)巖, 趙燕東, 等. 基于改進(jìn)ResNet的植物葉片病蟲害識(shí)別[J]. 中國(guó)農(nóng)機(jī)化學(xué)報(bào), 2021, 42(12): 175-181.
Cao Yueteng, Zhu Xueyan, Zhao Yandong, et al. Recognition of plant leaf diseases and insect pests based on improved ResNet [J]. Journal of Chinese Agricultural Mechanization, 2021, 42(12): 175-181.
[12] 宋中山, 汪進(jìn), 鄭祿, 等. 基于二值化的Faster R—CNN柑橘病蟲害識(shí)別研究[J]. 中國(guó)農(nóng)機(jī)化學(xué)報(bào), 2022, 43(6): 150-158.
Song Zhongshan, Wang Jin, Zheng Lu, et al. Research on citrus pest identification based on Binary Faster R—CNN [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(6): 150-158.
[13] 徐會(huì)杰, 黃儀龍, 劉曼. 基于改進(jìn)YOLOv3模型的玉米葉片病蟲害檢測(cè)與識(shí)別研究[J]. 南京農(nóng)業(yè)大學(xué)學(xué)報(bào), 2022, 45(6): 1276-1285.
[14] Zhong Y, Zhao M. Research on deep learning in apple leaf disease recognition [J]. Computers and Electronics in Agriculture, 2020, 168: 105146.
[15] Sun H, Xu H, Liu B, et al. Mean—SSD: A novel real?time detector for apple leaf diseases using improved light?weight convolutional neural networks [J]. Computers and Electronics in Agriculture, 2021, 189: 106379.
[16] 徐艷蕾, 孔朔琳, 陳清源, 等. 基于Transformer的強(qiáng)泛化蘋果葉片病害識(shí)別模型[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2022, 38(16): 198-206.
Xu Yanlei, Kong Shuolin, Chen Qingyuan, et al. Model for identifying strong generalization apple leaf disease using Transformer [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(16): 198-206.
[17] Zhu R, Zou H, Li Z, et al. Apple—Net: A model based on improved YOLOv5 to detect the apple leaf diseases [J]. Plants, 2023, 12(1): 169.
[18] Zhu X, Li J, Jia R, et al. Lad—Net: A novel light weight model for early apple leaf pests and diseases classification [J]. IEEE/ACM Transactions on Computational Biology and Bioinformatics, 2023, 20(2): 1156-1169.
[19] Zhang Y, Zhou G, Chen A, et al. A precise apple leaf diseases detection using BCTNet under unconstrained environments [J]. Computers and Electronics in Agriculture, 2023, 212: 108132.
[20] Jiang Y, Tong W. Improved lightweight identification of agricultural diseases based on MobileNetV3 [C]. CAIBDA 2022; 2nd International Conference on Artificial Intelligence, Big Data and Algorithms. VDE, 2022: 1-5.
[21] Ma N, Zhang X, Zheng H T, et al. Shufflenet v2: Practical guidelines for efficient CNN architecture design [C]. Proceedings of the European Conference on Computer Vision (ECCV), 2018: 116-131.
[22] Liu Y, Shao Z, Hoffmann N. Global attention mechanism: Retain information to enhance channel?spatial interactions [J]. arXiv preprint arXiv: 2112.05561, 2021.
[23] Wang J, Chen K, Xu R, et al. Carafe: Content?aware reassembly of features [C]. Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019: 3007-3016.
[24] Chen J, Kao S, He H, et al. Run, don't walk: Chasing higher FLOPS for faster neural networks [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2023: 12021-12031.
[25] Yang Q, Duan S, Wang L. Efficient identification of apple leaf diseases in the wild using convolutional neural networks [J]. Agronomy, 2022, 12(11): 2784.
[26] Selvaraju RR, Cogswell M, Das A, et al. Grad—CAM: Visual explanations from deep networks via gradient?based localization [J]. International Journal of Computer Vision, 2020, 128(2): 336.
中國(guó)農(nóng)機(jī)化學(xué)報(bào)2025年4期