摘要:玉米葉片是玉米進(jìn)行光合作用的主要器官,其生理生態(tài)的快速檢測對玉米的質(zhì)量和產(chǎn)量起著至關(guān)重要的作用。因此,文章提出一種基于YOLOv5模型的玉米葉片識別方法。文章利用Kinect 2.0相機(jī)水平獲取了玉米植株生長時(shí)期的圖像數(shù)據(jù);利用YOLOv5模型,實(shí)現(xiàn)了玉米葉片目標(biāo)檢測,并將其與YOLOv3和YOLOv7進(jìn)行對比。結(jié)果表明:YOLOv5模型的精確度、召回率、F1分?jǐn)?shù)分別達(dá)到了94.7%、95.2%和93.4%,其平均精度均值與YOLOv3和YOLOv7相比提高了3.9%、1.4%。該成果為玉米葉片實(shí)時(shí)檢測系統(tǒng)的研發(fā)注入了強(qiáng)大動力,同時(shí)也在人工智能育種和估產(chǎn)領(lǐng)域展現(xiàn)了不可或缺的技術(shù)支撐作用。
關(guān)鍵詞:玉米;葉片;深度學(xué)習(xí);YOLOv5;識別模型
中圖分類號:TP39"""""""" 文獻(xiàn)標(biāo)志碼:A
0 引言
玉米是世界5大主要食用作物之一,在人類以及家禽畜牧業(yè)的糧食供給需求上起著非常重要的作用[1]。玉米葉片是生物學(xué)上的光合產(chǎn)物工廠,在玉米的生物生產(chǎn)和生態(tài)功能、營養(yǎng)轉(zhuǎn)運(yùn)與分配中起著關(guān)鍵性的作用,是玉米生命活動與生長發(fā)育的重要決定因素[2]。因此,對玉米植株葉片進(jìn)行健康狀況檢測,對探究葉片對植株生長的作用規(guī)律以及玉米的優(yōu)良品種選育具有重要意義。
基于YOLOv5模型的玉米葉片識別技術(shù)已經(jīng)順利地執(zhí)行了各種任務(wù),包括對農(nóng)作物的果實(shí)、病蟲害、稈部以及生長狀況的詳盡評估和分析[3]。陸嬌嬌等[4]提出了一種通過優(yōu)化YOLOv5模型中的注意力機(jī)制和損失函數(shù)進(jìn)行改進(jìn)的農(nóng)作物蟲害圖像識別方法,有效提高了蟲害圖像特征提取的精度,實(shí)現(xiàn)了蟲害的高效識別。王瑞彬等[5]提出了一種通過融合深度殘差網(wǎng)絡(luò)ResNet50和注意力機(jī)制對SSD算法進(jìn)行優(yōu)化的目標(biāo)檢測算法,顯著提高了成熟草莓的檢測精度,達(dá)到了20.20%的提升。徐澤華等[6]提出了一種運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)結(jié)合OpenCV、固態(tài)硬盤(Solid State Disk,SSD)及TensorRT的優(yōu)化技術(shù),實(shí)現(xiàn)了高效且快速的植物葉片病害識別和分類。Li等[7]提出了一種利用改進(jìn)的YOLOX-Tiny目標(biāo)檢測網(wǎng)絡(luò),結(jié)合卷積注意力模塊、mixup數(shù)據(jù)增強(qiáng)策略和中心IOU損失函數(shù),提高了玉米疾病檢測的精確率。胡文澤等[8]通過改進(jìn)Cascade R-CNN模型,結(jié)合ResNet50和特征金字塔網(wǎng)絡(luò),有效提升了農(nóng)業(yè)機(jī)器人在自然環(huán)境下對玉米幼苗的檢測精度。李涵等[9]提出了一種在ResNet34基礎(chǔ)上加入CBAM注意力模塊的CBAM_ResNet34卷積神經(jīng)網(wǎng)絡(luò)模型,能更精確地識別并分類相似的玉米病害,其精確率達(dá)到了88.1%。付中正等[10]提出了一種利用特征輔助學(xué)習(xí)和數(shù)據(jù)增強(qiáng)的SSD網(wǎng)絡(luò)對西蘭花葉片進(jìn)行檢測的方法,提高了在復(fù)雜環(huán)境下對西蘭花葉片檢測的精確率。
傳統(tǒng)方法存在對玉米葉片識別的準(zhǔn)確性和效率不高的問題。因此,本文提出了基于YOLOv5模型的玉米葉片識別方法。本文通過Kinect2.0相機(jī)構(gòu)建了水平實(shí)驗(yàn)采集平臺,采集了生長時(shí)期玉米完整植株數(shù)據(jù);采用YOLOv5算法構(gòu)建玉米葉片識別模型,并使用機(jī)器學(xué)習(xí)評價(jià)指標(biāo)對模型結(jié)果進(jìn)行評價(jià)。本文提出的YOLOv5模型對玉米葉片檢測具有較高的精確率,能夠?yàn)橛衩咨L進(jìn)行指導(dǎo),對推動農(nóng)業(yè)可持續(xù)發(fā)展具有重要意義。
1 YOLOv5網(wǎng)絡(luò)模型
YOLOv5是一種高效的單階段目標(biāo)檢測算法。該算法汲取了許多先進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)點(diǎn),在保證高檢測精度的同時(shí),維持較高的檢測速度,能夠?qū)崿F(xiàn)實(shí)時(shí)檢測目標(biāo)。YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)主要由輸入端(Input)、主干網(wǎng)絡(luò)(Backbone)、頸部網(wǎng)絡(luò)(Neck)和輸出檢測層(Head)4個(gè)部分組成。其中,輸入端通過數(shù)據(jù)增強(qiáng)技術(shù),如縮放、裁剪和顏色調(diào)整,來增強(qiáng)模型的泛化能力和適應(yīng)性。同時(shí),該模型還優(yōu)化了圖像處理和錨框生成機(jī)制,以適應(yīng)不同的檢測任務(wù)。
主干網(wǎng)絡(luò)采用CSPDarkNet53結(jié)構(gòu),通過跨階段的特征提取算法——共空間模式(Common Spatial Pattern,CSP)算法塊降低計(jì)算的復(fù)雜度;同時(shí),利用SPPF模塊提高感受野并增強(qiáng)空間層級的特征提取能力。頸部網(wǎng)絡(luò)結(jié)合了特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network,F(xiàn)PN)和路徑聚合網(wǎng)絡(luò)(Path Aggregation Network,PAN),通過融合不同層級的特征,增強(qiáng)特征的語義信息,從而提高檢測的精度。FPN提供自頂向下的信息傳遞,而PAN則強(qiáng)化了自底向上的信息流。輸出檢測層將不同尺度的有效特征層通過1×1卷積輸出,生成網(wǎng)絡(luò)的最終檢測結(jié)果。本文應(yīng)用的YOLOv5模型結(jié)構(gòu)如圖1所示。
圖1中YOLOv5的組件FOCUS、Resunit、CSP1_X、CSP2_X、SPP等分布在模型的不同部分,共同實(shí)現(xiàn)圖像的多尺度特征提取、特征增強(qiáng)和空間信息增強(qiáng),以提高模型的檢測性能。FOCUS通過不同尺度的卷積和上采樣,生成豐富尺度的特征圖,用于模型的輸入端(Input);Resunit通過殘差連接和批量歸一化增加網(wǎng)絡(luò)的非線性表達(dá)能力,應(yīng)用于模型的主干網(wǎng)絡(luò)(Backbone);CSP1_X和CSP2_X利用CSP算法塊進(jìn)行特征融合,減少參數(shù)量和計(jì)算量,應(yīng)用于模型的頸部網(wǎng)絡(luò)(Neck);SPP對特征圖進(jìn)行空間金字塔池化,增強(qiáng)特征圖的空間信息,應(yīng)用于模型的輸出檢測層(Head)。依據(jù)常禧龍等[11]的Adam優(yōu)化器進(jìn)行模型訓(xùn)練,優(yōu)化公式為:
θt+1=θt-αβ1mt-1+(1-β1)gt(1-βt1)β2vt-1+(1-β2)g2t1-βt2+ε(1)
其中,gt表示梯度,mt-1、vt-1分別表示上一時(shí)刻的一階矩和二階矩估計(jì),β1、β2表示動量參數(shù),θt表示第t次迭代后的參數(shù)值,α表示初始學(xué)習(xí)率,ε表示一個(gè)很小的常數(shù)(通常取10-8),用于避免除以0的情況。
2 模型訓(xùn)練與結(jié)果分析
2.1 訓(xùn)練模型
2.1.1 訓(xùn)練環(huán)境
本文的實(shí)驗(yàn)環(huán)境為Windows 10操作系統(tǒng),CPU為Intel(R) Core(TM) i5-4590,主頻為3.30 GHz,葉片識別模型的搭建使用Python 3.11開發(fā)環(huán)境,深度學(xué)習(xí)框架選用Pytorch。GPU使用NVIDIA GeForce GTX 1050 Ti進(jìn)行運(yùn)算加速,GPU的運(yùn)行內(nèi)存為8 GB,使用12. 2 CUDA,并使用Python語言編程訓(xùn)練。
本文的數(shù)據(jù)集包括254個(gè)文件和標(biāo)簽,其中訓(xùn)練集含102張圖片,測試集含25張圖片,用于有效訓(xùn)練檢測模型。
2.1.2 訓(xùn)練結(jié)果
在訓(xùn)練YOLOv5模型時(shí),本文將輸入圖像的大小調(diào)整為640×640像素,為了加速模型的學(xué)習(xí)過程,設(shè)定初始學(xué)習(xí)率為0.01,動量因子系數(shù)設(shè)置為0.937來加速梯度傳播。同時(shí),為了防止模型在訓(xùn)練過程中過度擬合訓(xùn)練數(shù)據(jù),權(quán)重衰減系數(shù)設(shè)置為0.0005,在每次迭代中,本文使用4個(gè)樣本作為一個(gè)batch,整個(gè)訓(xùn)練過程持續(xù)300個(gè)epochs。
損失函數(shù)是評估模型預(yù)測性能的核心指標(biāo),通過將預(yù)測結(jié)果與實(shí)際數(shù)據(jù)之間的偏差量化,幫助判斷模型的性能是否趨近最優(yōu)。當(dāng)損失函數(shù)曲線趨于收斂時(shí),意味著模型性能已趨近最優(yōu),預(yù)測效果顯著提升。依據(jù)劉笑意等[12]的研究對模型進(jìn)行損失函數(shù)分析,損失函數(shù)曲線如圖2所示。
由圖2可以看出,隨著epoch的增加,損失函數(shù)曲線逐漸降低,趨于平穩(wěn)。YOLOv5模型在前50輪訓(xùn)練中表現(xiàn)出極快的損失下降速度,凸顯了其高效的學(xué)習(xí)能力。隨著epoch的增加,損失函數(shù)值逐漸降低并趨于平穩(wěn),最終穩(wěn)定在0.024左右。此外,YOLOv5模型的損失函數(shù)不僅下降速度快,而且損失曲線波動較小,呈現(xiàn)平滑的趨勢。這充分說明了在玉米葉片識別任務(wù)中,YOLOv5模型的預(yù)測效果較好。
2.2 仿真結(jié)果分析
2.2.1 不同模型預(yù)測的精確率-召回率曲線分析
本文對比了YOLOv5模型、YOLOv3模型、YOLOv7" 模型的玉米葉片識別的精確率(P)、召回率(R),結(jié)果如表1所示。
由表1可知,YOLOv5模型在玉米葉片檢測任務(wù)上表現(xiàn)最佳,精確率高達(dá)94.7%,召回率也達(dá)到了95.2%。這說明YOLOv5模型在確保檢測精確性的同時(shí),能夠覆蓋大部分真實(shí)的玉米葉片實(shí)例。相比之下,YOLOv3的精確率與YOLOv5相近,但召回率僅為87.3%,這表明該模型識別玉米葉片的精確度較高,但遺漏了較多的實(shí)例。而YOLOv7的精確率略低于YOLOv5,但召回率高于YOLOv3。這表明該模型在減少漏檢方面有所改進(jìn),但識別精確性仍不及YOLOv5。因此,在玉米葉片檢測任務(wù)中,YOLOv5因其較高的精確率和召回率而表現(xiàn)得更加出色。
不同模型的精確率-召回率(P-R)曲線對比結(jié)果如圖3所示。由圖3可以看出,YOLOv5模型的精確率在召回率小于0.62時(shí)保持在93%左右。當(dāng)YOLOv3模型的召回率為0.57,YOLOv7模型的召回率為0.60時(shí),二者模型的精確率穩(wěn)定在93%左右。YOLOv3和YOLOv7模型的P-R曲線在召回率為80%左右出現(xiàn)拐點(diǎn),而YOLOv5模型的拐點(diǎn)出現(xiàn)在召回率為90%左右,表現(xiàn)更為平滑。因此,在相同的交并比條件下,YOLOv5模型在目標(biāo)檢測任務(wù)中表現(xiàn)最佳,其平均精度和召回率均高于YOLOv3模型和YOLOv7模型。此外,YOLOv5模型的精確率維持在較高水平的時(shí)間更長,P-R曲線更平滑,預(yù)測效果更穩(wěn)定。
2.2.2 不同模型玉米葉片識別預(yù)測性能對比分析
本文使用調(diào)和精確率和召回率有相同權(quán)重的F1分?jǐn)?shù)、平均精度均值(mean Average Precision, mAP)2個(gè)指標(biāo)對比分析不同模型對于玉米葉片識別的性能。其中,計(jì)算玉米葉片識別中“l(fā)eaf”這一類別的平均精度(Average Precision,AP)值,可以通過計(jì)算其P-R(精確率-召回率)曲線下方的面積來實(shí)現(xiàn)。由于本文只涉及一個(gè)識別目標(biāo),AP值等同于多類別情況下的mAP。不同模型的F1分?jǐn)?shù)與mAP值如表2所示。
在精確率和召回率中,任意一個(gè)指標(biāo)的提高通常伴隨著另一個(gè)指標(biāo)的降低。因此,單獨(dú)評價(jià)任一指標(biāo)不足以全面評估模型性能。F1分?jǐn)?shù)作為精確率和召回率的綜合評價(jià)指標(biāo),值越高,模型在玉米葉片識別任務(wù)中展現(xiàn)出的性能越卓越。由表2可知,YOLOv5模型檢測的F1得分是93.4%,而YOLOv3模型玉米葉片檢測的F1得分為89.5%,YOLOv7模型檢測的F1得分是91.2%。YOLOv5相較于YOLOv3和YOLOv7模型分別提升了3.9%和2.2%。YOLOv5模型在玉米葉片識別任務(wù)中達(dá)到了94.0%的平均精度,而YOLOv3和YOLOv7模型在玉米葉片識別任務(wù)中的識別率分別達(dá)到了90.1%和92.6%。YOLOv5模型的mAP值有了顯著提升,這充分說明了YOLOv5模型在玉米葉片識別任務(wù)上的優(yōu)越性,表現(xiàn)出了較強(qiáng)的泛化能力,具有更高的識別精度。
3 結(jié)語
本文提出了一種基于YOLOv5模型的玉米葉片識別方法,并成功將其應(yīng)用于玉米植株生長時(shí)期的葉片探測。通過利用Kinect2.0相機(jī)獲取的玉米植株圖像數(shù)據(jù),本文結(jié)合深度學(xué)習(xí)技術(shù),構(gòu)建了一個(gè)高效且準(zhǔn)確的玉米葉片識別系統(tǒng)。與YOLOv3和YOLOv7相比,YOLOv5模型在玉米葉片的識別精確率和召回率上均取得了顯著優(yōu)勢,分別達(dá)到了94.7%和95.2%,平均精度均值較其他2個(gè)模型有所提升。同時(shí),本文展示了YOLOv5算法在農(nóng)業(yè)領(lǐng)域的有效性和適用性,突顯了深度學(xué)習(xí)技術(shù)在提高農(nóng)業(yè)生產(chǎn)效率、優(yōu)化田間管理以及促進(jìn)農(nóng)業(yè)可持續(xù)發(fā)展方面的潛力。通過自動化、智能化的玉米葉片識別,本文能夠準(zhǔn)確監(jiān)測玉米植株的生長狀況,及時(shí)發(fā)現(xiàn)并處理生長問題,進(jìn)而提升產(chǎn)量和質(zhì)量。這種方法可推廣到其他農(nóng)作物的識別與檢測,助力農(nóng)業(yè)智能化和精準(zhǔn)化發(fā)展。隨著深度學(xué)習(xí)技術(shù)的不斷進(jìn)步,農(nóng)業(yè)生產(chǎn)將迎來更高效、環(huán)保和可持續(xù)的新時(shí)代。
參考文獻(xiàn)
[1]崔愛民,張久剛,張虎,等.我國玉米生產(chǎn)現(xiàn)狀及發(fā)展變革[J].中國農(nóng)業(yè)科技導(dǎo)報(bào),2020(7):10-19.
[2]楊健釗,朱新廣.面向碳達(dá)峰與碳中和的植物合成生物學(xué)[J].合成生物學(xué),2022(5):847-869.
[3]岑海燕,朱月明,孫大偉,等.深度學(xué)習(xí)在植物表型研究中的應(yīng)用現(xiàn)狀與展望[J].農(nóng)業(yè)工程學(xué)報(bào),2020(9):1-16.
[4]陸嬌嬌,段峰峰.改進(jìn)YOLOv5模型下農(nóng)作物蟲害圖像識別算法仿真[J].計(jì)算機(jī)仿真,2023(11):156-160.
[5]王瑞彬,楊世忠,高升.融合殘差網(wǎng)絡(luò)與注意力機(jī)制的草莓檢測[J].中國農(nóng)機(jī)化學(xué)報(bào),2024(1):266-273.
[6]徐澤華,李堅(jiān)孝,鄧樹源,等.基于TensorRT的植物葉片病害實(shí)時(shí)檢測分類模型優(yōu)化[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2023(2):94-101.
[7]LI S, YANG Z, NIE H, et al. Corn disease detection based on an improved YOLOX-Tiny network model[J]. International Journal of Cognitive Informatics and Natural Intelligence,2022(1):1-8.
[8]胡文澤,王寶聚,耿麗杰,等.基于Cascade R-CNN的玉米幼苗檢測[J].農(nóng)機(jī)化研究,2023(5):26-31.
[9]李涵,唐友,辛鵬,等.基于改進(jìn)ResNet34的玉米病害分類研究[J].無線互聯(lián)科技,2023(13):127-130.
[10]付中正,何瀟,方逵,等.基于改進(jìn)SSD網(wǎng)絡(luò)的西蘭花葉片檢測研究[J].中國農(nóng)機(jī)化學(xué)報(bào),2020(4):92-97.
[11]常禧龍,梁琨,李文濤.深度學(xué)習(xí)優(yōu)化器進(jìn)展綜述[J].計(jì)算機(jī)工程與應(yīng)用,2024(7):1-12.
[12]劉笑意,段納,徐止政,等.基于改進(jìn)YOLOv5的蘋果葉病害識別算法[EB/OL].(2024-05-13)[2024-06-05].https://link.cnki.net/urlid/31.1260.TP.20240511.1226.002.
(編輯 王雪芬)
Corn leaf recognition method based on YOLOv5 model
LUO" Su, GUAN" Hai’ou*
(College of Information and Electrical Engineering, Heilongjiang Bayi Agricultural University,
Daqing 163319, China)
Abstract: Corn leaf is the main organ of corn for photosynthesis, and the rapid detection of its physiological ecology plays a crucial role in the quality and yield of corn. Therefore, this paper proposes a corn leaf recognition method based on the YOLOv5 model. The image data of corn plant growth period is acquired by using Kinect 2.0 camera level, and by using YOLOv5 model, corn leaf target detection is realized and compared with YOLOv3 and YOLOv7. The result shows that the precision, recall, and F1-score of the YOLOv5 model reached 94.7%,95.2%, and 93.4%, respectively, and compared with YOLOv3 and YOLOv7, its mean average precision value is improved by 3.9% and 1.4%. The results injects strong impetus to the research and development of real-time detection system for corn leaf,and also demonstrates its indispensable technical support in the field of artificial intelligence breeding and estimation yield.
Key words: corn; leaves; deep learning; YOLOv5; recognition model
基金項(xiàng)目:國家重點(diǎn)研發(fā)計(jì)劃;項(xiàng)目名稱:優(yōu)質(zhì)專用、耐密高產(chǎn)、宜粒收玉米品種篩選標(biāo)準(zhǔn)體系構(gòu)建;項(xiàng)目編號:2023YFD2301701。
作者簡介:羅蘇(2002— ),男,本科生;研究方向:計(jì)算機(jī)科學(xué)與技術(shù)。
*通信作者:關(guān)海鷗(1980— ),男,教授,博士;研究方向:計(jì)算機(jī)應(yīng)用技術(shù)與人工智能。