摘要:基于深度學(xué)習(xí)技術(shù),構(gòu)建SSD、YOLOv5以及同基礎(chǔ)網(wǎng)絡(luò)的Fast RCNN模型(vgg16-Fast R-CNN,darknet53-Fast R-CNN),對不同條件的三七(Panax notoginseng)圓斑病、灰霉病、白粉病和病毒病進(jìn)行檢測。結(jié)果表明,YOLOv5的m權(quán)重模型在YOLO各權(quán)重模型中表現(xiàn)最佳,準(zhǔn)確率為88.62%,召回率為89.59%,F(xiàn)1精度為89.10%,平均精度為83.55%,單幅圖像檢測時間僅為0.031 s。對比兩階段模型中表現(xiàn)較優(yōu)的vgg16-Fast R-CNN,準(zhǔn)確率、召回率、F1精度、平均精度僅分別降低了1.69個百分點(diǎn)、3.92個百分點(diǎn)、2.78個百分點(diǎn)、3.47個百分點(diǎn),但單幅圖像的檢測速度提高了451.4%;對比SSD模型,YOLOv5m的準(zhǔn)確率、召回率、F1精度、平均精度分別提高了1.06個百分點(diǎn)、1.32個百分點(diǎn)、1.19個百分點(diǎn)、0.61個百分點(diǎn),單幅圖像的檢測速度提高了83.52%。此外通過置信度與魯棒性試驗(yàn)分析可得,YOLOv5m對于小區(qū)域病害檢測能力以及復(fù)雜環(huán)境下的抗干擾能力更強(qiáng),且更利于在嵌入式設(shè)備中部署,符合實(shí)時檢測三七病害的要求。
關(guān)鍵詞:三七(Panax notoginseng);病害檢測;YOLOv5;深度學(xué)習(xí)
中圖分類號:TP391.41;S435.672" " " " "文獻(xiàn)標(biāo)識碼:A
文章編號:0439-8114(2024)08-0054-07
DOI:10.14088/j.cnki.issn0439-8114.2024.08.010 開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID):
Research on adaptability of Panax notoginseng disease identification method"based on deep learning
HE Heng,ZHOU Ping
(Sichuan Sanhe College of Professionals, Luzhou" 646200,Sichuan,China)
Abstract: Based on deep learning technology, SSD, YOLOv5 and Fast RCNN models with the same basic network (vgg16-Fast R-CNN, darknet53 -Fast R-CNN) were built to detect round spot, gray mold, powdery mildew and viral diseases of Panax notoginseng under different conditions. The results showed that the m-weight model of YOLOv5 performed the best among all weight models of YOLO, with accuracy rate of 88.62%, recall rate of 89.59%, F1 precision of 89.10%, and average precision of 83.55%. The detection time of a single image was only 0.031 s. Compared with vgg16-Fast R-CNN, which performed better in the two-stage model, the accuracy rate, recall rate, F1 precision, and average precision were only reduced by 1.69 percentage points, 3.92 percentage points, 2.78 percentage points, and 3.47 percentage points respectively, but the detection speed of a single image was increased by 451.4%. Compared with the SSD model, the accuracy rate, recall rate, F1 precision, and average precision of YOLOv5m were improved by 1.06 percentage points, 1.32 percentage points, 1.19 percentage points, and 0.61 percentage points respectively, and the detection speed of a single image was improved by 83.52%. In addition, through the analysis of the confidence and robustness test, it could be seen that YOLOv5m had better disease detection ability in small areas and stronger anti-interference ability in complex environment, and was more conducive to deployment in embedded devices, which met the requirements of real-time detection of Panax notoginseng disease.
Key words: Panax notoginseng; disease detection; YOLOv5; deep learning
三七(Panax notoginseng),五加科人參屬植物,號稱“南人參之王”,為《本草綱目》、歷版《中華人民共和國藥典》等經(jīng)典文獻(xiàn)收錄[1,2],具有散瘀止血、活血止痛的功能[3],同時三七葉片可有效增強(qiáng)高原脫習(xí)服過程中心室功能、抑制高原脫習(xí)服大鼠炎癥因子表達(dá)、提高機(jī)體抗氧化能力[4]。云南省是世界三七的原產(chǎn)地和主產(chǎn)區(qū),其栽培面積及產(chǎn)量約占全國的60%以上[5]。隨著中醫(yī)藥研究的不斷深入,三七種植面積也在逐年上升,但是近年來病蟲害的發(fā)生嚴(yán)重制約了三七的經(jīng)濟(jì)產(chǎn)量,成為阻礙三七產(chǎn)業(yè)可持續(xù)發(fā)展的主要因素之一[6]。因此,三七病害的治理與防治對三七產(chǎn)業(yè)以及中國醫(yī)藥健康產(chǎn)業(yè)發(fā)展具有深刻的現(xiàn)實(shí)意義。
由于三七種植過程中,對土壤含水率、環(huán)境溫濕度、光照強(qiáng)度等生長條件的要求較高,高溫高濕、低溫高濕等生產(chǎn)環(huán)境均易誘發(fā)三七發(fā)病[1],其主要病害有圓斑病、白粉病、病毒病、灰霉病等。目前對于三七的病害識別還主要依賴于傳統(tǒng)的專業(yè)技術(shù)人員和生物試劑檢測等[7-9]。人工檢疫法存在費(fèi)時費(fèi)力、主觀性強(qiáng)、實(shí)時性低等缺點(diǎn),且三七病害大部分為侵染性病害,傳播速度快,容易錯過病害的最佳防治時期[10,11]。隨著病害檢測技術(shù)的發(fā)展,圖像處理方法被用于農(nóng)作物的病害檢測,這些方法通常采用基于閥值分割[12-14]、顏色空間變換[15,16]等技術(shù),識別精度高于人工識別方法,但存在運(yùn)行成本和時間復(fù)雜度高、手工提取特征的方式無法滿足復(fù)雜的實(shí)際生產(chǎn)環(huán)境[17],因此,迫切需要一種實(shí)時、準(zhǔn)確以及便攜的智能方法來替代傳統(tǒng)的人工方法。
隨著計算機(jī)技術(shù)的巨大突破,基于深度學(xué)習(xí)的目標(biāo)檢測算法可以自動提取圖像中的抽象特征,并根據(jù)提取結(jié)果進(jìn)行目標(biāo)的分類與定位,大幅提高了目標(biāo)檢測效率[18,19]。目前基于深度學(xué)習(xí)的目標(biāo)檢測模型分為兩類:兩階段算法與單階段算法[20]。兩階段的目標(biāo)檢測代表算法有R-CNN[21]、Fast R-CNN[22-26]等。雖然兩階段算法采用滑動窗口策略使得模型有著很高的精度,但是兩階段算法在訓(xùn)練和檢測時容易產(chǎn)生窗口冗余,始終無法滿足實(shí)時檢測的要求[17]。單階段目標(biāo)檢測在保證精度穩(wěn)定的情況下,解決了兩階段模型速度瓶頸的問題,其代表有SSD(Single shot multiBox detector)[27,28]、YOLO(You only look once)[29,30]。隨著單階段模型的發(fā)展,網(wǎng)絡(luò)層數(shù)逐漸加深,精度也越來越高,但是模型的尺寸也越來越大,難以在移動端或嵌入式設(shè)備上部署,因而不能應(yīng)用于實(shí)際的三七病害檢測中。YOLOv5作為目前輕量化模型的代表,在保證速度與精度并存的同時,縮小了模型尺寸,為三七病害實(shí)時檢測系統(tǒng)的嵌入式設(shè)備部署提供了新的思路。
因此,本研究通過實(shí)現(xiàn)深度學(xué)習(xí)YOLOv5模型,并對比SSD模型以及采用vgg16、darknet53作為主干提取網(wǎng)絡(luò)的Fast R-CNN模型,以此獲取平衡精度與速度的最優(yōu)輕量級模型,為實(shí)現(xiàn)三七病害模型的嵌入式設(shè)備部署,精準(zhǔn)防治三七葉片病害、提高三七產(chǎn)量、保障三七生產(chǎn)安全提供理論依據(jù)。
1 三七葉片病害檢測算法原理
1.1 Fast R-CNN算法
Fast R-CNN模型的實(shí)現(xiàn)過程:①將三七病害圖像使用滑動窗口的策略獲得1 000~2 000個候選區(qū)域,同時將整個圖像輸入深度神經(jīng)網(wǎng)絡(luò)(vgg16或darknet53)中得到相應(yīng)的特征圖,將滑動窗口生成的候選區(qū)域投影到特征圖上獲得對應(yīng)的特征矩陣;②將每個特征矩陣通過感興趣區(qū)域池化層進(jìn)行縮放;③通過全連接層得到分類與邊界框回歸的預(yù)測結(jié)果。Fast R-CNN網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
1.2 SSD算法
SSD模型的具體流程如下:①采用vgg16作為主干網(wǎng)絡(luò),用來提取圖像中三七葉片的病害特征;②使用添加在主干網(wǎng)絡(luò)之后的多尺度特征檢測網(wǎng)絡(luò)進(jìn)行池化操作,將特征圖的尺寸逐層降維;③用不同卷積層的多個特征圖預(yù)測物體分類以及目標(biāo)邊界框的偏移,使用NMS(非極大值抑制)方法產(chǎn)生最終的檢測結(jié)果,實(shí)現(xiàn)多個尺度特征圖的檢測。SSD網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。
1.3 YOLOv5算法
YOLOv5根據(jù)結(jié)構(gòu)復(fù)雜程度不同可分為YOLOv5s、YOLOv5m、YOLOv5l和YOLOv5x。YOLOv5s的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,它是YOLOv5系列中深度最小、特征圖寬度最小的網(wǎng)絡(luò),m、l、x版本都是在此基礎(chǔ)上不斷加深加寬的,4種不同的結(jié)構(gòu)在不同階段的卷積核數(shù)量都不一樣,因此會直接影響卷積后特征圖的第三維度,具體卷積核數(shù)量如表1所示。根據(jù)模型結(jié)構(gòu)可分為4部分:輸入端、主干網(wǎng)絡(luò)、Neck以及預(yù)測端。其運(yùn)行原理為:①輸入三七病害圖像,并對原始圖像進(jìn)行數(shù)據(jù)增強(qiáng)等手段;②主干網(wǎng)絡(luò)(darknet53)將不同的圖像細(xì)粒度特征聚合成圖像特征的卷積神經(jīng)網(wǎng)絡(luò);③Neck階段將所有的圖像特征混合,傳遞到預(yù)測端;④對圖像特征進(jìn)行預(yù)測,生成邊界框與預(yù)測類別。
2 數(shù)據(jù)準(zhǔn)備與模型訓(xùn)練
2.1 數(shù)據(jù)集獲取與制作
為了符合實(shí)際生產(chǎn)的需要,根據(jù)明暗程度、葉片大小、病害類型進(jìn)行三七葉片相片的采集,共計10 500張。相片像素為640×640,使用LabelImg工具對圖片進(jìn)行標(biāo)注,在試驗(yàn)中為了加快標(biāo)注速度,將4種病害依次標(biāo)記為1—4,病害典型樣本如圖4所示,得到灰霉病2 739張,病毒病3 025張,白粉病" " 3 156張,圓斑病2 382張,最后將數(shù)據(jù)集按照7∶3的比例分為訓(xùn)練集與測試集,其中訓(xùn)練集7 350張,測試集3 150張。
2.2 模型訓(xùn)練
模型訓(xùn)練采用微型計算機(jī)進(jìn)行,系統(tǒng)選用Windows10操作系統(tǒng),計算機(jī)硬件配置分別為:NVIDIA GeForce RTX 2070GPU,32GB運(yùn)行內(nèi)存。模型以Pytorch深度學(xué)習(xí)為框架,Python3.6語言進(jìn)行編程,以CUDA11.0GPU作為加速庫。通過不斷訓(xùn)練調(diào)整參數(shù),以獲取最佳的參數(shù)配置:批量尺寸(Batchsize)設(shè)置為8,初始學(xué)習(xí)率(Learning rate)為0.01,動量(Momentum)為0.926;總訓(xùn)練輪數(shù)(Epoch)設(shè)置為200[31,32]。最后使用SGD優(yōu)化器進(jìn)行優(yōu)化。
模型訓(xùn)練過程的走勢能夠反映出訓(xùn)練的有效性,圖5對比了YOLOv5各權(quán)重模型、SSD模型以及vgg16-Fast RCNN和darknet53-Fast RCNN模型,結(jié)果顯示,vgg16-Fast RCNN以及darknet53-Fast RCNN模型在訓(xùn)練過程中,前50 Epoch有明顯的數(shù)據(jù)震蕩,達(dá)到200 Epoch時也并未完全收斂,損失值分別為3.2和4.2左右。對比YOLOv5各權(quán)重模型以及SSD模型可以發(fā)現(xiàn),前20 Epoch各模型損失值下降速度最快,之后損失下降速度逐漸變慢,其中YOLOv5m模型表現(xiàn)最佳,當(dāng)達(dá)到200 Epoch時,損失曲線趨于平緩,表明模型精度已達(dá)到穩(wěn)定值,且最終的損失函數(shù)值為3.3左右。
2.3 評價指標(biāo)
本研究使用準(zhǔn)確率P、召回率R、綜合精度F1、類別平均精度mAP指標(biāo)對試驗(yàn)結(jié)果進(jìn)行評估。準(zhǔn)確率P代表算法檢測到的所有目標(biāo)的準(zhǔn)確率,召回率R代表算法檢測目標(biāo)的全面性,F(xiàn)1精度代表算法在準(zhǔn)確率和召回率上的綜合性能,mAP表征算法在不同類別上的平均檢測精度。計算公式如下。
[P=TPTP+FP×100%] " " " (1)
[R=TPTP+FN×100%] " " " (2)
[F1=2×P×RP+R] " " " (3)
[mAP=01P(r)drN] " " "(4)
式中,TP為算法檢測正確的目標(biāo)數(shù)量;FP為算法檢測錯誤的目標(biāo)數(shù)量;FN為算法漏檢的目標(biāo)數(shù)量;N為檢測的類別總數(shù);P(r)為以召回率r為自變量,準(zhǔn)確率P為因變量的函數(shù)。
3 結(jié)果與分析
3.1 綜合性能對比
模型的綜合性能可通過準(zhǔn)確率、召回率、F1精度、mAP進(jìn)行判別,表2為不同模型性能評價指標(biāo)。對比YOLOv5不同權(quán)重模型可以發(fā)現(xiàn)YOLOv5m模型表現(xiàn)最優(yōu),準(zhǔn)確率、召回率、F1精度、mAP分別為88.62%、89.59%、89.10%、83.55%,說明YOLOv5m模型能夠更好地學(xué)習(xí)三七葉片的病害特征,結(jié)構(gòu)更加復(fù)雜的l和x權(quán)重模型表現(xiàn)反而不如m權(quán)重模型,這是因?yàn)檫^度復(fù)雜的結(jié)構(gòu)導(dǎo)致三七葉片病害部位特征碎片化,模型不能有效、全面地學(xué)習(xí)葉片病害部位的數(shù)據(jù)特征[33]。對比SSD以及YOLOv5m模型可以發(fā)現(xiàn),YOLOv5m模型的準(zhǔn)確率、召回率、F1精度、mAP較SSD模型分別提高了1.06個百分點(diǎn)、1.32個百分點(diǎn)、1.19個百分點(diǎn)、0.61個百分點(diǎn),這是因?yàn)閅OLOv5m模型采用了2種CSP(殘差)結(jié)構(gòu),CSP1_X使得網(wǎng)絡(luò)提取的特征粒度更細(xì),CSP2_X提高了網(wǎng)絡(luò)特征融合能力,保留了更豐富的三七病害信息,進(jìn)而提高了模型的特征提取能力[33,34]。與darknet53-Fast R-CNN模型對比可以發(fā)現(xiàn),vgg16-Fast R-CNN模型的準(zhǔn)確率、召回率、F1精度、mAP分別提高了0.62個百分點(diǎn)、0.33個百分點(diǎn)、0.48個百分點(diǎn)、0.13個百分點(diǎn),說明采用相同的模型框架,vgg16作為主干網(wǎng)絡(luò)的特征提取能力更強(qiáng),能更加充分地學(xué)習(xí)三七葉片病害類別的特征,具備較好的泛化能力,進(jìn)而提升算法的性能。
表3為各算法的檢測性能。結(jié)果表明,YOLOv5m模型在不同權(quán)重的YOLO模型中表現(xiàn)最優(yōu),圓斑病、病毒病、灰霉病、白粉病的識別準(zhǔn)確率分別為89.27%、77.12%,87.55%、80.26%。對比YOLOv5m與SSD模型可以發(fā)現(xiàn),SSD模型對于圓斑病和灰霉病的檢測精度高于YOLOv5m模型,能達(dá)到90%以上。這是因?yàn)椋孩賁SD模型借鑒Fast R-CNN針對不同尺度的特征圖設(shè)置不同長寬比的先驗(yàn)框,具有較大感受野的高層特征信息預(yù)測大物體,具有較小感受野的低層特征信息預(yù)測小物體,使得模型能夠更好地檢測不同大小的目標(biāo)[27]。②圓斑病以及灰霉病的病害特征十分明顯,經(jīng)過卷積層的特征圖尺寸降維,病害部位信息沒有較大流失,結(jié)合SSD模型多尺度預(yù)測的結(jié)構(gòu),提高了這兩種病害的檢測準(zhǔn)確度。SSD模型對于病毒病和白粉病的檢測準(zhǔn)確度均低于YOLOv5m模型,這是因?yàn)镾SD模型在預(yù)測病害區(qū)域較小的白粉病以及病害特征不明顯的病毒病時,采用的低層網(wǎng)絡(luò)的特征信息,由于缺乏高層病害特征,導(dǎo)致SSD模型對小物體的檢測效果較差[35];而YOLOv5m模型通過以下策略來改進(jìn)小目標(biāo)的檢測效果:①在輸入端采用了Mosaic數(shù)據(jù)增強(qiáng)[36],豐富檢測物體背景,提高對小目標(biāo)的檢測效果;②自適應(yīng)錨框計算用來匹配數(shù)據(jù)集的最佳錨框值[37];③采用了3個不同的輸出端尺寸進(jìn)行多尺度預(yù)測,緩解小目標(biāo)檢測的難題。
vgg16-Fast RCNN與darknet53-Fast RCNN模型檢測各類病害的準(zhǔn)確率均高于YOLOv5m和SSD模型。這是因?yàn)樵趦呻A段模型的網(wǎng)絡(luò)結(jié)構(gòu)中進(jìn)行了前景和背景的分類和檢測,這個過程比單階段的目標(biāo)檢測直接進(jìn)行分類和檢測要簡單,有了前景和背景的區(qū)分后,就可以選擇性地挑選樣本,使得正負(fù)樣本變得更加均衡,然后重點(diǎn)對一些參數(shù)進(jìn)行分類訓(xùn)練,使得訓(xùn)練的分類難度會比單階段目標(biāo)檢測直接做混合分類和預(yù)測框回歸更簡單[22],對于各類病害檢測的準(zhǔn)確率也更高。
在實(shí)際的生產(chǎn)生活中,需要考慮到算法的檢測速度以及整體的模型精度,兩階段模型雖然精度高,但是其構(gòu)成相對復(fù)雜,檢測速度極慢,YOLOv5m模型每秒檢測圖像的速度幾乎為兩階段模型的50倍;SSD模型僅對于部分病害檢測精度較高,但是平均精度低于YOLOv5m模型,并且檢測速度為YOLOv5m模型的54.49%。綜上所述,YOLOv5m模型可以作為三七病害的最優(yōu)檢測模型。
3.2 置信度對比試驗(yàn)
隨機(jī)選取含有不同程度、不同類型的病害圖像對SSD和YOLOv5m權(quán)重模型進(jìn)行測試。測試結(jié)果(圖6)顯示,圖Ⅰ中SSD模型檢測出圓斑病的置信度為100%,高于YOLOv5m模型的96%;圖Ⅱ中SSD模型檢測圓斑病的置信度為98%,高于YOLOv5m模型的97%,但是在病毒病上,SSD模型并未檢測出病毒病的發(fā)病區(qū)域,而YOLOv5m模型檢測病毒病的置信度達(dá)96%;發(fā)病區(qū)域最多的圖Ⅲ中,SSD模型檢測圓斑病的置信度高于YOLOv5m模型,但是檢測白粉病的置信度均低于YOLOv5m模型,且由于對白粉病的特征學(xué)習(xí)較差,導(dǎo)致對三七葉柄處產(chǎn)生誤判;圖Ⅳ中SSD模型檢測圓斑病的置信度高于YOLOv5m模型,但是對于檢測灰霉病的置信度低于YOLOv5m模型。置信度差異說明SSD模型對病害區(qū)域較為明顯的圓斑病和灰霉病識別效果較好,但是對于白粉病和病毒病的識別效果較差。YOLOv5m模型通過結(jié)構(gòu)上的改進(jìn),彌補(bǔ)了小目標(biāo)檢測的缺陷。
3.3 算法魯棒性試驗(yàn)
算法魯棒性是指算法在各種干擾噪聲中保持正常工作的能力,三七病害的實(shí)際檢測中存在各種環(huán)境干擾問題,例如拍攝葉片圖像時光線不足的情況,由于夜晚拍攝時鏡頭取光和對焦之后,背景較為模糊,以及拍攝時鏡頭取光在葉片上同種病害不同區(qū)域的色階也會不同,這就要求算法有較強(qiáng)的魯棒性,能夠在不同條件下保證檢測的準(zhǔn)確性。隨機(jī)選取夜間拍攝圖片作為測試圖片,并比較YOLOv5m和SSD在夜間的檢測效果。結(jié)果(圖7)顯示,圖Ⅰ中SSD模型對于白粉病的識別效果明顯低于YOLOv5m模型,YOLOv5m模型檢測夜間白粉病的置信度也可以達(dá)到90%;圖Ⅱ中SSD模型檢測夜間發(fā)病區(qū)域密集的圓斑病的置信度差異較大,部分圓斑病的置信度高于YOLOv5m模型,但是總體置信度低于YOLOv5m模型,并且SSD模型并未檢測出病毒?。粓DⅢ和圖Ⅳ中,SSD模型檢測白粉病和病毒病的置信度也明顯低于YOLOv5m模型。通過分析后發(fā)現(xiàn),由于YOLOv5m模型直接采用在圖像上進(jìn)行回歸的方式,使用全圖作為Context(全局)信息,背景錯誤較少;而SSD模型在先驗(yàn)框與真實(shí)框之間的交互比達(dá)到0.5才會放到網(wǎng)絡(luò)里面進(jìn)行訓(xùn)練。大目標(biāo)ROI較大,因此包含的先驗(yàn)框就多,就可以得到充分的訓(xùn)練,相反小目標(biāo)用于訓(xùn)練的的先驗(yàn)框較少,就得不到充分的訓(xùn)練,這嚴(yán)重影響了三七白粉病以及病毒病的檢測。說明YOLOv5m模型的魯棒性更強(qiáng),更適合實(shí)際環(huán)境下的三七葉片病害檢測。
4 小結(jié)
本研究選用三七的4種病害葉片作為數(shù)據(jù)集,采用YOLOv5、darknet53-Fast RCNN、SSD、vgg16-Fast RCNN模型對三七病害進(jìn)行檢測,得出以下結(jié)論。
1)在三七病害識別中,vgg16-Fast R-CNN模型準(zhǔn)確率、召回率、F1精度、mAP分別為90.31%、93.51%、91.88%、87.02%,對比YOLOv5m模型準(zhǔn)確率、召回率、F1精度、mAP分別提高了1.69個百分點(diǎn)、3.92個百分點(diǎn)、2.78個百分點(diǎn)、3.47個百分點(diǎn),但是檢測速度僅為YOLOv5m模型的2%,無法滿足實(shí)時檢測的目的,不適用于實(shí)際的三七病害檢測。
2)YOLOv5m模型在YOLOv5的不同權(quán)重模型中表現(xiàn)最佳,對比SSD模型,準(zhǔn)確率、召回率、F1精度、mAP分別提高了1.06個百分點(diǎn)、1.32個百分點(diǎn)、1.19個百分點(diǎn)、0.61個百分點(diǎn),單幅圖像檢測速度提高了83.52%,表明該模型精度更高,尺寸更小,速度更快,利于移動端或嵌入式設(shè)備的部署。
3)通過置信度試驗(yàn)以及魯棒性試驗(yàn)對比YOLOv5m以及SSD模型可以發(fā)現(xiàn),SSD模型在圓斑病以及灰霉病的檢測效果較優(yōu),但是在小目標(biāo)病害或復(fù)雜環(huán)境下的表現(xiàn)不佳,而YOLOv5m模型在復(fù)雜外界環(huán)境條件下具備更好的泛化能力、魯棒性和識別能力,可以為三七田間智能化管理提供理論依據(jù)。
參考文獻(xiàn):
[1] 蔣 妮, 覃柳燕, 葉云峰. 三七病害研究進(jìn)展[J].南方農(nóng)業(yè)學(xué)報, 2011, 42(9):1070-1074.
[2] 于慧妍. 三七研究進(jìn)展[J]. 世界最新醫(yī)學(xué)信息文摘,2017,17(39):21-22.
[3] 蔡 琳,彭 鵬. 三七藥理作用的研究進(jìn)展[J].山東化工,2021,50(3):70-71.
[4] 崔 宇, 李曉栩, 黃 緘. 三七和銀杏葉片對高原脫習(xí)服大鼠心功能及血清炎癥因子的影響及其機(jī)制[J]. 中國應(yīng)用生理學(xué)雜志,2019,35(1):34-38.
[5] 李宏偉, 郭富貴, 劉 洋, 等. 三七病蟲害研究現(xiàn)狀與展望[J]. 草業(yè)科學(xué), 2019, 36(5):1415-1427.
[6] 張連娟, 高 月, 董林林, 等. 三七主要病害及其防治策略[J]. 世界科學(xué)技術(shù)-中醫(yī)藥現(xiàn)代化, 2017, 19(10):1635-1640.
[7] 楊 濤, 陳昱君, 段承俐, 等. 三七黑斑病抗性人工鑒定方法的建立[J]. 云南農(nóng)業(yè)大學(xué)學(xué)報, 2006(5):549-553, 559.
[8] 王志敏,皮自聰,羅萬東,等. 三七圓斑病和黑斑病及其防治[J]. 農(nóng)業(yè)與技術(shù), 2016, 36(1):49-51, 53.
[9] 李 欣. 三七主要病害病原菌的快速檢測及葉部病害病原菌的鑒定[D]. 昆明:昆明理工大學(xué), 2020.
[10] BOCK C H, POOLE G H, PARKER P E, et al. Plant disease severity estimated visually, by digital photography and image analysis, and by hyperspectral imaging[J]. Critical reviews in plant sciences, 2010, 29(2): 59-107.
[11] BARBEDO J G A. Digital image processing techniques for detecting, quantifying and classifying plant diseases[J]. Springerplus, 2013, 2(1): 1-12.
[12] WANG Y T, DAI Y P, XUE J R, et al. Research of segmentation method on color image of Lingwu long jujubes based on the maximum entropy[J]. EURASIP Journal on image and video processing, 2017, 17(18): 6029-6036.
[13] 明 浩,蘇喜友. 利用特征分割和病斑增強(qiáng)的楊樹葉部病害識別[J]. 浙江農(nóng)林大學(xué)學(xué)報, 2020, 37(6):1159-1166.
[14] 王燕妮,賀 莉.基于多分類 SVM 的石榴葉片病害檢測方法[J].計算機(jī)測量與控制, 2020, 28(9):191-195.
[15] 劉永波, 雷 波, 胡 亮, 等. 機(jī)器視覺在 HSV 顏色空間下稻瘟病病程分級判定研究[J]. 農(nóng)學(xué)學(xué)報, 2020, 10(10):83-90.
[16] BAI X B, LI X X, FU Z T, et al. A fuzzy clustering segmentation method based on neighborhood grayscale information for defining cucumber leaf spot disease images[J]. Computers and electronics in agriculture, 2017, 136: 157-165.
[17] 包曉敏, 王思琪. 基于深度學(xué)習(xí)的目標(biāo)檢測算法綜述[J]. 傳感器與微系統(tǒng), 2022, 41(4):5-9.
[18] 吳 雪, 宋曉茹, 高 嵩, 等. 基于深度學(xué)習(xí)的目標(biāo)檢測算法綜述[J]. 傳感器與微系統(tǒng), 2021, 40(2):4-7, 18.
[19] LIU Y, SUN P, WERGELES N M, et al. A survey and performance evaluation of deep learning methods for small object detection[J]. Expert systems with applications,2021,172(4): 114602.
[20] 周惠汝, 吳波明. 深度學(xué)習(xí)在作物病害圖像識別方面應(yīng)用的研究進(jìn)展[J]. 中國農(nóng)業(yè)科技導(dǎo)報, 2021, 23(5):61-68.
[21] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[A].Proceedings of the 2014 IEEE conference on computer vision and pattern recognition[C]. 2014.580-587.
[22] GIRSHICK R. Fast R-CNN[A].Proceedings of the 2015 IEEE international conference on computer vision[C]. 2015.1440-1448.
[23] 王遠(yuǎn)志, 施子珍, 張艷紅. 改進(jìn)的Faster R-CNN用于蘋果葉部病害檢測[J]. 安慶師范大學(xué)學(xué)報(自然科學(xué)版), 2022, 28(2):26-30.
[24] 陳柯屹, 朱龍付, 宋 鵬, 等. 融合動態(tài)機(jī)制的改進(jìn)型Faster R-CNN識別田間棉花頂芽[J]. 農(nóng)業(yè)工程學(xué)報, 2021, 37(16):161-168.
[25] 李就好, 林樂堅, 田 凱, 等. 改進(jìn)Faster R-CNN的田間苦瓜葉部病害檢測[J]. 農(nóng)業(yè)工程學(xué)報, 2020, 36(12):179-185.
[26] 曹春號. 基于卷積神經(jīng)網(wǎng)絡(luò)的三七葉片病害手機(jī)在線檢測與預(yù)警裝置研制[D]. 昆明: 昆明理工大學(xué), 2020.
[27] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot multibox detector[A].European conference on computer vision[C]. 2016.21-37.
[28] 李善軍, 胡定一, 高淑敏, 等. 基于改進(jìn)SSD的柑橘實(shí)時分類檢測[J]. 農(nóng)業(yè)工程學(xué)報, 2019, 35(24):307-313.
[29] REDMON J,DIVVALA S,GIRSHICK R,et al. You only look once:Unified,real-time object detection[A].Proceedings of the 2016 IEEE conference on computer vision and pattern recognition[C]. 2016.779-788.
[30] 呂石磊, 盧思華, 李 震, 等. 基于改進(jìn)YOLOv3-LITE輕量級神經(jīng)網(wǎng)絡(luò)的柑橘識別方法[J].農(nóng)業(yè)工程學(xué)報, 2019, 35(17):205-214.
[31] 董麗君, 曾志高, 易勝秋, 等. 基于YOLOv5的遙感圖像目標(biāo)檢測[J]. 湖南工業(yè)大學(xué)學(xué)報, 2022, 36(3):44-50.
[32] 王 超, 張運(yùn)楚, 孫紹涵, 等. 改進(jìn)YOLOv5算法的鋼筋端面檢測[J]. 計算機(jī)系統(tǒng)應(yīng)用, 2022, 31(4):68-80.
[33] 邢晉超, 潘廣貞. 改進(jìn)YOLOv5s的手語識別算法研究[J]. 計算機(jī)工程與應(yīng)用,2022,58(16):194-203.
[34] WANG C Y, LIAO H Y M, WU Y H, et al. CSPNet: A new backbone that can enhance learning capability of CNN[A]. Proceedings of the 2020 IEEE/CVF conference on computer vision and pattern recognition workshops[C]. 2020.390-391.
[35] 張 靜,農(nóng)昌瑞,楊智勇.基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法綜述[J].兵器裝備工程學(xué)報,2022,43(6):37-47.
[36] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. Yolov4: Optimal speed and accuracy of object detection[J]. arXiv e-prints, 2020.DOI: 10.48550/arXiv.2004.10934.
[37] 馬琳琳, 馬建新, 韓佳芳, 等. 基于YOLOv5s目標(biāo)檢測算法的研究[J]. 電腦知識與技術(shù), 2021, 17(23):100-103.
作者簡介:何 恒(1990-),男,四川成都人,講師,主要從事電子信息高新技術(shù)的應(yīng)用研究,(電話)15984024102(電子信箱)278495187@qq.com;通信作者,周 平(1989-),男,四川瀘州人,講師,碩士,主要從事農(nóng)業(yè)信息化的應(yīng)用研究,(電話)19136459780(電子信箱)609621843@qq.com。