摘要:針對(duì)田間自然環(huán)境拍攝下稻田背景復(fù)雜,苗期雜草圖像尺寸過小、識(shí)別定位不準(zhǔn)確等問題,提出了一種改進(jìn)YOLOv8卷積神經(jīng)網(wǎng)絡(luò)的苗期雜草檢測(cè)方法。參照PASCAL VOC數(shù)據(jù)集格式,構(gòu)建了一套專用的數(shù)據(jù)集。首先,在網(wǎng)絡(luò)卷積過程中加入DenseNet(密集連接網(wǎng)絡(luò))更好地對(duì)雜草特征進(jìn)行提取,優(yōu)化梯度消失問題。然后,添加CBAM(Convolutional block attention module)注意力機(jī)制改善模型對(duì)小尺寸的敏感度。最后,使用WIOU(Weighted intersection over union)損失函數(shù)來優(yōu)化原網(wǎng)絡(luò)中的損失函數(shù),提升模型對(duì)檢測(cè)目標(biāo)的定位能力。在試驗(yàn)中,將改進(jìn)的算法與Faster R-CNN、SSD(Single shot multiBox detector)以及原始YOLOv8等算法進(jìn)行了性能對(duì)比。結(jié)果顯示,改進(jìn)算法明顯優(yōu)于其他算法,在測(cè)試集上的平均精度均值和檢測(cè)速度分別達(dá)97.0%和100.3幀/s。這種高精度和快速的檢測(cè)能力滿足了精準(zhǔn)農(nóng)業(yè)中對(duì)快速、精準(zhǔn)檢測(cè)的需求。該算法為機(jī)械設(shè)備快速識(shí)別苗期雜草、精準(zhǔn)噴灑農(nóng)藥提供了重要的理論和技術(shù)支持。
關(guān)鍵詞:YOLOv8;卷積神經(jīng)網(wǎng)絡(luò);苗期雜草;目標(biāo)檢測(cè)
中圖分類號(hào):S451;TP391.41" " " " "文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):0439-8114(2024)08-0017-06
DOI:10.14088/j.cnki.issn0439-8114.2024.08.004 開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):
Detection of weeds in paddy field at the seedling stage based on improved YOLOv8 convolutional neural network
LIN Zong-miao1,MA Chao2,3, HU Dong2,3
(1.Shanghai Institute of Quality Inspection and Technical Research,Shanghai" 201114,China; 2.Agricultural Information Institute of Science and Technology,Shanghai Academy of Agricultural Sciences,Shanghai" 201403,China; 3.Key Laboratory of Intelligent Agricultural Technology (Yangtze River Delta),Ministry of Agriculture and Rural Affairs,P. R.China,Shanghai" 201403,China)
Abstract: Aiming at the problems of complex background of paddy field, small size of weed image at the seedling stage, inaccurate identification and positioning under field natural environment photography, an improved YOLOv8 convolutional neural network method for weed detection at the seedling stage was proposed. A dedicated dataset based on the PASCAL VOC dataset format was constructed. First, DenseNet in the network convolution process was added to better extract weed features and optimize the vanishing gradient problem. Then, CBAM(Convolutional block attention module)attention mechanism was added to improve the model’s sensitivity to small sizes. Finally, the WIOU(Weighted intersection over union) loss function was used to optimize the loss function in the original network and improve the positioning ability of the model to the detection target. In the experiment, the performance of the improved algorithm was compared with algorithms such as Faster R-CNN, SSD (Single shot multiBox detector) and the original YOLOv8. The results showed that the improved algorithm was significantly superior to other algorithms, achieving an average precision of 97% and a detection speed of 100.3 frames/s on the test set, respectively. This high-precision and rapid detection capability met the demand for rapid and accurate detection in precision agriculture. This algorithm provided important theoretical and technical support for mechanical equipment to quickly identify weeds during the seedling stage and accurately spray pesticides.
Key words:YOLOv8; convolutional neural network; seedling weeds; target detection
中國(guó)是一個(gè)農(nóng)業(yè)大國(guó),農(nóng)田雜草是影響作物生長(zhǎng)和制約作物產(chǎn)量的重要因素之一,雜草的正確識(shí)別是有效防除的關(guān)鍵,隨著計(jì)算機(jī)技術(shù)的迅速發(fā)展,機(jī)器視覺技術(shù)逐步應(yīng)用到農(nóng)田雜草識(shí)別中[1]?;趫D像處理和識(shí)別技術(shù)應(yīng)用于農(nóng)田雜草遠(yuǎn)程診斷,協(xié)助農(nóng)業(yè)種植人員正確識(shí)別雜草并合理使用藥劑。機(jī)器視覺技術(shù)應(yīng)用于農(nóng)田機(jī)械化除草,可以根據(jù)草害發(fā)生及程度定量,尤其是能夠精準(zhǔn)識(shí)別苗期雜草,定位噴灑除草劑,實(shí)現(xiàn)農(nóng)機(jī)變量作業(yè)[2]。在雜草識(shí)別上,國(guó)內(nèi)外學(xué)者進(jìn)行了大量的研究與實(shí)踐,主要運(yùn)用傳統(tǒng)圖像處理的方法,對(duì)雜草圖像進(jìn)行基于顏色、紋理、形狀的特征提取。如毛文華等[3]、Linker等[4]、胡波等[5]利用雜草呈現(xiàn)不同的顏色來區(qū)分。趙文倉(cāng)等[6]、李志臣等[7]、龍滿生等[8]利用雜草葉子形狀來鑒別雜草。曹晶晶等[9]、Majumdar等[10]、Zhang等[11]利用紋理特征來區(qū)分雜草。隨之帶來的問題就是,基于顏色時(shí)各種顏色的分割效果沒有統(tǒng)一的評(píng)價(jià)標(biāo)準(zhǔn),基于形狀時(shí)枝葉的交叉、植物的非人為破壞使得雜草圖像缺乏完整葉片,基于紋理時(shí)提取和分析紋理特征需要大量的數(shù)據(jù)計(jì)算,影響了實(shí)時(shí)性。
卷積神經(jīng)網(wǎng)絡(luò)是一種強(qiáng)大的深度學(xué)習(xí)模型,通過對(duì)輸入圖像進(jìn)行卷積操作,能夠高效地提取特定目標(biāo)的關(guān)鍵信息特征。在這個(gè)過程中,網(wǎng)絡(luò)通過反向傳播和前向傳播來不斷優(yōu)化參數(shù),從而不需要進(jìn)行繁瑣的幾何或形態(tài)學(xué)操作,而且不受原始圖像尺寸的限制,確保提取到的信息更加全面和準(zhǔn)確。通過卷積操作,卷積神經(jīng)網(wǎng)絡(luò)能夠自動(dòng)檢測(cè)輸入圖像中的邊緣、紋理和局部特征等重要細(xì)節(jié),而無需手動(dòng)提供特征工程。這使得網(wǎng)絡(luò)在不同任務(wù)和數(shù)據(jù)集上具有較好的泛化性能。在訓(xùn)練過程中,卷積神經(jīng)網(wǎng)絡(luò)通過學(xué)習(xí)適應(yīng)數(shù)據(jù)的參數(shù),從而自動(dòng)地發(fā)現(xiàn)圖像中的有用信息。趙德安等[12]基于YOLO算法在復(fù)雜背景下實(shí)現(xiàn)多種算法對(duì)蘋果的識(shí)別,驗(yàn)證了在不同環(huán)境下YOLO算法的可行性。Redmon等[13]提出了一種YOLO算法,在同一條件下,檢測(cè)速度相較于Faster-RCNN快了近10倍??梢娀诰矸e神經(jīng)網(wǎng)絡(luò)[14]的YOLO算法在一定環(huán)境下具有識(shí)別目標(biāo)物體效率高、準(zhǔn)確率高等特點(diǎn)。
本研究根據(jù)前面的討論,提出了一種改進(jìn)的YOLOv8卷積神經(jīng)網(wǎng)絡(luò)方法,用于田間自然環(huán)境下苗期雜草檢測(cè)。該方法在網(wǎng)絡(luò)卷積過程中加入DenseNet網(wǎng)絡(luò)豐富對(duì)雜草特征進(jìn)行提取,改善訓(xùn)練過程中梯度消失問題;添加CBAM注意力機(jī)制模塊提高模型對(duì)小尺寸苗期雜草的敏感度;使用WIOU 損失函數(shù)來改進(jìn)原網(wǎng)絡(luò)中的損失函數(shù),提升模型對(duì)苗期雜草的定位能力。通過訓(xùn)練,得到了算法網(wǎng)絡(luò)模型,并將其與Faster R-CNN、SSD和原始YOLOv8算法進(jìn)行了性能對(duì)比試驗(yàn)。試驗(yàn)結(jié)果驗(yàn)證了改進(jìn)的YOLOv8算法在苗期雜草檢測(cè)上的效果和性能。同時(shí),該算法改善了在稻田雜草苗期識(shí)別中尺寸過小、識(shí)別定位不準(zhǔn)確等問題,為基于農(nóng)機(jī)變量的精準(zhǔn)苗期雜草噴灑農(nóng)藥提供了理論基礎(chǔ)。
1 材料與方法
1.1 YOLOv8算法網(wǎng)絡(luò)結(jié)構(gòu)
本研究是基于YOLOv8算法的一種檢測(cè)識(shí)別模型,在一些既定的場(chǎng)景下,有良好的檢測(cè)速度,因而,在許多基于目標(biāo)檢測(cè)的任務(wù)中取得了不錯(cuò)的結(jié)果。YOLOv8由Backbone、Neck和Head 3部分組件組成,如圖1所示。相較于前幾代YOLO模型,YOLOv8有很多創(chuàng)新之處來提高網(wǎng)絡(luò)識(shí)別的精確度,在Backbone與Neck中采用C2f結(jié)構(gòu),C2f結(jié)構(gòu)有較多的殘差連接,使得網(wǎng)絡(luò)梯度流更為豐富。在Head中,將Anchor-Based換成Anchor-Free,同時(shí)在模型預(yù)測(cè)時(shí)ClS與Box分開預(yù)測(cè)。在模型訓(xùn)練過程中,在最后10個(gè)Epoch關(guān)閉了Mosiac數(shù)據(jù)增強(qiáng)操作,有效提升模型精度。在損失函數(shù)計(jì)算方面采用了TaskAlignedAssigner正樣本匹配策略,并引入了Distribution Focal 損失函數(shù)。
1.2 YOLOv8算法網(wǎng)絡(luò)改進(jìn)
1.2.1 DenseNet密集連接網(wǎng)絡(luò)改進(jìn) DenseNet是一種深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),由Huang等[15]于2017年提出。DenseNet通過密集連接(Dense connections)來解決深層神經(jīng)網(wǎng)絡(luò)中的梯度消失問題,同時(shí)有效地利用之前層的特征信息,以提高網(wǎng)絡(luò)性能和訓(xùn)練效率。在傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)中[16],每一層的輸出只與前一層的輸出相連接。而在DenseNet中,每一層的輸出都與之前所有層的輸出直接相連,形成了密集連接。這種密集連接使得網(wǎng)絡(luò)中的信息能夠充分傳遞和共享,有效地消除了梯度消失問題。特征圖的直接連接,使得DenseNet具有更少的參數(shù),網(wǎng)絡(luò)更加緊湊和高效。在本研究稻田苗期雜草識(shí)別過程中,由于雜草尺寸過小,同時(shí)背景復(fù)雜等干擾因素,導(dǎo)致特征信息不足,識(shí)別精度降低。在檢測(cè)網(wǎng)絡(luò)中,將最后兩次卷積模塊使用一個(gè)DenseNet模塊代替。DenseNet能夠加強(qiáng)網(wǎng)絡(luò)的特征提取能力,在訓(xùn)練過程中保留更多復(fù)雜背景下稻田苗期雜草的特征信息,提高模型的識(shí)別精度。
1.2.2 CBAM注意力機(jī)制改進(jìn) CBAM是一種卷積神經(jīng)網(wǎng)絡(luò)的注意力機(jī)制模塊,能夠增強(qiáng)網(wǎng)絡(luò)對(duì)圖像特征的建模能力。CBAM模塊結(jié)合了通道注意力和空間注意力,以自適應(yīng)地調(diào)整特征圖中的信息,從而提升模型在視覺任務(wù)中的性能。CBAM模塊的設(shè)計(jì)使得網(wǎng)絡(luò)能夠自動(dòng)地選擇關(guān)鍵的通道和空間位置,適應(yīng)不同的任務(wù)和圖像內(nèi)容。同時(shí)注意力機(jī)制模塊能夠嵌入到各種卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)中,增強(qiáng)網(wǎng)絡(luò)的表征能力和性能。對(duì)原YOLOv8模型在SPPF模塊后添加CBAM注意力機(jī)制改進(jìn),提升網(wǎng)絡(luò)對(duì)小尺寸的稻田苗期雜草的敏感度以及雜草特征的提取能力,減少因雜草尺寸過小、背景復(fù)雜干擾造成的錯(cuò)檢、漏檢等情況[17]。
1.2.3 WIOU損失函數(shù)改進(jìn) WIOU損失函數(shù)是一種用于目標(biāo)檢測(cè)任務(wù)的損失函數(shù),在傳統(tǒng)的目標(biāo)檢測(cè)任務(wù)中,類別不平衡是一種常見的現(xiàn)象。傳統(tǒng)的交并比(Intersection over union,IOU)損失函數(shù)在處理類別不平衡時(shí)可能會(huì)導(dǎo)致模型偏向于學(xué)習(xí)數(shù)量較多的類別,從而影響低頻類別的檢測(cè)性能。WIOU損失函數(shù)通過對(duì)每個(gè)目標(biāo)框的IOU值進(jìn)行加權(quán),解決了類別不平衡問題,從而提高了整體目標(biāo)檢測(cè)的性能。在原YOLOv8網(wǎng)絡(luò)中,計(jì)算稻田苗期雜草預(yù)測(cè)框坐標(biāo)損失的回歸分支使用了完全交并比損失,如式(1)所示。
[LCIOU=1-IOU+ρ2(b,bgt)c2+αν]" " " "(1)
式中,[LCIOU]為完全交并比損失函數(shù);[ρ2(b,bgt)]為預(yù)測(cè)框中心點(diǎn)與真值框中心點(diǎn)之間的歐式距離;c為預(yù)測(cè)框與真值框最小外接矩形的對(duì)角線長(zhǎng)度;[α]為平衡參數(shù);[ν]為長(zhǎng)寬比衡量參數(shù)。
CIOU在預(yù)測(cè)框與真實(shí)框重合時(shí),長(zhǎng)寬比懲罰項(xiàng)在模型訓(xùn)練過程中失去作用,同時(shí)也會(huì)影響到模型訓(xùn)練的效果,因此使用WIOU對(duì)損失函數(shù)計(jì)算進(jìn)行改進(jìn),如式(2)所示,有助于提高模型對(duì)復(fù)雜背景下苗期稻田雜草的定位能力,進(jìn)一步提高識(shí)別精度[18]。
[LWIOU=βδαβ-δexp(x-xgt)2+(y-ygt)2(W2g+H2g)LIOU] (2)
式中,[LIOU]為交并比損失函數(shù);[LWIOU]為加權(quán)交并比損失函數(shù);x、xgt、y、ygt為真實(shí)框和預(yù)測(cè)框的中心點(diǎn)坐標(biāo);W、H分別為真實(shí)框與預(yù)測(cè)框的最小外接矩形的長(zhǎng)和寬;[α]、[δ]為模型的學(xué)習(xí)參數(shù);[β]為邊界框的質(zhì)量參數(shù)。
2 試驗(yàn)過程
2.1 數(shù)據(jù)集構(gòu)建
在深度學(xué)習(xí)模型訓(xùn)練過程中,數(shù)據(jù)集的質(zhì)量往往會(huì)影響最終的檢測(cè)結(jié)果,本次試驗(yàn)采用PASCAL VOC數(shù)據(jù)集格式[19],拍攝獲取了稻田雜草(丁香蓼、牛筋草、千金子、空心蓮子草、異型莎草、水莧菜)在苗期的圖像,共計(jì)拍得樣本圖像3 507張,訓(xùn)練集共包含2 627張圖片,驗(yàn)證集包含880張圖片,將圖像統(tǒng)一大小為640×640,再通過用LabelImg進(jìn)行數(shù)據(jù)標(biāo)注,如圖2所示。標(biāo)注后生成對(duì)應(yīng)的后綴為.xml格式的文件,主要記錄對(duì)應(yīng)的標(biāo)注框的最小橫坐標(biāo)點(diǎn)、最小縱坐標(biāo)點(diǎn)、最大橫坐標(biāo)點(diǎn)的值、最大縱坐標(biāo)點(diǎn)的值,訓(xùn)練集與驗(yàn)證集的圖片無重疊,完成數(shù)據(jù)集的構(gòu)建。
2.2 模型訓(xùn)練
本次試驗(yàn)采集的是上海市農(nóng)業(yè)科學(xué)院莊行實(shí)驗(yàn)基地的雜草圖像。拍攝設(shè)備為Canon EOS 5D Mark IV,像素大小為6 720×4 480,試驗(yàn)程序運(yùn)行環(huán)境為臺(tái)式機(jī),本次試驗(yàn)的電腦操作系統(tǒng)為Windows10,驅(qū)動(dòng)程序?yàn)镹VIDIA TITAN RTX的26.21.14.4250版本,CDUA版本為10.2,CUDNN版本為10.2-windows10-x64-v8.0.2.39,本研究所有訓(xùn)練模型及試驗(yàn)都在同一硬件環(huán)境下進(jìn)行。將改進(jìn)后的YOLOv8算法與Faster R-CNN、SSD以及原YOLOv8模型進(jìn)行對(duì)比分析,本研究訓(xùn)練是基于Pytorch深度學(xué)習(xí)[20]框架,采用yolov8n.pt為訓(xùn)練權(quán)重,訓(xùn)練設(shè)置如下:批次為32,工作線程為8,優(yōu)化器為SGD,圖片尺寸大小設(shè)置:寬度為640,高度為640,學(xué)習(xí)率為0.01,最大的迭代次數(shù)為1 000,其他模型均設(shè)為1 000步。
2.3 性能對(duì)比
為了對(duì)不同模型的性能進(jìn)行評(píng)價(jià),采用準(zhǔn)確率(P)、召回率(R)、調(diào)和平均值(F1)、平均精度(mAP)作為評(píng)價(jià)指標(biāo)[21],計(jì)算公式為:
[P=TPTP+FP×100%]" " " " " " " " "(3)
[R=TPTP+FN×100%]" " " " " (4)
[F1=2PRP+R]" " " " " " " " " (5)
[mAP=1Sk=iNP(k)R(k)]" " " " "(6)
式中,TP為真正樣本數(shù)量;FP為假正樣本數(shù)量;FN為假負(fù)樣本數(shù)量;S為雜草的類別數(shù);k為類別編號(hào);N為引用類別編號(hào)的數(shù)量;P(k)為第k類的準(zhǔn)確率;R(k)為第k類的召回率;mAP為6種雜草[22]的平均精度。通過訓(xùn)練可以分別得到4種算法的網(wǎng)絡(luò)模型,并對(duì)比4種模型訓(xùn)練后的mAP變化曲線。
2.3.1 單改進(jìn)點(diǎn)性能對(duì)比 在原YOLOv8基礎(chǔ)上僅采用DenseNet密集網(wǎng)絡(luò)改進(jìn),提高了模型在訓(xùn)練過程中的特征提取能力,優(yōu)化了梯度消失的問題。如表1所示,改進(jìn)后的模型較原YOLOv8模型mAP提升了2.1個(gè)百分點(diǎn)。
在原YOLOv8基礎(chǔ)上僅采用添加CBAM注意力機(jī)制改進(jìn),提高網(wǎng)絡(luò)對(duì)復(fù)雜背景下稻田苗期雜草的特征提取能力。如表2所示,改進(jìn)后的模型較原YOLOv8模型mAP提升了4.9個(gè)百分點(diǎn)。
在原YOLOv8基礎(chǔ)上僅采用WIOU優(yōu)化損失函數(shù),提高了網(wǎng)絡(luò)對(duì)稻田苗期雜草的定位能力。如表3所示,改進(jìn)后的模型較原YOLOv8模型mAP提升了3.2個(gè)百分點(diǎn)。
2.3.2 整體改進(jìn)點(diǎn)性能對(duì)比 由表4可知,改進(jìn)后YOLOv8的mAP高于其他3種檢測(cè)模型,達(dá)97.0%,檢測(cè)速度雖略低于原YOLOv8模型,但提升了模型對(duì)復(fù)雜背景下稻田苗期雜草的特征提取能力,總體而言改進(jìn)后的模型性能提升,提高了雜草的識(shí)別定位能力以及識(shí)別精度。
3 結(jié)果與分析
3.1 不同雜草在不同模型下試驗(yàn)效果的對(duì)比
試驗(yàn)以丁香蓼、牛筋草、千金子、空心蓮子草、異型莎草、水莧菜作為試驗(yàn)對(duì)象,改進(jìn)后的YOLOv8模型對(duì)比Faster R-CNN、SSD、原始YOLOv8模型的檢測(cè)結(jié)果,如圖3所示。
由于稻田背景復(fù)雜,干擾因素多,苗期雜草尺寸過小,在識(shí)別檢測(cè)過程中識(shí)別定位不準(zhǔn)確,準(zhǔn)確率不高,F(xiàn)aster R-CNN、SSD、原始YOLOv8模型均有一定程度的漏檢、定位不準(zhǔn)確,而改進(jìn)后的YOLOv8模型改善了網(wǎng)絡(luò)特征提取能力,提高了對(duì)稻田苗期雜草識(shí)別定位能力,精度達(dá)97.0%。
3.2 多種類雜草模型檢測(cè)結(jié)果
將丁香蓼、牛筋草、千金子、空心蓮子草、異型莎草、水莧菜使用改進(jìn)后的YOLOv8模型進(jìn)行識(shí)別檢測(cè),其結(jié)果如圖4所示。改進(jìn)后的模型對(duì)識(shí)別復(fù)雜背景下的雜草精度較高,均在98%以上。
4 小結(jié)
本研究通過對(duì)原YOLOv8模型添加DenseNet網(wǎng)絡(luò)、添加CBAM注意力機(jī)制模塊、優(yōu)化WIOU損失函數(shù)進(jìn)行改進(jìn),同時(shí)對(duì)比原YOLOv8、Faster R-CNN、SSD模型,訓(xùn)練6種苗期水稻雜草(丁香蓼、牛筋草、千金子、空心蓮子草、異型莎草、水莧菜)的數(shù)據(jù)集。結(jié)果表明,改進(jìn)后的YOLOv8模型性能在檢測(cè)精度以及檢測(cè)時(shí)間上均優(yōu)于原YOLOv8、Faster R-CNN、SSD模型,檢測(cè)精度為97.0%,優(yōu)勢(shì)顯著,驗(yàn)證了其在農(nóng)機(jī)變量上應(yīng)用的可能性,為以后機(jī)械化精準(zhǔn)噴灑農(nóng)藥提供了理論與技術(shù)支持。但研究發(fā)現(xiàn),在雜草苗期,由于體積小,各雜草體態(tài)特征相似度都很高,因此,下一步會(huì)對(duì)獲取得到的圖像進(jìn)行預(yù)處理,突出不同雜草苗期的體態(tài)特征,進(jìn)一步提高識(shí)別準(zhǔn)確率。同時(shí)為了增加試驗(yàn)在各種田間環(huán)境下對(duì)雜草識(shí)別的準(zhǔn)確率,需構(gòu)建雜草在不同環(huán)境下的數(shù)據(jù)集,通過更大的數(shù)據(jù)集訓(xùn)練,完善在不同的田間對(duì)雜草識(shí)別的精度。
參考文獻(xiàn):
[1] 胡迎思,于 躍,朱鳳武.基于圖像處理的田間雜草識(shí)別定位技術(shù)的研究[J].農(nóng)業(yè)與技術(shù),2018,38(3):17-20.
[2] 溫德圣,許 燕,周建平,等. 自然光照影響下基于深度卷積神經(jīng)網(wǎng)絡(luò)和顏色遷移的雜草識(shí)別方法[J].中國(guó)科技論文,2020," " " 15(3):287-292.
[3] 毛文華,曹晶晶,姜紅花,等.基于多特征的田間雜草識(shí)別方法[J].農(nóng)業(yè)工程學(xué)報(bào),2007,23(11): 206-209.
[4] LINKER R, COHEN O, NAOR A. Determination of the number of green apples in RGB images recorded in orchards[J]. Computers and electronics in agriculture, 2012, 81: 45-57.
[5] 胡 波,毛罕平,張艷誠(chéng).基于二維直方圖的雜草圖像分割算法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2007,38(4):199-202.
[6] 趙文倉(cāng),王軍欣.雜草種子視覺不變特征提取及其種類識(shí)別[J].農(nóng)業(yè)工程學(xué)報(bào),2011,27(3):158-161.
[7] 李志臣,姬長(zhǎng)英.基于圖像分析的雜草分形維數(shù)計(jì)算[J].農(nóng)業(yè)工程學(xué)報(bào),2006,22(11):175-178.
[8] 龍滿生,何東健.玉米苗期雜草的計(jì)算機(jī)識(shí)別技術(shù)研究[J].農(nóng)業(yè)工程學(xué)報(bào),2007,23(7):139-144.
[9] 曹晶晶,王一鳴,毛文華,等.基于紋理和位置特征的麥田雜草識(shí)別方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2007,38(4):107-110.
[10] MAJUMDAR S,JAYAS D S.Classification of cereal grains using machine vision:II Color models[J].Transaction s of the ASAE, 2000,43(6):1677-1680.
[11] ZHANG N, CHAISATTAPAGON C. Effective criteria for weed identification in wheat fields using machine vision[J].Transactions of the ASAE,1995,38(3): 965-974.
[12] 趙德安,劉曉洋,陳 玉,等.蘋果采摘機(jī)器人夜間識(shí)別方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2015,46(3): 15-22.
[13] REDMON J,F(xiàn)ARHADI A.YOLO9000:Better,faster,stronger[A]. 2017 IEEE Conference on computer vision and pattern recognition(CVPR)[C].Honolulu, HI, USA:IEEE,2017.6517-6525.
[14] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real-time object detection[A]. 2016 IEEE Conference on computer vision and pattern recognition(CVPR)[C]. Las Vegas, NV, USA:IEEE, 2016. 779-788.
[15] HUANG G, LIU Z, VAN DER MAATEN L, et al. Densely connected convolutional networks[A].Proceedings of the 2017 IEEE conference on computer vision and pattern recognition[C]. Hawaii :IEEE,2017.4700-4708.
[16] 王宇寧,龐智恒,袁德明.基于YOLO算法的車輛實(shí)時(shí)檢測(cè)[J].武漢理工大學(xué)學(xué)報(bào),2016,38(10):41-46.
[17] DUAN K W, BAI S, XIE L X, et al. CenterNet: Keypoint triplets for object detection [A]. 2019 IEEE/CVF International conference on computer vision (ICCV)[C]. Seoul, Korea (South):IEEE, 2019.3668-3685.
[18] 楊觀賜,楊 靜,蘇志東,等.改進(jìn)的YOLO特征提取算法及其在服務(wù)機(jī)器人隱私情境檢測(cè)中的應(yīng)用[J].自動(dòng)化學(xué)報(bào),2018,44(12):2238-2249.
[19] 呂 鑠,蔡 烜,馮 瑞.基于改進(jìn)損失函數(shù)的YOLOv3網(wǎng)絡(luò)[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2019,28(2): 1-7.
[20] LECUN Y, BENGIO Y, HINTON G. Deep learning[J]. Nature, 2015, 521: 436-444.
[21] ZHANG X,YANG W,TANG X L,et al. A fast learning method for accurate and robust lane detection using two-stage feature extraction with YOLOv3[J]. Sensors,2018,18(12):4308.
[22] 王術(shù)波,韓 宇,陳 建,等.基于深度學(xué)習(xí)的無人機(jī)遙感生態(tài)灌區(qū)雜草分類[J].排灌機(jī)械工程學(xué)報(bào),2018,36(11):1137-1141.
基金項(xiàng)目:上海市市場(chǎng)監(jiān)督管理局科研計(jì)劃項(xiàng)目(2022-52)
作者簡(jiǎn)介:林宗繆(1982-),男,上海人,高級(jí)工程師,碩士,主要從事大數(shù)據(jù)技術(shù)、人工智能、分布式計(jì)算研究,(電話)15221917881(電子信箱)lzr311@163.com;通信作者,胡 冬(1996-),男,江蘇溧陽(yáng)人,主要從事圖像處理與模式識(shí)別研究,(電話)13585437932(電子信箱)952412165@qq.com。