中圖分類(lèi)號(hào):S224.15;TP391.41 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-5553(2025)07-0173-08
Abstract:Alternanthera philoxeroides isan alieninvasivemalignant weedin rice fields,which competeswithrice sedlings for water,fertilizer,lightand growthspace before seedling closure,thusseriouslyafecting rice yield.At present,chemical herbicidesaremainlyusedtocontrolweeds.If indiscriminatesprayingofchemical herbicidesis usedin rice fields,it willnotonlypoluting the environment but also causingcertain phytotoxicity torice sedlings.With therapiddevelopmentofartificial intellgenceanddeep learning,itisposibletopreciselysprayherbicidesaccording to the regionallocationof weeds inricefields.Duetotheeficientreasoningabilityandfastiterationof theYOLOseries with one-stagetarget detection models,the seriesversion hasbecomesmaller in sizeandcan beeasilyembedded in mobile phonesorother terminal products.Thisarticle focuses on themalignant weed hollow lotus seed grass in paddy fields before the seedlings are sealedoff,and theYOLOX series areestablished.The performanceofYOLOX Nano in the YOLOX series is not optimal. Due to its smalest size among several versions of YOLOX,which could be easily embedded into mobile phones or other terminal products,the YOLOX Nano model in the YOLOX series was ultimately chosen. The YOLOv3,YOLOv4—tiny,YOLOv5—s,SSD,and YOLOX—Nano target detection networks were constructedand their performance were compared.The experimental results showed that the Recall,mAPand (20 F1 values of the YOLOX—Nano based target detection modelof Alternanthera philoxeroides were higher than those of the YOLOv3,YOLOv4—tiny,SSD,and YOLOv5—s,reaching 97.14% , 96.72% and 93% ,respectively.Aiming at the slight oclusionand partiallysevere occlusionimage betweenseedlings and Alternanthera philoxeroides,thedetection effect of Alternanthera philoxeroides target detection model based on YOLOX—Nano is better than that of YOLOv3 YOLOv4—tiny, SSD,and YOLOv5—s.
Keywords:Alternanthera philoxeroides;paddy field;object detection;weed;YOLOX—Nano
0 引言
稻田空心蓮子草為外來(lái)入侵世界性惡性雜草,主要與封行前的水稻秧苗幼苗共同競(jìng)爭(zhēng)水、肥、光和生長(zhǎng)空間等資源,影響水稻秧苗的有效分蘗和生長(zhǎng),可減產(chǎn)45%[1] 。由于空心蓮子草無(wú)性繁殖能力強(qiáng),采取機(jī)械除草的方式不能有效對(duì)其進(jìn)行去除,目前主要采用噴施化學(xué)除草劑的方式進(jìn)行防治[2]。如果在稻田采用無(wú)差別的噴施化學(xué)除草劑,將對(duì)稻田無(wú)雜草區(qū)域和稻田秧苗進(jìn)行無(wú)效噴施,不僅污染環(huán)境還對(duì)稻田秧苗產(chǎn)生一定的藥害。所以應(yīng)針對(duì)有雜草的區(qū)域進(jìn)行有效噴施除草劑,隨著人工智能和深度學(xué)習(xí)的快速發(fā)展[3,4],根據(jù)稻田雜草的區(qū)域位置進(jìn)行除草劑精準(zhǔn)噴施已成為可能[5]。
由于深度學(xué)習(xí)強(qiáng)大的特征學(xué)習(xí)能力,如卷積神經(jīng)網(wǎng)絡(luò)(CNN)通過(guò)卷積提取特征,因此目標(biāo)檢測(cè)領(lǐng)域也得到快速發(fā)展,并在農(nóng)業(yè)領(lǐng)域中得到應(yīng)用。目前目標(biāo)檢測(cè)算法具體分為一階段目標(biāo)檢測(cè)算法和兩階段目標(biāo)檢測(cè)算法,兩階段主要為R—CNN系列。首先Girshick等[8]提出了基于選擇性搜索算法的R—CNN目標(biāo)檢測(cè)方法,雖然該方法準(zhǔn)確率較傳統(tǒng)手工特征檢測(cè)有了很大的提高,但是R一CNN存在訓(xùn)練慢且占用很大的磁盤(pán)空間等不足。為避免R—CNN的不足,F(xiàn)astR—CNN直接使用了softmax來(lái)代替?zhèn)鹘y(tǒng)SVM分類(lèi)器[9],該方法在最后一層的卷積特征圖上進(jìn)行建議區(qū)域特征提取,避免了R—CNN中需要多次重復(fù)卷積計(jì)算的難題,提高了速度和準(zhǔn)確率。為避免FastR—CNN中selectivesearch方法定位所需大量時(shí)間消耗[10.11],F(xiàn)asterR—CNN提出了一種快速生成更少且質(zhì)量精度高的候選框的方法,即建議區(qū)域提取網(wǎng)絡(luò) RPN[12] 。彭明霞[13]、樊湘鵬[14]等將FasterR一CNN應(yīng)用到田間復(fù)雜背景下棉田雜草識(shí)別,都取得很好的效果。李春明等[15]將FasterR—CNN雜草目標(biāo)檢測(cè)算法部署到除草機(jī)器人,對(duì)清除草坪雜草具有很好的效果。
兩階段目標(biāo)檢測(cè)算法主要分為兩部分,第一步是對(duì)可能存在的目標(biāo)區(qū)域進(jìn)行粗篩挑選,第二步是對(duì)第一步中粗篩目標(biāo)進(jìn)一步檢測(cè)以及邊界框進(jìn)行分類(lèi)和回歸。由于兩階段目標(biāo)檢測(cè)算法分2個(gè)步驟進(jìn)行,其檢測(cè)速度并不理想,為滿(mǎn)足目標(biāo)檢測(cè)實(shí)時(shí)性應(yīng)用需求,速度更快的一階段目標(biāo)檢測(cè)算法被提出。一階段目標(biāo)檢測(cè)算法主要為YOLO和SSD系列。SSD目標(biāo)檢測(cè)算法采用基于回歸的設(shè)計(jì)思路,該方法通過(guò)在基礎(chǔ)網(wǎng)絡(luò)VGGNet上添加多個(gè)卷積層,并從多個(gè)卷積特征圖上對(duì)多個(gè)區(qū)域類(lèi)別和邊界框進(jìn)行回歸,較好地平衡了目標(biāo)檢測(cè)的精度和效率。隨著YOLO相關(guān)算法的快速迭代,其精準(zhǔn)性和實(shí)用性正在逐步提高,國(guó)內(nèi)外學(xué)者基于YOLO算法對(duì)農(nóng)作物雜草檢測(cè)的應(yīng)用展開(kāi)了研究。YOLO系列經(jīng)過(guò) 多次迭代,薛金利等[16針對(duì)棉田雜草構(gòu)建了不同分辨率的3個(gè)數(shù)據(jù)集,采用YOLOv3模型對(duì)不同數(shù)據(jù)集進(jìn)行改進(jìn)優(yōu)化,試驗(yàn)結(jié)果表明模型均可滿(mǎn)足生產(chǎn)需要。權(quán)龍哲等[采用YOLOv4對(duì)玉米 3~5 葉苗期雜草進(jìn)行目標(biāo)檢測(cè),可以很好地檢測(cè)出玉米秧苗和雜草。YOLOv5在YOLOv4和YOLOv3基礎(chǔ)上對(duì)參數(shù)進(jìn)行優(yōu)化,權(quán)重文件體積進(jìn)一步縮小,使得檢測(cè)性能大幅提升。YOLOv5[18,19]的特點(diǎn)是輸入端包含了YOLOv4相同的Mosaic數(shù)據(jù)增強(qiáng)和自適應(yīng)錨框計(jì)算,Backbone模塊中加人Focus結(jié)構(gòu)和CSP結(jié)構(gòu),Neck模塊中加入FPN + PAN 結(jié)構(gòu),Prediction模塊中加人GIOU_Loss。
由于稻田苗期秧苗行距和株距小,隨著秧苗移栽后返青的間隙[20-22],給空心蓮子草繁衍提供時(shí)間和空間。隨著秧苗逐漸分蘗和雜草的生長(zhǎng),雜草和雜草之間、秧苗和雜草之間出現(xiàn)相互遮擋,這些因素給基于目標(biāo)框的稻田雜草目標(biāo)檢測(cè)帶來(lái)很大挑戰(zhàn)。目前的農(nóng)田作物以及伴生雜草種類(lèi)識(shí)別及區(qū)域位置檢測(cè)研究,大部分是關(guān)于旱田農(nóng)作物的研究,而對(duì)水田雜草的研究相對(duì)較少。與旱地相比,水田環(huán)境存在更多的特殊性,例如背景比干旱地區(qū)更為復(fù)雜,而且存在著反光、倒影等問(wèn)題,在水田環(huán)境下對(duì)農(nóng)作物以及伴生雜草的種類(lèi)識(shí)別和位置定位存在更多的干擾信息。通過(guò)國(guó)內(nèi)外學(xué)者基于深度學(xué)習(xí)和機(jī)器視覺(jué)技術(shù)對(duì)農(nóng)作物以及伴生雜草檢測(cè)的研究現(xiàn)狀進(jìn)行分析,這些研究的結(jié)果為深度學(xué)習(xí)模型應(yīng)用于水稻雜草目標(biāo)檢測(cè)提供了可行性依據(jù)。深度學(xué)習(xí)模型在特征提取方面比傳統(tǒng)機(jī)器視覺(jué)識(shí)別更為優(yōu)異,并且能夠保持良好的實(shí)時(shí)性和精準(zhǔn)度,可為小型嵌入式除草設(shè)備的靶向施藥提供技術(shù)支持。
YOLOX[23]將目標(biāo)檢測(cè)領(lǐng)域成熟的訓(xùn)練技巧和方法與YOLO進(jìn)行巧妙地集成組合(比如解耦頭、數(shù)據(jù)增廣、標(biāo)簽分配、Anchor—free機(jī)制等),發(fā)現(xiàn)YOLOX性能取得大幅度提升,并保持了YOLO系列高效推理能力。YOLOX—Nano在YOLOX幾個(gè)版本中體積最小,可方便嵌入手機(jī)或其他終端產(chǎn)品,所以本文基于YOLOX—Nano算法框架對(duì)稻田苗期空心蓮子草目標(biāo)檢測(cè)方法進(jìn)行研究。
1材料與方法
1.1空心蓮子草圖像采集
稻田空心蓮子草圖像樣本在水稻移栽后15天進(jìn)行采集,在采集雜草圖像時(shí)水稻秧苗還未封行,共得到200張圖像,通過(guò)尺寸變換統(tǒng)一到640像素 ×640 像素,以便于后期相關(guān)處理,每幅圖像中包含一個(gè)或多個(gè)空心蓮子草目標(biāo),且雜草目標(biāo)大小不一致。采集圖像如圖1所示。
圖1稻田苗期空心蓮子草圖像 Fig. 1 Alternanthera philoxeroides images in the paddy field
1.2雜草目標(biāo)檢測(cè)流程
稻田苗期空心蓮子草自標(biāo)檢測(cè)流程如圖2所示。
1)首先獲取自然水田環(huán)境下稻田苗期雜草空心蓮子草的RGB樣本圖像。
2)對(duì)稻田苗期空心蓮子草圖像進(jìn)行人工目標(biāo)框標(biāo)注,并形成對(duì)應(yīng)的目標(biāo)標(biāo)簽樣本圖像;隨機(jī)選取 80% 的空心蓮子草RGB樣本圖像及其對(duì)應(yīng)的標(biāo)簽樣本圖像作為訓(xùn)練樣本,其余 20% 的樣本圖像為測(cè)試樣本。
3)構(gòu)建基于YOLOX—Nano 模型的稻田苗期空心蓮子草目標(biāo)檢測(cè)模型。
4)通過(guò)空心蓮子草RGB樣本圖像和對(duì)應(yīng)的目標(biāo)框標(biāo)簽樣本圖像對(duì)模型進(jìn)行訓(xùn)練;利用空心蓮子草圖像目標(biāo)檢測(cè)模型對(duì)空心蓮子草進(jìn)行位置檢測(cè),輸出稻田空心蓮子草的目標(biāo)框位置檢測(cè)結(jié)果,實(shí)現(xiàn)稻田苗期空心蓮子雜草圖像的位置檢測(cè);然后基于測(cè)試集對(duì)各個(gè)目標(biāo)檢測(cè)模型進(jìn)行測(cè)試分析。
1.3基于YOLOX—Nano的空心蓮子草目標(biāo)檢測(cè)模型
YOLO目標(biāo)檢測(cè)模型系列中,YOLOv4版本之后開(kāi)始選用深度卷積神經(jīng)網(wǎng)絡(luò)CSPDarknet提取雜草圖像的深度特征,然后利用區(qū)域框提取算法定位雜草在圖像中的具體位置,再通過(guò)卷積提取的特征具體識(shí)別雜草的類(lèi)別。YOLOX—Nano目標(biāo)檢測(cè)模型經(jīng)過(guò)Δv1~v5 系列的多次迭代,其體積、精度和檢測(cè)速度在眾多一階段目標(biāo)檢測(cè)模型中表現(xiàn)優(yōu)異,所以選擇YOLOX—Nano算法框架對(duì)稻田苗期空心蓮子草的目標(biāo)檢測(cè)方法進(jìn)行研究。
YOLOX—Nano 算法和YOLOv5 算法類(lèi)似,整個(gè)YOLOX—Nano模型結(jié)構(gòu)可以分為3個(gè)部分,分別是CSPDarknet主干網(wǎng)絡(luò)、FPN加強(qiáng)特征提取網(wǎng)絡(luò)以及YOLOHead檢測(cè)頭,如圖3所示。其中Neck網(wǎng)絡(luò)采用FPN[24,25]和PAN[26,27]增強(qiáng)對(duì)多尺度目標(biāo)的檢測(cè);YOLOHead網(wǎng)絡(luò)對(duì)Neck傳遞的特征進(jìn)行預(yù)測(cè)并生成3個(gè)不同尺度(5,9,13)的特征圖。
1.3.1 CSPDarknet主干網(wǎng)絡(luò)
輸人圖片首先在CSPDarknet網(wǎng)絡(luò)中進(jìn)行特征提取,提取到的特征可以被稱(chēng)作特征層,是輸人圖片的特征集合。在主干網(wǎng)絡(luò)部分獲取維度分別為 80×80× 256AA.40×40×512 和 20×20×1024 三個(gè)特征層,并進(jìn)行下一步網(wǎng)絡(luò)構(gòu)建。
1.3.2 FPN加強(qiáng)特征提取網(wǎng)絡(luò)
主干部分獲得的3個(gè)有效特征層在FPN進(jìn)行特征融合,特征融合的目的是結(jié)合多尺度的特征信息,將已獲得的有效特征層用于繼續(xù)提取特征。在YOLOX—Nano里同樣使用YOLOv4中的Panet結(jié)構(gòu),不僅會(huì)對(duì)特征進(jìn)行上采樣以實(shí)現(xiàn)特征融合,還會(huì)對(duì)特征再次進(jìn)行下采樣進(jìn)而實(shí)現(xiàn)特征融合。FPN + PAN結(jié)構(gòu)如圖4所示,其中FPN為自頂向下的結(jié)構(gòu),其通過(guò)下采樣方式將強(qiáng)語(yǔ)義特征信息進(jìn)行傳遞融合得到預(yù)測(cè)的特征圖; PAN[28] 為自下而上的結(jié)構(gòu),其通過(guò)上采樣方式將低分辨率特征圖中的特征信息進(jìn)行傳遞融合得到高維度的特征圖。
圖5Mosaic數(shù)據(jù)增強(qiáng)Fig.5Mosaic data enhancement
1.3.3 YOLO Head
YOLOHead為YOLOX—Nano的分類(lèi)器與回歸器。通過(guò)CSPDarknet和FPN網(wǎng)絡(luò)的特征體提取,并上下采樣和特征融合,獲得3個(gè)加強(qiáng)過(guò)的有效特征層,再通過(guò)YOLOHead檢測(cè)頭進(jìn)行目標(biāo)檢測(cè)。YOLOHead被分為兩部分,分別實(shí)現(xiàn)對(duì)物體的分類(lèi)和預(yù)測(cè)框的回歸,最后將預(yù)測(cè)模塊整合在一起。整個(gè)YOLOX網(wǎng)絡(luò)所做的工作就是特征提取 + 特征加強(qiáng) + 預(yù)測(cè)特征點(diǎn)對(duì)應(yīng)的物體情況。
CSPDarknet中堆疊多個(gè) SPPBottleneck模塊,SPPBottleneck模塊包含2個(gè)Conv操作。SPPBottleneck子網(wǎng)絡(luò)模塊功能是擴(kuò)大網(wǎng)絡(luò)的感受野,輸入特征圖先經(jīng)Conv模塊后其通道數(shù)量減半,再采用 5×5、9×9、13× 13三種不同卷積核的最大池化操作得到3種特征圖,最后拼接特征圖,再通過(guò)Conv模塊輸出特征圖。
YOLOX—Nano輸人部分?jǐn)?shù)據(jù)增強(qiáng)使用與YOLOv4和YOLOv5s相同的Mosaic數(shù)據(jù)增強(qiáng)方法[29]。如圖5所示,Mosaic數(shù)據(jù)增強(qiáng)通過(guò)將多張圖像隨機(jī)放大、隨機(jī)裁剪、隨機(jī)排序等方法,并集中訓(xùn)練,使預(yù)測(cè)背景更加復(fù)雜,從而增強(qiáng)模型的泛化能力,對(duì)訓(xùn)練小規(guī)模數(shù)據(jù)集有更好的預(yù)測(cè)結(jié)果。
1.4目標(biāo)檢測(cè)模型評(píng)價(jià)指標(biāo)
目標(biāo)檢測(cè)模型的性能優(yōu)劣,可以從分類(lèi)的精度方面來(lái)評(píng)估:準(zhǔn)確度(Accuracy)、精確率(Precision)、召回率(Reca)、平均精度( AP )、平均精度均值(mAP )、模型每秒處理的幀數(shù)(幀率)和 F1 值。
召回率Reca的具體含義是:分類(lèi)器檢測(cè)為正確并且確實(shí)是正類(lèi)的數(shù)量占所有確實(shí)是正類(lèi)的數(shù)量比例,是評(píng)價(jià)分類(lèi)器檢測(cè)正樣本的能力。其計(jì)算如式(1)所示。
精確率Precision是所有檢測(cè)出目標(biāo)中檢測(cè)正確的概率,其計(jì)算如式(2)所示。
準(zhǔn)確度(Accuracy)是所有預(yù)測(cè)中預(yù)測(cè)正確的比例,其計(jì)算如式(3)所示。
式中: TP (2號(hào) 被正確分類(lèi)的正樣本;TN 被正確分類(lèi)的負(fù)樣本;FP 被錯(cuò)誤分類(lèi)的負(fù)樣本;FN (2 被錯(cuò)誤分類(lèi)的正樣本。
交并比 IoU 計(jì)算的是“預(yù)測(cè)的邊框”和“真實(shí)的邊框\"的交集Intersection和并集Union的比值,示意如圖6所示。
圖6IoU計(jì)算示意圖
Fig.6 IoU calculation schematic diagram
PR 曲線,即橫軸為Recall,豎軸為Precision。而AP 表示的是檢測(cè)器在各個(gè)Recal情況下的平均值,對(duì)應(yīng)的就是 PR 曲線下的面積 AUC 。從離散的角度來(lái)說(shuō), AP 表達(dá)如式(4)所示。
mAP 是從類(lèi)別維度對(duì) AP 進(jìn)行平均,因此可以評(píng)價(jià)多分類(lèi)器的性能。 mAP 值范圍為 [0,1],mAP 值越大,表示性能越好。該指標(biāo)也是目標(biāo)檢測(cè)算法中最關(guān)鍵的一項(xiàng)。其計(jì)算如式(5)所示。
式中:num_classes 目標(biāo)類(lèi)別數(shù)量。
F1 值是Precision和Recall的調(diào)和平均數(shù),F(xiàn)1 值位于[0,1],數(shù)值越大,表明模型越理想。其計(jì)算如式(6)所示。
2 試驗(yàn)結(jié)果與分析
2.1 開(kāi)發(fā)環(huán)境
模型訓(xùn)練環(huán)境:操作系統(tǒng)Windowsl064位;虛擬環(huán)境搭建使用Anaconda;Python編譯器為PyCharm;數(shù)據(jù)集標(biāo)注使用精靈標(biāo)注助手記錄稻田雜草樣本的Box信息;GPU為 gtx1080Ti ,具有11G顯存;深度學(xué)習(xí)框架為PyTorch1.2.0。
2.2 YOLOX—Nano模型訓(xùn)練結(jié)果
召回率(Recal)曲線如圖7(a)所示。曲線表示當(dāng)閾值一定時(shí),算法模型預(yù)測(cè)出的正確框數(shù)量與所有真實(shí)框數(shù)量的比值大小。閾值越大時(shí),若模型依然能保持高的召回率,證明算法模型對(duì)數(shù)據(jù)集的檢測(cè)效果非常好。可以看出,YOLOX—Nano算法模型可以在高閾值情況下保持高的召回率。
精確率(Precision)曲線如圖7(b)所示。曲線表示當(dāng)閾值一定時(shí),算法模型預(yù)測(cè)出的正確框數(shù)量與所有預(yù)測(cè)框(包含正確和不正確)的比值大小。閾值越小時(shí),若模型依然能保持高的準(zhǔn)確度,證明算法模型對(duì)數(shù)據(jù)集的檢測(cè)效果非常好。由圖7(c)可知,YOLOX—Nano模型也可以保持一定閥值范圍的高準(zhǔn)確度。當(dāng)召回率 R 一定時(shí),精確率 P 的大小、 PR 曲線左下方的面積大小代表模型對(duì)數(shù)據(jù)集的效果, PR 曲線包含絕大部分的面積,所以訓(xùn)練好的YOLOX—Nano模型對(duì)數(shù)據(jù)集的預(yù)測(cè)效果非常好。
YOLOX—Nano模型的 F1 值曲線如圖7(d)所示。為了能評(píng)價(jià)不同算法的優(yōu)劣,在Precision和Recal的基礎(chǔ)上提出 F1 值的概念,來(lái)對(duì)Precision和Recal進(jìn)行整體評(píng)價(jià)。當(dāng) F1 值的曲線包含的面積越多時(shí),模型對(duì)數(shù)據(jù)集檢測(cè)效果越好。如圖7(d)所示,YOLOX—Nano算法在 F1 值曲線評(píng)估中效果很好。
2.3 目標(biāo)檢測(cè)結(jié)果
對(duì) YOLOX 系列中 YOLOX—s、YOLOX—tiny、YOLOX- m 和YOLOX—Nano算法進(jìn)行性能對(duì)比,實(shí)驗(yàn)結(jié)果如表1所示,YOLOX系列中各目標(biāo)檢測(cè)模型的Recall、mAP、F1值、Precision值都相差不大,但幀率值和模型大小(Modelsize)相差很大。雖然YOLOX- m 模型的幀率值最小,但其Modelsize最大;雖然YOLOX—Nano在YOLOX系列性能不是最優(yōu),但是YOLOX—Nano在YOLOX幾個(gè)版本中體積最小,方便嵌入手機(jī)或其他終端產(chǎn)品,最終選擇YOLOX系列中的YOLOX—Nano模型。
表1YOLOX系列中不同模型雜草目標(biāo)檢測(cè)性能Tab.1Detectionperformance of YOLOX series
對(duì)一階段目標(biāo)檢測(cè)模型YOLO系列中YOLOv3、YOLOv4—tiny、YOLOv5—s、SSD 和YOLOX—Nano 算法進(jìn)行性能對(duì)比,實(shí)驗(yàn)結(jié)果如表2所示,基于YOLOv3的空心蓮子草目標(biāo)檢測(cè)模型Precision值高于YOLOv4—tiny、YOLOv5—s、SSD 和 YOLOX—Nano 模型,但基于YOLOX—Nano的空心蓮子草目標(biāo)檢測(cè)模型Recall、mAP、 F1 值都高于 YOLOv3、YOLOv4—tiny、SSD和YOLOv5—s,分別達(dá)到 97.14%.96.72%.93% 雖然YOLOv3模型的幀率值最小,但其Modelsize值最大;雖然YOLOv4—tiny模型的Modelsize值最小,但其幀率值最大。通過(guò)所有不同模型空心蓮子草目標(biāo)檢測(cè)性能的綜合比較發(fā)現(xiàn),YOLOX—Nano模型空心蓮子草目標(biāo)檢測(cè)性能最優(yōu)。
由于稻田秧苗行距和株距小,秧苗和空心蓮子草之間會(huì)不可避免地存在不同程度的相互遮擋。針對(duì)上述情況,輕微遮擋檢測(cè)結(jié)果如圖8所示,部分嚴(yán)重遮擋檢測(cè)結(jié)果如圖9所示?;赮OLOX—Nano的空心蓮子草目標(biāo)檢測(cè)模型檢測(cè)效果好于YOLOv3、YOLOv4—tiny、SSD和YOLOv5—s。如圖8(a)和圖9(a)所示,YOLOX—Nano模型檢測(cè)出所有雜草目標(biāo);如圖8(b)和圖9(b)所示,YOLOv3模型沒(méi)有檢測(cè)出雜草目標(biāo);如圖8(c)和圖9(c)所示,YOLOv4—tiny模型僅檢測(cè)出1個(gè)雜草目標(biāo);如圖8(d)和圖9(d)所示,YOLOv5—s模型有2個(gè)雜草目標(biāo)沒(méi)有檢測(cè)出來(lái);如圖8(e所示,SSD模型檢測(cè)出3個(gè)雜草目標(biāo);如圖9(e)所示,SSD模型只檢測(cè)出3個(gè)輕微遮擋的雜草目標(biāo),另外3個(gè)部分嚴(yán)重遮擋的雜草目標(biāo)沒(méi)有檢測(cè)出來(lái)。通過(guò)綜合性能對(duì)比發(fā)現(xiàn),YOLOX—Nano針對(duì)輕微遮擋和部分嚴(yán)重遮擋的空心蓮子草目標(biāo)檢測(cè)模型檢測(cè)效果最優(yōu)。
表2不同模型空心蓮子草目標(biāo)檢測(cè)性能 Tab.2 Detection performance of Alternanthera philoxeroides in different models
圖8輕微遮擋條件下不同模型檢測(cè)結(jié)果
Fig.8Detection results of different models under slight occlusion
圖9部分嚴(yán)重遮擋條件下不同模型檢測(cè)結(jié)果
Fig.9Detection results of different models under serious occlusion
3結(jié)論
1)獲取自然水田環(huán)境下稻田苗期雜草空心蓮子草的RGB樣本圖像,對(duì)稻田苗期空心蓮子草圖像進(jìn)行人工目標(biāo)框標(biāo)注,并形成對(duì)應(yīng)的目標(biāo)標(biāo)簽樣本圖像;針對(duì)YOLOX一階段目標(biāo)檢測(cè)模型系列,進(jìn)行性能對(duì)比,雖然YOLOX—Nano在YOLOX系列性能不是最優(yōu),但是YOLOX—Nano在YOLOX幾個(gè)版本中體積最小,可方便嵌入手機(jī)或其他終端產(chǎn)品,所以最終選擇YOLOX系列中的YOLOX—Nano模型。
2)構(gòu)建YOLOv3、YOLOv4—tiny、YOLOv5—s、SSD和YOLOX—Nano空心蓮子草目標(biāo)檢測(cè)網(wǎng)絡(luò),并進(jìn)行性能對(duì)比。實(shí)驗(yàn)結(jié)果表明,基于YOLOX—Nano的空心蓮子草目標(biāo)檢測(cè)模型Reca、mAP、 F1 值都高于YOLOv3、YOLOv4—tiny和YOLOv5—s,分別達(dá)到 97.14%.96.72%.93% 。
3)針對(duì)秧苗和空心蓮子草之間不同程度輕微遮擋和部分嚴(yán)重遮擋的相互遮擋圖像,基于YOLOX一Nano的空心蓮子草目標(biāo)檢測(cè)模型檢測(cè)效果好于YOLOv3、YOLOv4—tiny、SSD 和 YOLOv5—s。
參考文獻(xiàn)
[1]葉照春,陳仕紅,冉海燕,等.空心蓮子草對(duì)草甘麟的敏感性測(cè)定[J].農(nóng)藥,2020,59(12):925-927.
[2]呂沐華,丁珠玉.基于機(jī)器視覺(jué)的果園噴藥除草機(jī)器人視覺(jué)系統(tǒng)設(shè)計(jì)[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2021,42(5):42-48.Lü Muhua,Ding Zhuyu.Design of visual systems fororchardsprayingweedingrobotbasedonmachinevision[J]. Journal of Chinese Agricultural Mechanization,2021,42(5):42-48.
[3]李東升,胡文澤,蘭玉彬,等.深度學(xué)習(xí)在雜草識(shí)別領(lǐng)域的研究現(xiàn)狀與展望[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2022,43(9):137—144.LiDongsheng,Hu Wenze,Lan Yubin,et al.Researchstatus and prospect of deep learning in weed recognition [J].Journal of Chinese Agricultural Mechanization,2022,43(9):137—144.
[4]付豪,趙學(xué)觀,翟長(zhǎng)遠(yuǎn),等.基于深度學(xué)習(xí)的雜草識(shí)別方法研究進(jìn)展[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2023,44(5):198-207.Fu Hao,Zhao Xueguan,Zhai Changyuan,et al. Researchprogress on weed recognition method based on deeplearningtechnology[J].Journalof ChineseAgriculturalMechanization,2023,44(5):198—207.
[5]邢欽淞,丁素明,薛新宇,等.智能田間除草機(jī)器人發(fā)展現(xiàn)狀研究[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2022,43(8):173—181.XingQinsong,Ding Suming,Xue Xinyu,et al. Researchon the development starts of intelligent fieldweedingrobot[J].Journal of Chinese Agricultural Mechanization,2022,43(8):173—181.
[6]姚思雨,王磊,張宏文.基于CNN的棉田雜草識(shí)別方法[J].石河子大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,41(1):21-26.Yao Siyu,Wang Lei,Zhang Hongwen.Weed identificationmethod in cotton field based on CNN[J].Journal of ShiheziUniversity(NaturalScience),2023,41(1):21-26.
[7]胡煉,劉海龍,何杰,等.智能除草機(jī)器人研究現(xiàn)狀與展望[J].華南農(nóng)業(yè)大學(xué)學(xué)報(bào),2023,44(1):34—42.Hu Lian,Liu Hailong,He Jie,et al. Research progress andprospect of intelligent weeding robot [J].Journal of SouthChina Agricultural University,2023,44(1):34-42.
[8]Girshick R,DonahueJ,DarrellT,etal.Richfeature hierarchies for accurate object detection andsemantic segmentation [C]. Proceedings of the IEEEConference on Computer Vision and Pattern Recognition,2014:580-587.
[9]李曉光,付陳平,李曉莉,等.面向多尺度目標(biāo)檢測(cè)的改進(jìn)Faster R—CNN算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2019,31(7):1095—1101.Li Xiaoguang,F(xiàn)u Chenping,Li Xiaoli,et al.ImprovedFaster R—CNN for multi-scale object detection [J].Journal of Computer-Aided Design amp;. Computer Graphics,2019,31(7):1095—1101.
[10]Uijlings JR R, Sande K E A, Gevers T,et al. Selective searchforobject recognition [J].International Journal of ComputerVision,2013,104(2):154—171.
[11] Cao C,Wang B,Zhang W,et al.An improved FasterR-CNN for small object detection [J]. IEEE Access,2019,7:106838—106846.
[12]黃書(shū)琴,黃福樂(lè),羅柳茗,等.基于FasterR—CNN的蔗田雜草檢測(cè)算法研究[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2024,45(6):208-215.Huang Shuqin, Huang Fule, Luo Liuming, etal.Research on weed detection algorithm in sugarcane fieldbased on Faster R-CNN[J]. Journal of ChineseAgriculturalMechanization,2024,45(6):208-215.
[13]彭明霞,夏俊芳,彭輝.融合FPN的FasterR—CNN復(fù)雜背景下棉田雜草高效識(shí)別方法[J].農(nóng)業(yè)工程學(xué)報(bào),2019,35(20):202—209.Peng Mingxia, Xia Junfang, Peng Hui. Efficientrecognition of cotton and weed in field based on FasterR—CNN by integrating FPN[J]. Transactions of theChinese Society of Agricultural Engineering,2019,35(20):202-209.
[14]樊湘鵬,周建平,許燕,等.基于優(yōu)化FasterR—CNN的棉花苗期雜草識(shí)別與定位[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2021,52(5):26-34.Fan Xiangpeng, Zhou Jianping, Xu Yan, et al.Identification and localization of weeds based on optimizedFaster R—CNN in cotton seedling stage[J]. Transactionsof the Chinese Society for Agricultural Machinery,2020,52(5): 26-34
[15]李春明,逯杉婷,遠(yuǎn)松靈,等.基于FasterR—CNN的除草機(jī)器人雜草識(shí)別算法[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2019,40(12):171—176.Li Chunming,Lu Shanting,Yuan Songling,et al.Weed identification algorithm of weeding robot based onFaster R—CNN[J]. Journal of Chinese AgriculturalMechanization,2019,40(12):171—176.
[16]薛金利,戴建國(guó),趙慶展,等.基于低空無(wú)人機(jī)影像和YOLOv3實(shí)現(xiàn)棉田雜草檢測(cè)[J].石河子大學(xué)學(xué)報(bào)(自然科學(xué)版),2019,37(1):21-27.Xue Jinli,Dai Jianguo,Zhao Qingzhan,et al. Cotton fieldweed detection based on low-altitude drone image andYOLOv3[J]. Journal of Shihezi University (NaturalScience),2019,37(1):21-27.
[17]權(quán)龍哲,夏福霖,姜偉,等.基于YOLOv4 卷積神經(jīng)網(wǎng)絡(luò)的農(nóng)田苗草識(shí)別研究[J].東北農(nóng)業(yè)大學(xué)學(xué)報(bào),2021,52(7):89-98.Quan Longzhe,Xia Fulin, Jiang Wei,et al. Researchon recognition of maize seedlings and weeds in maize mieldbased on YOLOv4 convolutional neural network [J].Journalof Northeast Agricultural University,2021,52(7):(2 89-98 :
[18]尚鈺瑩,張倩如,宋懷波.基于YOLOv5s的深度學(xué)習(xí)在自然場(chǎng)景蘋(píng)果花朵檢測(cè)中的應(yīng)用[J].農(nóng)業(yè)工程學(xué)報(bào),2022,38(9):222-229.Shang Yuying,Zhang Qianru,Song Huaibo. Applicationof deep learning using YOLOv5s to apple flowerdetection in natural scenes [J]. Transactions of theChinese Society of Agricultural Engineering, 2022,38(9):222-229.
[19]孫豐剛,王云露,蘭鵬,等.基于改進(jìn)YOLOv5s和遷移學(xué)習(xí)的蘋(píng)果果實(shí)病害識(shí)別方法[J].農(nóng)業(yè)工程學(xué)報(bào).2022,38(11):171—179.Sun Fenggang, Wang Yunlu,Lan Peng,etal.Identification of apple fruit diseases using improvedYOLOv5s and transfer learning [J]. Transactions of theChinese Society of Agricultural Engineering,2022,38(11):171—179.
[20]蘇宇,肖志云,鮑鵬飛.采用改進(jìn)YOLOv5s檢測(cè)牧區(qū)牲畜[J].農(nóng)業(yè)工程學(xué)報(bào),2023,39(24):165-176.Su Yu,Xiao Zhiyun,Bao Pengfei. Livestock detection inpastoralareasusingimprovedYOLOv5s[J].Transactions of the Chinese Society of Agricultural,2023,39(24):165-176.
[21]朱圣,鄧?yán)^忠,張亞莉,等.基于無(wú)人機(jī)低空遙感的水稻田間雜草分布圖研究[J].華南農(nóng)業(yè)大學(xué)學(xué)報(bào),2020,41(6):67-74.Zhu Sheng,Deng Jizhong,Zhang Yali,et al.Studyon distribution map of weeds in rice field based onUAV remote sensing [J]. Journal of South ChinaAgricultural University,2020,41(6):67-74.遜扒 近日本 笙 焦成學(xué)習(xí)的稻田雜草識(shí)別研究[J].廣東石油化工學(xué)院學(xué)報(bào),2021,31(4):40-44.DengXiangwu, Liang Song, XuYijie,etal.Weeds recognition in paddy fields based on subspaceensemble learning [J]. Journal of Guangdong Universityof Petrochemical Technology,2021,31(4): 40-44 :
[23] Ge Z,Liu S, Wang F,et al. YOLOX:ExceedingYOLO series in 2021 [J]. arXiv preprint arXiv:2107.08430,2021.
[24]陳禹,吳雪梅,張珍,等.基于改進(jìn)YOLOv5s的自然環(huán)境下茶葉病害識(shí)別方法[J].農(nóng)業(yè)工程學(xué)報(bào),2023,39(24):185-194.Chen Yu,Wu Xuemei,Zhang Zhen,et al.Methodforidentifyingtea diseasesinnatural environmentusing improved YOLOv5s [J]. Transactions of theChinese Society of Agricultural Engineering,2023,39(24):185-194.
[25]章權(quán)兵,胡姍姍,舒文燦,等.基于注意力機(jī)制金字塔網(wǎng)絡(luò)的麥穗檢測(cè)方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2021,52(11):253-262.Zhang Quanbing,Hu Shanshan,Shu Wencan, etal.Wheatspikesdetectionmethodbased onpyramidal networkofattentionmechanism[J].Transactions of the Chinese Society for AgriculturalMachinery,2021,52(11):253-262.
[26]杜甜甜,南新元,黃家興,等.改進(jìn)RegNet識(shí)別多種農(nóng)作物病害受害程度[J].農(nóng)業(yè)工程學(xué)報(bào),2022,38(15):150-158.Du Tiantian, Nan Xinyuan, Huang Jiaxing, et al.Identifying the damage degree of various crop diseasesusing an improved RegNet [J]. Transactions of theChinese Society of Agricultural Engineering,2022,38(15):150—158.
[27]曾安,彭杰威,劉暢,等.基于多尺度幾何感知Transformer的植物點(diǎn)云補(bǔ)全網(wǎng)絡(luò)[J].農(nóng)業(yè)工程學(xué)報(bào),2022,38(4):198-205.Zeng An,Peng Jiewei, Liu Chang, et al.Plantpoint cloud completion network based on multi-scalegeometry-awarepointTransformer[J].Transactions of the Chinese Society of AgriculturalEngineering,2022,38(4):198-205.
[28] Viola P A,Jones M J. Rapid object detection using aboosted cascade of simple features [C]. Proceedings of theIEEE International Conference on Computer Visionand Pattern Recognition,20ol:51l—518.
[29]胡嘉沛,李震,黃河清,等.采用改進(jìn) YOLOv4—Tiny模型的柑橘木虱識(shí)別[J].農(nóng)業(yè)工程學(xué)報(bào),2021,37(17):197-203.Hu Jiapei,Li Zhen,Huang Heqing,et al.Citruspsylliddetectionbasedon limproved YOLOv4-Tiny model [J].Transactions of the Chinese Society ofAgricultural Engineering,2021,37(17):197-203.