中圖分類號(hào):S451 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-5553(2025)07-0220-06
Abstract:Toaddress the problems of diverse weedspecies,high detection complexity,and slow detection speed in the detection of weedsamong maize seedlings,thispaperproposesa weed detection method based on optimized YOLOv5 algorithm.The SE parameter-freeatentionmoduleis introduced intotheconvolutional layersof theYOLOv5 backbone network,withthe SE一integrated C3module replacing theoriginal C3 moduleto beterfocus ondetection targets. The traditional residual neural network is replaced with the BoTNetmodule,andglobal multi-headself-attention is used to replace 3×3 spatial convolution in thelastthree botleneck blocksof ResNet,thereby improving the accuracy of detecting smalltargets.The improvedtargetdetectionalgorithmisused todetect weeds,withnon-maizeseedlingareas inthe fieldlabeledasweeds.The super-green feature,combinedwith the OTSU threshold segmentation algorithm,is used tosegment thesoilbackgroundandidentifytheforegroundareasof weeds,effectivelysolving theproblemof weed detection inmaizesedling fields.The resultsshowthattheimproved YOLOv5algorithmachievesatarget detection precision of 97.5% for maize seedlings,which is 7.4% higher than the original YOLOv5 algorithm. The detection speed reaches 40ms ,thereby improving the detection accuracy and model robustness to meet the needs of real-time detection.
Keywords:wed detection among maize seedlings;YOLOv5;attention module;BoTNet module;super-green feature; OTSU threshold segmentation
0 引言
與高產(chǎn)作物爭(zhēng)奪生長(zhǎng)空間、陽(yáng)光、水分和土壤養(yǎng)分,容易引發(fā)病蟲害等問題,嚴(yán)重影響作物的健康生長(zhǎng),從而導(dǎo)致農(nóng)產(chǎn)品的產(chǎn)量和質(zhì)量下降[1,2]。因此,雜草檢測(cè)農(nóng)田雜草是對(duì)農(nóng)業(yè)生產(chǎn)最嚴(yán)重的威脅之一,雜草技術(shù)的重要性不言而喻。
目前,國(guó)內(nèi)外廣泛致力于雜草檢測(cè)研究,主要分為基于傳統(tǒng)方法和深度學(xué)習(xí)方法。傳統(tǒng)的雜草識(shí)別方法包括遙感識(shí)別法、光譜識(shí)別法;而深度學(xué)習(xí)方法則涵蓋基于圖像處理和計(jì)算機(jī)視覺技術(shù)識(shí)別法、機(jī)器視覺識(shí)別法[3-5]。研究者采用不同的技術(shù)手段來(lái)應(yīng)對(duì)雜草識(shí)別的挑戰(zhàn)。沈?qū)殗?guó)等6采用顏色特征來(lái)區(qū)分棉田中的棉苗莖稈與雜草,融合雜草位置信息實(shí)現(xiàn)雜草的識(shí)別。吳蘭蘭等通過改進(jìn)Itti模型,提取原始圖像特征圖,分割出目標(biāo)區(qū)域,通過區(qū)域融合得到雜草區(qū)域。王二銳[8基于YOLOv4卷積神經(jīng)網(wǎng)絡(luò)模型,通過數(shù)據(jù)增強(qiáng)技術(shù),增加網(wǎng)絡(luò)訓(xùn)練的復(fù)雜性,提高檢測(cè)準(zhǔn)確性,實(shí)現(xiàn)雜草識(shí)別和定位的視覺系統(tǒng),其雜草檢測(cè)率為 93.19% 。然而,雜草檢測(cè)在技術(shù)層面仍然面臨一些難題:光照變化對(duì)識(shí)別準(zhǔn)確性的影響、不同雜草種類的形態(tài)差異導(dǎo)致的分類挑戰(zhàn)、小目標(biāo)檢測(cè)的困難、深度學(xué)習(xí)對(duì)樣本需求量大等。
本文通過優(yōu)化YOLOv5算法的玉米苗間雜草檢測(cè)研究,在主干網(wǎng)絡(luò)中引人SE無(wú)參數(shù)注意力模塊和BotNet模塊,采用超綠特征灰度化( ExG* 和OTSU閥值分割算法進(jìn)行雜草分割,致力于解決這些技術(shù)上的難題,提高雜草檢測(cè)技術(shù)的精度、魯棒性和實(shí)用性。
1數(shù)據(jù)采集與處理
1.1 數(shù)據(jù)圖像采集
使用數(shù)碼相機(jī)在實(shí)地采集 3~5 葉齡玉米苗和雜草的高清圖片,如圖1所示。
圖1作物與雜草的分布情況
針對(duì)雜草和玉米苗這種特定物體的目標(biāo)檢測(cè),目前尚無(wú)可用公開數(shù)據(jù)集。因此,通過自主采集方式構(gòu)建新的數(shù)據(jù)集。樣本采集時(shí)間為2022年6月6—20日,地點(diǎn)位于黑龍江八一農(nóng)墾大學(xué)試驗(yàn)田,采用垂直拍攝方式,采集的圖像包含玉米苗及伴生雜草,展現(xiàn)作物與雜草的分布情況。
1.2 圖像預(yù)處理
考慮到數(shù)據(jù)集的復(fù)雜性,采集的圖片在不同光照、時(shí)間、天氣和土壤背景(如土壤濕度和秸稈殘茬)條件下進(jìn)行拍攝,共采集1427幅圖片,經(jīng)過篩選和清理,最終保留1050幅原始圖像。為增強(qiáng)數(shù)據(jù)集的豐富性,對(duì)采集的原始圖像進(jìn)行數(shù)據(jù)增強(qiáng)處理,包括圖像裁剪、旋轉(zhuǎn)、鏡像翻轉(zhuǎn)、顏色變化以及噪聲注入等,如圖2所示。通過數(shù)據(jù)增強(qiáng),將樣本容量擴(kuò)展4倍,總共獲得4200幅圖像。
圖2數(shù)據(jù)增強(qiáng)示意圖
Fig.2 Schematic diagram of data enhancement
2 YOLOv5模型結(jié)構(gòu)與優(yōu)化
2.1 YOLOv5的模型結(jié)構(gòu)
為提升目標(biāo)檢測(cè)性能,改進(jìn)YOLOv5算法的主干特征提取網(wǎng)絡(luò)。在CSP層之后,引人SE注意力模塊,并采用BottleneckTransformer編碼器模塊來(lái)替代原有編碼器。優(yōu)化后YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。
圖3優(yōu)化后YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)
Fig.3YOLOv5 network structure after optimization
2.1. 1 YOLOv5目標(biāo)檢測(cè)算法原理
目前,深度神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測(cè)算法分為兩階段檢測(cè)和單階段檢測(cè),主要區(qū)別在于是否存在候選框產(chǎn)生的階段。雙階段算法通常具有更高的檢測(cè)精度,常見的算法包括R—CNN、FastR—CNN、FasterR—CNN;單階段算法也稱為回歸分析目標(biāo)檢測(cè)算法,雖然準(zhǔn)確性不如FasterR一CNN算法,但實(shí)時(shí)性更好,通常采用YOLO算法和 SSD算法[9-11]
YOLO目標(biāo)檢測(cè)算法將目標(biāo)檢測(cè)視為一個(gè)回歸問題,直接從輸入圖像中預(yù)測(cè)物體的種類和位置,同時(shí)生成檢測(cè)框,無(wú)須進(jìn)行候選框提取的復(fù)雜過程,具備高速的推理能力和低成本的模型部署優(yōu)勢(shì)。YOLOv5的網(wǎng)絡(luò)模型主要由4個(gè)關(guān)鍵部分組成,包括輸人層(Input)、主干網(wǎng)絡(luò)(Backbone)、中間連接層(Neck)以及預(yù)測(cè)層(Prediction)[12.13]。(1)輸人層(Input):定義圖像的尺寸和通道數(shù),同時(shí)采用Mosaic數(shù)據(jù)增強(qiáng)技術(shù),提高模型訓(xùn)練速度和網(wǎng)絡(luò)精度。(2)主干網(wǎng)絡(luò)(Backbone):負(fù)責(zé)從輸入圖像中提取有關(guān)目標(biāo)的關(guān)鍵信息,YOLOv5中的主干網(wǎng)絡(luò)使用CSP和Focus結(jié)構(gòu)作為基準(zhǔn)網(wǎng)絡(luò)。(3)中間連接層(Neck):融合和處理來(lái)自不同層級(jí)的特征,以提升目標(biāo)檢測(cè)的準(zhǔn)確性。YOLOv5使用SPP模塊和FPN + PAN模塊,F(xiàn)PN層實(shí)現(xiàn)自下而上的強(qiáng)定位傳遞特征,又稱為特征融合層。(4)預(yù)測(cè)層(Prediction):將檢測(cè)頭預(yù)測(cè)的信息轉(zhuǎn)化為目標(biāo)框的位置和類別概率,被稱為預(yù)測(cè)層,其輸出用于生成目標(biāo)檢測(cè)的最終結(jié)果。
2.1.2SE卷積注意力機(jī)制
由于玉米苗和雜草在顏色、形狀和紋理特征上相似,引人SE(Squeeze-and-Excitation)注意力模塊增強(qiáng)網(wǎng)絡(luò)對(duì)玉米苗的關(guān)注度,特別是在復(fù)雜農(nóng)田背景中。解決原始網(wǎng)絡(luò)中存在的注意力不足問題,使網(wǎng)絡(luò)在檢測(cè)過程中更專注于檢測(cè)目標(biāo),減少無(wú)關(guān)信息的干擾。SE模塊算法流程如圖4所示。
SE注意力機(jī)制是對(duì)每個(gè)通道(特征圖中的每一個(gè)特定特征)應(yīng)用不同的權(quán)重,以突出或抑制特定通道的信息,這個(gè)過程可以分為3個(gè)步驟。
第一步,擠壓(squeeze):通過全局平均池化,將每個(gè)通道的二維特征( (H×W) 壓縮為一個(gè)實(shí)數(shù),將特征圖從 [H,W,C] 壓縮成[1,1, ?C] 的形狀,計(jì)算如式(1)所示。
式中: zc 一 壓縮后的通道描述符;uc(i,j) ——圖像在坐標(biāo) (i,j) 處的灰度值;i 一 圖像的高度;j 一 圖像的寬度;H 輸人特征圖的高度;W 輸人特征圖的寬度。
第二步,激勵(lì)(excitation):生成每個(gè)特征通道權(quán)重值,建立不同通道之間的相關(guān)性。通過兩個(gè)全連接層 (τυ1 和 w2 )完成,對(duì)前一步得到的向量 z 進(jìn)行處理,從而產(chǎn)生與輸人特征圖的通道數(shù)相同數(shù)量的權(quán)重值。最終得到的通道權(quán)重值 s 中的不同數(shù)值表示不同通道的權(quán)重信息,為不同通道賦予了不同的重要性,計(jì)算如式(2)所示。
s=Fex(z,w)=σ(g(z,w))=σ(w2δ(w1z)) (2)式中: z 1 每個(gè)通道的平均值;w 權(quán)重矩陣; 1 兩個(gè)MLP層的權(quán)重。
第三步,權(quán)重(scale):通過生成的特征向量 s(1× 1×C 與特征圖 U(H×W×C) 相應(yīng)通道的點(diǎn)乘,得到所需的特征圖 ,計(jì)算如式(3)所示。
式中: uc 一 原始特征圖中的第 c 個(gè)通道;
sc 一 激勵(lì)權(quán)重。
通過在主干特征提取網(wǎng)絡(luò)中引入SE注意力機(jī)制,解決原網(wǎng)絡(luò)無(wú)注意力偏好問題,使網(wǎng)絡(luò)更專注于待檢測(cè)目標(biāo)。
2.1.3 BoTNet模塊
在目標(biāo)檢測(cè)任務(wù)中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)的卷積層主要關(guān)注局部信息,建立相鄰像素之間的關(guān)系,而Transformer模型具備全局感知視野,能夠建模長(zhǎng)距離依賴關(guān)系,捕獲豐富的全局信息,這兩者之間存在互補(bǔ)的優(yōu)勢(shì)[14]。BoTNet將注意力模塊融合到CNN原有的模塊中。卷積層結(jié)構(gòu)如圖5所示。
BoTNet塊中使用的多頭自注意(MHSA)層,將ResNet中最后3個(gè) 3×3 卷積層替換成MHSA層,在小目標(biāo)檢測(cè)方面顯著改善,同時(shí)減少了參數(shù)量,從而使得延遲最小化。
2.2雜草分割算法原理
采用超綠特征灰度化( ExG 和OTSU閾值分割算法進(jìn)行雜草分割。由于王壤和綠色植被之間的顏色特征差異很大,通過超綠特征灰度化方法將彩色圖像轉(zhuǎn)換為灰度圖像,突出顯示綠色植被部分。通過OTSU閾值分割算法將灰度圖像分割為雜草和背景兩個(gè)部分,獲得二值化的分割圖像。
超綠色方法在提取綠色植物圖像方面效果出色,能夠明顯抑制陰影、雜草、苗和土壤等圖像成分,使苗、草圖像更加突出。針對(duì)作物識(shí)別和雜草檢測(cè),超綠色方法是最常用的灰度化方法,計(jì)算如式(4)所示。
ExG=2G-R-B 式中: G # 綠色通道值;R 紅色通道值;B 藍(lán)色通道值。
經(jīng)超綠特征灰度化處理后的圖像,采用OTSU閾值分割算法自動(dòng)選擇最優(yōu)閾值 T 。再利用這個(gè)閾值將圖像二值化,同時(shí)像素分為兩個(gè)類別,產(chǎn)生一個(gè)黑白的二值化圖像。OTSU算法的優(yōu)點(diǎn)在于其不需要人工干預(yù),能夠在圖像中自動(dòng)確定合適的閾值,使圖像分割過程更加簡(jiǎn)便和穩(wěn)定。二值化計(jì)算如式(5)所示。
當(dāng)灰度值為0時(shí),像素點(diǎn)為黑色,表示土壤背景;當(dāng)灰度值為255時(shí),像素點(diǎn)為白色,表示雜草背景。
在 ExG 特征通道圖像上應(yīng)用OTSU自適應(yīng)閾值法來(lái)確定一個(gè)適當(dāng)?shù)姆指铋撝?,將圖像分割為前景和背景。對(duì)二值圖像進(jìn)行形態(tài)學(xué)運(yùn)算,以去除噪點(diǎn)并填充空洞,最終得到植被分割的前景圖像。
目標(biāo)檢測(cè)算法生成檢測(cè)框后,通過在前景圖像上創(chuàng)建一個(gè)黑色掩膜,掩蓋在前景圖像的玉米苗檢測(cè)框位置,從而將玉米苗從圖像中移除,只保留待檢測(cè)的雜草目標(biāo),再使用二值圖像連通域標(biāo)記算法來(lái)識(shí)別前景圖像中的雜草目標(biāo)的連通域,實(shí)現(xiàn)雜草檢測(cè)。OTSU閾值分割算法通過分割圖像中的像素點(diǎn),將雜草與土壤背景分離開來(lái),這一過程包括4個(gè)步驟:(1)分割圖像中的像素點(diǎn),標(biāo)記雜草像素。(2)遞歸遍歷雜草像素的八鄰域,找到完整的雜草連通域。(3)連接連通域的邊界像素,構(gòu)建閉合的矩形框。(4)連通域內(nèi)像素點(diǎn)的均值,輸出雜草的連通域外接矩形框和質(zhì)心坐標(biāo)。
3 試驗(yàn)結(jié)果與分析
3.1試驗(yàn)平臺(tái)與模型訓(xùn)練設(shè)置
目標(biāo)檢測(cè)算法需要高性能設(shè)備進(jìn)行計(jì)算,試驗(yàn)平臺(tái)配置如下:設(shè)備系統(tǒng)為Windows11,CPU為Intel(R)Core(TM)i7-11800H,GPU為NVIDIAGeForceRTX3060,學(xué)習(xí)框架為Python3.8。YOLOv5模型采用隨機(jī)梯度下降法(SGD)作為優(yōu)化器,通過根據(jù)梯度更新參數(shù)來(lái)降低損失函數(shù)的值。在此過程中,學(xué)習(xí)率動(dòng)量被設(shè)置為0.937,初始學(xué)習(xí)率為0.01,采用余弦退火學(xué)習(xí)率策略,逐漸減小學(xué)習(xí)率[15]。此外,權(quán)重衰減系數(shù)設(shè)為0.0005,批量大?。╞atchsize)為16,總訓(xùn)練周期(epoch)為300,前3個(gè)周期使用預(yù)熱訓(xùn)練算法[16]
3.2 結(jié)果分析
3.2.1模型評(píng)估指標(biāo)設(shè)置
目標(biāo)檢測(cè)算法精度評(píng)估通常采用準(zhǔn)確率 P 、召回率 R 、平均精度均值 mAP 指標(biāo),計(jì)算如式 (6)~ 式(8)所示。
式中: TP (20 模型正確預(yù)測(cè)為正類別的樣本數(shù);FP 模型錯(cuò)誤預(yù)測(cè)為正類別的負(fù)樣本數(shù);(204號(hào) FN 模型錯(cuò)誤預(yù)測(cè)為負(fù)類別的正樣本數(shù);AP 平均精度;k 類別的總數(shù)。
改進(jìn)后的YOLOv5算法在數(shù)據(jù)集上進(jìn)行300輪訓(xùn)練,性能指標(biāo)曲線如圖6所示。
圖6性能指標(biāo)曲線Fig.6Performance index curve
在玉米苗間雜草數(shù)據(jù)集上,模型的準(zhǔn)確率為97.485% ,召回率為 96.982% ;當(dāng)閾值為0.5時(shí),平均精度均值為 98.5% ;當(dāng)閾值為 0.5~0.95 時(shí),平均精度均值為 74.04% ,可以看出,該模型對(duì)檢測(cè)指定目標(biāo)具有很好的識(shí)別效果。
3.2.2 損失函數(shù)分析
依據(jù)設(shè)定好的訓(xùn)練參數(shù),使用優(yōu)化后的YOLOv5—SE—BoT算法在標(biāo)注好的數(shù)據(jù)集上進(jìn)行訓(xùn)練,模型損失函數(shù)曲線如圖7所示; P-R 曲線如圖8所示。YOLOv5使用GIoULoss作為boundingbox的損失函數(shù),包括誤差損失 $( b o x \_ l o s s \$ )、置信度損失 和分類損失
個(gè)部分,由于檢測(cè)目標(biāo)只有玉米苗這一類,不需要對(duì)物體進(jìn)行分類,所以分類損失 Lcls 損失函數(shù)圖沒有數(shù)據(jù)。如圖7所示,經(jīng)過300個(gè)周期的訓(xùn)練后,其余兩類損失函數(shù)均具有較低的收斂值,模型的誤差損失 Lbox 和置信度損失 Lobj 在第8輪左右開始收斂,收斂于0.019和0.012,從而改進(jìn)的YOLOv5模型具備出色的訓(xùn)練收斂性能和訓(xùn)練效果。試驗(yàn)中,將 IoU 閾值設(shè)為0.5,計(jì)算所有圖像玉米苗的 P 一 ?R 曲線,可以看出,平均精度均值 mAP 達(dá)到 98.5% ,表明改進(jìn)后的YOLOv5模型在玉米苗檢測(cè)方面有較高的識(shí)別精度。
3.2.3 不同算法模型對(duì)比
為展示改進(jìn)后算法優(yōu)勢(shì),在相同數(shù)據(jù)集下,對(duì)SSD、FasterR—CNN、原YOLOv5以及本文算法(YOLOv5—SE—BoT)進(jìn)行充分訓(xùn)練,性能檢測(cè)對(duì)比結(jié)果如表1所示。本文算法與SSD和FasterR—CNN相比,準(zhǔn)確率和召回率都有顯著的提高, mAP 值分別提升 9.2%.7.8% 。與原YOLOv5算法相比, P 、R 和 mAP 分別提升 7.4%.5.5% 和 6.1% 。綜合各項(xiàng)性能指標(biāo),本文算法具有更好的檢測(cè)性能。
表1性能檢測(cè)對(duì)比結(jié)果Tab.1 Performance test comparison results
3.3 YOLOv5模型玉米苗檢測(cè)
為驗(yàn)證本文算法在檢測(cè)效果上的優(yōu)勢(shì),以玉米苗田圖像為例,選取雜草稀疏、雜草密集和多種雜草伴生情況下的圖片進(jìn)行對(duì)比測(cè)試,對(duì)比YOLOv5和本文算法,檢測(cè)結(jié)果對(duì)比如圖9所示。可以看出,在多種雜草伴生的情況下,YOLOv5受到周圍多種雜草的干擾,容易出現(xiàn)漏檢和誤檢的情況。而本文算法表現(xiàn)出更好的穩(wěn)定性,能夠準(zhǔn)確檢測(cè)出所有情況下的玉米苗,避免漏檢和誤檢的情況。由于本文算法引入了SE注意力模塊和Transformer編碼器模塊,檢測(cè)置信度明顯高于原始的YOLOv5算法,引人的SE注意力模塊有助于提高對(duì)檢測(cè)目標(biāo)的注意力,降低無(wú)關(guān)信息的干擾,Transformer編碼器模塊增強(qiáng)目標(biāo)定位能力,進(jìn)一步降低漏檢率和誤檢率。
圖9檢測(cè)結(jié)果對(duì)比Fig. 9Comparison of test results
4結(jié)論
1)基于YOLOv5目標(biāo)檢測(cè)算法構(gòu)建的模型,通過改進(jìn)主干特征提取網(wǎng)絡(luò),并引人SE無(wú)參數(shù)注意力模塊,使算法模型更好地聚焦主體目標(biāo);同時(shí)將BoTNet模塊替換原本的殘差神經(jīng)網(wǎng)絡(luò),從而提高對(duì)小目標(biāo)檢測(cè)的精度,模型的平均精度均值 mAP 達(dá) 98.5% 。
2)采用 ExG 超綠特征結(jié)合OTSU閾值分割算法分離土壤背景,找出玉米苗和雜草的前景區(qū)域,再通過黑色掩膜掩蓋目標(biāo)檢測(cè)框位置來(lái)剔除玉米苗圖像,只保留待檢測(cè)的雜草目標(biāo),再使用二值圖像連通域標(biāo)記算法來(lái)識(shí)別前景圖像中的雜草目標(biāo)的連通域,實(shí)現(xiàn)玉米苗田中的雜草檢測(cè),同時(shí)解決復(fù)雜情況下雜草種類多、檢測(cè)速度慢等問題。
3)改進(jìn)后的YOLOv5算法在玉米苗的目標(biāo)檢測(cè)上精確率達(dá) 97.5% ,較原始的YOLOv5算法提高7.4% 。雖然檢測(cè)速度略微降低,但檢測(cè)精度提升,滿足實(shí)時(shí)檢測(cè)的需求。
參考文獻(xiàn)
[1]付豪,趙學(xué)觀,翟長(zhǎng)遠(yuǎn),等.基于深度學(xué)習(xí)的雜草識(shí)別方法研究進(jìn)展[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2023,44(5):198-207.FuHao,Zhao Xueguan,Zhai Changyuan,etal.Researchprogress on weed recognition method based on deeplearningtechnology[J].JournalofChineseAgricultural Mechanization,2023,44(5):198-207.
[2]王宇博,馬廷淮,陳光明.基于改進(jìn)YOLOv5算法的農(nóng)田雜草檢測(cè)[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2023,44(4):167—173.Wang Yubo,MaTinghuai, Chen Guangming.Weedsdetectionin farmland basedona modifiedYOLOv5algorithm[J].Journal of ChineseAgriculturalMechanization,2023,44(4):167-173.
[3]Wang A,Zhang W,Wei X. A review on weed detectionusing ground-based machine vision and image processingtechniques [J]. Computers and Electronics in Agriculture,2019,158.
[4]王寶聚,蘭玉彬,陳蒙蒙,等.機(jī)器學(xué)習(xí)在無(wú)人農(nóng)場(chǎng)中的應(yīng)用現(xiàn)狀與展望[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2021,42(10):186-192,217.Wang Baoju, LanYubin, Chen Mengmeng, etal.Application status and prospect of machine learning inunmanned farm [J]. Journal of Chinese AgriculturalMechanization,2021,42(10):186—192,217.
[5]李金陽(yáng),張偉,康燁,等.基于無(wú)人機(jī)遙感技術(shù)的大豆苗數(shù)估算研究[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2022,43(4):83—89.Li Jinyang,Zhang Wei,KangYe,et al. Researchonsoybeanseedlingnumberestimationbased onUAV remote sensing technology [J]. Journal of ChineseAgricultural Mechanization,2022,43(4):83-89.
[6]沈?qū)殗?guó),陳樹人,尹建軍,等.基于顏色特征的棉田綠色雜草圖像識(shí)別方法[J].農(nóng)業(yè)工程學(xué)報(bào),2009,25(6):163—167.Shen Baoguo, Chen Shuren, Yin Jianjun, etal.on color feature [J]. Transactions of the Chinese Society ofAgricultural Engineering,2009,25(6):163—167.
[7]吳蘭蘭,徐愷,熊利榮.基于視覺注意模型的苗期油菜田間雜草檢測(cè)[J].華中農(nóng)業(yè)大學(xué)學(xué)報(bào),2018,37(2):96—102.Wu Lanlan, Xu Kai, Xiong Lirong. Detecting weedin seedling rapeseed oil field based on visual-attentionmodel[J]. Journal of Huazhong Agricultural University,2018,37(2):96—102.
[8]王二銳.基于深度學(xué)習(xí)的前胡除草機(jī)部件設(shè)計(jì)與試驗(yàn)[D].合肥:安徽農(nóng)業(yè)大學(xué),2022.
[9]尚文卿,齊紅波.基于改進(jìn)FasterR—CNN與遷移學(xué)習(xí)的農(nóng)田雜草識(shí)別算法[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2022,43(10):176-182.Shang Wenqing,Qi Hongbo. Identification algorithm offield weeds based on improved Faster R—CNN and transferlearning[J].JournalofChineseAgriculturalMechanization,2022,43(10):176—182.
[10]RenS,He K, Girshick R,et al.Faster R一CNN:Towards real-time object detection with region proposalnetworks [J]. IEEE Transactions on Pattern Analysisamp;Machine Intelligence,2017,39(6):1137—1149.
[11]李春明,逯杉婷,遠(yuǎn)松靈,等.基于FasterR—CNN的除草機(jī)器人雜草識(shí)別算法[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2019,40(12):171—176.Li Chunming,Lu Shanting,Yuan Songling,et al.Weed identification algorithm of weeding robot based onFaster R-CNN[J]. Journal of ChineseAgricultural Mechanization,2019,40(12):17l—176.
[12]李茂暉,吳傳平,鮑艷,等.論YOLO算法在機(jī)器視覺中應(yīng)用原理[J].教育現(xiàn)代化,2018,5(41):174—176.
[13] Bochkovskiy A, WangC, LiaoH. YOLOv4:Optimal speed and accuracy of object detection [J].arXivpreprint arXiv:2004.10934,2020.
[14]王貴參,楊承林,蒲佳佳,等.基于改進(jìn)的VisionTransformer雜草生長(zhǎng)周期識(shí)別方法研究[J].長(zhǎng)春工業(yè)大學(xué)學(xué)報(bào),2022,43(6):712-718.
[15]東輝,陳鑫凱,孫浩,等.基于改進(jìn)YOLOv4 和圖像處理的蔬菜田雜草檢測(cè)[J].圖學(xué)學(xué)報(bào),2022,43(4):559-569.Dong Hui,Chen Xinkai,Sun Hao,et al.WeeddetectioninvegetablefieldbasedonimprovedYOLOv4 and image processing [J]. Journal of Graphics,2022,43(4):559-569.
[16]張偉康,孫浩,陳鑫凱,等.基于改進(jìn)YOLOv5 的智能除草機(jī)器人蔬菜苗田雜草檢測(cè)研究[J].圖學(xué)學(xué)報(bào),2023,44(2):346-356.Zhang Weikang,Sun Hao,Chen Xinkai,et al. Research onweed detection in vegetable seedling fields based on theimproved YOLOv5 intelligent weeding robot [J]. Journal ofGraphics,2023,44(5):346-356.