中圖分類號:S513 文獻標(biāo)識碼:A 文章編號:1000-4440(2025)06-1179-09
Abstract:Unmannedaerial vehicletechnology,withits higheficiencyandprecision,hasbeen playingan importantrole intheagricultural fieldandhasben widelyappedinfarmlandmonitoring,precisionfertilization,andpestanddiseasecontrol. However,inthecomsedingimagescolectedbyunmannederialvehicle,weedsndotherinterferentsinthefieldhavecolors similar tocomseedlings,whichcaneasilylead to1detectionand mised detectionintheYOLOv8 model.Additionally,the occlusionbetweencornsedlingscanalsoafectthedetectionaccuracyof the model.Inresponsetotheseproblems,this study proposed the YOLOv8+MultiSEAM + MetaNeXtStag + WIoU(YOLOv8-MMW)model. Based on the YOLOv8 model architecture, this modelfirstintroducedthe MultiSEAMatentionmechanismintothenecknetwork,whichefectivelyenhancedthemodel's featureextractionabilityincomplexscenes.SecondlyitincorporatedtheMetaNeXtStagemodulefromInceptionNeXt.Onhisbasis,theWise-IoUlossfunctionwasadoptedtoimprovemodelaccuracy.Theexperimentalresultsonthetestsetshowedthatthe accuracy and the mean average precision at an intersection-over-union threshold of O.50( mAP50 )ofthe YOLOv8-MMW model
reach 98.9% and 89.6% ,respectively,which were 6.1 percentage points and 2.4 percentage points higher than those ofthe original YOLOv8n model.The YOLOv8-MMW model proposed in this study demonstrates stronger robustnessin complex farmland environmentsand can effectively improve the detection accuracy of corn seedling images captured by inmanned aerial vehicle,and can provide technical support for agricultural management and monitoring
Key words:corn seedling;unmanned aerial vehicle;YOLOv8;MultiSEAM;MetaNeXtStage;lossfunctior
玉米是中國種植面積1和產(chǎn)量均居首位的作物2,也是重要的經(jīng)濟作物,對國家糧食安全具有重大戰(zhàn)略意義[3]。近年來,中國的玉米生產(chǎn)取得長足發(fā)展,但全球玉米生產(chǎn)仍面臨諸多挑戰(zhàn)。隨著全球人口快速增長和老齡化加劇,糧食需求持續(xù)增加。聯(lián)合國糧食和農(nóng)業(yè)組織預(yù)測,2050年全球人口將增至 9.1× 109 人,為滿足人口增長需求,在保障自然資源安全的前提下,糧食產(chǎn)量需實現(xiàn) 70% 的可持續(xù)增長[4]。因此,建立高效的農(nóng)業(yè)系統(tǒng)以提高農(nóng)業(yè)生產(chǎn)效率和質(zhì)量、降低勞動力投入、改善工作條件勢在必行。
卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)的核心技術(shù),具有自動提取圖像特征的能力,對位移、縮放和畸變等幾何變換具有較強的自適應(yīng)能力,該技術(shù)已被廣泛用于計算機視覺領(lǐng)域,包括人臉識別、遙感影像分析和無人駕駛系統(tǒng)等[5-7]。近年來,卷積神經(jīng)網(wǎng)絡(luò)在農(nóng)業(yè)領(lǐng)域的應(yīng)用研究也取得了顯著進展,成為智慧農(nóng)業(yè)發(fā)展的重要技術(shù)支撐[8-1]。Malik 等[12]提出一種深度卷積神經(jīng)網(wǎng)絡(luò)模型TreeNet,該模型的分類準(zhǔn)確率、精確度、召回率和F1得分分別達到 99.8%.99.0% 、100.0% 和 99.0% 。Liu等[13]提出目標(biāo)檢測算法Agro-nomicTeacher,用于玉米葉片病害識別,與基線模型相比,該算法在MaizeData數(shù)據(jù)集上的平均精度均值(mAP) 提高6.5個百分點,在通用目標(biāo)檢測基準(zhǔn)Pas-calVOC數(shù)據(jù)集上的 mAP 提高8.2個百分點,表現(xiàn)出良好的泛化能力。李金瑞等[14]提出一種基于RTM-Det-tiny的輕量級雄穗檢測模型MLCE-RTMDet。試驗結(jié)果顯示,改進的MLCE-RTMDet模型參數(shù)量減少到 5.9×106 ,浮點運算數(shù)減少到 |5.3×109 ,測試集上模型平均精度均值 (mAP) 達到 92.2% ,比原模型提高了1.2個百分點。Puyenbroeck等[15]利用推帚式高光譜成像系統(tǒng)對收獲期玉米進行掃描,建立基于偏最小二乘判別分析(PLS-DA)的像素級分類模型,實現(xiàn)了玉米籽粒與其他谷物的精準(zhǔn)識別,分類準(zhǔn)確率達95.2% 。Mei等[16]提出分子光譜深度融合策略,通過結(jié)合低級特征融合與中級特征融合,并構(gòu)建一維卷積神經(jīng)網(wǎng)絡(luò)(1D-CNN)模型,實現(xiàn)了玉米油中毒死蜱殘留的快速精準(zhǔn)檢測。
無人機遙感技術(shù)的發(fā)展推動了農(nóng)業(yè)智能監(jiān)測系統(tǒng)的完善[17]。Abel等[18]基于無人機影像和全卷積神經(jīng)網(wǎng)絡(luò),實現(xiàn)了對農(nóng)作物數(shù)量的自動預(yù)測。Chen等[19]針對小規(guī)模玉米穗和強光照條件下的檢測問題,開發(fā)了RESAM-YOLOv8n模型,通過增大輸入圖像尺寸增強網(wǎng)絡(luò)檢測能力。Xiao等[20]整合無人機、地理信息系統(tǒng)(GIS)和深度學(xué)習(xí)技術(shù),利用YOLOv5模型完成對不同管理模式下玉米植株的計數(shù)。有學(xué)者基于無人機光學(xué)遙感技術(shù),提出一種深度學(xué)習(xí)方法,能夠有效提取多光譜圖像的關(guān)鍵特征,實現(xiàn)了南方玉米銹病的高效監(jiān)測[21]。鄔開俊等[22]提出了一種基于YOLO-TSCAS模型的玉米植株中心檢測算法,試驗結(jié)果表明,與現(xiàn)有的 YOLOX 算法相比,該算法的正確率提高 22.73% ,F(xiàn)1分?jǐn)?shù)提高0.255,平均對數(shù)漏檢率減少0.35。Ni等[23]設(shè)計的玉米混合視覺轉(zhuǎn)換器(MaizeHT)模型,對 224×224 分辨率圖像的識別準(zhǔn)確率達 97.71% ,對 512×512 分辨率圖像的識別準(zhǔn)確率達到 98.71% 。
上述研究結(jié)果表明,基于深度學(xué)習(xí)的模型能夠有效識別無人機獲取的玉米幼苗圖像。但在田間環(huán)境下,田間雜草干擾、玉米幼苗間相互遮擋均會影響模型檢測精度。針對這些問題,本研究擬提出一種基于YOLOv8模型的玉米幼苗檢測模型,主要從以下3個方面進行優(yōu)化:首先,重構(gòu)主干網(wǎng)絡(luò)架構(gòu),采用多尺度特征融合策略增強特征表達能力;其次,嵌入混合注意力機制,提升模型對幼苗關(guān)鍵特征的關(guān)注度;最后,改進邊界框回歸損失函數(shù),提高模型精度。本研究結(jié)果旨在為農(nóng)業(yè)管理和監(jiān)測提供技術(shù)支持。
1材料與方法
1.1 數(shù)據(jù)采集和預(yù)處理
以幼苗期玉米為研究對象,采用如圖1所示的大疆無人機DJIAir2S進行圖像采集。該設(shè)備具有體積小、操作便捷等優(yōu)點,主要技術(shù)參數(shù)如下:最大續(xù)航時間 31min ,最快飛行速度 19m/s ,懸停精度垂直 ±0.1m ,水平 ±0.1m ,最大照片分辨率 5472× 3648,感光度(ISO)為 100~3200 。試驗于2024年6月25日(9:30-11:00)在安徽省合肥市安徽農(nóng)業(yè)大學(xué)國家高新技術(shù)農(nóng)業(yè)園(東經(jīng) 117°12′30.927′′ ,北緯 31°56′10.859′′ 開展。如圖2所示,采集過程中,設(shè)置圖像分辨率為 3 840×2 160 ,分別在飛行高度2m.4m.6m.8m 拍攝圖像。根據(jù)大田地形規(guī)劃航線,共獲取不同高度圖像500余張。
本研究對采集的無人機圖像進行了系統(tǒng)的預(yù)處理,包括數(shù)據(jù)標(biāo)注、數(shù)據(jù)增強和數(shù)據(jù)集劃分3個關(guān)鍵步驟。在數(shù)據(jù)標(biāo)注環(huán)節(jié),采用LabelImg工具對玉米幼苗進行精確標(biāo)注,確保每株幼苗的邊界框選準(zhǔn)確無誤,同時保持不同拍攝條件和光照環(huán)境下標(biāo)注標(biāo)準(zhǔn)的一致性。在數(shù)據(jù)增強環(huán)節(jié),如圖3所示,通過 ±20° 隨機旋轉(zhuǎn)和鏡像翻轉(zhuǎn)圖像實現(xiàn)幾何變換;在圖像中添加高斯噪聲和椒鹽噪聲增強模型抗干擾能力;隨機調(diào)整圖像亮度和對比度模擬不同光照條件;通過隨機裁剪和縮放圖像提升模型空間適應(yīng)性。這些增強技術(shù)的組合應(yīng)用使訓(xùn)練集樣本量擴充至原始數(shù)據(jù)的5倍,顯著提升了數(shù)據(jù)多樣性。在數(shù)據(jù)集劃分環(huán)節(jié),從所有圖像中隨機選取1920張圖像,構(gòu)建訓(xùn)練集;同時分別從 2m.4m.6m.8m 飛行高度拍攝的圖像中抽取60張圖像,共計240張圖像,構(gòu)建測試集,用于檢驗?zāi)P驮u估的全面性和可靠性。
1.2YOLOv8+MultiSEAM+MetaNeXtStag + WIoU 模型的構(gòu)建
YOLOv8模型是一種基于單階段檢測框架的實時目標(biāo)檢測算法,可以直接預(yù)測圖像中的邊界框和類別概率。根據(jù)網(wǎng)絡(luò)深度和寬度的不同配置,YOLOv8被分為YOLOv8n、YOLOv8s、YOLOv8m、YOLOv8l和YOLOv8x5 個版本。本研究選用YOLOv8n作為基準(zhǔn)模型進行改進。YOLOv8網(wǎng)絡(luò)架構(gòu)由輸入模塊、主干網(wǎng)絡(luò)(Backbone)頸部網(wǎng)絡(luò)(Neck)和檢測頭(Head)4個核心組件構(gòu)成[24]。其中,主干網(wǎng)絡(luò)包含卷積單元(Conv)、空間金字塔池化快速模塊(SPPF)、YOLOv5中的特征提取模塊C3和YOLOv7中的特征提取模塊C2f。頸部網(wǎng)絡(luò)采用跨階段局部網(wǎng)絡(luò)(CSPNet)架構(gòu)以增強特征融合能力,檢測頭則通過路徑聚合網(wǎng)絡(luò)與預(yù)測頭實現(xiàn)特征融合與目標(biāo)識別。
YOLOv8模型對玉米幼苗圖像的檢測存在以下問題:(1)田間雜草等干擾物與玉米幼苗顏色相近,導(dǎo)致模型誤檢、漏檢;(2)玉米幼苗間相互遮擋,造成模型檢測精度下降?;谏鲜鰡栴},本研究對YOLOv8網(wǎng)絡(luò)結(jié)構(gòu)進行了改進。如圖4所示,在頸部網(wǎng)絡(luò)中引入MultiSEAM模塊和MetaNeXtStage模塊。MultiSEAM模塊部署于第27層、30層、33層的輸出端,即最終檢測層前,用于提升模型的多尺度特征處理能力。MetaNeXtStage模塊則被嵌人第20層、24層、29層、32層的卷積層之后,用于增強模型特征表示能力。檢測層采用第28層、31層和34層的特征圖作為輸人,有效整合了MultiSEAM和Meta-NeXtStage模塊的多尺度特征增強效果。
1.2.1MultiSEAM注意力機制擠壓和激勵注意力模塊(SEAM)[25]通過全局平均池化和全連接層增強特征表達,采用深度可分離卷積與殘差連接的組合結(jié)構(gòu),其中深度可分離卷積按通道進行操作。該模塊利用注意力機制突出重要特征,抑制無關(guān)特征,從而提升模型識別能力。如圖5所示,SEAM模塊左側(cè)為整體架構(gòu),包含3個不同像素塊尺寸(patch-6、patch-7、patch-8)的通道和空間混合模塊(CSMM),對各模塊輸出進行平均池化和通道擴展操作,通過特征相乘方式實現(xiàn)特征增強;右側(cè)為CSMM模塊,該模塊通過多尺度特征提取,并采用深度可分離卷積學(xué)習(xí)空間與通道之間的相關(guān)性。
MultiSEAM模塊將小目標(biāo)檢測層集成到頸部網(wǎng)絡(luò),生成多尺度特征圖,并將這些特征圖輸人SEAM模塊進行增強處理。該設(shè)計具有以下優(yōu)勢:整合全局與局部上下文信息,提升復(fù)雜場景下的特征表達能力;采用多尺度處理策略,增強模型對不同尺寸目標(biāo)的檢測能力。在玉米幼苗檢測過程中,Multi-SEAM模塊能夠有效應(yīng)對復(fù)雜背景和密集目標(biāo)。
1.2.2InceptionNeXt卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)如圖6所示,InceptionNeXt[26]是一種卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),通過融合Inception的多分支結(jié)構(gòu)和ConvNeXt的高效設(shè)計,實現(xiàn)了對大核深度卷積的優(yōu)化分解。該架構(gòu)繼承了Inception的多尺度特征處理能力,同時采用高效卷積操作,在保持大感受野優(yōu)勢的前提下,顯著降低了計算復(fù)雜度和參數(shù)量。此外,InceptionNeXt還集成了自適應(yīng)優(yōu)化技術(shù),使模型在訓(xùn)練過程中更快收斂。本研究采用InceptionNeXt的核心模塊Meta-NeXtStage,該模塊能夠動態(tài)調(diào)整卷積核參數(shù),增強模型對局部細節(jié)的敏感性;自適應(yīng)優(yōu)化特征圖權(quán)重,突出全局關(guān)鍵信息;通過多尺度特征的高效融合,實現(xiàn)性能與計算效率的平衡。
1.2.3基于動態(tài)非單調(diào)聚焦機制的邊界框損失函數(shù)(Wise-IoU)為提升目標(biāo)檢測模型的性能,本研究系統(tǒng)性地探究了不同邊界框回歸損失函數(shù)對模型性能的影響。原始YOLOv8模型采用的完全交并比損失函數(shù)(Complete-IoU)通過引入長寬比懲罰項來優(yōu)化預(yù)測框的形狀匹配,在模型訓(xùn)練過程中表現(xiàn)出良好的擬合特性。然而,該損失函數(shù)在計算預(yù)測框?qū)捀弑葧r存在固有缺陷:一方面,寬高比作為相對量計算時具有不確定性;另一方面,其對高質(zhì)量和低質(zhì)量錨框的不同影響可能阻礙回歸損失的優(yōu)化過程。
Patch-6:將圖像分割成 6×6 像素的塊;Patch-7:將圖像分割成 7× 7像素的塊;Patch-8:將圖像分割成 8×8 像素的塊。Input:輸入;CSMM:通道和空間混合模塊;AveragePooling:平均池化層;Channelexp:通道擴展;PatchEmbedding:圖像塊嵌入;GELU:高斯誤差線性單元激活函數(shù);BatchNorm:批量歸一化;DepthwiseConvolution:深度可分離卷積模塊;PointwiseConvolution:逐點卷積模塊。
為解決上述問題,本研究對以下4種邊界框回歸損失函數(shù)的性能進行對比:基于動態(tài)非單調(diào)聚焦機制的邊界框損失函數(shù)(WIoU)[27]、完全交并比損失函數(shù)(CIoU)高效交并比損失函數(shù)(EIoU)[28]、距離交并比損失函數(shù)(DIoU)[29]。WIoU( v3 版本)損失函數(shù)計算公式如下:
式中, LWIoU 為基于動態(tài)非單調(diào)聚焦機制的邊界框損失函數(shù); r 為縮放因子; RwIoU 為距離損失; LIoU 為原始交并比損失函數(shù); bcxgt,bcygt 為目標(biāo)框的中心點坐標(biāo); bcx,bcy 為預(yù)測框的中心點坐標(biāo); cw 為目標(biāo)框在 x 軸方向的歸一化寬度; cb 為目標(biāo)框在 y 軸方向的歸一化高度: ;β 為比例系數(shù); δ 和 α 為調(diào)整參數(shù); LIoU* 為優(yōu)化后的交并比損失函數(shù)。
MLP:多層感知機; Norm :歸一化操作;Tokenmixer:令牌混合器模塊;Concat:拼接操作; DWConv :深度可分離卷積模塊;Split:分割操作;Depthwise Convolution;深度可分離卷積模塊;MetaFormerblock;通用視覺模型架構(gòu);MetaNeXt:MetaNeXt卷積神經(jīng)網(wǎng)絡(luò)架構(gòu);ConvNeXt block:ConvNeXt卷積神經(jīng)網(wǎng)絡(luò)架構(gòu);InceptionNeXt block:InceptionNeXt卷積神經(jīng)網(wǎng)絡(luò)架構(gòu);InceptionDepthwiseConvolution:Inception深度卷積;Identity:恒等映射。
1.3模型性能指標(biāo)
為評估無人機玉米幼苗檢測模型的性能,以精度 (P) 、召回率 (R) 、平均精度均值 (mAP) 作為評估指標(biāo)。
精度 (P) 計算公式如下:
式中, TP 為正確預(yù)測的正例數(shù)量, FP 為誤判為正例的數(shù)量。精度越高,表明模型誤檢率越低。
召回率 (R) 計算公式如下:
式中, FN 為漏檢的正例數(shù)量。召回率越高,表明模型漏檢率越低。
平均精度均值 (mAP) 計算公式如下:
式中, N 為類別總數(shù), APi 為第 i 個類別的平均精度。 mAP 綜合了模型對所有類別的檢測性能,其值越高,表明模型的整體檢測能力越優(yōu)。
1.4 試驗環(huán)境
硬件環(huán)境為Intel Xeon Silver 42102.40 GHzCPU、RTX308010GGPU和64GB內(nèi)存。軟件環(huán)境為PyTorch1.9.0和Python3.8.0。試驗設(shè)置如下:迭代次數(shù)為100次,批次大小為2,輸入圖像尺寸調(diào)整為 640×640 ,并進行歸一化處理。優(yōu)化算法采用隨機梯度下降法(SGD)[30],學(xué)習(xí)率調(diào)度策略為線性衰減。
2 結(jié)果與分析
2.1Wise-IoU損失函數(shù)對模型性能的影響
如圖7所示,引入EIoU損失函數(shù)的模型收斂速度最慢,且最終的損失值最大;引入DIoU損失函數(shù)和CIoU損失函數(shù)的模型收斂速度低于引入EIoU損失函數(shù)的模型,最終損失值小于引入EIoU函數(shù)的模型。值得注意的是,引入WIoU損失函數(shù)的模型在前20輪迭代中能快速收斂,其最終損失值顯著低于引入其他3種損失函數(shù)的模型。如表1所示,引入WIoU損失函數(shù)不僅加快了模型的收斂速度,還顯著提升了模型的關(guān)鍵性能指標(biāo):精度提高6.9個百分點,交并比閾值為0.50時的平均精度均值(mAP50 提高0.2個百分點。
DIoU:距離交并比損失函數(shù);EIoU:高效交并比損失函數(shù);CIoU:完全交并比損失函數(shù); WIoU :基于動態(tài)非單調(diào)聚焦機制的邊界框損失函數(shù);epoch:訓(xùn)練的輪數(shù)。
2.2引入的各模塊對模型性能的影響
為驗證各模塊對模型性能的影響,基于原始模型 ΥOLOv8n ,分別引入MultiSEAM、MetaNeXtStag、WIoU。如表1所示,YOLOv8模型的 mAP50 為87.2% 。在YOLOv8主干網(wǎng)絡(luò)的第27層、30層、33層的輸出端和最終檢測層前層部署MultiSEAM注意力機制,YOLOv8n + MultiSEAM模型 mAP50 較YOLOv8模型提高了2.0個百分點;進一步在主干網(wǎng)絡(luò)的第20層、24層、29層、32層的卷積層之后嵌人MetaNeXtStage模塊,YOLOv8n+MultiSEAM + Meta-NeXtStag 模型 mAP50 較 YOLOv8n 模型提高了2.2個百分點。表明MetaNeXtStage和MultiSEAM模塊能夠有效增強模型對復(fù)雜場景中多尺度特征的提取能力。將邊界框損失函數(shù)替換為WIoU后, YOLOv8n+ MultiSEAM + MetaNeXtStag + WIoU模型(簡稱YOLOv8-MMW模型)的 mAP50 達到 89.6% ,較ΥOLOv8n 模型提升2.4個百分點;精度達到98.9% ,較YOLOv8模型提升6.1個百分點。消融試驗結(jié)果表明,本研究提出的改進策略顯著提升了YOLOv8n模型的檢測性能。
2.3模型性能對比
基于測試集對YOLOv8-MMW模型的性能進行檢測。如表2所示,YOLOv8-MMW模型對不同飛行高度的無人機圖像均表現(xiàn)出優(yōu)異的檢測性能,當(dāng)飛行高度為 8m 時,YOLOv8-MMW模型的 mAP50 仍可以保持在 89.4% ,召回率達到 95.0% ,展現(xiàn)出良好的尺度適應(yīng)性和檢測穩(wěn)定性。
將目標(biāo)檢測模型YOLOv8s模型、YOLOv5s模型和YOLOv8-MMW模型進行對比。如表3所示,與YOLOv8s模型相比,YOLOv8-MMW模型 mAP50 提升0.8個百分點,精度提升9.3個百分點;與YOLOv5s模型相比,YOLOv8-MMW模型 mAP50 提升3.6個百分點,精度提升10.1個百分點。
如圖8所示,總計目標(biāo)數(shù)為22213個,在幼苗重疊和雜草干擾等復(fù)雜場景下,YOLOv8s模型和YOLOv5s模型分別漏檢了1368個、1609個目標(biāo),漏檢率分別為 6,2%,7.2% ,而YOLOv8-MMW模型僅漏檢了321個目標(biāo),漏檢率為 1.4% 。表明Multi-
SEAM和MetaNeXtStage模塊的協(xié)同作用不僅能夠有效增強目標(biāo)特征的顯著性,還能夠抑制復(fù)雜背景的干擾。相較于YOLOv8s模型和YOLOv5s模型,YOLOv8-MMW模型在復(fù)雜場景下展現(xiàn)出更優(yōu)異的檢測性能。
YOLOv8s、YOLOv5s:當(dāng)前主流的目標(biāo)檢測網(wǎng)絡(luò);YOLOv8-MMW:本研究改進的模型; corn :玉米;實線框:正確識別結(jié)果。
3 討論與結(jié)論
本研究針對無人機檢測玉米幼苗提出了YOLOv8-MMW模型。首先,基于YOLOv8n原始模型,在模型頸部網(wǎng)絡(luò)中引入MultiSEAM注意力機制,該機制能夠在高效捕捉細節(jié)的同時,提供更強大的特征表達能力,從而顯著提升模型在復(fù)雜場景下的表現(xiàn);其次,引人InceptionNeXt網(wǎng)絡(luò)的MetaNeXt-Stage模塊;在此基礎(chǔ)上,采用WIoU損失函數(shù)以加快模型收斂速度和精度。與YOLOv8n模型相比,YOLOv8-MMW模型精度和 mAP50 分別提升了6.1個百分點、2.4個百分點。該模型顯著提升了復(fù)雜背景下玉米幼苗的檢測精度和效率,為大田玉米幼苗計數(shù)及產(chǎn)量估算提供了有力支持。
未來的研究方向?qū)⒕劢褂谶M一步提升模型的檢測性能并降低其復(fù)雜度,通過輕量化處理優(yōu)化模型結(jié)構(gòu),同時深入探索該算法在不同環(huán)境條件下的適應(yīng)性。
參考文獻:
[1]仇煥廣,欒昊,李瑾,等.風(fēng)險規(guī)避對農(nóng)戶化肥過量施用行
為的影響[J].中國農(nóng)村經(jīng)濟,2014(3):85-96.
[2] 徐云姬,顧道健,張博博,等.玉米果穗不同部位籽粒激素含量 及其與胚乳發(fā)育和籽粒灌漿的關(guān)系[J].作物學(xué)報,2013,39 (8):1452-1461.
[3] 趙久然,王榮煥.中國玉米生產(chǎn)發(fā)展歷程、存在問題及對策中 國農(nóng)業(yè)科技導(dǎo)報[J].中國農(nóng)業(yè)科技導(dǎo)報,2013(3):1-6.
[4] 陳源源,呂昌河,尚凱麗.食物安全的內(nèi)涵、指標(biāo)與評價方法綜 述[J].中國農(nóng)學(xué)通報,2017,33(22):158-164.
[5] WANGY,XIEF,ZHAOCX,etal.Robust facerecognition model based sample mining and loss functions[J].KnowledgeBasedSystems,2024,302:112330.
[6] ZHANGY S,YANSK,ZHANGLF,etal.Fast projected fuzzy clusteringwith anchor guidance formultimodal remote sensingimagery[J]. IEEE transactions on image processing,2O24(33), 4640-4653.
[7] QIUCQ,TANGH,YANGYC,etal.Machinevision-based autonomous road hazard avoidance system for self-drivingvehicles [J].ScientificReports,2024,14(1):12178.
[8]JIANGHK,CHENQC,WANGRJ,etal.SWFormer:a scalewise hybrid CNN-Transformer network for multi-classes weed segmentation[J]. Journal of King Saud University-Computer and InformationSciences,2024,36(7) :102144.
[9] MUQADDASS,QURESHIWS,JABBARH,etal.Acomprehensive deep learning approach for harvest ready sugarcane pixel classification in Punjab,Pakistan using Sentinel-2 multispectral imagery[J].Remote Sensing Applications:Society and Environment,2024,35:101225.
[10]周善良,李銳.基于卷積神經(jīng)網(wǎng)絡(luò)的農(nóng)作物病蟲害識別研究 綜述[J].智慧農(nóng)業(yè)導(dǎo)刊,2024,4(17):39-45.
[11]CHENF,JIXZ,BAIMX,etal.Networkanalysisofdifferent exogenous hormones on the regulation of deep sowing tolerance in maize seedlings[J].Frontiers in Plant Science,2021,12:739101.
[12] MALIK M M,F(xiàn)AYYAZ A M, YASMIN M, et al. A novel deep CNN model with entropy coded sine cosine for corn disease classification[J]. Journal ofKing Saud University-Computer and Information Sciences,2024,36(7) :102126.
[13]LIUJQ,HUYX,SUQF,et al. Semi-supervised one-stage object detection for maize leaf disease[J].Agriculture,2024,14 (7):1140.
[14]李金瑞,杜建軍,張宏鳴,等.基于輕量化MLCE-RTMDet的人 工去雄后玉米雄穗檢測算法[J].農(nóng)業(yè)機械學(xué)報,2024,55 (11) :1-14.
[15]PUYENBROECK EV,WOUTERS N,LEBLICQ T,et al.Detection of kernels in maize forage using hyperspectral imaging[J]. Computers and Electronics in Agriculture,2024,225:109336.
[16]MEICL,XUEYC,LIQH,etal.Deeplearning model based on molecular spectra to determine chlorpyrifos residues in corn oil[J]. Infrared Physics and Technology,2024,140:105402.
[17]FANBK,LIY,ZHANGRY,etal.Review on the technological development and application of UAV systems[J]. Chinese Journal ofElectronics,2020,29(2):5-13.
[18]ABEL B,PHILIPP L,RAMONIYF,et al.AutomaticUAVbased counting of seedlings in sugar-beet field and extension to maizeand strawberry[J].Computers and Electronics in Agriculture,2021,191:106493.
[19]CHEN JH,F(xiàn)U Y S,GUO Y H, et al. An improved deep learning approach for detection of maize tassels using UAV-based RGB images[J].International Journal of Applied Earth Observation and Geoinformation,2024,130:103922.
[20]XIAOJ,SUABSA,CHENXY,etal.Enhancing assessmentof corn growth performance using unmanned aerial vehicles(UAVs) and deep learning[J].Measurement,2023,214:112764.
[21]LV ZG,XUBY,ZHONGL H,et al.Improved monitoring of southern corn rustusing UAV-based multi-viewimagery and anattention-based deep learning method[J].Computers and Electronicsin Agriculture,2024,224:109232.
[22]鄔開俊,白晨帥,杜建軍,等.無人機影像的玉米植株中心檢測 模型和方法[J].計算機工程與應(yīng)用,2024(6):1-17.
[23]NIXD,WANGFM,HUANGH,etal.ACNN-and self-attention-based maize growth stage recognition method and platform from UAVorthophoto images[J]. Remote Sensing,2024,16(14): 2672.
[24]楊國亮,盛楊楊,洪鑫芳,等.改進YOLOv8n的果園番茄目標(biāo) 檢測算法[J].計算機工程與應(yīng)用,2024,60(23):1-13.
[25]WANGYD,ZHANGJ,KAN MN,et al. Self-supervised equivariant attention mechanism for weakly supervised semantic segmentation[EB/OL].(2020-04-09)[2024-10-30]. https://arxiv.org/ abs/2004.04581.
[26]YU WH,ZHOUP,YAN SC,et al. InceptionNeXt:when inception meets ConvNeXt[EB/OL].(2023-03-29)[2024-10-30].https://arxiv.org/abs/2303.16900.
[27]TONGZJ,CHENYH,XUZW,etal.Wise-IoU:boundingbox regression loss with dynamic focusing mechanism[EB/OL]. (2023-01-24)[2024-10-30]. https://arxiv.0rg/abs/2301.10051.
[28]ZHANGYF,RENWQ,ZHANG Z,etal.Focal and efficient IOU loss for accurate bounding box regression[EB/OL].(2O21-01-20) [2024-10-30]. https://arxiv.org/abs/2101.08158.context=cs.CV.
[29]ZHENG Z H,WANGP,LIUW,et al.Distance-IoU loss:faster and better learning for bounding box regression[EB/OL].(2019- 11-19)[2024-10-30].https://arxiv.org/abs/1911.08287.
[30] CHAKROUN I,HABER T,ASHBY J T. SW-SGD: the sliding window stochastic gradient descent algorithm[J].Procedia Computer Science,2017,108:2318-2322.
(責(zé)任編輯:成紓寒)