摘要:
針對(duì)谷子田環(huán)境復(fù)雜、雜草種類眾多、雜草分布密集的特點(diǎn)導(dǎo)致識(shí)別精度低的問題,提出一種基于YOLOv8的改進(jìn)模型。通過(guò)加入CloFormer結(jié)構(gòu)來(lái)減少YOLOv8算法計(jì)算量并提高識(shí)別精度,使用Global和Local的注意力與c2f模塊進(jìn)行融合,使用AttnConv共享權(quán)重來(lái)整合局部信息,部署上下文感知權(quán)重來(lái)增強(qiáng)局部特征;為進(jìn)一步提高識(shí)別精度,另外添加Gam注意力機(jī)制,與當(dāng)前較先進(jìn)的注意力機(jī)制進(jìn)行對(duì)比試驗(yàn),并與YOLO各系列模型進(jìn)行對(duì)比試驗(yàn)。結(jié)果表明,YOLOv8-CG模型檢測(cè)的平均精度均值為92.6%,比YOLOv5模型高4%。同時(shí)分析壟的種植密度不同對(duì)模型識(shí)別產(chǎn)生的影響,種植較為稀疏的10號(hào)壟比種植密集的2號(hào)壟精度高6.6%。
關(guān)鍵詞:雜草檢測(cè);谷子;YOLOv8;注意力機(jī)制;輕量級(jí)模型
中圖分類號(hào):S451
文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):2095-5553 (2025) 01-0185-06
Research on weed detection in millet field based on improved YOLOv8 algorithm
Wang Xinmiao, Zhang Zheng, Dong Xiaowei, Wang Linfeng, Li Ruixiang
(School of Engineering, Heilongjiang Bayi Agricultural University, Daqing, 163000, China)
Abstract:
An improved model based on YOLOv8 was proposed to solve the problem of low recognition accuracy due to the complex environment, numerous weed species and dense weed distribution in millet field. By adding CloFormer structure, the model reduced the computational load of YOLOv8 algorithm and improved the recognition accuracy. This structure mainly used Global and Local attention to integrate with c2f module, used AttnConv shared weights to integrate local information, and deployed context-aware weights to enhance local features. In order to further improve the recognition accuracy, Gam attention mechanism was added, and comparison experiments were conducted with the current more advanced attention mechanism and the YOLO series. According to the experiments, the average detection accuracy of YOLOv8-CG model was 92.6%, 4% higher than that of YOLOv5 model. At the same time, the effect of different planting density on model recognition was analyzed. The experiment showed that the precision of row 10 with sparse planting was 6.6% higher than that of row 2 with dense planting.
Keywords:
weed detection; millet; YOLOv8; attention mechanism; lightweight model
0"引言
雜草是影響甚至危害谷子生長(zhǎng)的植物,雜草會(huì)吸收土壤水分和養(yǎng)分,阻擋作物陽(yáng)光,影響作物的透光透風(fēng)性,從而減少作物產(chǎn)量[1]。我國(guó)谷子的種植面積占世界谷子播種面積的90%以上,占全國(guó)糧食作物播種面積的5%,占北方糧食作物播種面積的10%~15%[2]。而谷子田中雜草種類眾多,如果不能及時(shí)去除,造成苗荒、草荒,會(huì)導(dǎo)致產(chǎn)量減產(chǎn)甚至導(dǎo)致絕收[3]。我國(guó)現(xiàn)階段最普遍的除草方式是人工除草和化學(xué)除草[4],但隨著社會(huì)的發(fā)展、綠色農(nóng)業(yè)的發(fā)展以及勞動(dòng)力成本的上升,人工除草的勞動(dòng)力成本支出逐年變大,而化學(xué)除草對(duì)土地的破壞也隨著農(nóng)藥的過(guò)度使用變大,不僅加大了農(nóng)戶的支出成本,也破壞了作物賴以生長(zhǎng)的環(huán)境,所以準(zhǔn)確識(shí)別雜草并進(jìn)行精確除草變得尤為重要。
近年來(lái),隨著深度學(xué)習(xí)的不斷發(fā)展,視覺識(shí)別及技術(shù)也不斷提高,而深度學(xué)習(xí)中常用的識(shí)別方法有R-CNN[5]、Faster R-CNN[6]、SSD[7]和YOLO[8]系列等。劉莫塵等[9]提出一種融合帶色彩恢復(fù)的多尺度視網(wǎng)膜增強(qiáng)算法的改進(jìn)YOLOv4-tiny模型,該模型準(zhǔn)確率在96.6%,檢測(cè)幀耗時(shí)為131ms。王宇博等[10]提出一種改進(jìn)的YOLOv5算法實(shí)現(xiàn)農(nóng)田雜草檢測(cè),該方法通過(guò)改進(jìn)數(shù)據(jù)增強(qiáng)方式,提高模型泛化性;通過(guò)添加注意力機(jī)制,增強(qiáng)主干網(wǎng)絡(luò)的特征提取能力;通過(guò)改進(jìn)框回歸損失函數(shù),提升預(yù)測(cè)框的準(zhǔn)確率。該方法的平均精度均值為90.6%。張偉康等[11]提出的通過(guò)識(shí)別蔬菜間接檢測(cè)雜草的方式降低雜草檢測(cè)復(fù)雜度,進(jìn)而提高檢測(cè)精度和魯棒性。在YOLOv5目標(biāo)檢測(cè)算法主干特征提取網(wǎng)絡(luò)中引入卷積塊注意力模塊(CBAM)提高網(wǎng)絡(luò)對(duì)蔬菜目標(biāo)的關(guān)注度,加入Transformer模塊增強(qiáng)模型對(duì)全局信息的捕捉能力。Chen等[12]對(duì)芝麻雜草的識(shí)別中,引入了YOLO-sesame模型,該模型通過(guò)引入注意力機(jī)制、局部重要性池化和自適應(yīng)空間特征融合結(jié)構(gòu),成功提高芝麻雜草識(shí)別的效率和準(zhǔn)確性。目前對(duì)谷子田雜草進(jìn)行識(shí)別處理的文獻(xiàn)較少,而且識(shí)別精度較低。
本文通過(guò)在YOLOv8中加入CloFormer[13]結(jié)構(gòu),用C2f_CloAtt代替C2f,與YOLO系列的模型進(jìn)行對(duì)比試驗(yàn),驗(yàn)證CloFormer結(jié)構(gòu)是否能有效減少計(jì)算量并提高識(shí)別精度。通過(guò)加入注意力機(jī)制Gam[14]、BAM[15]、CBAM[16]、SE[17]、EMA[18]、CA[19],進(jìn)行對(duì)比試驗(yàn),以期找到最優(yōu)注意力機(jī)制來(lái)提高模型對(duì)雜草的識(shí)別精度。
1"數(shù)據(jù)采集與預(yù)處理
1.1"數(shù)據(jù)采集
數(shù)據(jù)采集于2023年5月12日,采集地點(diǎn)于大慶市讓胡路區(qū)黑龍江八一農(nóng)墾大學(xué)試驗(yàn)田,試驗(yàn)田長(zhǎng)約250m,寬約200m,選取谷子田最右側(cè)的10個(gè)壟收集谷子雜草圖片,給壟編號(hào)從左至右為1~10,編號(hào)從低到高作物播種逐漸稀疏。從每個(gè)壟拍攝30張包含各種雜草的圖片,總共拍攝300張圖片為試驗(yàn)提供數(shù)據(jù)集。
1.2"數(shù)據(jù)預(yù)處理
通過(guò)數(shù)據(jù)采集的300張圖片發(fā)現(xiàn)谷子田主要雜草為狗尾巴草,馬唐,藜類,薊類,牛筋草,苘麻,水棘針等以及試驗(yàn)田邊上種植了豆類作物,所以會(huì)有豆類幼苗,為擴(kuò)大數(shù)據(jù)集,使用旋轉(zhuǎn)、鏡像、亮度變換擴(kuò)大數(shù)據(jù)集至1 200張圖片,再使用LabelImg工具對(duì)雜草進(jìn)行標(biāo)注,為提高識(shí)別的準(zhǔn)確率,把雜草標(biāo)定細(xì)分,把闊葉類雜草標(biāo)注為雜草1,禾本科類雜草標(biāo)注為雜草2,特殊形狀雜草水棘針標(biāo)注為雜草3,小型雜草標(biāo)注為雜草4,而特殊形狀的苘麻標(biāo)注為雜草5,雜草的識(shí)別數(shù)據(jù)集均為Pascal VOC格式。并且按照8∶1∶1把數(shù)據(jù)集分為訓(xùn)練集、驗(yàn)證集以及測(cè)試集。訓(xùn)練集為960張圖片,驗(yàn)證集為120張圖片,測(cè)試集為120張圖片。
2"改進(jìn)YOLOv8算法
2.1"YOLOv8-CG網(wǎng)絡(luò)模型
YOLOv8-CG模型全稱為YOLOv8-CloFormer-Gam模型,其網(wǎng)絡(luò)結(jié)構(gòu)整體可分為4個(gè)部分,分別為Input、Backbone、Neck和Head[20],網(wǎng)絡(luò)模型如圖1所示。Input用于在模型中輸入圖像,Backbone網(wǎng)絡(luò)用于提取圖像特征,Neck層主要用于將不同尺度的特征圖進(jìn)行融合,Head層的主要作用是將特征圖轉(zhuǎn)換為目標(biāo)框的位置和類別信息。提高精度的方法主要是通過(guò)加入CloFormer模塊,使用C2f_ColAtt替代YOLOv8主干網(wǎng)絡(luò)(backbone)中的C2f結(jié)構(gòu),加入Gam注意力機(jī)制。輸入的圖像會(huì)通過(guò)C2f_ColAtt減少計(jì)算量并且增強(qiáng)局部特征,并且增加識(shí)別精度,接著經(jīng)過(guò)Gam注意力機(jī)制模塊進(jìn)一步提高識(shí)別精度。
2.2"CloFormer模塊
為解決谷子田雜草種類復(fù)雜從而導(dǎo)致的識(shí)別精度低的問題,加入CloFormer模塊,發(fā)現(xiàn)CloFormer模塊能對(duì)YOLOv8模型有較為顯著的提升,該模塊采用C2f_CloAtt模塊取代YOLOv8中的C2f模塊,CloFormer模塊是由4個(gè)Clo block和ConvFFN串聯(lián)構(gòu)成,圖2為CloFormer模塊結(jié)構(gòu)圖,Clo block模塊在CloFormer中由Global和Local組成,主要通過(guò)Global減少計(jì)算量以及Local對(duì)共享權(quán)重的局部特征聚合,增強(qiáng)局部特征,Q、V、K分別為Query(查詢)、Value(值)、Key(鍵),Clo block模塊首先對(duì)K和V進(jìn)行池化(Pool),然后對(duì)Q、K、V進(jìn)行注意力過(guò)程,提取低頻全局信息。
Xglobal=Attention[Qg,Pool(Kg),Pool(Vg)]
(1)
然而,引入的Global模塊雖然降低了模型的計(jì)算量(FLOPs),但是它在提取低頻信息時(shí)也就造成對(duì)高頻信息處理能力的不足,所以在Local模塊中加入Attnconv來(lái)解決這個(gè)問題,Attnconv首先通過(guò)進(jìn)行線性變換,得到與標(biāo)準(zhǔn)注意力相同的Q、K和V。
Q,K,V=FC(Xin)
(2)
式中:
Xin——Attnconv的輸入。
FC模塊(Fully Connected Layer)為全連接層,在進(jìn)行線性變換后,首先對(duì)V進(jìn)行共享權(quán)重的局部特征聚合,然后基于處理后的V和Q、K進(jìn)行上下文感知的局部增強(qiáng)。使用卷積層(DWconv)來(lái)對(duì)特征向量V進(jìn)行局部特征信息聚合,而且卷積層的權(quán)重是全局共享的,然后結(jié)合Q和K生產(chǎn)上下文感知權(quán)重,計(jì)算Q和K的哈達(dá)瑪積(Hadamard product),哈達(dá)瑪積用⊙表示,并且對(duì)其結(jié)果進(jìn)行處理變換,得到上下文感知權(quán)重,總體流程由式(3)~式(8)表示。
Vs=DWconv(V)
(3)
Qt=DWconv(Q)
(4)
Kt=DWconv(K)
(5)
Xlocal=Attn⊙Vs
(6)
Attn=tanhAttntd
(7)
Attnt=FC[Swish(FC(Qt⊙Kt))]
(8)
并且將局部分支(Local)的輸出Xt和全局分支(Global)的輸出Xout在通道維度上進(jìn)行串聯(lián),如式(9)、式(10)表示。
Xt=Concat(Xlocal,Xglobal)
(9)
Xout=FC(Xt)
(10)
2.3"Gam模塊
由于雜草與作物形態(tài)、顏色較為相近,YOLOv8-CloFormer運(yùn)行結(jié)果為89.7%,為進(jìn)一步提高雜草在谷子田中的顯著性,提升識(shí)別準(zhǔn)確率,在YOLOv8主干特征提取網(wǎng)絡(luò)中引入Gam注意力機(jī)制,Gam注意力機(jī)制采用了CBAM注意力機(jī)制的順序通道—空間注意力機(jī)制,并重新設(shè)計(jì)子模塊,Gam包含空間注意力和通道注意力,Gam模塊首先在通道注意力中對(duì)輸入的圖像維度(C×W×H)進(jìn)行重新排列,并且使用雙層的多層感知器(MPL)放大通道的空間依賴性,再進(jìn)行一次反向排列,最后通過(guò)一次sigmoid函數(shù)輸出,在空間注意力中引入了兩個(gè)卷積層進(jìn)行空間信息融合,從而提高圖像特征,結(jié)構(gòu)如圖3所示,并用式(11)、式(12)進(jìn)行表述,其中給定輸入特征映射F1∈RC×H×W。
F2=Mc(F1)F1
(11)
F3=Ms(F2)F2
(12)
3"試驗(yàn)結(jié)果與分析
在顯卡為NVIDIA Geforce RTX 3070 Ti,CPU為i7-12700H,操作系統(tǒng)為Windows11,在CUDA版本為11.8,cuDNN版文為8.6,Pytorch版本為2.0.1下實(shí)現(xiàn)模型的搭建及試驗(yàn)。
評(píng)價(jià)指標(biāo):準(zhǔn)確率P,表明模型正確識(shí)別作物的比例;召回率R,表明識(shí)別圖像中作物的完全程度;平均精度均值mAP,表明所有雜草的平均識(shí)別精度。
3.1"谷子田雜草識(shí)別結(jié)果分析
為驗(yàn)證改進(jìn)模型對(duì)谷子田雜草識(shí)別的性能,采用在谷子田中采集的相同雜草訓(xùn)練集,分別對(duì)YOLOv5模型、YOLOv7模型、YOLOv8模型、YOLOv8-C模型以及YOLOv8-CG模型進(jìn)行訓(xùn)練,各個(gè)模型的評(píng)價(jià)指標(biāo)如表1所示。YOLOv8模型的準(zhǔn)確率和平均精度都明顯高于YOLOv5模型和YOLOv7模型,只有在召回率中低于YOLOv5模型和YOLOv7模型。綜上所述,選擇YOLOv8模型進(jìn)行優(yōu)化,以此得到最優(yōu)解的模型。
在模型檢測(cè)精度方面,YOLOv8-CG模型的準(zhǔn)確率為86.3%,召回率為88.1%,平均精度(mAP@0.5和mAP@0.5∶0.9)分別為92.6%和75.8%,平均精度分別高于YOLOv5模型、YOLOv7模型、YOLOv8模型以及YOLOv8-C模型4、7.6個(gè)百分點(diǎn),3.7、2.4個(gè)百分點(diǎn),3.4、1.6個(gè)百分點(diǎn),2.9、1個(gè)百分點(diǎn)。改進(jìn)模型比一般的YOLO系列的識(shí)別模型對(duì)谷子田雜草的識(shí)別精度有較大的提升,準(zhǔn)確率和召回率也都有所提高,以此證明CloFormer模塊以及Gam注意力機(jī)制對(duì)谷子田雜草是識(shí)別精度是有提升作用的。
3.2"不同注意力機(jī)制的對(duì)比試驗(yàn)
為進(jìn)一步提高識(shí)別精度,在YOLOv8-CloFormer引入Gam注意力機(jī)制,并且與當(dāng)前較為先進(jìn)的注意力機(jī)制進(jìn)行對(duì)比試驗(yàn),結(jié)果如表2所示。
由表2可知,在YOLOv8-CloFormer的基礎(chǔ)上分別加入CBAM、CA、EMA、SE、Gam五種注意力機(jī)制進(jìn)行對(duì)比,加入Gam注意力機(jī)制的模型的mAP@0.5要比CA注意力機(jī)制高2.6%,mAP@0.5∶0.9要高3.5%,比EMA模型的mAP@0.5要高1%,mAP@0.5∶0.9要高2.6%,比CBAM模型的mAP@0.5要高0.7%,mAP@0.5∶0.9要高1.5%,雖然在與SE注意力機(jī)制作對(duì)比時(shí),加入Gam注意力機(jī)制的模型的mAP@0.5要比加入SE注意力機(jī)制的模型低0.2%,但是mAP@0.5∶0.9要高3.1%,準(zhǔn)確率要高1.2%,召回率高3.2%,所以加入Gam的模型依舊是較優(yōu)于加入SE的模型,根據(jù)對(duì)比試驗(yàn),Gam注意力機(jī)制對(duì)本試驗(yàn)的提升是最大的。圖4為各個(gè)注意力機(jī)制模型與YOLOv8模型的對(duì)比圖。
為驗(yàn)證不同注意力機(jī)制對(duì)每種雜草的識(shí)別能力,計(jì)算每種雜草在不同的注意力機(jī)制模型下的識(shí)別精度AP,結(jié)果如表3所示。
由表3可以看出,由于雜草2是禾本科雜草比如狗尾巴草等,而谷子也是屬于禾本科,兩者形態(tài)、顏色較為相近,作物對(duì)雜草2的識(shí)別干擾較大,而且禾本科雜草也是谷子田中數(shù)量最多的雜草種類,所以雜草2的識(shí)別難度相對(duì)于其他雜草的難度較大,導(dǎo)致各注意力機(jī)制對(duì)雜草2的精度普遍較低,而Gam模型在雜草2的識(shí)別精度上要比CBAM模型提高7.6%,比CA模型提高5.5%,比EMA模型提高8.4%,比SE模型提高4.3%,試驗(yàn)發(fā)現(xiàn)Gam注意力機(jī)制在對(duì)不同種類的雜草的識(shí)別上對(duì)模型都有較好地提升。
3.3"作物密度對(duì)識(shí)別精度的影響
把試驗(yàn)田的10個(gè)田壟從左至右進(jìn)行1~10編號(hào),編號(hào)越大,作物種植的密度越稀疏,對(duì)每個(gè)壟拍攝的30張照片進(jìn)行識(shí)別,識(shí)別雜草的總數(shù)以及正確識(shí)別和錯(cuò)誤識(shí)別的雜草數(shù)量,從而計(jì)算出識(shí)別準(zhǔn)確率,判斷不同種植密度對(duì)于識(shí)別性能的影響。
在表4中,雜草總數(shù)為每個(gè)田壟拍攝到的所有雜草數(shù)量,正確識(shí)別為30張圖片中正確識(shí)別到雜草的數(shù)量,未識(shí)別為沒有被識(shí)別到的雜草數(shù)量,重復(fù)識(shí)別為同一個(gè)雜草被多次識(shí)別的數(shù)量。由表4可知,其中準(zhǔn)確率最高的10號(hào)壟比準(zhǔn)確率最低的2號(hào)壟高6.6%,而且可以看出編號(hào)越高的壟準(zhǔn)確率相對(duì)更高,說(shuō)明作物種植越密集,對(duì)識(shí)別的干擾越嚴(yán)重。
4"結(jié)論
提出一種基于改進(jìn)YOLOv8的識(shí)別算法對(duì)谷子田中的雜草進(jìn)行識(shí)別,使用C2f_CloAtt模塊替代YOLOv8主干網(wǎng)絡(luò)中的C2f模塊以及加入Gam注意力機(jī)制,并在Nvidia GeForce RTX 3070Ti環(huán)境下訓(xùn)練,并且與YOLOv系列模型和現(xiàn)階段先進(jìn)注意力機(jī)制進(jìn)行對(duì)比。
1)
對(duì)于谷子田雜草,改進(jìn)后模型的平均精度mAP@0.5和mAP@0.5∶0.9分別為92.6%和75.8%,比YOLOv5模型分別提高4%和7.6%,試驗(yàn)表明,該模型能有效地提高識(shí)別精度以及減少計(jì)算量。
2) "通過(guò)引入注意力機(jī)制來(lái)提高主干網(wǎng)絡(luò)的特征提取能力,并且將注意力機(jī)制進(jìn)行對(duì)比試驗(yàn),試驗(yàn)表明,添加Gam注意力機(jī)制的模型的識(shí)別平均精度均高于其他注意力機(jī)制模型,在對(duì)不同雜草的處理能力也優(yōu)于其他的注意力機(jī)制。
3) "分析在不同種植密度下對(duì)YOLOv8-CG模型識(shí)別精度的變化規(guī)律,稀疏的10號(hào)壟要比密集的2號(hào)壟準(zhǔn)確率高6.6%。
參"考"文"獻(xiàn)
[1]
付豪, 趙學(xué)觀, 翟長(zhǎng)遠(yuǎn), 等. 基于深度學(xué)習(xí)的雜草識(shí)別方法研究進(jìn)展[J]. 中國(guó)農(nóng)機(jī)化學(xué)報(bào), 2023, 44(5): 198-207.
Fu Hao, Zhao Xueguan, Zhai Changyuan, et al. Research progress on weed recognition method based on deep learning technology [J]. Journal of Chinese Agricultural Mechanization, 2023, 44(5): 198-207.
[2]
莊占興, 孫文國(guó), 范金勇, 等. 西草凈對(duì)谷子田一年生雜草活性及其安全性測(cè)定[J]. 農(nóng)藥, 2017, 56(7): 531-534.
Zhuang Zhanxing, Sun Wenguo, Fan Jinyong, et al. Weed control effect of simetryn and its safety to millet in glasshouses [J]. Agrochemicals, 2017, 56(7): 531-534.
[3]
趙玉信, 楊惠敏. 作物格局、土壤耕作和水肥管理對(duì)農(nóng)田雜草發(fā)生的影響及其調(diào)控機(jī)制[J]. 草業(yè)學(xué)報(bào), 2015, 24(8): 199-210.
Zhao Yuxin, Yang Huimin. Effects of crop pattern, tillage practice and water and fertilizer management on weeds and their control mechanisms [J]. Acta Prataculturae Sinica, 2015, 24(8): 199-210.
[4]
姜延軍, 岳德成, 李青梅, 等. 全膜雙壟溝播玉米田選用除草地膜的適宜田間雜草密度研究[J]. 植物保護(hù), 2018, 44(1): 110-115.
Jiang Yanjun, Yue Decheng, Li Qingmei, et al. Effects of covering weeding film on the suitable weed density in double-ridge maize fields with whole plastic-film mulching [J]. Plant Protection, 2018, 44(1): 110-115.
[5]
Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580-587.
[6]
Ren S, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 39(6): 1137-1149.
[7]
Liu W, Anguelov D, Erhan D, et al. SSD: Single shot multibox detector [C]. European Conference on Computer Vision, 2016: 21-37.
[8]
Redmon J, Farhadi A. YOLOv3: An incremental improvement [J]. arXiv:1804.02767, 2018.
[9]
劉莫塵, 高甜甜, 馬宗旭, 等. 基于MSRCR-YOLOv4-tiny的田間玉米雜草檢測(cè)模型[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2022, 53(2): 246-255, 335.
Liu Mochen, Gao Tiantian, Ma Zongxu, et al. Target detection model of corn weeds in field environment based on MSRCR algorithm and YOLOv4-tiny [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(2): 246-255, 335.
[10]
王宇博, 馬廷淮, 陳光明. 基于改進(jìn)YOLOv5算法的農(nóng)田雜草檢測(cè)[J]. 中國(guó)農(nóng)機(jī)化學(xué)報(bào), 2023, 44(4): 167-173.
Wang Yubo, Ma Tinghuai, Chen Guangming. Weeds detection in farmland based on a modified YOLOv5 algorithm [J]. Journal of Chinese Agricultural Mechanization, 2023, 44(4): 167-173.
[11]
張偉康, 孫浩, 陳鑫凱, 等. 基于改進(jìn)YOLOv5的智能除草機(jī)器人蔬菜苗田雜草檢測(cè)研究[J]. 圖學(xué)學(xué)報(bào), 2023, 44(2): 346-356.
Zhang Weikang, Sun Hao, Chen Xinkai, et al. Research on weed detection in vegetable seedling fields based on the improved YOLOv5 intelligent weeding robot [J]. Journal of Graphics, 2023, 44(2): 346-356.
[12]
Chen Jiqing, Wang Huabin, Zhang Hongdu, et al. Weed detection in sesame fields using a YOLO model with an enhanced attention mechanism and feature fusion [J]. Computers and Electronics in Agriculture, 2022, 202.
[13]
Fan Qihang, Huang Huaibo, Guan Jiyang, et al. Rethinking local perception in lightweight vision transformer [J]. arXiv:2303.17803, 2023.
[14]
Liu Yichao, Shao Zongru, Nico Hoffmann. Global attention mechanism: Retain information to enhance channel-spatial interactions [J]. arXiv:2112.05561, 2021.
[15]
Park J, Woo S, Lee J Y, et al. BAM: Bottleneck attention module [J]. arXiv:1807.06514, 2018.
[16]
Woo S, Park J, Lee J Y, et al. CBAM: Convolutional block attention module [C]. Proceedings of the European Conference on Computer Vision, 2018: 3-19.
[17]
Jie Hu, Li Shen, Samuel Albanie, et al. Squeeze and excitation networks [J]. arXiv:1709.01507,2019.
[18]
Ouyang Daliang, He Su, Zhang Guozhong, et al. Efficient multi-scale attention module with cross-spatial learning [J]. arXiv: 2305.13563, 2023.
[19]
Li Yehao, Yao Ting, Pan Yingwei, et al. Contextual transformer networks for visual recognition [J]. arXiv: 2107.12292, 2021.
[20]
楊斷利, 王永勝, 陳輝, 等. 基于改進(jìn)YOLO v6-tiny的蛋雞啄羽行為識(shí)別與個(gè)體分類[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2023, 54(5): 268-277.
Yang Duanli, Wang Yongsheng, Chen Hui, et al. Feather pecking abnormal behavior identification and individual classification method of laying hens based on improved YOLO v6-tiny [J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(5): 268-277.
中國(guó)農(nóng)機(jī)化學(xué)報(bào)2025年1期