摘要:
為提高對(duì)茶葉嫩芽識(shí)別的準(zhǔn)確率,提升自動(dòng)采摘機(jī)器人的工作效率,減少人工采摘成本,提出一種對(duì)茶葉嫩芽目標(biāo)檢測(cè)的模型。通過(guò)拍攝包含白豪早茶葉嫩芽圖片,進(jìn)行篩選后得到179張圖像,使用Mosic數(shù)據(jù)擴(kuò)增后獲得716張圖像,建立數(shù)據(jù)集,按照訓(xùn)練集、測(cè)試集和驗(yàn)證集7∶2∶1的比例劃分?jǐn)?shù)據(jù)集。針對(duì)復(fù)雜背景下茶葉嫩芽存在重疊以及遮擋所導(dǎo)致的識(shí)別精準(zhǔn)度低的問(wèn)題,對(duì)YOLOv5s模型進(jìn)行改動(dòng),在骨干網(wǎng)絡(luò)上增添注意力機(jī)制模塊SE和CBAM進(jìn)行比較;Neck網(wǎng)絡(luò)由原來(lái)的PAFPN改為可以進(jìn)行雙向加權(quán)融合的BiFPN,Head結(jié)構(gòu)增加淺層下采樣的P2模塊,提出一種茶葉嫩芽檢測(cè)的模型。試驗(yàn)表明YOLOv5s添加SE模塊結(jié)合BiFPN時(shí)模型具有更高的檢測(cè)精度,并對(duì)試驗(yàn)結(jié)果進(jìn)行十折交叉驗(yàn)證,相較于基線精確率提高10.46%,達(dá)到88.30%,平均精度均值mAP提高6.47%, 達(dá)到85.83%。最后使用相同的數(shù)據(jù)集和預(yù)處理方法對(duì)比YOLOv5m、Faster R-CNN 和 YOLOv4-tiny,證明該試驗(yàn)方法綜合強(qiáng)于其他經(jīng)典深度學(xué)習(xí)方法,能更有效地提升茶葉嫩芽檢測(cè)精準(zhǔn)度,可以為茶葉自動(dòng)采摘機(jī)器人提供理論依據(jù)。
關(guān)鍵詞:茶葉;嫩芽檢測(cè);YOLOv5s;注意力機(jī)制;雙向特征金字塔
中圖分類(lèi)號(hào):S571.1; TP391.4
文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):2095-5553 (2024) 04-0168-07
收稿日期:2023年3月17日" 修回日期:2023年11月16日
基金項(xiàng)目:山東省重大科技創(chuàng)新工程(2021LZGC014—3);嶗山茶產(chǎn)業(yè)創(chuàng)新團(tuán)隊(duì)(LSCG2022000017)
第一作者:嚴(yán)蓓蓓,女,1998年生,山東日照人,碩士研究生;研究方向?yàn)檗r(nóng)業(yè)工程與信息技術(shù)。E-mail: 1239937110@qq.com
通訊作者:許金普,男,1979年生,山東博興人,博士,副教授,碩導(dǎo);研究方向?yàn)檗r(nóng)業(yè)信息技術(shù)。E-mail: xjp@qau.edu.cn
Detection of tea buds based on improved YOLOv5s
Yan Beibei1, Ji Yuanhao1, Qu Fengfeng2, Xu Jinpu1
(1. College of Animation and Media, Qingdao Agricultural University, Qingdao, 266109, China;
2. College of Horticultural, Qingdao Agricultural University, Qingdao, 266109, China)
Abstract:
In order to improve the accuracy of tea bud recognition, improve the efficiency of automatic picking robot and reduce the cost of manual picking, this paper proposes a model for tea bud target detection. Through taking pictures of the buds of Baihao early tea, 179 images were obtained after screening, and 716 images were obtained after using Mosc data amplification. The data set was established, and the data set was divided according to the 7∶2∶1 ratio of training set, test set and validation set. In view of the low recognition accuracy caused by the overlap and occlusion of tea buds under complex background, this paper modifies the YOLOv5s model and adds the attention mechanism module SE and CBAM to the backbone network for comparison. The Neck network is changed from the original PAFPN to the BiFPN that can carry out two-way weighted fusion. The Head structure adds a P2 module for shallow sampling, and proposes a tea bud detection model. The experiment shows that the model has higher detection accuracy when YOLOv5s adds SE module combined with BiFPN, and the experimental results are cross-verified with ten folds. Compared with the baseline accuracy, the accuracy rate is increased by 10.46%, reaching 88.30%, and the average accuracy mAP is increased by 6.47%, reaching 85.83%. Finally, using the same data set and preprocessing method to compare YOLOv5m, Faster R-CNN and YOLOv4-tiny, it is proved that the experimental method proposed in this paper is more comprehensive than other classical deep learning methods, can more effectively improve the accuracy of tea bud detection and can provide theoretical basis for the tea automatic picker.
Keywords:
tea; bud detection; YOLOv5s; attention mechanism; bidirectional feature pyramid
0 引言
目前,從茶葉采摘來(lái)看,大部分茶葉嫩芽進(jìn)行人工或采茶機(jī)采摘,人工采摘茶葉嫩芽具有成本高,效率低等缺點(diǎn),現(xiàn)有機(jī)械采茶機(jī)大部分缺乏選擇性,無(wú)法保證茶葉的品質(zhì)[1]。隨著人工智能的發(fā)展,機(jī)器視覺(jué)與深度學(xué)習(xí)的結(jié)合可以使茶葉嫩芽檢測(cè)更加精準(zhǔn),茶葉嫩芽智能化采摘不僅可以降低采摘成本,還能實(shí)現(xiàn)精準(zhǔn)采摘,更好地保證茶葉的完整性和品質(zhì),也是茶葉生產(chǎn)信息化、機(jī)械化的重要前提[2]。因此,對(duì)茶葉嫩芽進(jìn)行目標(biāo)檢測(cè)和精準(zhǔn)定位不僅可以減少人工采摘成本,提高工作效率,還可以保證鮮茶嫩芽的品質(zhì)。
近幾年,基于深度學(xué)習(xí)[3]的目標(biāo)檢測(cè)技術(shù)在農(nóng)業(yè)方面有越來(lái)越多的應(yīng)用。關(guān)于圖像目標(biāo)檢測(cè),一般分為兩種:一類(lèi)是一步式(One-stage detectors),會(huì)直接產(chǎn)生物體的類(lèi)別概率和位置坐標(biāo)值,比如YOLO[4, 5],SSD[6]。Xu等[7]結(jié)合YOLOv3網(wǎng)絡(luò)的快速檢測(cè)能力和DenseNet201實(shí)現(xiàn)茶葉嫩芽的準(zhǔn)確檢測(cè),比較頂芽和側(cè)芽?jī)煞N拍攝方式下,表明該方法對(duì)側(cè)芽的檢測(cè)準(zhǔn)確率高。胡根生等[8]使用YOLOv5進(jìn)行檢測(cè),用卷積核組增強(qiáng)對(duì)茶尺蠖的特征提取,達(dá)到96%的精確率和92.89%的平均精度均值。方夢(mèng)瑞等[9]在頸部網(wǎng)絡(luò)添加52×52的淺層特征層以提升對(duì)小目標(biāo)嫩芽的關(guān)注度,引入卷積塊注意力機(jī)制提出模型YOLOv4-tiny-Tea,進(jìn)行訓(xùn)練和測(cè)試,檢測(cè)精確率和召回率分別為97.77%和95.23%;另一類(lèi)是兩步式(two-stage detectors),先產(chǎn)生候選區(qū)域,然后對(duì)候選區(qū)域分類(lèi),如R-CNN,F(xiàn)ast R-CNN等,以區(qū)域特征為基礎(chǔ),再進(jìn)行內(nèi)部識(shí)別。許寶陽(yáng)等[10]采用的Faster R-CNN深度學(xué)習(xí)模型對(duì)不同角度、不同天氣狀況下茶葉嫩芽進(jìn)行識(shí)別,得到陰天、霧天拍攝時(shí)識(shí)別效果較差的結(jié)論。李旭等[11]探索了基于Faster R-CNN在復(fù)雜背景下茶葉嫩芽檢測(cè)的應(yīng)用,對(duì)比基于顏色特征和閾值分割的茶葉嫩芽識(shí)別算法,剔除單芽時(shí),一芽一葉/二葉的AP為0.76,RMSE為2.19。此外,還有部分研究采用閾值分割[12]的方法對(duì)復(fù)雜背景下茶葉嫩芽進(jìn)行檢測(cè),汪建[13]利用茶葉圖像的色調(diào)H和飽和度S分量圖進(jìn)行嫩芽區(qū)域分割,對(duì)距離不同的嫩芽圖像進(jìn)行組合和分割,平均分割精確率為89.8%。龍樟等[14]采用大津法(OTSU)進(jìn)行閾值分割獲得嫩芽分割圖像,設(shè)計(jì)采摘點(diǎn)定位算法,可以為采摘機(jī)器人采摘精準(zhǔn)度提供理論依據(jù)。
通過(guò)上述研究發(fā)現(xiàn),對(duì)復(fù)雜背景下茶葉嫩芽的檢測(cè)的研究較少,在茶葉嫩芽目標(biāo)檢測(cè)中還存在嫩芽大小形狀不一、遮擋重疊情況嚴(yán)重等一系列影響檢測(cè)茶葉嫩芽精度的問(wèn)題,而采摘茶葉嫩芽對(duì)準(zhǔn)確度要求較高,因此復(fù)雜背景對(duì)茶葉嫩芽的檢測(cè)會(huì)消耗大量的成本,近幾年茶葉智能采摘工作進(jìn)展情況較為緩慢[15]。研究選用YOLOv5s,通過(guò)改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu),以達(dá)到提高茶葉嫩芽檢測(cè)精度的目的,從而為茶葉智能采摘提供理論依據(jù)。
1 材料與方法
1.1 圖像采集與預(yù)處理
山東省是著名的茶葉生產(chǎn)大省,青島在種植茶樹(shù)上也發(fā)揮了重要的作用。本文以嶗山綠茶為研究對(duì)象,試驗(yàn)拍攝茶葉嫩芽地點(diǎn)為山東省青島市嶗山區(qū)碧海藍(lán)田茶園,青島嶗山區(qū)位于北緯36°08′,東經(jīng)120°34′。茶葉品種選取了嶗山區(qū)種植面積較大的白豪早,拍攝時(shí)間為夏季,分別拍攝上午9:00和11:00的茶葉嫩芽。所使用的相機(jī)型號(hào)為佳能EOS 700D,拍攝圖片分辨率為2 592像素×1 456像素,焦距31 mm,光圈數(shù)f/81,圖像采集過(guò)程中,將相機(jī)與嫩芽間的距離保持在30~50 cm左右,確保嫩芽和老葉都在鏡頭內(nèi),茶葉采集圖片如圖1所示。
本文主要目的是提高在自然條件復(fù)雜背景下茶葉嫩芽的檢測(cè)效果,為提升模型的魯棒性,在篩選照片的時(shí)候,選擇有重疊情況以及茶葉嫩芽被遮擋情況的圖片。最終篩選出來(lái)較為清晰的茶葉嫩芽圖片。共得到清晰良好圖片179張,標(biāo)注的白豪早茶葉嫩芽圖片包含單芽、一芽一葉、一芽?jī)扇~,如圖2所示,本文試驗(yàn)中所用數(shù)據(jù)集的茶葉嫩芽圖片包含三種類(lèi)型。
1.2 數(shù)據(jù)集制作
圖片隨機(jī)裁剪為尺寸416×416,利用數(shù)據(jù)集標(biāo)注工具labelImg標(biāo)注圖片,將茶葉單芽、一芽一葉、一芽?jī)扇~標(biāo)簽均設(shè)置為“nenya”,得到包含茶葉嫩芽的.xml文件。本文采用YOLOv5訓(xùn)練模型,使用python編程將標(biāo)簽格式修改為.txt格式,建立數(shù)據(jù)集,并且按照7∶2∶1的比例構(gòu)建訓(xùn)練集、測(cè)試集和驗(yàn)證集。
為模擬自然環(huán)境下茶葉嫩芽的生長(zhǎng)狀態(tài),對(duì)訓(xùn)練集進(jìn)行了數(shù)據(jù)增強(qiáng)[16],對(duì)茶葉嫩芽進(jìn)行隨機(jī)縮放、隨機(jī)裁剪、隨機(jī)排布,隨機(jī)縮放范圍為[0.5,1.5],本次試驗(yàn)縮放因子為0.5,使用mosaic拼接法,隨機(jī)截取并混合4張具有不同語(yǔ)義信息的圖片,讓模型檢測(cè)超出常規(guī)情況下的嫩芽目標(biāo),還可以達(dá)到加強(qiáng)批歸一化層(Batch Normalization)的效果,結(jié)合所標(biāo)注的原始樣本,共獲得716幅圖像。拼接結(jié)果如圖3所示。
1.3 YOLOv5s網(wǎng)絡(luò)
YOLOv5s主要由骨干網(wǎng)絡(luò)(Backbone)、頸部(Neck)和預(yù)測(cè)層(Prediction)三個(gè)部分組成,骨干網(wǎng)絡(luò)由Focus、CSP、SPP等模塊組成。相比于YOLOv3、YOLOv4多出Focus結(jié)構(gòu),最重要的是切片操作,原始圖像輸入先進(jìn)行切片操作,再經(jīng)過(guò)32個(gè)卷積核進(jìn)行卷積,獲得特征圖。YOLOv5s中CSP1_X結(jié)構(gòu)應(yīng)用于主干網(wǎng)絡(luò),CSP2_X結(jié)構(gòu)則應(yīng)用于頸部網(wǎng)絡(luò)中。YOLOv5s采用SPP模塊(Spatial Pyramid Pooling)用 3個(gè)不同的卷積核進(jìn)行最大池化,然后進(jìn)行拼接來(lái)利用多尺度特征信息,提高檢測(cè)精度。頸部采用FPN+PAN結(jié)構(gòu)[17],可以進(jìn)一步提高特征提取的能力。在輸出端,使用非極大值抑制(Non-Maximum Suppression,NMS)[18]獲得最終預(yù)測(cè)框。在出現(xiàn)同樣的參數(shù)情況下,將IOU nms修改成DIOU nms,損失函數(shù)也由IOU loss修改成DIOU loss,對(duì)一些重疊目標(biāo)進(jìn)行檢測(cè)時(shí),會(huì)有一些改進(jìn)。
在自然條件下,茶樹(shù)生長(zhǎng)茂盛,茶葉嫩芽在復(fù)雜背景下有很多遮擋情況,還有部分重疊使得茶葉嫩芽的顯著性弱,識(shí)別起來(lái)有一定的難度[19],加上茶葉嫩芽與老葉的差距不夠明顯,現(xiàn)有模型對(duì)茶葉嫩芽的檢測(cè)會(huì)出現(xiàn)很多漏檢以及誤檢的情況。本試驗(yàn)選用YOLOv5s為基線網(wǎng)絡(luò),頸部網(wǎng)絡(luò)由原來(lái)的PAFPN結(jié)構(gòu)改成雙向特征金字塔網(wǎng)絡(luò)BiFPN[20](Bidirectional feature pyramid network),骨干網(wǎng)絡(luò)添加SE和CBAM注意力機(jī)制進(jìn)行比較。最后在YOLOv5s模型的基礎(chǔ)上,選擇在骨干網(wǎng)絡(luò)上添加SE注意力機(jī)制,提高模型對(duì)小目標(biāo)的檢測(cè),改進(jìn)后的模型名稱為YOLOv5s-Tea。
1.4 試驗(yàn)環(huán)境及模型參數(shù)配置
試驗(yàn)采用的處理器為Intel Core i7 12 700,內(nèi)存16 GB,顯卡為NVIDIA GeForce RTX 3080,運(yùn)行內(nèi)存32 GB,深度學(xué)習(xí)框架為T(mén)ensorFlow2.7.1,編程語(yǔ)言為Python3.7.0。本文對(duì)比算法均在該硬件環(huán)境下進(jìn)行。
1.5 模型評(píng)價(jià)指標(biāo)
為了評(píng)價(jià)茶葉嫩芽檢測(cè)模型YOLOv5s-Tea的檢測(cè)性能,本文采用4種性能指標(biāo):精確率(Precision)、召回率(Recall)、平均精度均值(mAP)、精確率和召回率的調(diào)和平均F1-Score,計(jì)算見(jiàn)式(1)~式(3)。
2 基于改進(jìn)YOLOv5s的茶葉嫩芽識(shí)別模型結(jié)構(gòu)
2.1 YOLOv5骨干網(wǎng)絡(luò)優(yōu)化
在檢測(cè)任務(wù)中,注意力模塊可以幫助模型有效的提取注意區(qū)域,提高模型檢測(cè)性能[21]。SE[22](Squeeze-and-Excitation)注意力機(jī)制和CBAM[23](Convolutional Block Attention Module)注意力機(jī)制是2種常用于圖像識(shí)別任務(wù)中的注意力機(jī)制。CBAM注意力模塊主要包含2個(gè)子模塊:通道注意力和空間注意力,可以應(yīng)用于小目標(biāo)尺寸較小、特征少且不明顯的情況下,CBAM的優(yōu)點(diǎn)在于可以增強(qiáng)模型的表征能力,從而提高模型的性能;SE注意力機(jī)制包括一個(gè)全局平均池化層和兩個(gè)全連接層,該機(jī)制的特點(diǎn)是能夠通過(guò)學(xué)習(xí)特征圖中每個(gè)通道的重要性權(quán)重來(lái)提高模型性能,不會(huì)增加額外的計(jì)算成本,SE模塊只涉及2個(gè)簡(jiǎn)單的操作,可以輕松地與不同的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)集成,能夠更加準(zhǔn)確地捕捉每個(gè)通道的重要性信息從而提高網(wǎng)絡(luò)性能。CBAM注意力機(jī)制相較于SE注意力機(jī)制更加復(fù)雜,計(jì)算成本也更高。
本試驗(yàn)對(duì)YOLOv5s網(wǎng)絡(luò)進(jìn)行優(yōu)化改進(jìn),引入2種注意力模塊進(jìn)行對(duì)比,分別是CBAM模塊和SE模塊。初始學(xué)習(xí)率為0.001,batch size設(shè)置為48,epoch設(shè)置為300。圖4是訓(xùn)練集目標(biāo)精確度,由圖4可知YOLOv5s添加SE注意力模塊的精確度較高,效果更好,收斂速度快,可以提高模型檢測(cè)性能。
2.2 YOLOv5s算法Neck和Head網(wǎng)絡(luò)優(yōu)化
YOLOv5s中的PANet[24]通過(guò)自頂向下和自底向上的路徑聚合實(shí)現(xiàn)多尺度特征融合,在效果上有一定優(yōu)勢(shì),由于PAFPN網(wǎng)絡(luò)中包含多個(gè)特征層,且這些特征層之間存在相互交錯(cuò)和信息流動(dòng),因此在訓(xùn)練時(shí)容易出現(xiàn)梯度消失問(wèn)題。
如圖5所示BiFPN采用跨連接,BiFPN在每個(gè)層級(jí),使用一個(gè)自適應(yīng)的特征融合模塊,將同一層級(jí)內(nèi)的不同尺度的特征進(jìn)行融合[25]。BiFPN通過(guò)雙向連接在不同層級(jí)的特征金字塔上建立前向和后向的跨層特征傳遞路徑,可以增強(qiáng)語(yǔ)義表達(dá)和區(qū)分能力。BiFPN采用分離式卷積和輕量化設(shè)計(jì),可以提高效率,也能減少參數(shù)量和計(jì)算量[26]。相比于PAFPN結(jié)構(gòu),BiFPN有更好的檢測(cè)性能,更能提升模型的魯棒性。本試驗(yàn)將原始PANet網(wǎng)絡(luò)換成BiFPN網(wǎng)絡(luò)進(jìn)行模型優(yōu)化。
圖6網(wǎng)絡(luò)結(jié)構(gòu)圖為改進(jìn)后的YOLOv5s骨干網(wǎng)絡(luò)結(jié)構(gòu),優(yōu)化的模型為添加SE注意力機(jī)制,在頸部添加BiFPN結(jié)構(gòu),其輸出結(jié)果與P3、P4和P5特征進(jìn)行融合輸出后共同輸入至下一級(jí)Neck網(wǎng)絡(luò)。
Yolov5中的Head網(wǎng)絡(luò)[27]把下采樣為32、16和8的卷積輸出結(jié)果作為輸入特征,分別與圖5中P3、P4、P5一一對(duì)應(yīng),為提高復(fù)雜背景下小目標(biāo)位置檢測(cè)精度,進(jìn)行改進(jìn):將淺層特征輸出P2(4倍下采樣率)作為Neck網(wǎng)絡(luò)的一個(gè)輸入特征,共同融合P3、P4和P5特征,這樣,Head分支的輸入就包含4個(gè)不同尺度的特征,模型檢測(cè)精度會(huì)有所提升,其優(yōu)化結(jié)果如圖7所示。
圖8為模型優(yōu)化后的訓(xùn)練集精確度,可以看出添加兩種注意力模塊都會(huì)對(duì)模型的收斂速度和穩(wěn)定性有一定的提升,但是YOLOv5s添加SE注意力模塊比添加CBAM注意力模塊結(jié)合BiFPN精確度更快,效果更好。
2.3 算法優(yōu)化試驗(yàn)對(duì)比分析
表1為YOLOv5s模型添加不同改進(jìn)方法對(duì)模型性能的影響。
可以看出,相比YOLOv5,單獨(dú)添加CBAM、SE或者添加BiFPN在精確率上比基線分別提升5.93%、7.6%、6.24%,平均精度均值分別提升-3.86%、5.38%、0.85%。通過(guò)試驗(yàn)結(jié)果可以證實(shí)分別對(duì)YOLOv5骨干網(wǎng)絡(luò)和Neck網(wǎng)絡(luò)以及Head網(wǎng)絡(luò)進(jìn)行優(yōu)化確實(shí)能夠提升模型對(duì)茶葉嫩芽的檢測(cè)性能。最終模型YOLOv5s-Tea精確率、召回率以及平均精度均值相比基線分別提升12.14%、11.19%和5.82%。
2.4 算法優(yōu)化后的茶葉嫩芽實(shí)例檢測(cè)
使用YOLOv5s和YOLOv5s-Tea對(duì)相同的茶葉嫩芽圖片進(jìn)行檢測(cè),檢測(cè)結(jié)果如圖9所示。
圖9(a)為YOLOv5s檢測(cè)結(jié)果,圖9(b)為YOLOv5s-Tea檢測(cè)結(jié)果,可以看出,兩種模型基本都能檢測(cè)出較明顯的茶葉嫩芽,圖9(b)右圖中遮擋部分的茶葉嫩芽會(huì)被精準(zhǔn)識(shí)別,說(shuō)明模型在改進(jìn)后,精確率會(huì)比YOLOv5s高,YOLOv5s-Tea能夠加強(qiáng)模型對(duì)重疊情況下茶葉嫩芽的檢測(cè)能力。因此,改進(jìn)后的模型整體性能得到提升,可以減少茶葉嫩芽漏檢誤檢情況。
2.5 YOLOv5s-Tea十折交叉驗(yàn)證
為防止數(shù)據(jù)集數(shù)量過(guò)少導(dǎo)致模型的過(guò)擬合以及數(shù)據(jù)結(jié)果的偶然性,YOLOv5s-Tea采用十折交叉驗(yàn)證法(10-fold cross-validation)用來(lái)測(cè)試算法準(zhǔn)確性,通過(guò)擴(kuò)大訓(xùn)練圖像數(shù)量進(jìn)行大量試驗(yàn)。初始學(xué)習(xí)率為0.001,batch size為48,epoch為300。YOLOv5s-Tea進(jìn)行十折交叉驗(yàn)證后精確率為88.30%,召回率為91.86%,平均精度均值為85.83%,F(xiàn)1-Score為82.09%。相較于進(jìn)行一次試驗(yàn),精確率、召回率、平均精度均值、F1-Score的方差分別為0.001 5、0.002 7、0.001 4、0.001 1,數(shù)據(jù)證實(shí)進(jìn)行十折交叉驗(yàn)證有一定的效果,可以獲得較小誤差的結(jié)果。
2.6 不同模型的對(duì)比試驗(yàn)
為驗(yàn)證本文提出的YOLOv5-Tea網(wǎng)絡(luò)相較于其他目標(biāo)檢測(cè)算法的優(yōu)越性,進(jìn)行試驗(yàn)做出比較,包括YOLOv5m、YOLOv4-tiny[27]和Faster-Rcnn[28]。利用相同的數(shù)據(jù)集進(jìn)行模型訓(xùn)練和測(cè)試,試驗(yàn)相關(guān)參數(shù)保持一致,利用精確率、召回率、平均精度均值、F1-Score、模型大小和檢測(cè)速度對(duì)模型整體性能進(jìn)行評(píng)估,結(jié)果如表2所示。
本文提出的YOLOv5s-Tea與YOLOv5s、YOLOv5m、YOLOv4-tiny和Faster R-CNN模型對(duì)比,平均精度均值分別高6.47%、16.01%、9.96%、11.05%,召回率分別高12.25%、6.4%、8.09%、11.24%,與精確率最高的YOLOv5m相比,YOLOv5s-Tea模型大小僅占其39%。
由試驗(yàn)結(jié)果可以看出YOLOv5s-Tea對(duì)白豪早嫩芽檢測(cè)上體現(xiàn)出一定程度的優(yōu)越性,可以提高檢測(cè)嫩芽的效率,更適應(yīng)用于茶葉采摘機(jī)采摘茶葉嫩芽的需求。
3 結(jié)論
本文以復(fù)雜背景下小目標(biāo)、易遮擋的白豪早茶葉嫩芽的檢測(cè)任務(wù)為目標(biāo),對(duì)目標(biāo)檢測(cè)模型YOLOv5s進(jìn)行改進(jìn),對(duì)YOLOv5s的骨干網(wǎng)絡(luò)增添注意力模塊CBAM和SE進(jìn)行比較。
1) 從精確率、召回率以及mAP比較來(lái)看,添加SE模塊可以取得更好的效果;Neck結(jié)構(gòu)由PaFPN改成BiFPN結(jié)構(gòu)提高網(wǎng)絡(luò)的魯棒性,加強(qiáng)小目標(biāo)的特征提??;在Head結(jié)構(gòu)中增加下采樣較小的淺層特征P2進(jìn)行特征輸出,最終完成改進(jìn)后的YOLOv5s-Tea檢測(cè)模型的搭建,進(jìn)行十折交叉驗(yàn)證并試驗(yàn)分析和評(píng)價(jià)。改進(jìn)后的模型精確率較基線提升10.46%達(dá)到88.30%,mAP較基線提升6.47%達(dá)到85.83%,模型整體取得較好的效果。
2) 本文提出的茶葉嫩芽檢測(cè)模型可以加強(qiáng)模型對(duì)嫩芽遮擋問(wèn)題,重合問(wèn)題的檢測(cè)能力,能夠更準(zhǔn)確地區(qū)分茶葉嫩芽和背景干擾,降低誤檢率,提升模型對(duì)復(fù)雜背景下嫩芽的檢測(cè)效果。但是還存在未區(qū)分實(shí)際場(chǎng)景時(shí)不同拍攝角度和拍攝天氣的局限性,下一步對(duì)模型進(jìn)行繼續(xù)完善,為茶葉智能化采摘提供更精準(zhǔn)的理論依據(jù)。
參 考 文 獻(xiàn)
[1] 羅浩倫, 馮澤霖, 冉鐘南, 等. 基于VGG16網(wǎng)絡(luò)的茶葉嫩芽自動(dòng)檢測(cè)研究[J]. 農(nóng)業(yè)與技術(shù), 2020, 40(1): 15-17.
[2] 孫紅, 李松, 李民贊, 等. 農(nóng)業(yè)信息成像感知與深度學(xué)習(xí)應(yīng)用研究進(jìn)展[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2020, 51(5): 1-17.
Sun Hong, Li Song, Li Minzan, et al. Research progress of image sensing and deep learning in agriculture [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(5): 1-17.
[3] Tao W, Kunming Z, Wu Z, et al. Tea picking point detection and location based on Mask R-CNN [J]. Information Processing in Agriculture, 2023, 10(2): 267-275.
[4] Redmon J, Farhadi A. YOLO9000: Better, faster, stronger [C]. IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2017: 6517-6525.
[5] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection [C]. IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, 2016: 779-788.
[6] Rdje N, Gunnar Ellingsen, Tone Bratteteig, et al. ECSCW 2015: Proceedings of the 14th European Conference on Computer Supported Cooperative Work [C]. Springer, Cham: 2015.
[7] Xu Wenkai, Zhao Longgang, Li Juan, et al. Detection and classification of tea buds based on deep learning [J]. Computers and Electronics in Agriculture, 2022, 192.
[8] 胡根生, 吳繼甜, 鮑文霞, 等. 基于改進(jìn)YOLOv5網(wǎng)絡(luò)的復(fù)雜背景圖像中茶尺蠖檢測(cè)[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2021, 37(21): 191-198.
Hu Gensheng, Wu Jitian, Bao Wenxia, et al. Detection of ectropis oblique in complex background images using improved YOLOv5 [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(21): 191-198.
[9] 方夢(mèng)瑞, 呂軍, 阮建云, 等. 基于改進(jìn)YOLOv4-tiny的茶葉嫩芽檢測(cè)模型[J]. 茶葉科學(xué), 2022, 42(4): 549-560.
Fang Mengrui, Lü Jun, Ruan Jianyun, et al. A tea sprout detection model based on improved YOLOv4 tiny [J]. Tea Science, 2022, 42 (4): 549-560
[10] 許寶陽(yáng), 高延峰. 基于Faster R-CNN深度學(xué)習(xí)的茶葉嫩芽多維度識(shí)別及其性能分析[J]. 農(nóng)業(yè)裝備與車(chē)輛工程, 2023, 61(2): 19-24.
Xu Baoyang, Gao Yanfeng. Multidimensional recognition and performance analysis of tea tender buds based on Faster R-CNN deep learning [J]. Agricultural Equipment and Vehicle Engineering, 2023, 61 (2): 19-24.
[11] 李旭, 李振海, 楊海濱, 等. 基于Faster R-CNN網(wǎng)絡(luò)的茶葉嫩芽檢測(cè)[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2022, 53(5): 217-224.
Li Xu, Li Zhenhai, Yang Haibin, et al. Tea bud detection based on faster R-CNN network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(5): 217-224.
[12] 姜苗苗, 問(wèn)美倩, 周宇, 等. 基于顏色因子與圖像融合的茶葉嫩芽檢測(cè)方法[J]. 農(nóng)業(yè)裝備與車(chē)輛工程, 2020, 58(10): 44-47.
Jiang Miaomiao, Wen Meiqian, Zhou Yu, et al. Tea bud detection method based on color factor and image fusion [J]. Agricultural Equipment amp; Vehicle Engineering, 2020, 58(10): 44-47.
[13] 汪建. 結(jié)合顏色和區(qū)域生長(zhǎng)的茶葉圖像分割算法研究[J]. 茶葉科學(xué), 2011, 31(1): 72-77.
Wang Jian. Segmentation algorithm of tea combined with the color and region growing [J]. Journal of Tea Science, 2011, 31(1): 72-77.
[14] 龍樟, 姜倩, 王健, 等. 茶葉嫩芽視覺(jué)識(shí)別與采摘點(diǎn)定位方法研究[J]. 傳感器與微系統(tǒng), 2022, 41(2): 39-41.
Long Zhang, Jiang Qian, Wang Jian, et al. Research on method of tea flushes vision recognition and picking point localization [J].Transducer and Microsystem Technologies, 2022, 41(2): 39-41.
[15] 周巧黎, 馬麗, 曹麗英, 等. 基于改進(jìn)輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)MobileNetV3的番茄葉片病害識(shí)別[J]. 智慧農(nóng)業(yè)(中英文), 2022, 4(1): 47-56.
Zhou Qiaoli, Ma Li, Cao Liying, et al. Identification of tomato leaf diseases based on improved lightweight convolutional neural networks MobileNetV3 [J]. Smart Agriculture, 2022, 4(1): 47-56.
[16] 張志遠(yuǎn), 羅銘毅, 郭樹(shù)欣, 等. 基于改進(jìn)YOLO v5的自然環(huán)境下櫻桃果實(shí)識(shí)別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2022, 53(S1): 232-240.
Zhang Zhiyuan, Luo Mingyi, Guo Shuxin, et al. Cherry fruit detection method in natural scene based on improved YOLO v5 [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(S1): 232-240.
[17] Liu S, Qi L, Qin H, et al. Path aggregation network for instance segmentation [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 8759-8768.
[18] Neubeck A, Van Gool L. Efficient non-maximum suppression [C]. 18th International Conference on Pattern Recognition (ICPR’06). Hong Kong: IEEE, 2006, 3: 850-855.
[19] 劉剛, 馮彥坤, 康熙. 基于改進(jìn)YOLO v4的生豬耳根溫度熱紅外視頻檢測(cè)方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2023, 54(2): 240-248.
Liu Gang, Feng Yankun, Kang Xi. Detection method of pig ear root temperature based on improved YOLOv4 [J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(2): 240-248.
[20] Syazwany N S, Nam J H, Lee S C. MM-BiFPN: Multi-modality fusion network with Bi-FPN for MRI brain tumor segmentation [J]. IEEE Access, 2021: 160708-160720.
[21] 王卓, 王健, 王梟雄, 等. 基于改進(jìn)YOLO v4的自然環(huán)境蘋(píng)果輕量級(jí)檢測(cè)方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2022, 53(8): 294-302.
Wang Zhuo, Wang Jian, Wang Xiaoxiong, et al. Lightweight real-time apple detection method based on improved YOLOv4 [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(8): 294-302.
[22] Wang J, Luan Z, et al. Superpixel segmentation with squeeze-and-excitation networks [J]. Signal, Image and Video Processing, 2022, 16(5): 1-8.
[23] Woo S, Park J, Lee J Y, et al. CBAM: Convolutional block attention module [C]. Proceedings of the European Conference on Computer Vision (ECCV). 2018: 3-19.
[24] Algorithms. Recent findings from Shanghai Jiao tong University has provided new information about algorithms (Detecting tomatoes in greenhouse scenes by combining AdaBoost classifier and colour analysis) [J]. Journal of Engineering, 2016: 795.
[25] 夏燁, 雷嘵暉, 祁雁楠, 等. 基于改進(jìn)Ghost-YOLOv5s-BiFPN算法檢測(cè)梨樹(shù)花序 [J]. 智慧農(nóng)業(yè)(中英文), 2022, 4(3): 108-119.
Xia Ye, Lei Xiaohui, Qi Yannan, et al. Detection of pear inflorescence based on improved Ghost-YOLOv5s-BiFPN algorithm [J]. Smart Agriculture, 2022, 4(3): 108-119.
[26] Guo C, Fan B, Zhang Q, et al. Improving multi-scale feature learning for object detection [J]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2020.
[27] Jiang Z, Zhao L, Li S, et al. Real-time object detection method based on improved YOLOv4-tiny [J]. arXiv Preprint, 2020, arXiv: 2011.04244.
[28] Shaoqing R, Kaiming H, Ross G, et al. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.
中國(guó)農(nóng)機(jī)化學(xué)報(bào)2024年4期