• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于YOLOv8n的輕量級巴旦木果實(shí)識別方法

      2024-12-31 00:00:00方國何超王鑫澤
      關(guān)鍵詞:巴旦木浮點(diǎn)損失

      收稿日期:2023-12-04

      基金項(xiàng)目:云南省高層次人才項(xiàng)目(YNWR-QNBJ-2018-066、YNQR-CYRC-2019-001)

      作者簡介:方國文(2001-),女,安徽合肥人,碩士研究生,主要研究方向?yàn)閳D像識別。(E-mail)fgw09182023@163.com

      通訊作者:何 超,(Tel)15887130986;(E-mail)hcsmile@163.com

      摘要: 在果園環(huán)境下,快速精準(zhǔn)識別巴旦木果實(shí)對提升巴旦木采摘機(jī)器人的作業(yè)精度和效率至關(guān)重要。為減少果園場景中因樹葉遮擋或果實(shí)重疊導(dǎo)致的巴旦木果實(shí)漏檢現(xiàn)象,降低計(jì)算量和參數(shù)量,提高果實(shí)識別模型的性能和準(zhǔn)確度,本研究在YOLOv8n模型的基礎(chǔ)上,利用ContextGuide模塊替換原模型中主干網(wǎng)絡(luò)(Backbone)部分基本構(gòu)成單元C2f中的Bottleneck模塊,利用BiFPN模塊替代原模型中頸部網(wǎng)絡(luò)(Neck)部分中的PANet模塊,同時(shí)引入MPDIoU損失函數(shù)替換原模型中的CIoU損失函數(shù),提出了一種改進(jìn)的輕量級巴旦木果實(shí)檢測模型(YOLOv8n-BCG)。并利用公開的巴旦木影像數(shù)據(jù)集對優(yōu)化后的模型性能進(jìn)行比較分析。結(jié)果表明,改進(jìn)后模型參數(shù)量僅為1.528 M,平均精度值(mAP0.50∶0.95)為69.7%,相比于原YOLOv8n模型提升0.5個(gè)百分點(diǎn)。與YOLOv5s、YOLOv5n、YOLOv7-tiny、Faster R-CNN等模型相比,YOLOv8n-BCG模型具有更低的浮點(diǎn)計(jì)算量和更高的檢測精度值。本研究結(jié)果可為高效的巴旦木果實(shí)采摘機(jī)器人自動化作業(yè)提供技術(shù)支持。

      關(guān)鍵詞: 巴旦木;果實(shí)識別;BiFPN;ContextGuide;MPDIoU損失函數(shù);YOLOv8n

      中圖分類號: TP391.4"" 文獻(xiàn)標(biāo)識碼: A"" 文章編號: 000-4440(2024)09-1662-09

      Lightweight almond fruit recognition method based on YOLOv8n

      FANG Guowen, HE Chao, WANG Xinze

      (College of Mechanical and Transportation Engineering, Southwest Forestry University, Kunming 650000, China)

      Abstract: In the orchard environment, rapid and accurate identification of almond fruits is very important to improve the operation accuracy and efficiency of almond picking robots. In order to reduce the missed detection of almond fruits caused by leaf occlusion or fruit overlap in the orchard scene, reduce the amount of calculation and parameters, and improve the performance and accuracy of the fruit recognition model, based on the YOLOv8n model, this study used the ContextGuide module to replace the Bottleneck module in the basic component unit C2f of the Backbone part of the original model, used the BiFPN module to replace the PANet module in the Neck part of the original model, and introduced the MPDIoU loss function to replace the CIoU loss function in the original model. An improved lightweight almond fruit detection model (YOLOv8n-BCG) was proposed. The performance of the optimized model was compared and analyzed by using the public almond image data set. The results showed that the number of parameters of the improved model was only .528 M, and the mean average precision (mAP0.50∶0.95) was 69.7%, which was 0.5 percentage points higher than that of the original YOLOv8n model. Compared with YOLOv5s, YOLOv5n, YOLOv7-tiny and Faster R-CNN models, YOLOv8n-BCG model had lower floating-point calculation and higher detection accuracy. The results of this study can provide technical support for efficient automatic operation of almond picking robots.

      Key words: almond;fruit recognition;BiFPN;ContextGuide;MPDIoU loss function;YOLOv8n

      巴旦木,又名扁桃,是薔薇科桃亞屬植物。巴旦木果仁富含植物油、蛋白質(zhì)、淀粉、糖,并含有少量維生素A、維生素B1、維生素B2和消化酶、杏仁素酶以及鈣、鎂、鈉、鉀、鐵、鈷等營養(yǎng)元素,具有降低膽固醇、有益心臟和腸道、控制體重和血糖水平等功效,越來越受消費(fèi)者喜愛[1]。目前巴旦木果實(shí)的采摘仍然依賴傳統(tǒng)的人工方式,這種方式成本高、效率低,無法滿足巴旦木產(chǎn)業(yè)的發(fā)展需求。因此,研發(fā)巴旦木果實(shí)自動化采摘機(jī)器人已經(jīng)成為不可避免的趨勢[2]。果園環(huán)境條件下巴旦木果實(shí)的快速準(zhǔn)確識別,對巴旦木果實(shí)的自動化智能采摘尤為重要[3]。

      傳統(tǒng)的計(jì)算機(jī)目標(biāo)識別主要依靠形狀、紋理和色澤等特征對圖像進(jìn)行分割與目標(biāo)識別。陳禮鵬等[4]采用圖像RGB分量[5],實(shí)現(xiàn)獼猴桃果實(shí)的識別。賈偉寬等[6]利用3種降噪方法進(jìn)行蘋果果實(shí)的夜間識別。李斌等[7]基于RGB[8]和HSL[9]顏色模型提取枇杷果實(shí)的形態(tài)特征,從而進(jìn)行枇杷果實(shí)碰傷等級的檢測。李昕等[10]采用Hough變換算法[11]實(shí)現(xiàn)有遮擋的油茶果實(shí)識別。近年來,隨著卷積神經(jīng)網(wǎng)絡(luò)等深度學(xué)習(xí)方法[12-17]的提出,基于數(shù)據(jù)驅(qū)動的目標(biāo)檢測模型在作物果實(shí)識別及分級[18]、病蟲害檢測[19]以及產(chǎn)量預(yù)估[20]等研究中得到初步應(yīng)用[21]。在深度學(xué)習(xí)的方法中,李恒等[22]基于GhostNet模型[23]提取主干特征信息,并采用復(fù)雜雙向多尺度融合算法[24]對提取的主干特征信息進(jìn)行融合,實(shí)現(xiàn)了綠色類圓果實(shí)的識別,模型占用內(nèi)存11.8 M,且每幅照片檢測所需時(shí)間僅37 ms,識別精度達(dá)96.8%。儲鑫等[25]利用 MobileNetv1網(wǎng)絡(luò)[26]代替YOLOv4模型[27]中原有的主干網(wǎng)絡(luò)CSPDarknet53[28]進(jìn)行特征提取,并在特征融合網(wǎng)絡(luò)PANet中引入深度可分離卷積[29]代替原有的3×3標(biāo)準(zhǔn)卷積,同時(shí)在主干網(wǎng)絡(luò)中嵌入卷積塊注意力模塊(CBAM),進(jìn)而進(jìn)行番茄葉部病害識別,結(jié)果發(fā)現(xiàn)改進(jìn)后的模型比原模型參數(shù)減少80%,檢測時(shí)間減少59.1%,識別精度提升0.6個(gè)百分點(diǎn)。代云等[30]設(shè)計(jì)Mob-darknet-52特征提取網(wǎng)絡(luò)代替YOLOv3模型中的Darknet-52模塊,并結(jié)合多尺度檢測模型,對YOLOv3模型進(jìn)行了改進(jìn),并利用改進(jìn)后的模型進(jìn)行密集環(huán)境下檳榔果實(shí)的快速識別,識別精度和效率均比原模型有所提升。

      上述研究結(jié)果表明,深度學(xué)習(xí)技術(shù)是果園中果實(shí)精準(zhǔn)識別較好的方法。但在果園小目標(biāo)果實(shí)檢測中,上述模型常受到終端檢測設(shè)備計(jì)算能力的限制,如何對計(jì)算量龐大的目標(biāo)檢測模型進(jìn)行輕量化處理,是目前果園中果實(shí)小目標(biāo)檢測的一個(gè)熱點(diǎn)問題。本研究擬在YOLOv8n[31]模型的基礎(chǔ)上,利用BiFPN[32]模塊代替通用的PANet模塊, ContextGuide[33]代替C2f中的Bottleneck模塊,構(gòu)建輕量化模型YOLOv8n-BCG,為巴旦木果實(shí)的自動化采摘提供依據(jù)和支撐。

      1 材料與方法

      1.1 數(shù)據(jù)集的獲取

      本研究選擇公開的巴旦木影像數(shù)據(jù)集ACFR-Orchard-Fruit-Dataset為材料進(jìn)行巴旦木果實(shí)的識別和模型比較。該數(shù)據(jù)集來自澳大利亞悉尼大學(xué)和澳大利亞野外機(jī)器人技術(shù)中心,共包含620張巴旦木結(jié)果期果樹圖片,圖像分辨率為300像素×300像素,每張圖片中平均約有24顆巴旦木果實(shí)。為避免模型訓(xùn)練過程中出現(xiàn)過擬合現(xiàn)象,提高數(shù)據(jù)樣本的多樣性,采用旋轉(zhuǎn)、裁剪、調(diào)節(jié)圖像亮度、加入噪聲以及上述4種增強(qiáng)方式兩兩結(jié)合,旋轉(zhuǎn)與裁剪結(jié)合、旋轉(zhuǎn)與調(diào)節(jié)圖像亮度結(jié)合、旋轉(zhuǎn)與加入噪聲結(jié)合、裁剪與調(diào)節(jié)圖像亮度結(jié)合、裁剪與加入噪聲結(jié)合、調(diào)節(jié)圖像亮度與加入噪聲相結(jié)合以及4種方法相結(jié)合的方法來進(jìn)行原始數(shù)據(jù)集的增強(qiáng),增強(qiáng)后共得到巴旦木果樹圖像7 440張。由于部分原始圖像本身較模糊,數(shù)據(jù)增強(qiáng)后除去模糊不清以及過度曝光的233張圖像,得到7 207張圖像作為數(shù)據(jù)集。對數(shù)據(jù)集圖像中的巴旦木果實(shí)位置進(jìn)行標(biāo)注,并按照8∶1∶1的比例將數(shù)據(jù)集隨機(jī)劃分為訓(xùn)練集、驗(yàn)證集和測試集進(jìn)行試驗(yàn)。增強(qiáng)后的部分圖像如圖1所示。

      1.2 YOLOv8n模型及改進(jìn)

      YOLOv8系列模型[31]是Ultralytics公司于2023年發(fā)布的圖像分割、目標(biāo)檢測模型,其精度和速度較以前版本均有顯著提升。該模型主要包括特征提取的主干網(wǎng)絡(luò)(Backbone)、特征融合的頸部網(wǎng)絡(luò)(Neck)以及檢測頭(Head)等。YOLOv8系列模型采用C2f模塊替換YOLOv5模型中的C3模塊,使得模型在保證輕量化的同時(shí)獲得更加豐富的梯度流信息,并重新融入無錨框思想,即通過多個(gè)關(guān)鍵點(diǎn)或者中心點(diǎn)與邊界的信息來表示物體,使得模型非常適合密集目標(biāo)的檢測。YOLOv8模型的識別損失主要包括類別分類損失和邊界框回歸損失,其中類別分類損失(Cls.Loss)采用交叉熵?fù)p失表征,而邊界框回歸損失(Bbox.Loss)則采用交并比(CIOU)表征,同時(shí)還引入了DFL損失來處理數(shù)據(jù)不平衡的問題??傮w的損失函數(shù)(L)如式(1)所示:

      L=LossCIOU+LossDFL+LossCLS(1)

      YOLOv8n是YOLOv8系列模型中的一個(gè)輕量化版本,其推理速度最快,占用內(nèi)存最小,其結(jié)構(gòu)如圖2所示。

      原始YOLOv8n模型計(jì)算量龐大,結(jié)構(gòu)復(fù)雜,導(dǎo)致其在目標(biāo)識別時(shí)對終端設(shè)備的計(jì)算能力有較高的要求。本研究在YOLOv8n原始模型的基礎(chǔ)上,通過模塊優(yōu)化提出了一種輕量化的目標(biāo)識別檢測模型——YOLOv8n-BCG。模型的優(yōu)化主要體現(xiàn)在3個(gè)方面。一是在主干網(wǎng)絡(luò)(Backbone)部分基本構(gòu)成單元C2f中利用ContextGuide模塊替代Bottleneck模塊,二是在頸部網(wǎng)絡(luò)(Neck)中利用BiFPN模塊替代原來的PANet模塊,三是利用MPDIoU損失函數(shù)替代原來的邊界框損失函數(shù)CIoU。

      1.2.1 加權(quán)雙向特征金字塔網(wǎng)絡(luò)(BiFPN) 原始YOLOv8n模型中Neck網(wǎng)絡(luò)是利用PANet模塊進(jìn)行不同特征層的數(shù)據(jù)融合(圖3a)。該模塊通過不同特征層的簡單相加實(shí)現(xiàn)數(shù)據(jù)融合,該方案在識別大小均勻的目標(biāo)時(shí)是可靠的。但本研究中識別的巴旦木果實(shí)大小不一,特征層的簡單相加會導(dǎo)致融合后輸出特征數(shù)據(jù)不精確。為解決這一問題,本研究借鑒Tan等[32]提出的BiFPN模塊代替PANet模塊進(jìn)行數(shù)據(jù)融合。BiFPN模塊能為不同特征層分配不同權(quán)重,從而提高模型的目標(biāo)識別性能。BiFPN移除1個(gè)未進(jìn)行特征融合的中間節(jié)點(diǎn),同時(shí)為了加強(qiáng)特征融合,在同層輸入節(jié)點(diǎn)與輸出節(jié)點(diǎn)間增加特征分支(圖3b)。本研究為實(shí)現(xiàn)輕量化計(jì)算,對原始的BiFPN模塊在保留雙向跨尺度連接的基礎(chǔ)上,去掉多余支路,僅使用P3、P4、P5通道進(jìn)行輸出,這樣能在不影響特征融合的情況下進(jìn)一步精簡網(wǎng)絡(luò)結(jié)構(gòu),使模型更加輕量化(圖3c)。

      特征融合過程中,不同特征層分辨率不同,因而其對輸出特征的貢獻(xiàn)亦不相同。本研究利用的巴旦木影像數(shù)據(jù)集大多包含較多的識別目標(biāo),BiFPN模塊可快速融合不同特征層的數(shù)據(jù)信息,挖掘果實(shí)深層信息,減少環(huán)境復(fù)雜而造成漏檢、誤檢。BiFPN的帶權(quán)特征融合公式為:

      O=∑iwiε+W×Ii(2)

      式中,O:輸出信息,Ii:第i層輸入信息,ε:用于約束數(shù)值振蕩的極小值學(xué)習(xí)率,取值為0.000 ,wi為第i特征層權(quán)重,W為所有特征層總權(quán)重。

      以圖4中的P4特征融合為例,具體計(jì)算為:

      P td4=Convw1*P in4+w2*Resize(P in5)w1+w2+ε(3)

      P out4=Convw′1*P in4+w′2*P td4+w′3*Resize(P out3)w′1+w′2+w′3+ε(4)

      式(3)、(4)中,P td4為自上而下(top-down)路徑中P4的中間特征,P out4為自下而上(bottle-up)路徑中P4的輸出特征,P in4為bottle-up路徑中的輸入特征,Conv為對應(yīng)的卷積操作,Resize為上采樣或下采樣操作,w1、w2、w3分別為第1層、第2層和第3層權(quán)重,w′1、w′2、w′3分別為特征融合后的第1層、第2層和第3層權(quán)重 ,ε為極小非零常數(shù),取值為0.000 。

      1.2.2 ContextGuide(CG)模塊 ContextGuided Network(CGNet)是Wu等[33]提出的語義分割輕量級模型。CGNet模型包含51層, 3個(gè)階段,每個(gè)階段的通道數(shù)分別為32、64、128。假設(shè)輸入圖像大小為680×680×3,對圖像分別進(jìn)行1/2、1/4、1/8的下采樣,輸出圖像大小為85×85,這樣能較好地保留邊緣信息。每個(gè)階段的第1層輸入是來自上1個(gè)階段的第1層和最后1層的輸出組合,有利于特征重用和傳播。CGNet主要是由CG模塊構(gòu)建而成,其可以較好地獲取上下層圖像的紋理特征,并通過逐通道重新加權(quán),引入全局上下層圖像的特征進(jìn)一步改善聯(lián)合特征。CG模塊中的floc提取器用于提取局部特征,fsur提取器用于提取周圍上下層圖像的特征,fjoi提取器用于提取聯(lián)合特征,fglo提取器用于提取全局上下層圖像的特征(圖4)。CG模塊還采用兩種殘差連接,一是連接CG模塊輸入和fjoi輸出,稱為局部殘差學(xué)習(xí)(LRL),二是連接CG模塊輸入和fglo輸出,稱為全局殘差學(xué)習(xí)(GRL)。相比較而言,GRL能促進(jìn)網(wǎng)絡(luò)中的信息傳遞,有助于模型學(xué)習(xí)復(fù)雜的特征并改善訓(xùn)練期間的梯度反向傳播,具有更好的效果。

      YOLOv8n 主干網(wǎng)絡(luò)(Backbone)部分基本構(gòu)成單元C2f雖可以保證目標(biāo)識別的準(zhǔn)確性和對圖像細(xì)節(jié)的感知能力,但其浮點(diǎn)計(jì)算量和參數(shù)量均較高。所以本研究中將C2f中的Bottleneck模塊替換為CG模塊,通過在網(wǎng)絡(luò)的不同階段利用局部和全局上下文信息來提高識別準(zhǔn)確率,同時(shí)保持模型的輕量級特性,確保邊緣信息不丟失,提高模型對特征信息的獲取能力,增加模型的魯棒性。改進(jìn)后的C2f如圖5所示。

      1.2.3 MPDIoU損失函數(shù) 利用YOLOv8n進(jìn)行巴旦木果實(shí)目標(biāo)檢測時(shí),目標(biāo)邊界框的位置對目標(biāo)框?qū)挾扔?jì)算具有重要的作用。YOLOv8n中默認(rèn)的損失函數(shù)為CIoU。CIoU函數(shù)能綜合考慮預(yù)測框與真實(shí)框重疊面積、中心點(diǎn)距離及寬高比3個(gè)因素,有利于模型充分學(xué)習(xí)目標(biāo)框的特性,但在預(yù)測邊界框與真實(shí)邊界框?qū)捀弑纫恢?、寬度與高度值不一致時(shí),CIoU函數(shù)的有效性受到影響。為此,本研究中采用具有更高邊界框回歸效率和精度的MPDIoU函數(shù)為改進(jìn)模型的損失函數(shù)。MPDIoU函數(shù)通過最小化預(yù)測邊界框與真實(shí)框之間左上和右下點(diǎn)距離,使模型能更好地實(shí)現(xiàn)訓(xùn)練、目標(biāo)檢測和圖像分割。MPDIoU損失函數(shù)計(jì)算公式如下:

      LossMPDIoU=1-IoU+d 21w 2+h 2+d 22w 2+h 2(5)

      d 21=(x prd1-x gt1) 2+(y prd1+y gt1) 2(6)

      d 22=(x prd2-x gt2) 2+(y prd2+y gt2) 2(7)

      式中,LossMPDIoU為MPDIoU損失函數(shù),IoU為預(yù)測框和真實(shí)框的交并比,w、h為輸入圖像的寬和高,d1為預(yù)測框的左上點(diǎn)與真實(shí)框左上點(diǎn)的直線距離,d2為預(yù)測框的右下點(diǎn)與真實(shí)框右下點(diǎn)的直線距離,x prd1、y prd1為預(yù)測框左上點(diǎn)的坐標(biāo);x prd2、y prd2為預(yù)測框右下點(diǎn)的坐標(biāo);x gt1、y gt1為真實(shí)框左上點(diǎn)的坐標(biāo);x gt2、y gt2為真實(shí)框右下點(diǎn)的坐標(biāo)。

      MPDIoU函數(shù)不但能充分體現(xiàn)預(yù)測框和真實(shí)框的重疊程度、中心點(diǎn)距離、寬度和高度偏差等因素,簡化了計(jì)算過程,還能提高預(yù)測框的回歸精度和收斂速度,減少預(yù)測框的冗余性。

      1.3 模型系統(tǒng)開發(fā)環(huán)境及訓(xùn)練參數(shù)

      本研究中改進(jìn)YOLOv8n模型在Windows10操作系統(tǒng)下開發(fā),所用語言為Python3.8,CPU型號為Intel Core i9-13900kf,運(yùn)行內(nèi)存為64 GB,GPU型號為NVIDIA RTX 4090,顯存為24 GB,并使用統(tǒng)一計(jì)算設(shè)備架構(gòu)(CUDA)和CUDA深度神經(jīng)網(wǎng)絡(luò)庫(CUDNN)對圖形處理器(GPU)進(jìn)行加速?;谏疃葘W(xué)習(xí)框架Pytorch .12.1進(jìn)行模型訓(xùn)練,具體參數(shù)設(shè)置如下:學(xué)習(xí)率0.01,動量0.937,權(quán)重衰減率為0.000 5,批量大小32,迭代次數(shù)600,圖片尺寸為300像素×300像素。

      1.4 模型改進(jìn)措施的消融試驗(yàn)

      為驗(yàn)證各個(gè)改進(jìn)模塊對于巴旦木果實(shí)識別效果的影響,本研究在原始YOLOv8n模型的基礎(chǔ)上設(shè)計(jì)5組改進(jìn)措施的消融試驗(yàn)。方案1是采用BiFPN替換Neck中的PANet模塊;方案2是將基本構(gòu)成單元C2f中Bottleneck模塊替換為ContextGuide模塊;方案3是采用MPDIoU損失函數(shù)替代CIoU函數(shù)實(shí)現(xiàn)邊界框回歸;方案4是采用BiFPN、ContextGuide模塊分別替換PANet模塊和Bottleneck模塊;方案5在采用BiFPN、ContextGuide模塊分別替換PANet模塊和Bottleneck模塊的同時(shí),采用MPDIoU損失函數(shù)實(shí)現(xiàn)邊界框回歸。

      1.5 不同模型檢測精度比較及識別案例分析

      為了進(jìn)一步說明本研究提出的YOLOv8n改進(jìn)模型的性能,利用其與當(dāng)前主流卷積神經(jīng)網(wǎng)絡(luò)模型(YOLOv8n、YOLOv5n、YOLOv5s、YOLOv7、Faster R-CNN)進(jìn)行巴旦木果實(shí)識別和模型性能的比較。為直觀說明不同模型的識別準(zhǔn)確率,本研究對不同光線環(huán)境背景和不同遮擋情況的2個(gè)場景巴旦木果實(shí)的識別情況進(jìn)行個(gè)例分析。

      1.6 評價(jià)指標(biāo)

      由于本研究中只有巴旦木果實(shí)1個(gè)識別目標(biāo),因此本研究的識別屬于二分類問題,故選擇平均精度值[34](交并比閾值0.50的mAP0.50和交并比閾值0.50至0.95的mAP0.50∶0.95)、模型參數(shù)量、浮點(diǎn)計(jì)算量(GFLOPs)4個(gè)指標(biāo)來評價(jià)模型精度和計(jì)算效率。

      2 結(jié)果與分析

      2.1 消融試驗(yàn)結(jié)果

      消融試驗(yàn)結(jié)果如表1所示。從表中可以看出,采用原始YOLOv8n模型分類的平均精度值mAP0.50和mAP0.50∶0.95分別為0.984和0.692,參數(shù)量和浮點(diǎn)計(jì)算量分別為3.011M和1 s 8.2×10 9次。與原始YOLOv8n模型相比,采用BiFPN替換Neck中的PANet模塊后(方案1),由于受到骨干網(wǎng)絡(luò)池化操作和卷積影響,參數(shù)量和浮點(diǎn)計(jì)算量分別減少33.7%和12.2%,導(dǎo)致模型的mAP0.50和mAP0.50∶0.95亦有所下降,分別下降了0.3和2.0個(gè)百分點(diǎn)。將C2f中Bottleneck模塊替換為ContextGuide模塊后(方案2),在模型參數(shù)和浮點(diǎn)計(jì)算量減少的同時(shí),模型識別精度均有所提升,mAP0.50和mAP0.50∶0.95分別增加0.2個(gè)百分點(diǎn)和2.6個(gè)百分點(diǎn)。采用MPDIoU損失函數(shù)實(shí)現(xiàn)邊界框回歸的方案3,參數(shù)量和浮點(diǎn)計(jì)算量略有減少,平均精度值mAP0.50下降0.1個(gè)百分點(diǎn),平均精度值mAP0.50∶0.95提高0.5個(gè)百分點(diǎn)。同時(shí)采用BiFPN與ContextGuide模塊分別替換PANet模塊和Bottleneck模塊的方案4,參數(shù)量和浮點(diǎn)計(jì)算量分別下降49.1%和28.0%,mAP0.50和mAP0.50∶0.95均下降1.0個(gè)百分點(diǎn)。在方案4的基礎(chǔ)上,進(jìn)一步利用MPDIoU損失函數(shù)實(shí)現(xiàn)邊界框回歸后的方案5,參數(shù)量和浮點(diǎn)計(jì)算量分別下降49.3%和29.3%,平均精度值mAP0.50下降0.3個(gè)百分點(diǎn),而平均精度值mAP0.50∶0.95增加0.5個(gè)百分點(diǎn),即方案5在平均精度變化不大的同時(shí),參數(shù)量和浮點(diǎn)計(jì)算量得到大幅下降,達(dá)到了模型輕量化的要求。

      2.2 不同模型對巴旦木果實(shí)的識別性能

      不同模型對巴旦木樣本集的識別性能如表2所示。從表中可以看出,與本研究提出的YOLOv8n改進(jìn)模型相比,F(xiàn)aster R-CNN模型和YOLOv7-tiny模型參數(shù)量多、浮點(diǎn)計(jì)算量高,且模型精度低;YOLOv5s模型有更高的精度,但參數(shù)量和浮點(diǎn)計(jì)算量高,這將導(dǎo)致模型的識別效率低,難以滿足生產(chǎn)需求;YOLOv5n模型的參數(shù)量和浮點(diǎn)計(jì)算量分別增加63.8%和22.4%,且mAP0.50和mAP0.50∶0.95分別下降2.5個(gè)百分點(diǎn)和11.6個(gè)百分點(diǎn);原始YOLOv8n模型雖然精度相差不大,但參數(shù)量和浮點(diǎn)計(jì)算量高,即識別效率低。因此,本研究提出的YOLOv8n改進(jìn)模型既有較高的識別精度,又有更高的識別效率,更適合在嵌入式設(shè)備中應(yīng)用。

      2.3 不同模型的識別案例分析

      不同模型對不同光線背景(迎光和背光)、不同遮擋情況(樹葉遮擋和果實(shí)重疊)下的巴旦木果實(shí)的識別情況如圖6所示。從圖中可以看出, YOLOv7-tiny的識別效果最差,漏檢數(shù)量不論在哪種情況下都最高。Faster R-CNN在迎光樹葉遮擋的情況下,果實(shí)識別率達(dá)到最佳,但其他情況下均有較嚴(yán)重的漏檢。YOLOv5n能夠較好識別巴旦木果實(shí),但在光線不好的情況下易出現(xiàn)錯(cuò)檢、漏檢,且重疊果實(shí)的識別性能較差。YOLOv5s能夠較好地識別果實(shí),且背光條件下識別準(zhǔn)確率高于YOLOv5n,但仍存在錯(cuò)檢和漏檢情況。YOLOv8n在迎光樹葉遮擋的情況下未出現(xiàn)漏檢、錯(cuò)檢現(xiàn)象,但光線較差時(shí),對重疊果實(shí)的識別準(zhǔn)確率較低,漏檢數(shù)量多,在果實(shí)重疊時(shí)存在誤檢現(xiàn)象。本研究建立的YOLOv8n改進(jìn)模型對于枝葉遮擋、果實(shí)重疊、光線不佳的不良情況擁有很高的識別能力,無漏檢、錯(cuò)檢的果實(shí),在實(shí)際的果園環(huán)境下?lián)碛懈鼉?yōu)異的檢測效果。

      綜上所述,經(jīng)過算法優(yōu)化后得到的YOLOv8n-BCG模型在巴旦木實(shí)例檢測中能夠達(dá)到更好的檢測效果,在保證識別準(zhǔn)確度的前提下,能有效地防止誤檢和漏檢情況發(fā)生。

      3 結(jié)論

      (1)本研究在YOLOv8n模型的基礎(chǔ)上,利用BiFPN模塊代替Neck中的PANet模塊、ContextGuide模塊代替骨干部分C2f結(jié)構(gòu)單元中的Bottleneck模塊、MPDIoU損失函數(shù)代替CIoU損失函數(shù),構(gòu)建了YOLOv8n改進(jìn)模型——YOLOv8n-BCG模型。結(jié)合公開的巴旦木影像數(shù)據(jù)集ACFR-Orchard-Fruit-Dataset對模型進(jìn)行了比較,發(fā)現(xiàn)改進(jìn)后的模型能有效解決識別目標(biāo)的重疊問題,突出重要層次的信息,減少冗余信息、模型參數(shù)及浮點(diǎn)計(jì)算量,提高訓(xùn)練速度和識別精度,能較好地實(shí)現(xiàn)果園環(huán)境下的巴旦木果實(shí)輕量化識別。

      (2)消融試驗(yàn)結(jié)果表明不同的改進(jìn)模塊對模型的參數(shù)量、浮點(diǎn)計(jì)算量和精度有不同的影響,綜合使用3個(gè)模塊代替方案后模型參數(shù)和浮點(diǎn)計(jì)算量比原模型分別下降49.3%和29.3%,平均精度值(mAP0.50∶0.95)提高0.5個(gè)百分點(diǎn),效果最好。不同模型比較結(jié)果亦顯示改進(jìn)后的YOLOv8n-BCG模型不同光線背景、不同遮擋情況下漏檢率、誤檢率最低。上述結(jié)果說明本研究構(gòu)建的YOLOv8n-BCG模型非常適合于巴旦木果實(shí)智能采摘裝備的研發(fā)。

      參考文獻(xiàn):

      [1] 石 鑫,楊豫新,牛長河,等. 滾筒刷式巴旦木脫青皮機(jī)的設(shè)計(jì)與試驗(yàn)[J]. 西北農(nóng)林科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,51(12):143-154.

      [2] 金壽祥,周宏平,姜洪喆,等. 采摘機(jī)器人視覺系統(tǒng)研究進(jìn)展[J]. 江蘇農(nóng)業(yè)學(xué)報(bào),2023,39(2):582-595.

      [3] 劉 冬. 數(shù)字化與智能化在農(nóng)業(yè)機(jī)械工程設(shè)計(jì)中的應(yīng)用[J]. 中國農(nóng)業(yè)資源與區(qū)劃,2023,44(7):48,65.

      [4] 陳禮鵬,穆龍濤,劉浩洲,等. 基于獼猴桃果萼圖像的多目標(biāo)果實(shí)識別方法[J]. 計(jì)算機(jī)工程與設(shè)計(jì),2018,39(6):1738-1744.

      [5] ABDULLAH M S, HASAN R M A, RAHMAN A N, et al. Versatile recognition of graphene layers from optical images under controlled illumination through green channel correlation method[J]. Nanotechnology,2023,34(44):1899-1904.

      [6] 賈偉寬,趙德安,阮承治,等. 蘋果采摘機(jī)器人夜間圖像降噪算法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2015,31(10):219-226.

      [7] 李 斌,韓昭洋,王 秋,等. 基于高光譜成像技術(shù)的枇杷碰傷等級檢測研究[J]. 光譜學(xué)與光譜分析,2023,43(6):1792-1799.

      [8] MAR A, HILMY B, SERGIO V, et al. Object detection and tracking on UAV RGB videos for early extraction of grape phenotypic traits[J]. Computers and Electronics in Agriculture,2023,211(20):347-353.

      [9] CHEN B, SHI S, CHEN B, et al. True color 3D imaging optimization with missing spectral bands based on hyperspectral LiDAR[J]. Optics Express,2021,29(13):20406-20422.

      [10]李 昕,李立君,高自成,等. 改進(jìn)類圓隨機(jī)Hough變換及其在油茶果實(shí)遮擋識別中的應(yīng)用[J]. 農(nóng)業(yè)工程學(xué)報(bào),2013,29(1):164-170.

      [11]張彥斐,劉茗洋,宮金良,等. 基于兩級分割與區(qū)域標(biāo)記梯度Hough圓變換的蘋果識別[J]. 農(nóng)業(yè)工程學(xué)報(bào),2022,38(19):110-121.

      [12]劉安旭,黎向鋒,劉晉川,等. 改進(jìn)卷積空間傳播網(wǎng)絡(luò)的單目圖像深度估計(jì)[J]. 電子測量技術(shù),2021,44(23):78-85.

      [13]呂 偉,宋 軒,楊 歡. 基于深度學(xué)習(xí)和多源遙感數(shù)據(jù)的玉米種植面積提取[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(23):171-178.

      [14]鮑 彤,羅 瑞,郭 婷,等. 基于BERT字向量和TextCNN的農(nóng)業(yè)問句分類模型分析[J]. 南方農(nóng)業(yè)學(xué)報(bào),2022,53(7):2068-2076.

      [15]翟先一,魏鴻磊,韓美奇,等. 基于改進(jìn)YOLO卷積神經(jīng)網(wǎng)絡(luò)的水下海參檢測[J]. 江蘇農(nóng)業(yè)學(xué)報(bào),2023,39(7):1543-1553.

      [16]向 俊,嚴(yán)恩萍,姜鎵偉,等. 基于全卷積神經(jīng)網(wǎng)絡(luò)和低分辨率標(biāo)簽的森林變化檢測研究[J]. 南京林業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2024,48(1):187-195.

      [17]阮子行,黃 勇,王 夢,等. 基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的番茄品質(zhì)分級方法[J]. 江蘇農(nóng)業(yè)學(xué)報(bào),2023,39(4):1005-1014.

      [18]DEBANIRANJAN M, NIVA D, KUMAR K M. Deep neural network based fruit identification and grading system for precision agriculture[J]. Proceedings of the Indian National Science Academy,2022,88(2):228-239.

      [19]TANG Z, LIU J J, CHEN Z Y, et al. Improved Pest-YOLO:real-time pest detection based on efficient channel attention mechanism and transformer encoder[J]. Ecological Informatics,2023,78(14):891-898.

      [20]郭明月,劉雅晨,李偉夫,等. 基于視頻跟蹤算法的果園獼猴桃產(chǎn)量實(shí)時(shí)預(yù)估[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2023,54(6):178-185.

      [21]王大方,劉 磊,曹 江,等. 基于空洞空間池化金字塔的自動駕駛圖像語義分割方法[J]. 汽車工程,2022,44(12):1818-1824.

      [22]李 恒,南新元,高丙朋,等. 一種基于GhostNet的綠色類圓果實(shí)識別方法[J]. 江蘇農(nóng)業(yè)學(xué)報(bào),2023,39(3):724-731.

      [23]SUE R. GhostNets:go global,and local[J]. Artlink,2013,33(2):70-71.

      [24]趙 升,趙 黎. 基于雙向特征金字塔和深度學(xué)習(xí)的圖像識別方法[J]. 哈爾濱理工大學(xué)學(xué)報(bào),2021,26(2):44-50.

      [25]儲 鑫,李 祥,羅 斌,等. 基于改進(jìn)YOLOv4算法的番茄葉部病害識別方法[J]. 江蘇農(nóng)業(yè)學(xué)報(bào),2023,39(5):1199-1208.

      [26]李運(yùn)寰,聞繼偉,彭 力. 高幀率的輕量級孿生網(wǎng)絡(luò)目標(biāo)跟蹤[J]. 計(jì)算機(jī)科學(xué)與探索,2022,16(6):1405-1416.

      [27]王 琛,林 威,胡良鵬,等. 分體式飛行汽車全自主對接導(dǎo)引系統(tǒng)設(shè)計(jì)與驗(yàn)證[J]. 浙江大學(xué)學(xué)報(bào)(工學(xué)版),2023,57(12):2345-2355.

      [28]孔維剛,李文婧,王秋艷,等. 基于改進(jìn)YOLOv4算法的輕量化網(wǎng)絡(luò)設(shè)計(jì)與實(shí)現(xiàn)[J]. 計(jì)算機(jī)工程,2022,48(3):181-188.

      [29]LIN C L, WANG T Y, DONG S Y, et al. Hybrid convolutional network combining 3D depthwise separable convolution and receptive field control for hyperspectral image classification[J]. Electronics,2022,11(23):3992-3997.

      [30]代 云,盧 明,何 婷,等. 基于改進(jìn)型YOLO的密集環(huán)境下檳榔果實(shí)的快速識別方法[J]. 食品與機(jī)械,2023,39(4):83-88.

      [31]YANG S Z, WANG W, GAO S, et al. Strawberry ripeness detection based on YOLOv8 algorithm fused with LW-Swin Transformer[J]. Computers and Electronics in Agriculture,2023,215(5):1234-1240.

      [32]TAN M, PANG R, LE Q. EfficientDet:scalable and efficient object detection[C]//IEEE. 2020 IEEE/CVF conference on computer vision and pattern recognition(CVPR). Washington:IEEE Computer Society,2020:10778-10787.

      [33]WU T Y, TANG S, ZHANG R, et al. CGNet:a light-weight context guided network for semantic segmentation[J]. IEEE Transactions on Image Processing,2021,30:1169-1179.

      [34]HENDERSON P, FERRARI V. End-to-end training of object class detectors for mean average precision[C]//LAI S H, LEPETIT V, NISHIMO K, et al. Computer Vision-ACCV2016. Cham,SW:Springer,2016:198-213.

      (責(zé)任編輯:石春林)

      猜你喜歡
      巴旦木浮點(diǎn)損失
      少問一句,損失千金
      LEO星座增強(qiáng)GNSS PPP模糊度浮點(diǎn)解與固定解性能評估
      《巴旦木》
      胖胖損失了多少元
      基于浮點(diǎn)DSP的鐵路FSK信號檢測
      2018加州巴旦木產(chǎn)量將破紀(jì)錄!持續(xù)滿足中國消費(fèi)者市場需求
      玉米抽穗前倒伏怎么辦?怎么減少損失?
      加州巴旦木亮相中食展,為食品飲料行業(yè)帶來廣泛市場機(jī)遇
      難得春華秋實(shí) 圣果巴旦木的故事
      一般自由碰撞的最大動能損失
      安康市| 尼木县| 安顺市| 盘锦市| 米脂县| 湟源县| 石门县| 湘潭县| 汽车| 漳平市| 唐山市| 雷山县| 扶沟县| 日照市| 卓尼县| 余干县| 浮山县| 闵行区| 乌什县| 灵丘县| 长子县| 出国| 修水县| 宁城县| 西城区| 清远市| 德江县| 垦利县| 昌吉市| 丁青县| 且末县| 祁门县| 遂溪县| 拉孜县| 高尔夫| 阿图什市| 临江市| 上高县| 大理市| 保德县| 靖江市|