摘要:
害蟲是造成倉儲小麥損失的重要因素之一,及時檢測害蟲并采取有效手段能夠減少倉儲小麥損失。傳統(tǒng)人工檢測害蟲方法存在人工因素影響較大、速度慢的問題,基于深度學(xué)習(xí)的倉儲糧蟲檢測方法雖然耗時短,但存在模型較大、速度和準(zhǔn)確率二者難以平衡的問題。故首先選取YOLOv8m算法作為基礎(chǔ)進行改進,接著以更輕量化的網(wǎng)絡(luò)Shufflenetv2代替Darknet—53;其次,在主干網(wǎng)絡(luò)末端添加Squeeze—and—Excitation Networks注意力機制獲取高質(zhì)量的特征圖,有效提高檢測精度;最后,采用WIoUv3 Loss為YOLOv8m的回歸損失函數(shù),提高檢測的精度和速度。試驗結(jié)果表明:所提出的改進模型平均精度均值達(dá)到95.4%,模型參數(shù)量為19.46 M,F(xiàn)LOPs為58.74 G。相比其他模型,精確率更高,模型參數(shù)量更低,速度更快,能夠為倉儲害蟲檢測提供有效技術(shù)支撐。
關(guān)鍵詞:小麥倉儲糧蟲;深度學(xué)習(xí);小目標(biāo)檢測;注意力機制;輕量化模型
中圖分類號:TP399
文獻標(biāo)識碼:A
文章編號:2095-5553 (2025) 03-0108-07
收稿日期:2024年7月29日" 修回日期:2024年9月12日*
基金項目:國家重點研發(fā)計劃(2022YFD2100202)
第一作者:呂宗旺,男,1979年生,山東菏澤人,碩士,教授;研究方向為糧食信息處理與控制。E-mail: zongwang_lv@126.com
Improved YOLOv8m-based grain insect detection method for wheat storage
Lü Zongwang1, 2, Wang Tiantian1, 2, Sun Fuyan1, 2, Zhu Yuhua1, 2
(1. College of Information Science and Engineering, Henan University of Technology, Zhengzhou, 450001, China;
2. Key Laboratory of Grain Information Processing and Control, Ministry of Education, Zhengzhou, 450001, China)
Abstract:
Pests are one of the important factors causing storage wheat losses, timely detection of pests and effective measures can reduce losses of stored wheat. The traditional artificial detection of pests method exists artificial factors have a greater impact, the problem of slow speed, based on deep learning storage grain insect detection method, although time-consuming short, but there is a larger model, speed and accuracy of the two difficult to balance the problem. Therefore, in this paper, after experiments, firstly, the YOLOv8m algorithm is selected as the basis for improvement, and then, Shufflenetv2, a lighter network, replaces Darknet—53; secondly, Squeeze—and—Excitation Networks attention mechanism is added at the end of the backbone network to obtain high-quality feature maps, which effectively improves the detection accuracy. Finally, WIoUv3 Loss is adopted as the regression loss function of YOLOv8m to improve the accuracy and speed of detection. The experimental results show that the mAP of the proposed model reaches 95.4%, the number of model parameters is 19.46 M, and the FLOPs is 56.74 G. Compared with other models, the accuracy is higher, the number of model parameters is lower, and the speed is faster, which can provide effective technical support for the detection of pests in warehouses.
Keywords:
storage grain insect; deep learning; small target detection; attention mechanism; lightweight model
0 引言
我國是世界上第二人口大國,其小麥自給率為100%。小麥作為中國基本口糧之一,其安全問題不容忽視[1]。2023年我國夏糧再獲豐收,其中小麥產(chǎn)量保持在1.35×108 t左右[2]。小麥入庫后,害蟲問題是影響小麥儲藏的主要因素。準(zhǔn)確快速檢測倉儲糧蟲為后續(xù)及時防治害蟲,減少糧食損失提供基礎(chǔ)[3]。
傳統(tǒng)倉儲糧蟲檢測方法主要使用國家標(biāo)準(zhǔn)LS/T 1211—2008的取樣篩檢法和探管誘捕法辨別糧食中害蟲是否存在以及害蟲的種類,但兩種方法人工因素影響較大[4]。隨著深度學(xué)習(xí)的發(fā)展,倉儲糧蟲檢測逐漸智能化。許德剛等[5]采用Faster R—CNN作為基本模型,在特征提取后加入金字塔池化模塊和更換損失函數(shù),在兩個不同的糧蟲數(shù)據(jù)集上mAP分別達(dá)到89.42%和90.12%,相比較改進前的算法分別提升0.90%和2.46%。Kong等[6]改進Faster R—CNN算法,用Swin transformer取代主干網(wǎng)絡(luò)并引入名為Faster RFormer的增強型平滑損失函數(shù),對蘋果的檢測準(zhǔn)確率達(dá)到0.692,AP@0.75為0.796,AP@0.5為0.941,超過了現(xiàn)有算法。呂宗旺等[7]改進YOLOv5s算法,采用MobileNetv3作為主干網(wǎng)絡(luò),Bi—FPN結(jié)構(gòu)替代特征金字塔結(jié)構(gòu),平均糧蟲檢測準(zhǔn)確率達(dá)到97.1%,F(xiàn)PS提高至91,模型計算量為原模型的11.6%。李容光等[8]使用離散自注意力、尺度通道注意力和尺度注意力,提取全局的上下文背景信息,提高模型對于小目標(biāo)檢測的準(zhǔn)確率,在DIOR數(shù)據(jù)集上mAP能夠達(dá)到69.0%。
雖然基于深度學(xué)習(xí)算法的檢測方法相較于人工檢測和其他檢測方法極大提升檢測的準(zhǔn)確率和速度,但都存在一定缺陷[9]。例如數(shù)據(jù)集過于簡單,模型參數(shù)量大,準(zhǔn)確率高但速度相對來說較慢等[10]。本文選取當(dāng)前單階段目標(biāo)檢測效果較好的模型YOLOv8作為基準(zhǔn)模型進行改進,旨在提高模型對倉儲糧蟲的檢測準(zhǔn)確率和速度。
1 數(shù)據(jù)集來源及預(yù)處理
數(shù)據(jù)集對模型的訓(xùn)練至關(guān)重要,數(shù)據(jù)集應(yīng)準(zhǔn)確反映各種拍攝情況下的倉儲糧蟲。數(shù)據(jù)集圖像質(zhì)量過高過低都影響模型訓(xùn)練,直接影響訓(xùn)練后的模型能否投入實際應(yīng)用。本次試驗所使用的基礎(chǔ)數(shù)據(jù)集拍攝玉米象、谷蠹、赤擬谷盜、印度古螟、麥蛾5種常見的倉儲糧蟲共2 000張圖片?;A(chǔ)數(shù)據(jù)集使用labelme軟件進行數(shù)據(jù)標(biāo)注。
采用圖像增強技術(shù)擴增數(shù)據(jù)集的規(guī)模,使得數(shù)據(jù)集能夠包含不同光照、不同角度下的倉儲糧蟲圖像,同時也能提高訓(xùn)練后模型的泛化能力,增強模型魯棒性[11]。對基礎(chǔ)數(shù)據(jù)集采用兩次旋轉(zhuǎn)、增加亮度、增加高斯噪聲和重置大小5種操作,模擬不同環(huán)境下拍攝的倉儲糧蟲,增強后的部分圖像如圖1所示。擴增后的數(shù)據(jù)集包含12000張圖像,按8∶1∶1比例劃分為訓(xùn)練集、測試集和驗證集。
2 倉儲糧蟲檢測模型構(gòu)建
目前針對小目標(biāo)檢測的模型分為兩階段算法和單階段算法,兩階段算法的代表模型為Faster R—CNN,單階段算法代表模型為YOLOv8系列[12]。兩階段算法模型的模型量較大,為選取準(zhǔn)確率、速度、模型參數(shù)量適中的基礎(chǔ)模型進行改進,采用單階段算法模型YOLOv8系列。對比YOLOv8n、YOLOv8s、YOLOv8m、YOLOv8l、YOLOv8x這5個模型在同一數(shù)據(jù)集、同樣的參數(shù)設(shè)置下的仿真結(jié)果,如表1所示。
由表1可知,YOLOv8m的平均精度均值最高的,且相較其他4個基礎(chǔ)模型在參數(shù)量、速度和精確率上達(dá)到很好的平衡。因此,選取YOLOv8m模型作為倉儲糧蟲檢測模型的基礎(chǔ)模型進行后續(xù)改進,以期達(dá)到更高的精確率、更小的參數(shù)量、更快的速度。
2.1 YOLOv8m模型
YOLOv8m模型結(jié)構(gòu)如圖2所示。輸入端對圖片進行圖像縮放將輸入的數(shù)據(jù)集圖片基礎(chǔ)大小調(diào)整為640像素×640像素,并進行Mosaic數(shù)據(jù)增強操作且在最后10epoch關(guān)閉,另外進行通道維數(shù)調(diào)整操作[13]。主干網(wǎng)絡(luò)Backbone為Darknet—53。Neck部分為PAN—FPN,負(fù)責(zé)特征層次結(jié)構(gòu)提取。Head部分為解耦頭結(jié)構(gòu),將分類和檢測頭分離。PANet部分先上采樣融合再下采樣融合YOLOv8m的Head輸出[14]。Backbone和Neck中均采用C2f結(jié)構(gòu),C2f結(jié)構(gòu)有更多的殘差連接、更豐富的梯度流。
YOLOv8m分類損失函數(shù)采用改進交叉熵?fù)p失(VFL Loss),如式(1)所示?;貧w損失為CIOU Loss+DFL Loss的形式。CIOU Loss如式(2)所示,DFL Loss如式(3)所示。
VFL(p,q)=
-q[q(logp+(1-q)log(1-p)]qgt;0
-αpγlog(1-p)q=0
(1)
LCIoU=1-IoU+ρ2(b,bgt)c2+αv
(2)
DFL(Si,Si+1)=
-[(yi+1-y)logSi+
(y-yi)logSi+1]
(3)
其中,Si=yi+1-yyi+1-yi,Si+1=y-yiyi+1-yi,IoU=B∩BgtB∪Bgt。
式中: y——標(biāo)簽的實際值;
yi+1、yi——標(biāo)簽相鄰區(qū)間值;
p——概率;
q——預(yù)測框和真實框的交并比;
α——加權(quán)因子;
γ——可調(diào)對焦參數(shù);
b、bgt——
真實框和預(yù)測框的中心點;
IoU——輸出框與真實框的交互比;
ρ——歐幾里得距離;
B——真實框;
Bgt——預(yù)測框;
c——
覆蓋真實框和預(yù)測框的最小框的對角線距離。
兩個框相交,即qgt;0為正樣本;兩個框無相交,q=0,為負(fù)樣本[15]。
2.2 Shufflenetv2主干網(wǎng)絡(luò)
為使模型參數(shù)量減少,本試驗選取輕量化的網(wǎng)絡(luò)Shufflenetv2代替YOLOv8m的主干網(wǎng)絡(luò)Darknet—53。Shufflenetv1網(wǎng)絡(luò)降低了全通道卷積造成的計算量,Shufflenetv2網(wǎng)絡(luò)在Shufflenetv1網(wǎng)絡(luò)的基礎(chǔ)上降低了組卷積和加法操作造成的參數(shù)量[16]。
Shufflenetv1網(wǎng)絡(luò)創(chuàng)造性地提出通道洗牌(channel shuffle)操作,在組卷積(group convolution)操作之后加入channel shuffle操作,使輸出的特征圖進行重組,之后再進行g(shù)roup convolution操作,從而解決全通道卷積造成的計算量過大和組卷積使不同通道之間信息難以交流的問題。但其網(wǎng)絡(luò)基本模塊channel shuffle操作之前的逐點組卷積結(jié)構(gòu)和瓶頸結(jié)構(gòu)增大了內(nèi)存訪問量(MAC)。
針對此問題,Shufflenetv2模型在保留channel shuffle操作的同時,增加通道分離(channel split)操作。Shufflenetv2模型基本單元如圖3(a)所示,將輸入通道做channel split操作,另外一支做恒等映射[17]。采用1×1卷積而非組卷積,降低計算量。采用contact操作而非add操作,模型更加輕量化。Shufflenetv2用以空間下采樣的單元如圖3(b)所示可使輸出特征圖空間大小減半,通道數(shù)翻倍[18]。
2.3 Squeeze—and—Excitation注意力機制
SE注意力機制是一個計算單元,對于任意給定的輸入X,由圖4可得變換Ftr將其映射到特征映射U,其中U∈RH×W×C,U=[u1,u2,…,uc]。為解決通道依賴性問題,變換后的特征圖U首先通過一個壓縮(Squeeze)操作,Squeeze操作如式(4)所示,通過全局平均池化操作,壓縮聚合主干網(wǎng)絡(luò)提取到的特征圖,產(chǎn)生通道特征響應(yīng)的全局分布的嵌入,允許來自網(wǎng)絡(luò)的全局感受野的信息被其所有層使用[19, 20]。
zc=Fsq(uc)=1H×W∑Hi=1∑Wj=1uc(i,j)
(4)
式中: Fsq——Squeeze操作;
H、W——特征圖的空間尺寸。
Squeeze操作之后是一個激勵(Excitation)操作,目的是完全捕獲通道依賴關(guān)系,即權(quán)重。Excitation操作原理如式(5)所示,采取簡單帶有sigmoid激活的門控機制的形式,將嵌入作為輸入,并產(chǎn)生每個通道的調(diào)制權(quán)重的集合。
s=Fex(z,W)=σ(g(z,W))=σ(W2δ(W1z))
(5)
式中: Fex—— Excitation操作;
z——Squeeze階段的輸出;
W——權(quán)重矩陣;
W1、W2——可學(xué)習(xí)的權(quán)重矩陣;
σ——sigmoid激活函數(shù);
δ——ReLU函數(shù)。
W1∈Rcr×r,W2∈Rr×cr,為降低模型復(fù)雜度和提供泛化能力,采用兩個全連接的門機制。即一個具有還原比r的降維層,通過將輸出U的通道維度壓縮到(U的通道數(shù)/r)來降低模型計算量,再連接一個ReLU,然后一個增維全連接層返回到轉(zhuǎn)換到U的通道維度。最后通過Sigmoid激活得到權(quán)重s。
這些權(quán)重被應(yīng)用到特征圖U中,以生成SE塊的輸出X如式(6)所示,X=x1,x2,…,xc,該輸出可以直接反饋到網(wǎng)絡(luò)的后續(xù)層。
xc=Fscale(uc,sc)=scuc
(6)
式中: Fscale——
Scale操作,將注意力權(quán)重加權(quán)到每個通道的特征。
2.4 WIoUv3損失函數(shù)
為提高訓(xùn)練后模型的準(zhǔn)確率,采用WIoUv3損失函數(shù)代替YOLOv8m模型中的分類損失函數(shù)。WIoUv3損失函數(shù)采用動態(tài)非單調(diào)靜態(tài)聚焦機制,使用離群度而不是IoU來評估錨箱的質(zhì)量,并提供動態(tài)的梯度增益分配策略[21-23]。這種策略減少了高質(zhì)量錨框和低質(zhì)量錨框?qū)τ谔荻鹊挠绊懀雨P(guān)注普通錨框,提升檢測性能。根據(jù)作者所得結(jié)論,WIoUv3損失函數(shù)在YOLOv7模型的AP值高于CIoUv3的AP值0.77。WIoUv3損失函數(shù)如式(7)所示。
LWIoUv3=r×LWIoUv1
(7)
LWIoUv1=RWIoU×LIoU
(8)
RWIoU=exp(bgtcx-bcx)2+(bgtcy-bcy)2
cw2+ch2
(9)
LIoU=1-IoU
(10)
其中,r=βδαβ-δ,β=L×IoULIoU∈[0,+∞)。
式中: RWIoU——
損失函數(shù)的懲罰項,RWIoU∈[1,e);
LIoU——
降低對高質(zhì)量錨框的關(guān)注,在錨框與目標(biāo)框重合時關(guān)注中心點之間距離,LIoU∈[0,1];
L——損失函數(shù);
β——
離群度,表示錨框的異常值度,有效防止低質(zhì)量錨框?qū)μ荻鹊挠绊憽?/p>
2.5 改進的YOLOv8m倉儲糧蟲檢測模型
為提高檢測模型的準(zhǔn)確率以及減小模型參數(shù)量,在YOLOv8m模型的基礎(chǔ)上進行3方面的改進,網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。
對YOLOv8m模型的Backbone模塊進行改進,將Darknet—53網(wǎng)絡(luò)更換為ShuffleNetv2網(wǎng)絡(luò)。對YOLOv8m模型的第二層Backbone進行改進,在網(wǎng)絡(luò)末端的添加Squeeze—and—Excitation Networks注意力機制。YOLOv8m模型中的分類損失改為WIoUv3 Loss,回歸損失仍為CIoU Loss+DFL Loss。
3 試驗結(jié)果與分析
試驗使用的Python版本為3.7,深度學(xué)習(xí)框架為Pytorch1.10.0,CPU型號為Intel(R) Core(TM) i5-8250U CPU@1.60 GHz,GPU型號為NVIDIA GeForce MX110,操作系統(tǒng)為Windows10。訓(xùn)練輪數(shù)設(shè)置為50輪,批次大小為32,初始學(xué)習(xí)率設(shè)置為0.01。
3.1 評價指標(biāo)
對于模型的評價,有兩類常見的分類目標(biāo):正例P和負(fù)例N。檢測模型的評價指標(biāo)一般可以用精確率Precision、召回率Recall、P—R曲線、AP、mAP、FLOPs、參數(shù)量Parameters等表示。Precision反映真實正樣本在分類器確定的正樣本中所占的比例,計算如式(11)所示。Recall反映被正確判定的正例占總的正例的比重,計算如式(12)所示。
Precision=TPTP+FP
(11)
Recall=TPTP+FN
(12)
式中: TP——實際為正例,識別結(jié)果為正例;
FP——實際為負(fù)例,識別結(jié)果為正例;
FN——實際為正例,識別結(jié)果為負(fù)例。
P—R曲線為以Precision為縱坐標(biāo)和以Recall為橫坐標(biāo)所連成的曲線。P—R曲線下的面積為AP。AP值越接近1,模型效果越好。mAP為各類AP的平均值。mAP為平均精度均值,是目標(biāo)檢測算法中最重要的指標(biāo),mAP越高,模型的平均精確率越高。FLOPs衡量模型的計算能力,數(shù)值越小,模型計算速度越快。Parameters數(shù)值越大模型越大。
3.2 試驗結(jié)果
由表2可知,模型對5種倉儲糧蟲的檢測精確率都維持在較高的數(shù)值,最低的為赤擬谷盜,檢測精確率達(dá)到86.1%,麥蛾的檢測精確率達(dá)到最高的99.5%。平均精度均值達(dá)到95.4%。
如圖6所示,訓(xùn)練時邊界框損失box_loss、分類損失cls_loss、特征點損失dfl_loss隨著訓(xùn)練epoch的增加不斷下降,在45輪左右保持穩(wěn)定且數(shù)值都在0.5以下,說明模型隨著訓(xùn)練能夠更準(zhǔn)確地預(yù)測出目標(biāo)的位置,能夠更高精度的識別目標(biāo),模型的性能越來越好。在訓(xùn)練45輪左右時,Recall和Precision都穩(wěn)定在0.95以上。驗證集的3個損失函數(shù)也都在訓(xùn)練結(jié)束時穩(wěn)定在較低數(shù)值。mAP@0.5穩(wěn)定在0.95以上,可見改進后YOLOv8m模型效果穩(wěn)定,精確率較高。由圖7可直觀看出,改進后YOLOv8m模型對倉儲害蟲的檢測效果。
由表3可知,Shufflenetv2作為輕量化網(wǎng)絡(luò)模型減少了參數(shù)量,提高了計算速度,但平均精度均值有所下降。SE注意力機制和WIoUv3損失函數(shù)的加入提高了檢測的精確率。
為驗證改進后YOLOv8m模型相較其他模型的有效性,選取YOLOv8m、YOLOv5m和Faster R—CNN模型分別在倉儲糧蟲數(shù)據(jù)集上進行訓(xùn)練和測試,結(jié)果如表4所示。
與YOLOv8m基礎(chǔ)模型相比,改進后YOLOv8m的參數(shù)量即模型大小減少6.44 M,速度增加,平均精度均值增加0.7%。相較于YOLOv5m,改進后YOLOv8m參數(shù)量減小,速度增加,平均精度均值高出3.1%。相較于雙階段算法Faster R—CNN,改進后YOLOv8m模型大小減少,速度增加的同時平均精確率高出13.5%。試驗結(jié)果表明,與以上3種主流算法模型相比較,改進后YOLOv8m在模型大小和速度上取得很好的平衡,同時平均精確率達(dá)到最高,更加適合倉儲糧蟲的檢測,便于后續(xù)消殺,維護糧食安全。
4 結(jié)論
1) 針對倉儲糧蟲小目標(biāo)背景復(fù)雜的情況,提出一種改進的YOLOv8m輕量化高精度檢測模型,首先使用Shufflenetv2主干網(wǎng)絡(luò)替代YOLOv8m的主干網(wǎng)絡(luò)DarkNet—53,能夠使模型更加輕量化,提高模型計算速度;其次,為提高模型的檢測精確率,在主干網(wǎng)絡(luò)的末端添加Squeeze—and—Excitation注意力機制;最后,將YOLOv8m的分類損失改為WIoUv3損失函數(shù),進一步改善錨框質(zhì)量參差不齊對梯度的影響,提高模型檢測精確率。
2) 試驗結(jié)果表明,改進后的YOLOv8m模型能夠以更小的模型、更快的速度、更高的精確率識別倉儲害蟲。與YOLOv8m原模型相比,模型大小減少6.44 M,平均精度均值增加0.7%。
3) 倉儲糧蟲數(shù)據(jù)集僅拍攝5種倉儲糧蟲,數(shù)據(jù)集較為單調(diào),在后續(xù)研究中可增加糧蟲種類進行數(shù)據(jù)集的擴增,提高數(shù)據(jù)集的質(zhì)量。雖然模型檢測結(jié)果較基礎(chǔ)模型有所提升,但是模型仍有提升空間,可更換效果更好的注意力機制進一步提高平均精度均值,更好地實現(xiàn)對倉儲糧蟲的檢測,維護糧食安全。
參 考 文 獻
[1] 劉明亮, 劉曉鵬, 周勁, 等. 改進的YOLOv5糧蟲檢測算法[J]. 武漢輕工大學(xué)學(xué)報, 2023, 42(3): 34-40.
Liu Mingliang, Liu Xiaopeng, Zhou Jin, et al. Improved grain pest detection algorithm of YOLOv5 [J]. Journal of Wuhan Polytechnic University, 2023, 42(3): 34-40.
[2] 張四平. 基于YOLO目標(biāo)檢測算法的人群多目標(biāo)識別跟蹤方法[J]. 智能計算機與應(yīng)用, 2024, 14(1): 152-155.
Zhang Siping. A crowd multiple target recognition and tracking method based on YOLO object detection algorithm [J]. Intelligent Computer and Applications, 2024, 14(1): 152-155.
[3] Dong Q, Sun L, Han T, et al. PestLite: A Novel YOLO-based deep learning technique for crop pest detection [J]. Agriculture, 2024, 14(2): 228.
[4] Zhou Z, Hu Y, Yang X, et al. YOLO-based marine organism detection using two-terminal attention mechanism and difficult-sample resampling [J]. Applied Soft Computing, 2024, 153: 111291.
[5] 許德剛, 王露, 李凡, 等. 改進Faster R—CNN在糧蟲目標(biāo)檢測中的應(yīng)用研究[J]. 中國糧油學(xué)報, 2022, 37(4): 178-186.
Xu Degang, Wang Lu, Li Fan, et al. Application of improved Faster R—CNN in food insect object detection [J]. Journal of the Chinese Cereals and Oils Association, 2022, 37(4): 178-186.
[6] Kong X, Li X, Zhu X, et al. Detection model based on improved Faster R—CNN in apple orchard environment [J]. Intelligent Systems with Applications, 2024, 21.
[7] 呂宗旺, 邱帥欣, 孫福艷, 等. 基于改進YOLOv5s的輕量化儲糧害蟲檢測方法[J]. 中國糧油學(xué)報, 2023, 38(8): 221-228.
Lü Zongwang, Qiu Shuaixin, Sun Fuyan, et al. Lightweight grain storage pest detection method based on improved YOLOv5s [J]. Journal of the Chinese Cereals and Oils Association, 2023, 38(8): 221-228.
[8] 李容光, 楊夢龍. 基于注意力和上下文的多尺度圖像背景下的小目標(biāo)檢測方法[J]. 現(xiàn)代信息科技, 2023, 7(5): 1-6, 12.
Li Rongguang, Yang Menglong. Small object detection method under the background of multi-scale image based on attention and context [J]. Modern Information Technology, 2023, 7(5):1-6, 12.
[9] Tang L, Yun L, Chen Z, et al. HRYNet: A highly robust YOLO network for complex road traffic object detection [J]. Sensors, 2024, 24 (2).
[10] Zhong Z, Yun L, Cheng F, et al. Light-YOLO: A lightweight and efficient YOLO-based deep learning model for mango detection [J]. Agriculture, 2024, 14(1).
[11]
Calero F M, Astudillo A C, Guevara D, et al. Traffic sign detection and recognition using YOLO object detection algorithm: A systematic review [J]. Mathematics, 2024, 12(2).
[12] Ferrante S G, Nakamura V H L, Sampaio S, et al. Evaluating YOLO architectures for detecting road killed endangered Brazilian animals [J]. Scientific Reports, 2024, 14(1): 1353-1353.
[13] 王粉花, 黃超, 趙波, 等. 基于YOLO算法的手勢識別[J]. 北京理工大學(xué)學(xué)報, 2020, 40(8): 873-879.
Wang Fenhua, Huang Chao, Zhao Bo, et al. Gesture recognition based on YOLO algorithm [J]. Transactions of Beijing Institute of Technology, 2020, 40(8): 873-879.
[14] 呂曉玲, 楊勝月, 張明路, 等. 改進YOLOv5網(wǎng)絡(luò)的魚眼圖像目標(biāo)檢測算法[J]. 計算機工程與應(yīng)用, 2023, 59(6): 241-250.
Lü Xiaoling, Yang Shengyue, Zhang Minglu, et al. Improved fisheye image target detection algorithm based on YOLOv5 network [J]. Computer Engineering and Applications, 2023, 59(6): 241-250.
[15] 李明, 丁智歡, 趙靖暄, 等. 基于改進YOLOv5s的日光溫室黃瓜霜霉病孢子囊檢測計數(shù)方法[J]. 中國農(nóng)機化學(xué)報, 2023, 44(5): 63-70.
Li Ming, Ding Zhihuan, Zhao Jingxuan, et al. Detection method for cucumber downy mildew sporangia in a solar greenhouse based on improved YOLOv5s [J]. Journal of Chinese Agricultural Mechanization, 2023, 44(5): 63-70.
[16] Elazab N, Allah G A W, Elmogy M. A multi-class brain tumor grading system based on histopathological images using a hybrid YOLO and RESNET networks [J]. Scientific Reports, 2024, 14(1): 4584-4584.
[17] Alruwaili M, Siddiqi H M, Atta N M, et al. Deep learning and ubiquitous systems for disabled people detection using YOLO models [J]. Computers in Human Behavior, 2024, 154: 108150.
[18] Xu Changbao, Xin Mingyong, Wang Yu, et al. An efficient YOLOv3-based method for the detection of transmission line defects [J]. Frontiers in Energy Research, 2023.
[19] Ahmadyar Y, Kamali-Asl A, Arabi H, et al. Hierarchical approach for pulmonary-nodule identification from CT images using YOLO model and a 3D neural network classifier [J]. Radiological Physics and Technology, 2024, 17(1): 124-134.
[20] 林森, 許童羽, 葛禹豪, 等. 基于改進YOLOv5l的設(shè)施番茄3D信息檢測方法[J]. 中國農(nóng)機化學(xué)報, 2024, 45(1): 274-284.
Lin Sen, Xu Tongyu, Ge Yuhao, et al. 3D information detection method for facility greenhouse tomato based on improved YOLOv5l [J]. Journal of Chinese Agricultural Mechanization, 2024, 45(1): 274-284.
[21] 楊巧梅, 崔婷婷, 袁永榜, 等. 輕量化YOLO模型在農(nóng)作物微小病蟲害檢測中的應(yīng)用研究[J]. 中國農(nóng)機化學(xué)報, 2024, 45(9): 265-270, 284.
Yang Qiaomei, Cui Tingting, Yuan Yongbang, et al. Research on the application of lightweight YOLO model in detection of small crop diseases and pests [J].Journal of Chinese Agricultural Mechanization, 2024, 45(9): 265-270.
[22] 李濤, 買買提明·艾尼, 古麗巴哈爾·托乎提, 等. 基于改進YOLOv8的小棚架下無核白葡萄果梗識別[J]. 中國農(nóng)機化學(xué)報, 2025, 46(2): 259-263.
Li Tao, Mamtimin·Geni, Gulbahar·Tohti, et al. Seedless white grape stem recognition under small trellises based on improved YOLOv8 [J]. Journal of Chinese Agricultural Mechanization, 2025, 46(2): 259-263.
[23] Sneha N, Sundaram M, Ranjan R. Acre-scale grape bunch detection and predict grape harvest using YOLO deep learning network [J]. SN Computer Science, 2024, 5(2): 250.