中圖分類號:TP3191.4;TP183 文獻(xiàn)標(biāo)識碼:A文章編號:2096-4706(2025)08-0034-07
Abstract:Aimingat theexisting problems of insufficient accuracy,the difficultyof identificationundercomplex backgrounds,ndthebvious limitationsof traditionalmethods infeatureextractioninfruitripenessdetection,afruitripenes detection algorithm (AGLU-YOLOv11) basedon improved YOLOv1 is proposed,to meet the demands for effcient data and reliable colection in fruit ripeness detection.AGLU-YOLOv11 designs the C3k2_AddBlock_CGLU module byoptimizing the C3k2 module in the YOLOv1l backbone network and integrating CATM(Conv Additive Self-Attention) and CGLU (Convolutional Gated Liear Unit),and significantlyenhances feature extraction capabilityand adaptabilityof multi-variety andmulti-stageripenessfruits.Atthesame time,theAFCAAtention Mechanism is introduced inthefeature fusion stage to strengthen global feature expresionand adaptability tocomplex backgrounds,andachieve eficient fruit quality detection andlabeling.Experimental results showthat AGLU-YOLOv1lperforsbeterin precision,robustnessand multi-saleobject adaptability than other detection models inPrecision,Recall, mAP @ 0 . 5 and 1 n A P@ 0 . 5:0 . 9 5 indicators,and can better meet the demands for identifying fruit ripeness.
Keywords:YOLO;ObjectDetection;CGLU;CATM; fruit ripenessdetection
0 引言
社會經(jīng)濟(jì)的飛速發(fā)展下,人們的生活水平顯著提高,水果作為人類膳食結(jié)構(gòu)中的重要組成部分,不僅為人體提供豐富的維生素、礦物質(zhì)和膳食纖維,還在促進(jìn)免疫力和預(yù)防慢性疾病中發(fā)揮著重要作用[]。然而,水果的成熟度直接關(guān)系到其營養(yǎng)價值、口感和食品安全。如果過早采摘,果實(shí)未完全成熟,可能導(dǎo)致品質(zhì)下降;如果采摘過晚,則可能出現(xiàn)腐爛或營養(yǎng)流失,增加食品安全隱患[2]。因此,準(zhǔn)確、高效地檢測水果的成熟度,對于保障食品安全、提高經(jīng)濟(jì)效益以及減少浪費(fèi)具有重要意義。傳統(tǒng)的水果成熟度檢測方法大多依賴人工判斷或簡單機(jī)械設(shè)備,盡管成本較低,但存在主觀性強(qiáng)、效率低以及易受外界環(huán)境影響等問題。
近年來,隨著食品安全標(biāo)準(zhǔn)的提高和消費(fèi)者對果實(shí)品質(zhì)要求的增強(qiáng),基于機(jī)器視覺與深度學(xué)習(xí)的檢測方法逐漸成為研究熱點(diǎn)。這些方法不僅可以減少人工干預(yù),還能在復(fù)雜場景下實(shí)現(xiàn)高精度和高效率的檢測。
目前,目標(biāo)檢測技術(shù)在水果、蔬菜成熟度中得到廣泛的應(yīng)用。Cubero等人探索了如何利用計(jì)算機(jī)視覺技術(shù)和移動平臺對柑橘類水果進(jìn)行現(xiàn)場預(yù)分級,并將其轉(zhuǎn)換為HunterLab顏色空間以估計(jì)顏色指數(shù)。Ohali等人[4設(shè)計(jì)并實(shí)現(xiàn)了一種基于計(jì)算機(jī)視覺的棗果分級和分選系統(tǒng),該系統(tǒng)可以使用棗果的RGB圖像和一組自動提取的外部質(zhì)量特征將棗果分為三個質(zhì)量類別。宋立航等人[5提出基于改進(jìn)YOLOv5s的自然環(huán)境下油桃成熟度檢測方法,將原始YOLOv5s模型的頸部特征金字塔結(jié)構(gòu)替換為BiS特征金字塔結(jié)構(gòu),增強(qiáng)模型對成熟度特征的融合和提取能力,引入QFocalLoss損失函數(shù),解決訓(xùn)練樣本中正負(fù)樣本比例失衡的問題,并通過CIoU-NMS作為非極大值抑制方法,提升模型對遮擋和重疊果實(shí)的檢測效果。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的YOLOv5s-BQC模型相比原模型,精確度和召回率分別提升了 0 . 9 % 和 0 . 7 % ,mAP提升了 2 . 3 % 。Zhao 等人[提出一種輕量級的石榴生長期檢測算法YOLO-Granada,以輕量級的ShuffleNetv2網(wǎng)絡(luò)為骨干提取石榴特征,使用分組卷積減少了普通卷積的計(jì)算量,使用通道混洗增加了不同通道之間的交互,并引入注意力機(jī)制,實(shí)驗(yàn)表明,檢測速度比原網(wǎng)絡(luò)提高了 1 7 . 3 % 。
綜上所述,基于目標(biāo)檢測的水果成熟度研究已取得了一定成果,但仍存在諸多問題亟待解決。例如,大部分現(xiàn)有方法往往聚焦于特定水果品種的檢測,而忽略了不同品種在顏色、形狀和大小等特征上的顯著差異。這些問題限制了水果成熟度檢測技術(shù)在多樣化實(shí)際場景中的廣泛應(yīng)用,亟須進(jìn)一步的優(yōu)化與創(chuàng)新。為了解決以上問題,本文提出一種基于改進(jìn)YOLOvI1的水果成熟度檢測算法AGLU-YOLOv11。本文主要貢獻(xiàn)如下:
1)提出一種高效的檢測算法AGLU-YOLOvl1,針對水果成熟度檢測,該模型可以在提高準(zhǔn)確率的同時,優(yōu)化模型結(jié)構(gòu),減少參數(shù)量。2)通過改進(jìn)C3k2模型,融合CATM與CGLU,設(shè)計(jì)了C3k2-AddBlock-CGLU模塊,提升了主干網(wǎng)絡(luò)的特征提取能力。3)引入AFCA注意力機(jī)制,增強(qiáng)全局特征表達(dá)和語義信息捕捉能力。
1 研究方法
1.1 數(shù)據(jù)來源與處理
為提升模型在多場景下的適應(yīng)性與魯棒性,本文圍繞水果成熟度檢測任務(wù),在復(fù)雜場景中和密集場景中開展了多品種數(shù)據(jù)采集。采集的水果種類包括蘋果、香蕉、葡萄、草莓和柿子五種常見水果,涵蓋未成熟、部分成熟及完全成熟三個階段,以真實(shí)反映實(shí)際應(yīng)用場景的多樣性。具體而言,未成熟水果通常外觀呈綠色或淺色,表皮堅(jiān)硬且糖分較少;部分成熟水果顯現(xiàn)部分成熟色澤但質(zhì)地較硬;完全成熟水果色澤均勻、表皮光滑,質(zhì)地軟且風(fēng)味濃郁。
數(shù)據(jù)采集過程中,采用了高清數(shù)碼相機(jī)和智能手機(jī)等設(shè)備,以確保采集到的圖像具有足夠高的分辨率,從而滿足深度學(xué)習(xí)模型的訓(xùn)練需求。部分采集的圖像如圖1所示。為了保證模型訓(xùn)練與評估的科學(xué)性與公正性,本文共采集了2212張圖片,并將數(shù)據(jù)集按照7:3的比例隨機(jī)劃分為訓(xùn)練集和測試集,其中訓(xùn)練集包含1768張圖片,測試集包含444張圖片。所有圖像均使用LabelImg軟件進(jìn)行了標(biāo)注,格式為YOLO標(biāo)注格式,圖像標(biāo)簽劃分為15個類別,分別為:完全成熟蘋果(apple-H)、部分成熟蘋果(apple-M)、未成熟蘋果(apple-L)、完全成熟香蕉(banana-H)、部分成熟香蕉(banana-M)、未成熟香蕉(banana-L)完全成熟葡萄(grape-H)、部分成熟葡萄(grape-M)、未成熟葡萄(grape-L)完全成熟草莓(strawberry-H)、部分成熟草莓(strawberry-M)、未成熟草莓(strawberry-L)完全成熟柿子(persimmon-H)、部分成熟柿子(persimmon-M)、未成熟柿子(persimmon-L)。
1.2 模型改進(jìn)
YOLO(YouOnlyLookOnce)算法由Redmon等人于2016年提出[,旨在解決目標(biāo)檢測領(lǐng)域中實(shí)時性與準(zhǔn)確性的權(quán)衡問題。傳統(tǒng)目標(biāo)檢測方法多采用兩階段策略,即先生成候選區(qū)域后進(jìn)行分類,這種方法計(jì)算復(fù)雜度高,難以滿足實(shí)時檢測需求。YOLO算法創(chuàng)新性地將目標(biāo)檢測轉(zhuǎn)化為端到端的回歸問題,通過直接預(yù)測整幅圖像中目標(biāo)的邊界框和類別概率,顯著提升了檢測速度。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,YOLO算法不斷迭代優(yōu)化[8]。最新的YOLOvl1版本在網(wǎng)絡(luò)架構(gòu)、特征提取和檢測精度等方面均有顯著提升。其主要改進(jìn)包括:采用更深層的卷積神經(jīng)網(wǎng)絡(luò)增強(qiáng)特征表示能力;引入C3k2模塊優(yōu)化跨階段特征融合效率;整合多尺度特征金字塔網(wǎng)絡(luò)提升對不同尺度目標(biāo)的檢測能力。同時,通過改進(jìn)損失函數(shù)和訓(xùn)練策略,進(jìn)一步優(yōu)化了邊界框回歸和分類精度[]。YOLOv11在保持實(shí)時檢測優(yōu)勢的同時,取得了更高的平均精度(mAP)。然而,該模型在處理復(fù)雜背景和多樣化外觀目標(biāo)時仍存在局限性,尤其是在目標(biāo)與背景差異較小的場景中。以水果成熟度檢測為例,標(biāo)準(zhǔn)特征提取模塊難以有效捕捉不同成熟階段的細(xì)微差異,影響檢測準(zhǔn)確性。針對上述問題,本文提出了以下改進(jìn)方案(AGLU-YOLOvl1):設(shè)計(jì)C3k2_AddBlock_CGLU模塊替代原有C3k2模塊,提高推理速度;引入AFCA注意力機(jī)制,增強(qiáng)對水果成熟度特征的提取能力。這些改進(jìn)對于提升農(nóng)業(yè)生產(chǎn)和供應(yīng)鏈管理中的水果成熟度檢測具有重要意義。AGLU-YOL0v11的主要結(jié)構(gòu)如圖2所示。
1.2.1 C3k2_AddBlock_CGLU
為了解決C3k2模塊在特征提取過程中存在的瓶頸問題,本研究對其結(jié)構(gòu)進(jìn)行了深入改進(jìn)。傳統(tǒng)的C3k2模塊在信息傳遞和特征融合方面可能存在效率低下的情況,限制了模型對細(xì)粒度特征的捕捉能力。通過引入AGLU-Bottleneck替換Bottleneck,在保證模型性能的前提下,顯著降級了模型的計(jì)算成本和內(nèi)存占用。C3k2_AddBlock_CGLU結(jié)構(gòu)圖如圖3所示。
其中,當(dāng)C3k為True時,殘差塊為C3k-AGLU,如圖4所示,否則,殘差塊為AGLUBottleneck。
AGLU-Bottleneck在其主干結(jié)構(gòu)中引入了卷積加性標(biāo)記混合器(CATM)[1o],通過融合卷積操作和加性自注意力機(jī)制,實(shí)現(xiàn)了在保持高性能的同時顯著降低計(jì)算開銷。該模塊由Integration子網(wǎng)絡(luò)、CATM和MLP三部分組成,并采用殘差連接策略。Integration子網(wǎng)絡(luò)由三個帶有ReLU激活函數(shù)的深度卷積層構(gòu)成。CATM利用軸向注意力機(jī)制,將二維空間的自注意力計(jì)算分解為水平方向和垂直方向的兩次一維注意力計(jì)算。這種方法不僅大幅降低了計(jì)算復(fù)雜度,還保留了捕獲全局特征的能力。對于輸入 其中 C 為通道數(shù), H 和 W 分別為特征圖的高度和寬度,CATM的計(jì)算公式如下:
在上述公式中,Query、Key 和Value 是通過獨(dú)立的線性變換獲得的,例如 , ? ( ? ) 為上下文映射函數(shù),包含了信息交互,具體體現(xiàn)為基于Sigmoid的通道注意力和空間注意力機(jī)制。在Query和Key分支上均進(jìn)行了相似度提取,并保留了各自分支的原始特征維度。這種方法有助于更好地保留視覺稀疏特征,避免在二維特征向量中發(fā)生信息丟失。因此,CATM的輸出公式為:
O = τ ( ? ( Q ) + ? ( K ) ) ? V
其中, 為用于整合上下文信息的線性變換,由于CATM中的操作由卷積表示,復(fù)雜度為O ( N ) 。
其次,本文引入條件門控線性單元(CGLU)[]模塊作為MLP層,利用條件門控線性單元動態(tài)調(diào)節(jié)特征通道的權(quán)重,使模型能夠自適應(yīng)地關(guān)注關(guān)鍵特征,抑制冗余信息。CGLU在GLU的門控分支的激活函數(shù)之前添加了一個簡化的 3 × 3 深度卷積,將其轉(zhuǎn)換為基于最近鄰特征的門控通道注意力機(jī)制。該模塊彌合了GLU和 機(jī)制之間的差距,增強(qiáng)了模型的局部建模能力和魯棒性。給定一個輸入C∈R×H×W,池化大小為
,窗口大小為 k × k ,則CGLU的計(jì)算復(fù)雜度
為:
式中: 和
為待變池化層的高度和寬度; C 為輸入數(shù)據(jù)的特征圖通道。
綜上,對于YOLOv11主干網(wǎng)絡(luò)中C3k2進(jìn)行改進(jìn),改進(jìn)后的C3k2模塊不僅提高了特征融合的效率,還有效緩解了信息流動中的瓶頸效應(yīng),增強(qiáng)了模型對細(xì)粒度特征的捕捉能力,為水果成熟度檢測任務(wù)的精度提升奠定了堅(jiān)實(shí)基礎(chǔ)。AGLU-Bottleneck模型圖如圖5所示。
1.2.2 注意力機(jī)制
為了應(yīng)對水果成熟度檢測中復(fù)雜環(huán)境和多樣干擾因素的問題,同時在保證目標(biāo)檢測和精度的情況下降低計(jì)算量和參數(shù)量,本文在C2PSA模塊后引入了自適應(yīng)細(xì)粒度通道注意力(AdaptiveFine-grainedChannelAttention,AFCA)機(jī)制來提升網(wǎng)絡(luò)性能[13]。AFCA模塊的引入旨在進(jìn)一步優(yōu)化網(wǎng)絡(luò)對關(guān)鍵特征的提取能力,實(shí)現(xiàn)對目標(biāo)區(qū)域的精準(zhǔn)關(guān)注。AFCA模塊的引入有兩個關(guān)鍵方面:
1)AFCA通過通道自適應(yīng)調(diào)整來精細(xì)化地處理全局信息,使網(wǎng)絡(luò)能夠關(guān)注到水果的整體顏色、紋理等重要特征。具體而言,AFCA首先利用全局平均池化(Global AveragePooling,GAP)提取輸入特征圖的通道信息,通過自適應(yīng)機(jī)制為每個通道分配權(quán)重,動態(tài)調(diào)整通道重要性,從而優(yōu)化對水果成熟度特征的提取。
2)AFCA通過局部信息交互進(jìn)一步增強(qiáng)網(wǎng)絡(luò)對水果細(xì)節(jié)的感知,特別是在表面紋理和斑點(diǎn)等小范圍特征上,AFCA能夠有效捕捉這些局部信息,從而提升對水果成熟度的識別精度。
AFCA模塊通過計(jì)算局部通道信息與全局通道信息的相關(guān)性,生成一個相關(guān)矩陣,這個矩陣通過逐點(diǎn)相乘的方式與輸入特征圖相結(jié)合,得到優(yōu)化后的特征圖。這樣,網(wǎng)絡(luò)能夠在水果表面發(fā)生細(xì)微變化時,更加靈敏地反應(yīng)并精確判斷成熟度。AFCA模型圖如圖6所示。
通過在C2PSA模塊后引入AFCA注意力機(jī)制,AGLU-YOLO模型能夠更有效地處理復(fù)雜環(huán)境中的水果成熟度檢測任務(wù)。AFCA不僅提升了網(wǎng)絡(luò)對水果表面細(xì)節(jié)的感知能力,還通過全局和局部信息的融合,優(yōu)化了特征圖的表示,增強(qiáng)了水果成熟度分類的準(zhǔn)確性。同時,AFCA通過自適應(yīng)權(quán)重分配機(jī)制有效減少了不必要的計(jì)算和參數(shù),提升了計(jì)算效率,在進(jìn)行大規(guī)模水果成熟度檢測時依然能保持較高的實(shí)時性和準(zhǔn)確性。
2 結(jié)果與分析
2. 1 實(shí)驗(yàn)環(huán)境
本文模型通過使用PyTorch框架實(shí)現(xiàn),實(shí)驗(yàn)環(huán)境及配置如表1所示。
在訓(xùn)練過程中,本文將輸入圖像的尺寸設(shè)置為6 4 0 × 6 4 0 像素,數(shù)據(jù)加載的工作線程數(shù)(workers)設(shè)置為16,批次大小(batchsize)為32。最大訓(xùn)練迭代次數(shù)設(shè)為300次,同時采用早停策略,設(shè)置耐心值(patience)為30,即當(dāng)驗(yàn)證集上的性能在連續(xù)30輪迭代中未出現(xiàn)顯著提升時,自動停止訓(xùn)練,以有效防止過擬合。此外,優(yōu)化算法選擇了隨機(jī)梯度下降(SGD)
并結(jié)合學(xué)習(xí)率衰減等技術(shù),以提高模型的泛化能力。
2.2 評估標(biāo)準(zhǔn)
為了全面衡量改進(jìn)后的YOLOv11模型在水果成熟度檢測任務(wù)中的性能,本研究采用了一系列評價指標(biāo),從檢測精度(Precision)、召回率(Recall)、平均精度 ( 和
和浮點(diǎn)運(yùn)算次數(shù)(FLOPs)等參數(shù)進(jìn)行評估,計(jì)算公式如下:
在本研究中,評估指標(biāo)公式中的各個符號在水果成熟度檢測任務(wù)中具有特定的含義。TP模型能夠準(zhǔn)確檢測并正確分類為某一成熟度等級的水果數(shù)量;假陽性(FalsePositives,F(xiàn)P)則指模型錯誤地將未達(dá)到該成熟度等級的水果識別為該等級的次數(shù);假陰性(FalseNegatives,F(xiàn)N)表示實(shí)際屬于某一成熟度等級但未被模型檢測到的水果數(shù)量;平均精度(AveragePrecision,AP)和平均精度均值(meanAveragePrecision,mAP)分別用于評估單一成熟度等級和所有成熟度等級的檢測性能,通過在不同召回率下的精度平均值來衡量模型的綜合檢測能力。GFLOPs衡量模型在處理過程中所需的計(jì)算量,用于評估模型在資源受限環(huán)境中的可行性。
2.3 消融實(shí)驗(yàn)
AGLU-YOLOv11通過改進(jìn)C3k2模塊,融合AGLU-Bottleneck替換Bottleneck,創(chuàng)建C3k2AddBlockCGLU模塊。此外,引入AFCA注意力機(jī)制,強(qiáng)化了全局特征與語義信息的捕捉與建模能力。實(shí)驗(yàn)結(jié)果如表2所示。
實(shí)驗(yàn)結(jié)果表明,將YOLOv11中的C3k2模塊替換為C3k2AddBlockCGLU模塊,準(zhǔn)確率提升了1 . 5 % ,平均精度提升 0 . 8 % ,計(jì)算量下降0.1GFloPs;在YOLOvl1的基礎(chǔ)上加入AFCA注意力機(jī)制,精度提升 0 . 9 % ,召回率提升 0 . 5 % ,平均精度提升 1 % 融合后,精度提升 2 . 5 % ,召回率提升 0 . 6 % ,平均精度提升 1 . 4 % ,計(jì)算量下降0.1GFloPs。
2.4 模型對比
為了驗(yàn)證AGLU-YOLOvI1擁有更好的性能,本文通過對YOLO不同版本進(jìn)行對比實(shí)驗(yàn),使用準(zhǔn)確率、召回率、mAP、計(jì)算量5種指標(biāo)進(jìn)行評估模型,各項(xiàng)指標(biāo)對比結(jié)果如表3所示。
實(shí)驗(yàn)結(jié)果表明,本文提出的模型AGLU-YOLOv11在準(zhǔn)確率、召回率、mAP、計(jì)算量上均優(yōu)于其他模型。與YOLOv5相比,準(zhǔn)確率提升 3 . 4 % 。召回率提升 1 % ,平均精度提升 3 . 5 % ;與YOLOv8相比,準(zhǔn)確率提升 0 . 7 % ,平均進(jìn)度提升 2 . 5 % ;與YOLOv10相比,準(zhǔn)確率提升 5 % ,平均精度提升 3 . 1 % ,與YOLOvlls相比,準(zhǔn)確度提升 0 . 5 % ,平均精度提升 0 . 4 % 。因此,本文提出的AGLU-YOLOvI1能夠有效提升目標(biāo)識別能力和全局特征建模能力,為水果成熟度檢測提供了一種高效且可靠的技術(shù)方案。
2.5 檢測結(jié)果分析
為全面展示AGLU-YOLOv11的性能表現(xiàn),本文在相同的數(shù)據(jù)集上對該模型及原始YOLOv1ln模型進(jìn)行了檢測,并對檢測結(jié)果進(jìn)行了可視化分析。通過對比可以直觀發(fā)現(xiàn),AGLU-YOLOv11在目標(biāo)檢測和成熟度識別方面的性能優(yōu)于原始模型。具體檢測結(jié)果如圖7所示。
從可視化結(jié)果可以看出,AGLU-YOLOv11在水果檢測的準(zhǔn)確性方面明顯優(yōu)于YOLOv1ln模型。在YOLOvlln的檢測結(jié)果中,存在一定的漏檢現(xiàn)象,而AGLU-YOLOv11則能夠更全面地識別目標(biāo)。此外,在水果成熟度的檢測任務(wù)中,AGLU-YOLOv11展現(xiàn)出了更高的檢測效果,有效提高了對不同成熟階段果實(shí)的識別能力。
3結(jié)論
本文提出了一種基于改進(jìn)YOLOv11的水果成熟度檢測算法(AGLU-YOLOv11),通過改進(jìn)C3k2模塊并引入AFCA注意力機(jī)制,顯著提升了模型在復(fù)雜場景下的檢測精度和魯棒性。實(shí)驗(yàn)結(jié)果表明,該模型在小目標(biāo)檢測和水果成熟度識別方面表現(xiàn)出明顯優(yōu)勢,同時具備更強(qiáng)的泛化能力。結(jié)合區(qū)塊鏈農(nóng)產(chǎn)品源系統(tǒng),AGLU-YOLOv11能夠?yàn)楦哔|(zhì)量數(shù)據(jù)采集提供技術(shù)支持,實(shí)現(xiàn)從生產(chǎn)到流通的全鏈條質(zhì)量追蹤。未來研究可進(jìn)一步拓展模型在多品種水果檢測中的應(yīng)用潛力,并結(jié)合更大規(guī)模的多模態(tài)數(shù)據(jù)集,探索更加高效的輕量化檢測框架,為農(nóng)業(yè)智能化和農(nóng)產(chǎn)品溯源體系提供先進(jìn)的技術(shù)解決方案。
參考文獻(xiàn):
[1]趙杰斌,鄧浩,徐振林.基于食品安全指數(shù)法的臺山市蔬菜和水果農(nóng)藥殘留風(fēng)險評估[J].現(xiàn)代食品科技,2023,39(6):277-283.
[2]田有文,吳偉,盧時鉛,等.深度學(xué)習(xí)在水果品質(zhì)檢測與分級分類中的應(yīng)用[J].食品科學(xué),2021,42(19):260-270.
[3]CUBEROS,ALEIXOSN,ALBERTF,etal.Optimised ComputerVision System forAutomatic Pre-GradingofCitrusFruitintheFieldUsingaMobilePlatform[J].PrecisionAgriculture,2014,15(1):80-94.
[4] OHALI AY.ComputerVision Based Date Fruit Grading System:Design and Implementation [J].Journal ofKing Saud University-Computer and Information Sciences,2010,23(1): 29-36.
[5]宋立航,張屹,時寅豪.基于改進(jìn)YOLOv5s的自然 環(huán)境下油桃成熟度檢測方法[J].中國農(nóng)機(jī)化學(xué)報,2024,45(9): 250-257+2.
[6] ZHAO JF,DU CF,LIY,et al.YOLO-Granada: A Lightweight Attentioned Yolo for Pomegranates Fruit Detection [J/ OL].Scientific Reports,2024,14(1):16848[2024-10-26]. https://doi.0rg/10.1038/s41598-024-67526-4.
[7] REDMON J. You Only Look Once, Unified,Real-Time Object Detection [C]//Proceedings of the IEEE Conference on ComputerVision and Pattern Recognition.LasVegas:IEEE, 2016:779-788.
[8]常琳凱,馬繼東,張昊,等.基于改進(jìn)YOLOv8的木 材表面缺陷檢測研究[J/OL].林業(yè)工程學(xué)報,2024:1-12[2024- 12-03].https://doi.org/10.13360/j.issn.2096-1359.202410002.
[9]ARISTOTELES,SYARIF A,SUTYARSO,et al. Identification of Human Sperm Based on Morphology Using the You Only Look Once Version 4 Algorithm [J/OL].International Journal of Advanced Computer Science and Applications (IJACSA),2022,13(7) [2024-11-02].https://dx.doi. org/10.14569/IJACSA.2022.0130752.
[10] ZHANG T,LIL,ZHOU Y,et al.CAS-ViT: Convolutional Additive Self-Attention Vision Transformers for Efficient Mobile Applications [J/OL].arXiv:2408.03703 [cs.CV]. [2024-10-28].https://arxiv.org/abs/2408.03703?context=cs.
[11] SHI D. TransNeXt: Robust Foveal Visual Perception for Vision Transformers [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE,2024:17773-17783.
[12] HU J,SHENL,SUN G. Squeeze-and-Excitation Networks [J].IEEE Transactions on Patern Analysis and Machine Intelligence,2019,42(8):2011-2023.
[13] SUN H,WENY,F(xiàn)ENGH,et al.Unsupervised Bidirectional Contrastive Reconstruction and Adaptive FineGrained Channel Atention Networks for Image Dehazing [J/OL]. Neural Networks,2024,176:106314[2024-11-02].https://doi. org/10.1016/j.neunet.2024.106314.
作者簡介:趙鵬(1973一),男,漢族,山西太原人,教授,博士在讀,研究方向:軟件工程、大數(shù)據(jù)、區(qū)塊鏈;強(qiáng)光磊(2001一),男,漢族,安徽蕪湖人,碩士研究生在讀,研究方向:區(qū)塊鏈、目標(biāo)檢測;通信作者:盧波(1988—),男,漢族,山西晉中人,博士,研究方向:區(qū)塊鏈、協(xié)議安全性分析;高揚(yáng)(2000一),男,漢族,山西忻州人,碩士研究生在讀,研究方向:圖像處理、目標(biāo)檢測;張仟祥(2000一),男,漢族,山西太原人,碩士研究生在讀,研究方向:特征識別、嵌入式與物聯(lián)網(wǎng)工程。