中圖分類號:TP391.41 文獻標(biāo)志碼:A
Improved YOLOv8 for gas flame state recognition under low-pressure conditions
SAl Qingyi1,ZHAO Jin1,YAN Yonghui1,BI Degui2 (1.SchoolofEnergyandPowerEngineering,UniversityofShanghaiforScienceandTechnologyhanghai 2o93,China; 2.SchoolofEnvironmentandArchitecture,UniversityofShanghaiforScienceandTechnologyShanghai 2Oo93,China)
Abstract: Gas flame detection in high-altitude low-pressure environments faces dual challnges of insufficient recognition accuracy and real-time performance degradation. This study proposes an improved lightweight YOLOv8n algorithm with multi-dimensional optimizations for enhanced performance. First, a GhostConv module was constructed in the backbone to reduce computational parameters. Second, the C2f module was restructured into a C2f_RepGhost configuration that maintained feature representation capability while simplifying inference processes. Finaly, the convolutional block attention module (CBAM) attention mechanism was incorporated to strengthen fine-grained flame feature extraction, and the WIoU loss function was adopted to improve localization accuracy. Experimental results based on mechanism testbed data demonstrate that the improved model's parameter count decrease by 12.64% , computational load decrease by 12.2% , and precision increase by 21.2% while maintaining frame rate detection. This method provides an effective lightweight solution for flame state recognition in low-pressure environments.
Keywords: low-pressure; flame detection; deep learning; YOLOv8; attention mechanism
以甲烷為主要燃料的燃氣爐對燃燒穩(wěn)定性的要求極高,不穩(wěn)定燃燒或熄火現(xiàn)象極易觸發(fā)爆炸事故。高原地區(qū)低壓、低氧環(huán)境會降低甲烷的燃燒效率[1],導(dǎo)致火焰形態(tài)[和穩(wěn)定性[3]等發(fā)生變化,進而影響燃燒過程的安全性。因此,精準(zhǔn)識別火焰狀態(tài)對燃燒過程的實時監(jiān)控與安全預(yù)警至關(guān)重要,關(guān)系到生命與財產(chǎn)安全。
早期的燃氣火焰狀態(tài)檢測技術(shù)依靠紅外攝像機、溫度傳感器、壓力傳感器等硬件設(shè)備[4],易被干擾并且準(zhǔn)確率不高。近年來,深度學(xué)習(xí)技術(shù)在圖像檢測領(lǐng)域取得了很好的應(yīng)用效果,逐漸成為了主流檢測手段。白衛(wèi)東等[5]采用支持向量機(supportvectormachine,SVM)對鍋爐燃燒火焰圖像進行分類識別,實現(xiàn)了準(zhǔn)確的燃燒狀態(tài)監(jiān)測。Ronquillo-Lomeli等l運用概率神經(jīng)網(wǎng)絡(luò)(probabilisticneuralnetwork,PNN)算法對鍋爐火焰進行分類,準(zhǔn)確率達到了 90% 以上。Gangopadhyay等[7]使用3D神經(jīng)網(wǎng)絡(luò)和長短期記憶網(wǎng)絡(luò),實現(xiàn)了對實驗室燃燒火焰的穩(wěn)定與不穩(wěn)定狀態(tài)的識別。Zhao 等[8結(jié)合YOLOv8與VQ-VAE,提高了實際檢測的準(zhǔn)確率。Yar等改進了YOLOv5s模型,減少了模型尺寸和復(fù)雜度,并提高了準(zhǔn)確率。王冠博等[]提出了改進YOLOv4-tiny 輕量化模型,通過增加感受野并對模型進行剪枝,提升準(zhǔn)確率的同時大幅減少了模型參數(shù)量以及權(quán)重文件。陳露萌等[1]改進了YOLOv5s模型,在特征提取部分添加協(xié)同注意力機制,并改進 a -CIoU,提高了模型的收斂速度。
盡管這些研究在平原環(huán)境下取得了良好的效果,但在高原環(huán)境下,火焰的邊緣形狀、面積和顏色變化迅速:隨著氣壓降低,火焰邊緣形狀膨脹變得更加明顯;面積也隨之?dāng)U大;火焰顏色由明黃色變成淡藍色,加之氧濃度下降會增加煙氣含量,給火焰圖像的識別及特征分析增加了難度。網(wǎng)絡(luò)的加深會不可避免地導(dǎo)致火焰圖像信息減少或缺失,準(zhǔn)確率的提高常以降低檢測速度為代價。針對這些問題,本文提出了一種基于改進YOLOv8的火焰狀態(tài)檢測算法。該算法通過輕量化設(shè)計,優(yōu)化模型主干,顯著提高了檢測速度;此外,通過引入注意力機制,增強了模型對火焰細粒度特征的捕捉能力,從而提升檢測精度。通過性能分析與實際測試,證明了本文方法的有效性和可行性。
1 YOLOv8算法簡介
YOLO系列因其在速度與準(zhǔn)確性之間的卓越平衡而備受關(guān)注。2023年1月,原YOLOv5的開發(fā)團隊推出了最新版本YOLOv8,提供了n、s、m、1、x5種規(guī)格。YOLOv8繼承并擴展了前代模型的特性,展現(xiàn)了優(yōu)異的性能,尤其在火焰圖像目標(biāo)檢測方面表現(xiàn)突出。
YOLOv8由backbone、neck和head這3部分組成,其結(jié)構(gòu)如圖1所示。backbone部分包括Conv、C2f和SPPF模塊,旨在擴展網(wǎng)絡(luò)的深度和感受野,實現(xiàn)局部與全局特征的融合。neck部分由C2f、Concat和Upsample模塊組成,通過路徑聚合網(wǎng)絡(luò)和C2f模塊,整合不同尺度的特征圖,促進信息的垂直融合。head部分采用了解耦結(jié)構(gòu),將分類和定位預(yù)測分開處理,有助于解決二者之間的沖突。與之前的版本相比,YOLOv8在目標(biāo)檢測、跟蹤和分割等任務(wù)中表現(xiàn)更加出色。
2 改進YOLOv8模型
本文基于YOLOv8算法模型,提出了一種輕量化的YOLOv8火焰類別檢測模型。該模型的改進主要體現(xiàn)在4個方面:a.為了解決模型參數(shù)量過大的問題,引進了GhostNet[12]網(wǎng)絡(luò)中的GhostConv模塊替換網(wǎng)絡(luò)中backbone層里的Conv模塊;b.改進C2f模塊為C2f_RepGhost,GhostConv和C2f_RepGhost都采用了重參數(shù)技術(shù),可以有效降低模型的計算量;c.為確保模型的檢測精度,在neck和head部分添加卷積塊注意力模塊(convolutional block attention module,CBAM)[13]注意力機制;d.為了提高模型的回歸性能,采用WIoU(wiseintersectionoverunion)替代原始的CIoU(complete intersectionoverunion),提高模型的收斂能力。改進后的結(jié)構(gòu)如圖2所示。
2.1 GhostConv模塊
GhostNet是華為諾亞方舟實驗室設(shè)計的一種輕量級網(wǎng)絡(luò),它可以使原有卷積輸出特征圖的尺寸以及通道的大小保持不變,同時還能降低模型的計算量和參數(shù)量。在實際的操作中,輸人圖像數(shù)據(jù) X∈Rh×w×c ,其中 c 為輸入通道數(shù), h 、 w 分別為圖片的高度和寬度;輸出圖像數(shù)據(jù) Y∈Rh'×w'×n n 為輸出通道數(shù), h' 和w為圖片的高度和寬度;卷積核大小為 k×k ;線性操作的核大小為 d×d 。將輸
入圖像數(shù)據(jù)分為s份,則:
傳統(tǒng)卷積層的參數(shù)量為
Ghost模塊的參數(shù)量為
此時壓縮比為
用Ghost模塊升級普通卷積的理論加速比為
因此,GhostConv作為GhostNet網(wǎng)絡(luò)中的一個卷積模塊,與普通的卷積相比,有效地提高了模型的效率和性能。
2.2 C2f模塊輕量化
RepGhost模塊是一種輕量級的網(wǎng)絡(luò)結(jié)構(gòu),能夠在減少計算資源消耗的同時保持模型性能[14]
YOLOv8網(wǎng)絡(luò)中使用的C2f模塊能夠?qū)⒌图壓透呒壧卣鲌D融合,從而提升檢測的準(zhǔn)確性和魯棒性。然而,這一特性也增加了模型的計算復(fù)雜度,導(dǎo)致訓(xùn)練和推理時間延長。為了解決這一問題并提高模型效率,將C2f模塊與RepGhost模塊集成,形成了C2f_RepGhost混合模塊。該模塊在保留火焰圖像多尺度特征融合的同時,顯著降低了計算負(fù)載,通過引人RepGhost模塊,C2f_RepGhost模塊有效提升了推理和檢測速度。
2.3 CBAM注意力機制
火焰狀態(tài)識別屬于細粒度識別問題[15],通過添加注意力機制,可以讓模型更快地找到火焰圖像中重要的區(qū)域,提高圖像分類速度。注意力機制旨在模仿人類視覺感知[,專注于關(guān)鍵特征同時抑制非必要特征。CBAM代表一種輕量級的卷積注意力模塊,將其整合到卷積神經(jīng)網(wǎng)絡(luò)中,可以顯著提升模型性能。CBAM引入的額外參數(shù)和計算需求極小,使其適合嵌入到大多數(shù)卷積網(wǎng)絡(luò)中。
火焰圖像特征圖在不同維度上攜帶不同信息:通道維度提供了火焰的顏色信息、熱輻射等,而空間維度則提供了火焰的形狀輪廓、尺寸面積、紋理特征等。CBAM整合了通道注意力模塊(channelattentionmodule,CAM)和空間注意力模塊(spatialattentionmodule,SAM),這兩個子模塊以串行方式組合,依次在通道維度和空間維度上生成注意力特征圖。CBAM利用通道間的特征關(guān)系來創(chuàng)建通道注意圖,然后與空間注意力相連,產(chǎn)生最具信息量的特征圖。
2.4 損失函數(shù)
在YOLOv8中,傳統(tǒng)的邊界框回歸損失函數(shù)被CIoUloss替代,以解決無法有效區(qū)分不同回歸情況的問題。CIoUloss是一種先進的損失函數(shù),它不僅考慮邊界框之間的重疊區(qū)域(即交并比),還包括邊界框中心的距離和長寬比的匹配程度[17]。
然而,CIoUloss仍有局限性,它在處理高度重疊或相交的邊界框時效果不佳,且在優(yōu)化過程中對邊界框的尺寸和形狀變化敏感。為此,本文采用了WIoU損失函數(shù),其核心理念是在計算交并比時引入加權(quán)機制,以更好地反映邊界框之間的相對位置、尺寸和形狀差異[18]。這種方法的基本原則是,通過對邊界框的不同區(qū)域和特征賦予不同的權(quán)重,提高回歸損失的敏感性和準(zhǔn)確性。
WIoU回歸損失函數(shù)根據(jù)離群度動態(tài)調(diào)整錨框的梯度增益,旨在訓(xùn)練過程中最大化錨框的梯度增益。通過使用WIoU,降低了高質(zhì)量錨框的競爭性,同時也減少了由低質(zhì)量示例產(chǎn)生的有害梯度。這種對平均質(zhì)量錨框的關(guān)注轉(zhuǎn)移提高了檢測器的整體性能。
3 實驗設(shè)計與結(jié)果分析
3.1 數(shù)據(jù)集建立
實驗的圖片數(shù)據(jù)均來自理工大學(xué)低氣壓燃氣燃燒機理實驗臺。以最典型的高原城市拉薩為例,海拔 3650m ,大氣壓約為 65kPa 。為模擬其低氣壓環(huán)境,用真空泵和變頻器將低壓燃燒室的氣壓抽到并維持在 65kPa 左右,實驗裝置和實驗系統(tǒng)示意圖如圖3所示。將氧氣、氮氣先通到混氣罐中混合均勻,再將混合后的氣體同甲烷按照不同的當(dāng)量比送進燃燒室,使用電子點火裝置點火,并用工業(yè)CCD相機采集不同當(dāng)量比的燃氣火焰在低氣壓狀態(tài)下的圖像,包括預(yù)混穩(wěn)定火焰、擴散穩(wěn)定火焰、預(yù)混不穩(wěn)定火焰和擴散不穩(wěn)定火焰這4種狀態(tài)。
將采集到的視頻轉(zhuǎn)換成png圖片。為了增加數(shù)據(jù)集的多樣性和提高模型的泛化能力,對圖片進行數(shù)據(jù)增強操作,包括隨機調(diào)整圖片的亮度和飽和度、進行圖片鏡像以及添加隨機的高斯噪聲。最后得到共8140張圖片數(shù)據(jù),對圖片進行數(shù)據(jù)標(biāo)注,并按照訓(xùn)練集:測試集為 8:2 進行分配,其中訓(xùn)練集共6512張,測試集共1628張。
3.2 實驗環(huán)境及參數(shù)配置
本次實驗基于64位Windows11操作系統(tǒng),采用PyTorch2.0.0,CUDA11.7,Python3.9.16作為實驗環(huán)境。所用計算機硬件參數(shù):CPU為Intel(R)Core(TM)i5-12490F;內(nèi)存為32G;GPU為NVIDIAGeForceRTX2080Ti;顯存為 22G 。epoch為200輪,有助于模型更好地擬合數(shù)據(jù);批大小為16;優(yōu)化器選擇經(jīng)典的SGD;初始和最終學(xué)習(xí)率分別設(shè)置為0.001和0.01,以提高收斂過程的穩(wěn)定性;Mixup設(shè)置為0.2;Degrees設(shè)置為5,以增加數(shù)據(jù)的多樣性,提高模型的泛化能力及魯棒性。
3.3 評價指標(biāo)
為了直觀地體現(xiàn)模型改進后性能的提升效果,本文采用以下指標(biāo)對模型進行整體性能評價:準(zhǔn)確率 P 用來評估預(yù)測的準(zhǔn)確度;召回率R 用來評估找到正確樣本的能力;平均精度均值(mean average precision, mAP)MAP 是所有類別預(yù)測精準(zhǔn)度的平均值;模型參數(shù)量 p 指模型中參數(shù)的數(shù)量;總浮點運算量 q 用來衡量模型的復(fù)雜度;幀率 ν 指模型每秒鐘能處理的圖像數(shù)量;準(zhǔn)確率和召回率的調(diào)和平均數(shù)用 F1 表示。 P 、 R 及F1 的計算公式為
式中: TP 為預(yù)測正確的正樣本個數(shù); FP 為錯誤地將負(fù)樣本預(yù)測為正樣本的樣本個數(shù); FN 為錯誤地將正樣本預(yù)測為負(fù)樣本的樣本個數(shù)。
通過 P -R(precision-recall)曲線做積分得到平均精度 A ,再對所有的 A 求平均得到 MAP ,其值越高
說明模型檢測效果越好,公式如下:
式中, m 為所有類別數(shù)。
本實驗通過分析平均精度均值、模型參數(shù)量、總浮點運算量、模型大小以及檢測視頻中火焰目標(biāo)的檢測速度,說明改進模型的效果
3.4 實驗結(jié)果
3.4.1對比實驗
在對本文改進模型與YOLOv8n模型進行訓(xùn)練時,兩者的超參數(shù)設(shè)置保持一致。對兩模型的迭代過程中 F1 進行了比較,圖4為兩種模型在200輪訓(xùn)練中 F1 的變化折線圖。由于本文改進模型缺少預(yù)訓(xùn)練權(quán)重,在最初的30輪訓(xùn)練中,其F1 與YOLOv8n的相當(dāng)。在 30~50 輪訓(xùn)練期間,兩模型的 F1 波動明顯,本文改進模型的 F1 高于YOLOv8n的。經(jīng)過50輪后,模型趨于穩(wěn)定,本文改進模型的 F1 持續(xù)超過YOLOv8n的。
表1為本文改進模型與YOLOv8n在準(zhǔn)確率、召回率及其他參數(shù)上的比較。從中可看出,本文改進模型比YOLOv8n模型的準(zhǔn)確率提高了21.2% ,召回率提高了 7.4% , MAP@50 提高了 0.5% 。MAP@50 是在交并比閾值為0.5時,計算得出的MAP 。具體而言,當(dāng)預(yù)測邊界框與真實邊界框的交并比 Igtrsim0.5 時,視為有效預(yù)測。依此標(biāo)準(zhǔn)計算出各類別的 A 后,取其平均值得到 MAP@50 。這些比較結(jié)果證明,本文改進模型在檢測準(zhǔn)確性上優(yōu)于YOLOv8n。此外,經(jīng)過輕量化改進后,本文改進模型的參數(shù)量顯著減少,總浮點運算量減少了12.2% ,模型參數(shù)量減少了 12.64% ,因此,本文改進模型的輕量化效果顯著。
為了進一步評估改進模型的性能,采用Grad-CAM[19] 技術(shù)對比分析了YOLOv8n與本文模型的注意力機制,結(jié)果如圖5所示。圖中紅色區(qū)域為模型在檢測過程中的注意力集中情況。通過對比原始YOLOv8模型與添加了CBAM注意力機制模型的熱力圖,明顯可以看出,添加CBAM注意力機制后,模型的注意力集中區(qū)域更接近于火焰的輪廓,捕捉火焰特征更加準(zhǔn)確,熱力區(qū)域更加集中和清晰。結(jié)果表明,添加CBAM注意力機制能夠顯著提升模型在低氣壓條件下的火焰檢測表現(xiàn)
采用測試集火焰數(shù)據(jù)進行預(yù)測,預(yù)測結(jié)果表明改進模型表現(xiàn)出色:能夠準(zhǔn)確識別和分類火焰,同時還具有較高的置信度和精確的定位能力。部分預(yù)測結(jié)果如圖6所示,
為了驗證文本改進模塊的有效性,在確保各超參數(shù)設(shè)置相同的情況下,進行了與其他YOLO模型的對比實驗,結(jié)果如表2所示。與YOLOv5m、YOLOv51、YOLOv7模型相比,在輕量化方面有很大的優(yōu)勢,并且在檢測準(zhǔn)確率上分別提高了3.8% 、 8.5% 和 8.4% 、在檢測速度上分別提升了45、12和 56f/s ;與YOLOv7-tiny和YOLOv8s模型相比,模型參數(shù)量分別下降了 56.4% 和 15.3% ,總浮點運算量分別降低了 45.5% 和 12.2% ,在檢測準(zhǔn)確率方面分別提高了 10.5% 和 9.1% ,檢測幀率分別提高了 47f/s 和 17f/s ,但是 R 、 F1"和 MAP"有一定的降低。從總體效果來看,相比于其他模型,本文提出的改進模型在輕量化和檢測速率上有明顯的提升,在不降低檢測精度的同時減少了一定的參數(shù)量和計算量,降低了對內(nèi)存資源的消耗。
3.4.2消融實驗
為證明本文添加的模塊對模型性能的提升,設(shè)計并開展了消融實驗。用M1表示GhostConv模塊、M2表示GhostConv+C2f_RepGhost模塊、M3表示GhostConv+C2f_RepGhost+CBAM模塊、M4表示GhostConv + C2f_RepGhost+CBAM+WIoU模塊;實驗結(jié)果如表3所示。
增加GhostConv模塊后,模型的準(zhǔn)確率提升了 20.1% , F1 提升了 6.2% ,同時模型的總浮點運算量下降了 2.43% ,說明該操作對模型輕量化起到了一定的作用;召回率下降了 7.3% ,平均精度均值下降了 0.3% ,這說明了GhostConv雖然減少了運算量,但是會導(dǎo)致模型捕捉到的特征信息減少,使模型錯過一些正樣本,從而使模型的召回率和平均精度均值有所下降。增加C2f_RepGhost后,模型的召回率提升了 2.9% ,但準(zhǔn)確率比原模型下降了 1.2% ,平均精度均值下降了 7.37% ,模型參數(shù)量下降了 11.5% ,總浮點運算量下降了12.2% ,這說明了該模塊對降低模型總浮點運算量有很大的幫助,但是卻丟失了對火焰細粒度特征的捕捉能力,導(dǎo)致模型檢測性能的下降。添加CBAM注意力機制后,模型的準(zhǔn)確率相比添加C2f_RepGhost模塊提升了 21.1% ,同時 F1 和平均精度均值分別提升了 3.1% 和 8.27% ,說明添加了CBAM模塊后,模型關(guān)注到了火焰圖像的細粒度特征,并成功將這些特征進行了提取。更換損失函數(shù)為WIoU后,整體準(zhǔn)確率提高了 10.5% ,平均精度提高了 5.3% ,說明WIoU有助于提高模型的檢測精度。
圖7和圖8給出了不同損失函數(shù)的平均精度均值和評估指標(biāo)。從圖7和圖8可知,與其他損失函數(shù)[20-22]相比,WIoU在準(zhǔn)確率、平均精度均值和F1上均占優(yōu)勢。
4結(jié)論
本文提出了一種改進的YOLOv8n火焰狀態(tài)檢測方法,針對高原環(huán)境下的低氣壓燃氣火焰進行優(yōu)化。通過將原模型的backbone部分中的Conv模塊和C2f模塊分別替換為GhostConv和C2f_RepGhost模塊,我們實現(xiàn)了模型的顯著輕量化。此外,引入CBAM注意力機制進一步提升了模型對火焰細粒度特征的捕捉能力,使其在識別火焰特征時更加高效。改進的損失函數(shù)通過引入WIoU,使模型能夠更加關(guān)注關(guān)鍵火焰特征,顯著提高了對火焰與背景的區(qū)分能力,從而提升了模型的魯棒性和準(zhǔn)確性。
實驗結(jié)果表明,改進后的YOLOv8n模型在輕量化和準(zhǔn)確率提升方面表現(xiàn)優(yōu)異。具體而言,總浮點運算量減少了 12.2% ,模型參數(shù)量減少了12.64% ,準(zhǔn)確率提升了 21.2% ,召回率提升了7.4% 。這些改進使得模型能夠有效減少在高原環(huán)境、低氣壓條件下計算資源的消耗,同時提供了一種燃氣火焰狀態(tài)識別的智能檢測解決方案,可確保對燃氣燃燒過程的安全監(jiān)控,
然而,本研究也存在一定的局限性。首先,改進模型主要在特定的低氣壓火焰檢測任務(wù)中進行了驗證,其在其他環(huán)境條件下的表現(xiàn)仍需進一步評估。其次,雖然模型在準(zhǔn)確率和魯棒性上有所提升,但對于極端火焰特征的檢測能力仍需進一步優(yōu)化。未來的研究可以考慮擴展模型在不同環(huán)境條件下的適用性,探索更多有效的特征提取技術(shù),并結(jié)合實時處理需求,以進一步提升火焰檢測系統(tǒng)的整體性能和適應(yīng)性。
參考文獻:
[1] ZHOUY,HUANGXM,PENG SN,etal.Comparative study on the combustion characteristics of an atmospheric induction stove in the plateau and plain regions of China[J]. Applied Thermal Engineering,2017,111:301-307.
[2]XIE K,CUI Y J,QIU X Q,et al.Combustion characteristics of horizontal diesel spray burner in lowpressure chamber based on multivariate correlation analysis[J]. Complexity,2019,2019(1): 9421986.
[3]XIEK,CUI Y J,QIU X Q,et al.Experimental investigation on horizontal jet spray flame characteristics witha constant air-fuel ratio in different sub-atmospheric pressures[J].Applied Thermal Engineering,2020,165: 114555.
[4]徐偉勇,余岳峰,張銀橋,等.采用傳像光纖和數(shù)字圖像 處理技術(shù)檢測燃燒火焰[J].動力工程,1999,19(1): 45-48,79.
[5]白衛(wèi)東,嚴(yán)建華,馬增益,等.基于支持向量機的火焰狀 態(tài)識別方法[J].動力工程,2004,24(4):548-551.
[6]RONQUILLO-LOMELI G,GARCIA-MORENO A I.A machine learning-based approach for flames classification in industrial Heavy Oil-Fire Boilers[J].Expert Systems with Applications,2024,238: 122188.
[7]GANGOPADHYAY T, TAN S Y,LOCURTO A,et al. Interpretable deep learning for monitoring combustion instability[J].IFAC-PapersOnLine,2020,53(2):832-837.
[8]ZHAOHY,JINJ,LIUY,etal.FSDF:ahigh-performance firedetectionframework[J].ExpertSystemswith Applications,2024,238:121665.
[9]YARH,KHANZA,ULLAHFUM,etal.A modified YOLOv5 architecture for efficient fire detection in smart cities[J].Expert Systemswith Applications,2023,231: 120465.
10]王冠博,趙一帆,李波,等.改進YOLOv4-tiny 的火焰實 時檢測[J].計算機工程與科學(xué),2022,44(12):2196-2205.
11] 陳露萌、曹彥彥、黃民,等.基于改進YOLOv5的火焰檢 測方法[J].計算機工程,2023,49(8):291-301,309.
[12]HAN K, WANG Y H, TIAN Q, et al.GhostNet: more features from cheap operations[C]//Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Seattle:IEEE,2020:1580-1589.
[13]WOOS,PARKJ,LEEJY,etal.CBAM:convolutional block attention module[C]//Proceedings of the15th European Conference on ComputerVision. Munich: Springer,2018:3-19.
[14]CHEN C P, GUO ZC, ZENG H E, et al. RepGhost:a hardware-efficient ghost module via reparameterization[EB/OL].[2024-07-31]. https://doi.org/ 10.48550/arXiv.2211.06088.
[15]WEI X S, SONG Y Z, MAC AODHA O, et al. Finegrained image analysis with deep learning: a survey[J] IEEE Transactions on Pattern Analysis and Machine Intelligence,2022,44(12): 8927-8948.
[16]胡丹丹,張忠婷,牛國臣.融合CBAM注意力機制與可變 形卷積的車道線檢測[J].北京航空航天大學(xué)學(xué)報,2024, 50(7): 2150-2160.
[17] ZHENG Z H, WANG P, REN D W, et al. Enhancing geometric factors in model learning and inference for object detection and instance segmentation[J]. IEEE Transactions on Cybernetics, 2022, 52(8): 8574-8586.
[18] TONG Z J,CHEN Y H,XU Z W,et al. Wise-IoU: bounding box regression loss with dynamic focusing mechanism[EB/OL]. [2023-08-08]. https://doi.org/ 10.48550/arXiv.2301.10051.
[19]SELVARAJURR, COGSWELL M,DASA,etal.GradCAM: visual explanations from deep networksvia gradient-based localization[C]//Proceedings of 2017 IEEE International Conference on Computer Vision. Venice: IEEE,2017:618-626.
[20]ZHANG YF,REN W Q,ZHANG Z,et al.Focal and efficient IOU loss for accurate bounding box regression[J]. Neurocomputing,2022, 506:146-157.
[21] GEVORGYAN Z. SIoU loss: more powerful learning for bounding box regression[EB/OL]. [2022-05-25]. https:// doi.org/10.48550/arXiv.2205.12740.
[22]MASL,XUY.MPDIoU:alossforefficientand accurate bounding box regression[EB/OL]. [2023-07-14]. https:// doi.org/10.48550/arXiv.2307.07662.
(編輯:董偉)