Abstract:Aiming at the problem of low accuracy in flame detection caused by complex smoke and dust environments in fire scenes,an efficient and precise flame detection method based on the YOLOv8n model was proposed.First,a variety of fire scene images were selected as the original images for the dataset,and random noise,such as salt and pepper noise, was added to simulate a smoke and dust environment. Second, a median filtering module was embedded at the front of the model's network framework to enhance the network's capability to handle interference noise in smoke and dust environments.Finall,byutilizing Ghost convolution modules and designing crosslayer connection networks at diferent lay levels,the number of parameters was reduced while the generalization capability of the network was optimized.This enable real-time and high-precision flame detection in fire scene with noise interference. Experimental results show that the improved YOLOv8n model had superior real-time performance and detection accuracy performance.
Keywords:flame detection;random noise;YOLOv8n model;median filtering module; lightweight Ghost convolution
火災(zāi)的發(fā)生對(duì)人們的生命和財(cái)產(chǎn)造成嚴(yán)重威脅[],,傳統(tǒng)的火災(zāi)檢測(cè)方法采用溫度傳感器進(jìn)行檢測(cè),這種檢測(cè)方法造價(jià)昂貴且不適用室外場(chǎng)景的應(yīng)用[2]。近年來(lái),基于圖像的深度學(xué)習(xí)目標(biāo)檢測(cè)方法得到了廣泛應(yīng)用[3],這種方法不受場(chǎng)景限制,能夠有效應(yīng)用于室外環(huán)境,例如,森林、草場(chǎng)等[4]。及時(shí)、準(zhǔn)確地檢測(cè)火災(zāi)中的火焰,可以在火災(zāi)早期采取有效的應(yīng)對(duì)措施[5]。
傳統(tǒng)的基于圖像的的火災(zāi)檢測(cè)方法常采用火焰的顏色特征進(jìn)行識(shí)別[6],如基于顏色空間[7]、HSV(色調(diào)、飽和度、明度)8]、YUV(明亮度、色訊、亮度)[9]和 YCbCr[10] 等,但在面對(duì)早期火焰及存在相似色彩干擾的情況下,檢測(cè)結(jié)果常常不盡人意。隨著深度學(xué)習(xí)的發(fā)展,基于卷積的先進(jìn)圖像處理方法為火災(zāi)場(chǎng)景火焰檢測(cè)提供了一種更為有效的解決方案。目前,基于深度學(xué)習(xí)的火焰檢測(cè)方法主要包括 FasterR-CNN[11]、Mask R-CNN[12]、 SSD[13] 雙階段模型,以及YOLO系列[14-16]的單階段模型。與雙階段模型相比,單階段模型只需經(jīng)過(guò)一次前饋網(wǎng)絡(luò)就可以實(shí)現(xiàn)對(duì)目標(biāo)的檢測(cè),兼顧檢測(cè)速度及準(zhǔn)確性。
近年來(lái),隨著YOLO系列模型的發(fā)展,單階段模型具有更高的檢測(cè)準(zhǔn)確性和實(shí)時(shí)的檢測(cè)速度,成為了在實(shí)際應(yīng)用部署的首選算法。Qin等[1通過(guò)在YOLOv3模型中引入深度可分離卷積模塊,提升對(duì)特征的感受閥,進(jìn)而增強(qiáng)對(duì)火災(zāi)圖像特征的提取能力。汪子健等[18]采用eIoU損失函數(shù)替代傳統(tǒng)IoU損失函數(shù),結(jié)合注意力機(jī)制來(lái)提升火焰煙霧中微小目標(biāo)特征的理解能力。曹康壯等[19通過(guò)引入SIoU損失函數(shù)提高模型目標(biāo)框的定位精度,同時(shí)在模型中添加 Shufle Attention 注意力機(jī)制,進(jìn)一步提高在復(fù)雜環(huán)境下對(duì)目標(biāo)火焰的識(shí)別精度。陳義嘯等[20]通過(guò)在上采樣階段中添加CBAM注意力機(jī)制,提高模型對(duì)火焰特征的提取能力。上述方法增強(qiáng)了火災(zāi)場(chǎng)景火焰的檢測(cè)精度,但實(shí)際場(chǎng)景中大量的煙霧和灰塵導(dǎo)致圖像捕獲質(zhì)量下降,大大降低了對(duì)火焰的檢測(cè)精度?;诖耍疚奶岢鲆环N改進(jìn)的YOLOv8n 模型的火災(zāi)場(chǎng)景火焰檢測(cè)方法。
1" 數(shù)據(jù)集預(yù)處理和構(gòu)建
在深度學(xué)習(xí)圖像處理領(lǐng)域,向圖像中加入噪聲是增強(qiáng)模型魯棒性的一種有效手段。特別是針對(duì)煙霧、火焰等動(dòng)態(tài)環(huán)境,噪聲模擬可以幫助模型更好地應(yīng)對(duì)復(fù)雜背景和遮擋。例如,椒鹽噪聲模擬了火災(zāi)現(xiàn)場(chǎng)中煙霧和塵土對(duì)圖像的影響,圖像角度、尺寸及曝光的隨機(jī)調(diào)整與實(shí)際火災(zāi)場(chǎng)景中環(huán)境擾動(dòng)的特點(diǎn)相似[21-23]。隨機(jī)裁剪通過(guò)對(duì)隨機(jī)選擇不同圖像的區(qū)域進(jìn)行訓(xùn)練,模擬了真實(shí)場(chǎng)景中目標(biāo)部分遮擋、目標(biāo)位置變化等情況。裁剪后的局部信息與全局信息的分布差異促進(jìn)了模型在噪聲背景中的有效特征關(guān)注。噪聲增強(qiáng)后的數(shù)據(jù)集特征分布圖,如圖1所示。
原始火災(zāi)場(chǎng)景圖像訓(xùn)練完成后,模型通過(guò)固化的特征對(duì)火焰進(jìn)行檢測(cè)。在實(shí)際火場(chǎng)中,受到高溫、粉塵、煙霧甚至是攝像頭的偏移影響,單一的圖像特征往往無(wú)法滿足高魯棒性、高精度的檢測(cè)需求。當(dāng)加入不同的隨機(jī)噪聲后,火災(zāi)場(chǎng)景圖像的特征發(fā)生了隨機(jī)的改變,較小的細(xì)節(jié)在人眼中不易察覺(jué),甚至難以區(qū)分,但在計(jì)算機(jī)視覺(jué)算法處理過(guò)程中,這種模糊噪聲和不規(guī)則分布噪點(diǎn)往往會(huì)對(duì)算法的檢測(cè)性能產(chǎn)生不利影響。因此,通過(guò)增強(qiáng)原始火災(zāi)場(chǎng)景圖像的隨機(jī)噪聲,擴(kuò)展出同一場(chǎng)景多類(lèi)特征要素,為深度學(xué)習(xí)算法模型提供了豐富的特征要素,也為模型的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)方法提出了更嚴(yán)苛的要求。
構(gòu)建的火災(zāi)火焰數(shù)據(jù)集包含1080幅圖像,涵蓋室外建筑、室內(nèi)環(huán)境和自然場(chǎng)景等多種火災(zāi)場(chǎng)景?;鹧婺繕?biāo)的尺寸從覆蓋圖像 5% 區(qū)域的小型火焰到覆蓋圖像 30% 以上區(qū)域的大型火焰。根據(jù)可視對(duì)象類(lèi)(VOC)數(shù)據(jù)集標(biāo)準(zhǔn)格式完成對(duì)火焰目標(biāo)的標(biāo)注。除多類(lèi)場(chǎng)景外,圖像經(jīng)過(guò) 416px×416px 的分辨率調(diào)整后,進(jìn)行了隨機(jī)的數(shù)據(jù)增強(qiáng)處理,包括 50% 概率的水平翻轉(zhuǎn)和垂直翻轉(zhuǎn)、 90° 旋轉(zhuǎn)、隨機(jī)裁剪 0%~ 20% 圖像區(qū)域、 .-25%~+25% 圖像區(qū)域的隨機(jī)曝光、 .0~20px 高斯模糊、添加標(biāo)準(zhǔn)差為0.0025的隨機(jī)高斯噪聲,以及噪聲密度為0.0025的隨機(jī)椒鹽噪聲,以模擬火災(zāi)場(chǎng)景中的煙塵和光照反射干擾,最終生成增強(qiáng)數(shù)據(jù)和原始數(shù)據(jù)的兩套數(shù)據(jù)集。數(shù)據(jù)集按照 80% 訓(xùn)練集、 10% 驗(yàn)證集和 10% 測(cè)試集的比例進(jìn)行劃分,以有效評(píng)估復(fù)雜火災(zāi)場(chǎng)景的檢測(cè)魯棒性。
2 改進(jìn)的YOLOv8n模型
2.1 方法概述
YOLOv8n[24]模型是YOLO系列模型中最新的 SOTA模型,深度殘差網(wǎng)絡(luò)由多個(gè)卷積層、殘差塊和瓶頸層組成,總體而言, YOLOv8n 模型分為3個(gè)部分:骨干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)和輸出頭。骨干網(wǎng)絡(luò)和頸部網(wǎng)絡(luò)參考了YOLOv7E-ELAN 的設(shè)計(jì)理念[25],用更豐富的梯度流將 YOLOv5 模型的C3 結(jié)構(gòu)替換為C2f結(jié)構(gòu),為不同規(guī)模的模型調(diào)整不同數(shù)量的通道數(shù),從而大大提高了模型的性能。YOLOv8n模型網(wǎng)絡(luò)結(jié)構(gòu),如圖2所示。
對(duì)第一層張量流對(duì)像素值的卷積理解提前進(jìn)行一次中值替換,采用輕量級(jí)Ghost卷積設(shè)計(jì)不同層級(jí)的跨層連接網(wǎng)絡(luò),以減少參數(shù)量并優(yōu)化網(wǎng)絡(luò)的泛化能力,同時(shí)提升網(wǎng)絡(luò)在火災(zāi)場(chǎng)景對(duì)噪聲干擾的高度適應(yīng)性。改進(jìn)的 YOLOv8n 模型網(wǎng)絡(luò)結(jié)構(gòu),如圖3所示。
2.2 中值濾波模塊的網(wǎng)絡(luò)改進(jìn)
基于卷積構(gòu)建的深度學(xué)習(xí)網(wǎng)絡(luò)模型在面臨真實(shí)的火災(zāi)場(chǎng)景時(shí),圖像上點(diǎn)狀或模糊狀陰影往往造成誤檢,因此,在數(shù)據(jù)加載轉(zhuǎn)換為張量流的過(guò)程中引入中值思想,即在網(wǎng)絡(luò)的前端嵌入中值濾波模塊,使網(wǎng)絡(luò)在繼承父類(lèi)數(shù)據(jù)時(shí),實(shí)現(xiàn)對(duì)在噪點(diǎn)噪聲更寬泛的理解能力。具體而言,使用周?chē)徲蛳袼氐闹兄荡嬖撓袼氐幕叶戎?,達(dá)到對(duì)噪聲特征更顯著的特征理解能力。經(jīng)過(guò)中值濾波模塊處理后,圖像在 (x,y) 處的像素灰度 (Is(x,y)) 為
式(1)中: Ii(x,y) 表示輸入圖像在 (x,y) 處的像素灰度; K 為步長(zhǎng)大小,表示覆蓋每個(gè)像素點(diǎn)周?chē)泥徲虼笮。?K=3 。
根據(jù)式(1),以圖像中的每個(gè)像素為中心取一個(gè)大小為 (2k+1)×(2k+1) 的鄰域。將鄰域內(nèi)的像素按照灰度值進(jìn)行排序,取排序后的中間值作為該像素的新灰度值。重復(fù)以上步驟,直到遍歷整個(gè)圖像的像素點(diǎn)。這種方法讓網(wǎng)絡(luò)在增加極微弱復(fù)雜度的同時(shí),提升整體特征的獲取能力,使傳統(tǒng)定值化的濾波方法轉(zhuǎn)變?yōu)閷挿焊惺苡虻纳疃葘W(xué)習(xí)方法。
2.3 Ghost卷積的網(wǎng)絡(luò)改進(jìn)
由于 YOLOv8n 模型使用的大量堆疊的卷積網(wǎng)絡(luò),在單階段目標(biāo)檢測(cè)中取得較好的訓(xùn)練效果,但在面對(duì)含有噪聲干擾的火焰圖像時(shí),深層堆疊的網(wǎng)絡(luò)結(jié)構(gòu)對(duì)于圖像的特征解析產(chǎn)生反向增益,存在訓(xùn)練過(guò)程中過(guò)擬合及特征解析能力差的問(wèn)題。同時(shí),大量的卷積網(wǎng)絡(luò)降低了訓(xùn)練后模型的推理性能及檢測(cè)速度。為解決上述問(wèn)題,在YOLOv8n模型的骨干網(wǎng)絡(luò)中引人Ghost 卷積[26」,對(duì)C2f卷積層進(jìn)行改進(jìn)。Ghost卷積網(wǎng)絡(luò)的改進(jìn)結(jié)構(gòu),如圖4所示。在傳統(tǒng)卷積得到的特征圖上再進(jìn)行線性卷積,獲取更多的特征圖,借鑒殘差塊的思想,將兩部分特征圖拼接生成最終的特征圖,以此消除噪點(diǎn)干擾導(dǎo)致的卷積特征圖冗余,這種方法大幅降低了原網(wǎng)絡(luò)采用C2f卷積帶來(lái)的大量計(jì)算量和冗余的特征。
參照 Han 等[26]提出的模型計(jì)算方法,采用Ghost的計(jì)算量 (rs) 為
式(2)中: c 為輸入特征的圖通道數(shù); h 為高; w 為寬; n 為輸出特征圖的通道數(shù); k 為卷積核大小; s 為縮小的計(jì)算量倍數(shù)。
對(duì)多個(gè) h?w 進(jìn)行 s-1 次分組卷積,卷積和的大小為 d?d 。使用Ghost卷積替換傳統(tǒng)C2f卷積特征圖越多,加速效果越好,即Ghost占據(jù)卷積的比值決定了參數(shù)量降低的比值。
3 實(shí)驗(yàn)結(jié)果與分析
3.1 實(shí)驗(yàn)配置
實(shí)驗(yàn)是在Ubuntu 20.04系統(tǒng)環(huán)境下進(jìn)行的,設(shè)備搭載 Intel Xeon E5 2686v4@2.30 GHz CPU、GeForce RTX 2080Ti 11G GPU 和 64 GB LPDDR4 RAM,在 PyTorch 和 opencv-python 環(huán)境下部署并驗(yàn)證相關(guān)算法。學(xué)習(xí)速率初始化為0.01,權(quán)重衰減設(shè)置為0.0005,循環(huán)次數(shù)設(shè)置為300次,終止訓(xùn)練閾值設(shè)置為50個(gè)循環(huán),即如果訓(xùn)練了50個(gè)循環(huán),模型檢測(cè)精度沒(méi)有提升,則停止訓(xùn)練,保存最優(yōu)的訓(xùn)練結(jié)果,其余的參數(shù)配置與原始YOLOv8n模型的默認(rèn)配置一致。
3.2 評(píng)價(jià)指標(biāo)
精度 (P) 表達(dá)式為
P=TP/(TP+FP)
召回率 Ξ(ηR) 表達(dá)式為
ηR=TP/(TP+FN)
式(3)、(4)中:TP代表真陽(yáng)性樣本數(shù)量;FP代表假陽(yáng)性樣本數(shù)量;FN代表假陰性樣本數(shù)量。
均值平均精度 表達(dá)式為
式(5)中: 是指以 P 和 ηR 為橫軸和縱軸包圍的曲線面積; n 代表數(shù)據(jù)集類(lèi)別數(shù), n=1 。
3.3 實(shí)驗(yàn)比對(duì)
3.3.1與其他算法的訓(xùn)練模型比對(duì)通過(guò)數(shù)據(jù)集改進(jìn)方法、改進(jìn) YOLOv8n 模型的網(wǎng)絡(luò)結(jié)構(gòu)實(shí)現(xiàn)了復(fù)雜環(huán)境下高效精準(zhǔn)的火焰檢測(cè)。不同模型在無(wú)噪聲干擾的火焰數(shù)據(jù)集的檢測(cè)結(jié)果,如表1所示。表1中: PIoU=0.50 , PIoU=0.95 為閾值是0.50和0.95的模型精度; v 為推理速度。
由表1可知:主流模型中,YOLOv8s模型的精度遠(yuǎn)高于其他模型,但召回率較低; YOLOv81 模型的PIoU=0.50 , P(IoU=0,95 表現(xiàn)優(yōu)異,且具有較高的召回率;FasterR-CNN的精度和 PIoU=0.50 上較為穩(wěn)定,精度為 67.4%,PIoU=0.50 為 54.0% ,但其 υ 僅為 7F?s-1 ,表明其計(jì)算復(fù)雜度較高,考慮到經(jīng)濟(jì)性,該模型不適合實(shí)際的硬件部署應(yīng)用;增加網(wǎng)絡(luò)深度的 YOLOv81 模型的精度遠(yuǎn)低于結(jié)構(gòu)更為簡(jiǎn)潔的YOLOv8s模型,因此,在單一的目標(biāo)類(lèi)別和參數(shù)量較小的數(shù)據(jù)集中,參數(shù)量適中的網(wǎng)絡(luò)結(jié)構(gòu)往往會(huì)帶來(lái)更好的特征解析能力;改進(jìn)的 YOLOv8n 模型精度達(dá)到 79.7% ,在所有模型中最高,召回率為 52.6% ,比大多數(shù)模型都有明顯提高, PIoU=0.50 為 60.1% ,略低于YOLOv8l的 62.6% ,但總體的表現(xiàn)較為平衡, PIoU=0.95 為26.4% ,比其他模型高,表明在不同閾值下具備更強(qiáng)的檢測(cè)能力;改進(jìn)的 YOLOv8n 模型的計(jì)算復(fù)雜度僅為5.0,是所有模型中計(jì)算復(fù)雜度最低的,而推理速度達(dá)到 416F?s-1 ,與YOLOv3-tiny 模型相同。因此,改進(jìn)的 YOLOv8n 模型的測(cè)試數(shù)據(jù)充分體現(xiàn)了其在高效性與實(shí)時(shí)性的優(yōu)勢(shì)。
不同模型在噪聲增強(qiáng)火焰數(shù)據(jù)集的檢測(cè)結(jié)果,如表2所示。由表2可知:YOLOv3-tiny模型和SSD模型的精度明顯下降,表明噪聲對(duì) YOLOv3-tiny 和 SSD 模型的影響較大,增加網(wǎng)絡(luò)深度的YOLOv8l模型和FasterR-CNN模型的召回率體現(xiàn)出對(duì)噪聲更高的適應(yīng)性;改進(jìn)的 YOLOv8n 模型在噪聲增強(qiáng)火焰數(shù)據(jù)集的檢測(cè)結(jié)果比其他模型展現(xiàn)出多項(xiàng)顯著優(yōu)勢(shì),精度為 81.0% ,遠(yuǎn)高于其他模型,具有較高的檢測(cè)準(zhǔn)確性, PIoU=0.50 , PIoU=0.95 展現(xiàn)出優(yōu)異的性能,分別達(dá)到 55.1% 和 22.8% ,但計(jì)算復(fù)雜度卻遠(yuǎn)低于其他模型,僅為5.0,同時(shí) Δv 高達(dá) 455F?s-1 。因此,改進(jìn)的 YOLOv8n 模型相較于YOLOv81模型和FasterR-CNN模型,在提升噪聲環(huán)境理解和火焰檢測(cè)精度的同時(shí),兼顧較快的推理速度,可快速部署在低成本設(shè)備并實(shí)時(shí)檢測(cè)場(chǎng)景。
3.3.2改進(jìn)的 YOLOv8n模型的消融實(shí)驗(yàn)在無(wú)噪聲干擾和噪聲增強(qiáng)的兩種火焰數(shù)據(jù)集上進(jìn)行了消融實(shí)驗(yàn),以評(píng)估改進(jìn)的YOLOv8n模型各模塊對(duì)目標(biāo)檢測(cè)性能的貢獻(xiàn)。在無(wú)噪聲干擾下改進(jìn)的YOLOv8n模型的消融實(shí)驗(yàn)表現(xiàn),如表3所示。表3中: √ 為該模塊參與模型結(jié)構(gòu)的構(gòu)成。
由表3可知:在無(wú)噪聲干擾的原始數(shù)據(jù)集中, YOLOv8n 基線模型表現(xiàn)較為穩(wěn)定,其精度、召回率等評(píng)價(jià)指標(biāo)展現(xiàn)了較強(qiáng)的基礎(chǔ)檢測(cè)能力,單獨(dú)引人中值濾波模塊后,能夠顯著提升召回率,但 PIoU=0.50 略有波動(dòng);單獨(dú)引入Ghost卷積模塊后,精度上取得了顯著提升,召回率略有下降,但對(duì) PIoU=0.50 基本無(wú)負(fù)面影響;當(dāng)兩個(gè)模塊同時(shí)加入后,模型的精度達(dá)到 79.7% ,召回率達(dá)到 52.6% , PIoU=0.50 達(dá)到 60.1% ,相比基線模型、組合模塊達(dá)到最優(yōu),同時(shí)保持了較低的計(jì)算復(fù)雜度。
在噪聲增強(qiáng)下改進(jìn)的YOLOv8n模型的消融實(shí)驗(yàn)表現(xiàn),如表4所示。
由表4可知:在噪聲增強(qiáng)下,基線模型受到噪聲數(shù)據(jù)的影響,整體性能大幅下降;單獨(dú)引入中值濾波模塊后,雖然模型的精度顯著提高至 75.6% ,但召回率大幅下降至 31.6% ,這表明中值濾波對(duì)背景噪聲的抑制效果較強(qiáng),但可能忽略部分關(guān)鍵目標(biāo);單獨(dú)引人Ghost 卷積模塊能夠在精度和召回率之間取得了更好的平衡;當(dāng)兩個(gè)模塊同時(shí)加入后,模型在噪聲增強(qiáng)數(shù)據(jù)集上的綜合性能達(dá)到最優(yōu),精度提高至81.0% ,召回率穩(wěn)定在 47.4%,PIoU=0.50 維持在 55.1% 。這一結(jié)果表明,模塊間的協(xié)同作用能夠有效提高模型對(duì)復(fù)雜背景和噪聲干擾的適應(yīng)能力,同時(shí)保持了較低的計(jì)算復(fù)雜度。相比基線模型,組合模塊不僅優(yōu)化了檢測(cè)性能,還顯著增強(qiáng)了對(duì)噪聲干擾的魯棒性。
實(shí)驗(yàn)結(jié)果表明,中值濾波模塊和Ghost卷積模塊在無(wú)噪聲數(shù)據(jù)集中,目標(biāo)特征清晰且背景干擾較少,中值濾波模塊能夠有效細(xì)化目標(biāo)邊界,提高召回率。而在噪聲增強(qiáng)數(shù)據(jù)集中,背景噪聲復(fù)雜,中值濾波模塊在去除噪聲的同時(shí),可能誤抑制部分目標(biāo)區(qū)域,導(dǎo)致召回率下降。Ghost卷積模塊則側(cè)重優(yōu)化特征提取效率,在無(wú)噪聲數(shù)據(jù)集中對(duì)召回率的影響有限,但在噪聲增強(qiáng)數(shù)據(jù)集中,通過(guò)增強(qiáng)顯著特征的表達(dá),有助于提升對(duì)復(fù)雜背景中目標(biāo)的捕捉能力。兩者的結(jié)合進(jìn)一步提升了模型的綜合性能。該方法在兩種數(shù)據(jù)集上的表現(xiàn)驗(yàn)證了模塊設(shè)計(jì)的有效性和適用性,為火焰檢測(cè)任務(wù)提供了可行的優(yōu)化思路和方法支持。
3.3.3改進(jìn)的YOLOv8n模型的可視化分析YOLO系列模型的檢測(cè)結(jié)果對(duì)比,如圖5所示。由圖5可知:改進(jìn)的YOLOv8n模型在對(duì)不同環(huán)境下火焰的檢測(cè)中取得了更高的精度結(jié)果及更優(yōu)異的魯棒性;YOLOv3-tiny模型、YOLOv5s模型和YOLOv8s模型作為當(dāng)前最先進(jìn)的單階段檢測(cè)模型,在面對(duì)隨機(jī)裁剪、隨機(jī)旋轉(zhuǎn)、隨機(jī)曝光、隨機(jī)高斯和隨機(jī)椒鹽的噪聲干擾時(shí),檢測(cè)出現(xiàn)了失效,這是因?yàn)楫?dāng)前檢測(cè)方法所針對(duì)的圖像特征難以實(shí)現(xiàn)對(duì)多種干擾下特征的深度理解及推理;雖然YOLOv3-tiny模型到Y(jié)OLOv8s模型的網(wǎng)絡(luò)計(jì)算量及網(wǎng)絡(luò)深度不斷加深,檢測(cè)精度得到了小幅提升,但仍然存在誤檢和漏檢的情況,網(wǎng)絡(luò)的復(fù)雜度也導(dǎo)致了檢測(cè)速度的降低,提升了實(shí)際應(yīng)用的部署難度;改進(jìn)的YOLOv8n模型通過(guò)結(jié)合中值濾波模塊和Ghost卷積模塊,在降低模型計(jì)算量的同時(shí),有效消除椒鹽噪聲等噪聲的干擾,因此,改進(jìn)的 YOLOv8n 模型在面對(duì)多種噪聲和復(fù)雜環(huán)境時(shí),能夠保持較高的檢測(cè)精度和更好的魯棒性,且在不犧牲速度的前提下,顯著降低了誤檢和漏檢的發(fā)生。
改進(jìn)的 YOLOv8n 模型的檢測(cè)結(jié)果,如圖6所示。
由圖6可知:改進(jìn)的 YOLOv8n 模型的檢測(cè)結(jié)果在多種帶有干擾噪聲的火場(chǎng)場(chǎng)景下展現(xiàn)了良好的檢測(cè)效果,不論是室外建筑環(huán)境、室內(nèi)環(huán)境還是山野、樹(shù)林等復(fù)雜環(huán)境,均能夠準(zhǔn)確地檢測(cè)到火焰目標(biāo);在室外建筑環(huán)境中,能夠有效地識(shí)別建筑物周?chē)幕鹧?,即使在光照條件不佳或者火勢(shì)較小的情況下也能取得良好的檢測(cè)結(jié)果,在室內(nèi)環(huán)境中,改進(jìn)的YOLOv8n 模型能準(zhǔn)確地檢測(cè)到室內(nèi)火災(zāi),包括火焰和煙霧等火災(zāi)特征,為及時(shí)的火災(zāi)預(yù)警和應(yīng)急處理提供了可靠的技術(shù)支持;改進(jìn)的 YOLOv8n 模型還能夠在山野、樹(shù)林等自然環(huán)境中發(fā)揮作用,及時(shí)發(fā)現(xiàn)并識(shí)別出山野、樹(shù)林火災(zāi),幫助防止火災(zāi)的蔓延和擴(kuò)大。綜合來(lái)看,改進(jìn)的YOLOv8n模型在不同環(huán)境下都能夠有效抑制由樹(shù)木、植被等復(fù)雜背景所引發(fā)的干擾,穩(wěn)定輸出高質(zhì)量的檢測(cè)結(jié)果,為火災(zāi)監(jiān)測(cè)和預(yù)防工作提供了有效的技術(shù)手段。
改進(jìn)的YOLOv8n模型面對(duì)復(fù)雜背景和噪聲干擾的火災(zāi)圖像時(shí),表現(xiàn)出了比YOLO系列、SSD及Faster R-CNN模型更強(qiáng)的適應(yīng)性和魯棒性。在提高檢測(cè)精度的同時(shí),保持了較高的檢測(cè)速度,確保了在實(shí)際應(yīng)用中能夠?qū)崟r(shí)響應(yīng)火災(zāi)情況。改進(jìn)的YOLOv8n模型在火災(zāi)監(jiān)測(cè)與預(yù)防工作中具有顯著的技術(shù)優(yōu)勢(shì),特別是在需要高精度、高魯棒性和實(shí)時(shí)響應(yīng)的火災(zāi)預(yù)警系統(tǒng)中,具有廣泛的應(yīng)用前景。
4 結(jié)束語(yǔ)
針對(duì)實(shí)際火災(zāi)場(chǎng)景下火焰檢測(cè)精度不足的問(wèn)題,從環(huán)境噪聲角度出發(fā),通過(guò)探索數(shù)據(jù)集隨機(jī)噪聲對(duì)深度學(xué)習(xí)模型的影響,提出一種改進(jìn)的YOLOv8n模型。首先,通過(guò)對(duì)構(gòu)建的火災(zāi)火焰檢測(cè)數(shù)據(jù)集采用隨機(jī)裁剪、隨機(jī)旋轉(zhuǎn)、隨機(jī)曝光、隨機(jī)高斯和隨機(jī)椒鹽噪聲增強(qiáng)等方法,大幅提升了數(shù)據(jù)集與真實(shí)火災(zāi)場(chǎng)景噪聲的相似度。其次,在多種先進(jìn)的檢測(cè)模型中測(cè)試了增強(qiáng)數(shù)據(jù)對(duì)網(wǎng)絡(luò)的影響,驗(yàn)證了現(xiàn)有方法對(duì)噪聲適應(yīng)性差的問(wèn)題。最后,通過(guò)中值濾波模塊結(jié)合高效的Ghost卷積模塊,構(gòu)建改進(jìn)的YOLOv8n 模型,顯著減少參數(shù)量的同時(shí),提高了網(wǎng)絡(luò)對(duì)噪聲的理解能力,實(shí)現(xiàn)了小模型的高精度檢測(cè)。改進(jìn)的YOLOv8n模型有效地提高了對(duì)實(shí)際火災(zāi)場(chǎng)景噪聲干擾情況的檢測(cè)精度及魯棒性,為火災(zāi)監(jiān)測(cè)和預(yù)防工作提供了更加可靠的技術(shù)支持。
參考文獻(xiàn):
[1]卞蘇陽(yáng),嚴(yán)云洋,龔成張,等.基于CXANet-YOLO的火焰檢測(cè)方法[J].南京大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,59(2): 295-301. DOI:10.13232/j. cnki. jnju. 2023.02. 012.
[2]周興華,陳西江,羊海東,等.動(dòng)態(tài)卷積 YOLOv5 的視頻火焰檢測(cè)算法[J].測(cè)繪科學(xué),2023,48(4):106-118.DOI:10. 16251/j.cnki.1009-2307.2023.04.012.
[3]李偉達(dá),葉靚玲,鄭力新,等.面向扶梯不安全行為的改進(jìn)型深度學(xué)習(xí)檢測(cè)算法[J].華僑大學(xué)學(xué)報(bào)(自然科學(xué)版), 2022,43(1):119-126.DO1:10.11830/ISSN.1000-5013.202105059.
[4]SATHISHKUMAR V E,CHO J,SUBRAMANIAN M,et al.Forest fire and smoke detection using deep learningbased learning without forgetting[J].Fire Ecology,2023,19(1):9.DOI:10.1186/s42408-022-00165-0.
[5]崔志亮,曹蘇群.基于改進(jìn) YOLOv5 的復(fù)雜環(huán)境下火災(zāi)檢測(cè)方法[J].電腦與信息技術(shù),2024,32(1):23-27,46.DOI: 10.19414/j.cnki.1005-1228.2024.01.019.
[6]杜建華,張認(rèn)成.LVQ神經(jīng)網(wǎng)絡(luò)的紅外光譜火災(zāi)早期預(yù)警算法[J].華僑大學(xué)學(xué)報(bào)(自然科學(xué)版),2011,32(6):607- 610.DOI:10.11830/ISSN.1000-5013.2011.06.0607.
[7]CHENG Guangtao,CHEN Xue,WANG Chenyi,et al. Visualfire detection using deep learning:A survey[J].Neurocomputing,2024,596:127975.DOI:10.1016/j. neucom. 2024.127975.
[8]蔡春兵,吳翠平,徐鯤鵬.基于深度學(xué)習(xí)的視頻火焰識(shí)別方法[J].信息技術(shù)與網(wǎng)絡(luò)安全,2020,39(12):44-51.DOI: 10.19358/j. issn.2096-5133.2020.12.008.
[9] 王勇智,譚楊磊,韓銳,等.基于分離 YUV顏色通道的火焰提取方法[J].科學(xué)技術(shù)創(chuàng)新,2020(25):42-43.
[10] 何建,黃亦豪,薛黎明.基于YCbCr 和幀間差分法的火焰分割算法[J].現(xiàn)代計(jì)算機(jī),2023,29(18):49-52.
[11]ZHANG Heng,SHAO Faming,CHU Weijun,et al.Faster R-CNN based on frame diference and spatiotemporal context for vehicle detection[J].Signal Image and Video Processing,2024,18:7013-7027.DOI:10.1007/s11760- 024-03370-3.
[12]YADAV A,KUMAR E.Objectdetectionon real-time videowith fpn and modified mask rcnnbased on inception-resnet V2[J]. Wireless Personal Communications,2024,138(4):2065-2090.DOI:10.1007/s11277-024-11539-9.
[13]LIU Wei,ANGUELOV D,ERHAN D,et al.SSD: Single shot multibox detector[M].Cham:Springer International Publishing,2016:21-37.DO1:10.1007/978-3-319-46448-0_2.
[14]REDMON J,DIVVALA S,GIRSHICK R,etal. You onlylook once: Unified,real-time object detection[C]//IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas: IEEE Press,2016:779-788.DOI:10.48550/ http://hdxb. hqu. edu. cn/ arXiv.1506.02640.
[15] REDMON J,F(xiàn)ARHADI A. YOLOv3:An incremental improvement[EB/OL].(2018-04-08)[2024-02-21]. https://arxiv. org/pdf/1804. 02767.
[16]BOCHKOVSKIY A,WANG C Y,LIAO H M. YOLOv4: Optimalspeed and accuracy of object detection[EB/OL]. (2020-04-23)[2024-02-21]. htps://www.researchgate. net/publication/340883401_YOLOv4_Optimal_Speed_ and_Accuracy_of_Object_Detection.
[17] QIN Yueyan,CAO Jiangtao,JI Xiaofei. Fire detection method based on depthwise separable convolution and YOLOv3[J].International Journalof Automation and Computing,2021,18(2):300-310.DOI:10.1007/s11633-020- 1269-5.
[18] 汪子健,高煥兵,侯宇翔,等.改進(jìn)YOLOX-nano 的火災(zāi)火焰煙霧檢測(cè)[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2023,32(3):265-274. DOI:10. 15888/j. cnki. csa. 009000.
[19] 曹康壯,焦雙健.融合注意力機(jī)制的輕量級(jí)火災(zāi)檢測(cè)模型[J].消防科學(xué)與技術(shù),2024,43(3):378-383.
[20]陳義嘯,沈景鳳,仲梁維.基于改進(jìn) YOLOv8 的森林火災(zāi)檢測(cè)算法研究[J].軟件工程,2024,27(2):49-54.DOI:10. 19644/j.cnki. issn2096-1472.2024. 002.010.
[21] 王菲.基于火焰識(shí)別的早期火災(zāi)探測(cè)技術(shù)研究[D].廣州:華南理工大學(xué),2013.
[22] 陳智銘,謝維波,許華濱.利用圖像頻度特征的稀薄煙霧檢測(cè)算法[J].華僑大學(xué)學(xué)報(bào)(自然科學(xué)版),2014,35(2): 151-155.DOI:10.11830/ISSN.1000-5013.2014.02.0151.
[23]LU Changzhi,ZHOU Haiyong,CHEN Yu,etal.A lightweight fire detection algorithm for smalltargets basedon YOLOv5s[J]. Scientific Rep0rts,2024,14(1) :14104. DOI:10.1038/s41598-024-64934-4.
[24]TALAAT F M,ZAINELDIN H. An improved fire detection approach based on YOLO-v8 for smart cities[J]. Neural Computingand Applications,2023,35(28):20939-20954. DOI:10.1007/s00521-023-08809-1.
[25] WANG C Y,BOCHKOVSKIY A,LIAO H Y M. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]//IEEE Conference on Computer Vision and Pattern Recognition. Vancouver IEEE Press,2022:7464-7475.DOI:10.48550/arXiv.2207.02696.
[26]HAN Kai,WANG Yunhe,TIAN Qi,et al.Ghostnet: More features from cheapoperations[C]//IEEE/CVF Conference on Computer Visionand Pattern Recognition.New York:IEEE Press,2020:1580-1589.DOI:10.48550/arXiv.1911.11907.
[27]LI Jichao,GUO Shengyu,KONGLiulin,et al.An improved YOLOv3-tiny method for fire detection in the construction industry[C]//E3S Web of Conference.[S.1.]:EEM,2021:03069.DOI:10.1051/e3sconf/202125303069.
[28]諶頒,張袖斌,肖斌,等.基于Faster-R CNN 深度學(xué)習(xí)算法的圖像識(shí)別技術(shù)研究[J].機(jī)器人產(chǎn)業(yè),2024(3):98- 102.DOI:10.19609/j.cnki.cn10-1324/tp.2024.03.019.
[29]鄭文秀,趙興娜.基于 SSD算法的人臉檢測(cè)算法研究[J].現(xiàn)代信息科技,2024,8(19):17-22.DOI:10.19850/j. cnki.2096-4706.2024.19.004.
[30]ZHANG Long,LI Jiaming,ZHANG Fuquan.An efficient forest fire target detection model based on improved YOLOv5[J].Fire-Switzerland,2023,6(8):291.DOI:10.3390/fire6080291.
(責(zé)任編輯:陳志賢 英文審校:陳婧)