摘要:建筑火災(zāi)預(yù)測(cè)方法存在早期火災(zāi)信號(hào)識(shí)別精度不足、響應(yīng)速度慢、復(fù)雜場(chǎng)景下煙霧檢測(cè)能力有限等問題。為此,引入煙感圖像處理技術(shù),通過提取煙霧的顏色特征、紋理特征和運(yùn)動(dòng)特征,結(jié)合深度學(xué)習(xí)技術(shù)實(shí)現(xiàn)煙霧精準(zhǔn)識(shí)別,進(jìn)而提升火災(zāi)預(yù)測(cè)的準(zhǔn)確性與時(shí)效性。采用RGB顏色空間分析,結(jié)合低飽和度和高亮度區(qū)域的特征,設(shè)定閾值以檢測(cè)煙霧區(qū)域,并進(jìn)一步通過HSV色彩空間優(yōu)化檢測(cè)效果。紋理特征方面,利用局部二值模式(LBP)對(duì)圖像進(jìn)行紋理分析,提取煙霧的低對(duì)比度和模糊邊界特征,從而有效區(qū)分煙霧與背景。還優(yōu)化了深度學(xué)習(xí)模型,采用輕量化卷積神經(jīng)網(wǎng)絡(luò)(CNN)結(jié)構(gòu),減少計(jì)算量并提高處理速度。應(yīng)用YOLO目標(biāo)檢測(cè)算法,實(shí)現(xiàn)煙霧檢測(cè)和快速響應(yīng)。
關(guān)鍵詞:煙感圖像處理;顏色特征;紋理特征;深度學(xué)習(xí);YOLO目標(biāo)檢測(cè)
深度學(xué)習(xí)技術(shù),特別是卷積神經(jīng)網(wǎng)絡(luò)(CNN)和Transformer模型,在煙霧檢測(cè)領(lǐng)域展現(xiàn)了強(qiáng)大的特征提取與識(shí)別能力。通過優(yōu)化模型結(jié)構(gòu)、引入注意力機(jī)制等手段,深度學(xué)習(xí)模型能夠更好地處理煙霧圖像中的細(xì)節(jié),提升檢測(cè)的準(zhǔn)確性和魯棒性。本文通過對(duì)比傳統(tǒng)圖像處理方法與深度學(xué)習(xí)算法在煙霧檢測(cè)中的性能,提出了一種基于深度學(xué)習(xí)的煙感圖像處理框架,旨在提高建筑火災(zāi)早期預(yù)警系統(tǒng)的準(zhǔn)確性和響應(yīng)速度。
1 研究方法
1.1" 煙感圖像特征提取
1.1.1" 顏色特征在煙霧檢測(cè)中的作用
RGB顏色空間由紅色(Red)、綠色(Green)、藍(lán)色(Blue)三個(gè)通道組成,每個(gè)像素點(diǎn)的顏色表示為:
P(x,y)=(R,G,B) (1)
其中,R,G,B∈[0,255]表示像素的紅、綠、藍(lán)分量。
煙霧通常具有低飽和度、高亮度的特征,可通過顏色空間分析進(jìn)行檢測(cè)[1-2]。通過經(jīng)驗(yàn)閾值法設(shè)定煙霧顏色范圍:
Rgt;Ggt;B,G-Blt;T (2)
其中,T是經(jīng)驗(yàn)閾值,用于區(qū)分煙霧與背景。
統(tǒng)計(jì)煙霧區(qū)域的顏色分布,計(jì)算均值和方差:
其中,C∈{R,G,B},N為像素點(diǎn)數(shù)。
轉(zhuǎn)換為HSV色彩空間,利用S飽和度和V亮度進(jìn)行煙霧檢測(cè):
低飽和度、高亮度區(qū)域通常對(duì)應(yīng)煙霧。
1.1.2" 紋理特征(LBP方法)
LBP操作選擇像素Ic作為中心點(diǎn),選取半徑R處的P個(gè)鄰域像素,計(jì)算二值模式:
其中,s(x)=1;ifx≥0;s(x)=0,ifx<0;Ip為鄰域像素值;Ic為中心像素值;P通常取8,R通常取1。
計(jì)算整個(gè)圖像的LBP直方圖H:
其中,δ(a,b)為Kronecker delta函數(shù):
計(jì)算均值:
計(jì)算方差:
通過分類器對(duì)LBP直方圖進(jìn)行分類,判斷是否為煙霧區(qū)域。
1.2" 基于深度學(xué)習(xí)的煙感圖像識(shí)別
1.2.1" CNN結(jié)構(gòu)優(yōu)化(輕量化網(wǎng)絡(luò)、注意力機(jī)制)
傳統(tǒng)CNN采用標(biāo)準(zhǔn)卷積,計(jì)算復(fù)雜度較高,其計(jì)算量為:
FLOPS=Cin×H×W×K×K×Cout (12)
其中,Cin為輸入通道數(shù);Cout為輸出通道數(shù);H、W為輸入特征圖的尺寸;K為卷積核大小。
MobileNet系列采用深度可分離卷積,將標(biāo)準(zhǔn)卷積拆分為深度卷積和逐點(diǎn)卷積,其計(jì)算量減少至:
FLOPS=×H×W×K×K×Cout (13)
其中,G為組數(shù)。增加G可減少計(jì)算量,但過大會(huì)導(dǎo)致信息流受限,因此,通道洗牌操作用于跨組交換信息,提高特征表達(dá)能力。
Squeeze(全局平均池化):
對(duì)輸入特征圖X∈RH×W×C進(jìn)行全局平均池化(GAP),得到每個(gè)通道的全局特征向量:
Excitation(通道注意力):
通過兩個(gè)全連接層學(xué)習(xí)通道注意力權(quán)重:
其中,W2、W1為全連接權(quán)重矩陣;δ為ReLU激活函數(shù);σ為Sigmoid函數(shù)。
Reweighting(特征重標(biāo)定):
通過通道注意力權(quán)重重新調(diào)整輸入特征:
X′c=Zc·Xc (16)
1.2.2" Transformer在煙霧檢測(cè)中的應(yīng)用
自注意力機(jī)制的計(jì)算公式如下:
其中,Q,K,V為查詢(Query)、鍵(Key)、值(Value)矩陣;dk為縮放因子,通常?。╤為多頭注意力個(gè)數(shù))。
1.2.3" Vision Transformer(ViT)在煙霧檢測(cè)中的應(yīng)用
ViT通過將圖像切割為小塊(Patch Embedding),并使用Transformer進(jìn)行全局建模,提高煙霧檢測(cè)的魯棒性[2-4]。其過程如下:
圖像切分:將輸入圖像X∈RH×W×C切分為N個(gè)大小為P×P的Patch,每個(gè)Patch展平為一維向量。
位置編碼:由于Transformer無空間結(jié)構(gòu),加入位置編碼PE保持空間信息:
PE(pos,2i)=sin(pos/100002i/d) (18)
PE(pos,2i+1)=cos(pos/100002i/d) (19)
多層Transformer計(jì)算:經(jīng)過多頭自注意力和MLP層,提取全局特征。
1.3" 目標(biāo)檢測(cè)算法(YOLO)
YOLO系列算法可用于實(shí)時(shí)煙霧檢測(cè),其核心思想是將目標(biāo)檢測(cè)轉(zhuǎn)換為回歸問題,直接預(yù)測(cè)邊界框和類別。
YOLO的損失函數(shù)包括坐標(biāo)損失、置信度損失和分類損失3部分。優(yōu)化YOLO,以提高煙霧檢測(cè)精度。
2 實(shí)驗(yàn)
2.1" 數(shù)據(jù)集準(zhǔn)備
收集建筑火災(zāi)早期煙霧圖像數(shù)據(jù)集,包括不同類型的火災(zāi)場(chǎng)景(如木材、紙張、塑料燃燒等),并標(biāo)注煙霧區(qū)域。數(shù)據(jù)集分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,按70%:15%:15%的比例劃分。
2.2" 實(shí)驗(yàn)硬件
計(jì)算設(shè)備:高性能GPU。
攝像設(shè)備:高清監(jiān)控?cái)z像頭。
2.3" 實(shí)驗(yàn)環(huán)境
Python編程環(huán)境,使用OpenCV進(jìn)行圖像處理,TensorFlow或PyTorch進(jìn)行深度學(xué)習(xí)模型訓(xùn)練。
2.4" 數(shù)據(jù)分析
從圖1中可以看出,YOLO目標(biāo)檢測(cè)在煙霧檢測(cè)準(zhǔn)確率和召回率方面表現(xiàn)最為優(yōu)異,準(zhǔn)確率達(dá)到94.2%,召回率為91.4%。這一結(jié)果表明,YOLO模型在煙霧檢測(cè)任務(wù)中能夠精準(zhǔn)地識(shí)別出煙霧區(qū)域,Transformer模型準(zhǔn)確率為93.5%,召回率為89.7%。
從圖2的誤報(bào)率(FPR)和漏報(bào)率(FNR)的數(shù)據(jù)中可以看出,YOLO目標(biāo)檢測(cè)在誤報(bào)率和漏報(bào)率上表現(xiàn)最為優(yōu)秀,誤報(bào)率僅為3.2%,漏報(bào)率為8.6%。
傳統(tǒng)顏色特征方法的響應(yīng)時(shí)間為120ms,實(shí)時(shí)性為30FPS,LBP紋理特征方法的響應(yīng)時(shí)間為150ms,實(shí)時(shí)性為25FPS。這兩種方法雖然在檢測(cè)精度上相對(duì)較低,但其計(jì)算量較小,能夠在較短時(shí)間內(nèi)做出響應(yīng),適用于對(duì)實(shí)時(shí)性要求較高的煙霧檢測(cè)任務(wù),特別是在資源受限的環(huán)境中。YOLO目標(biāo)檢測(cè)的響應(yīng)時(shí)間為180ms,實(shí)時(shí)性為16FPS,見圖3。
3 結(jié)束語
本文探討了煙感圖像處理技術(shù)在建筑火災(zāi)預(yù)測(cè)中的應(yīng)用,重點(diǎn)研究了傳統(tǒng)的顏色特征方法、紋理特征方法(如LBP)、深度學(xué)習(xí)方法(包括CNN、Transformer和YOLO目標(biāo)檢測(cè))在煙霧檢測(cè)中的表現(xiàn)。實(shí)驗(yàn)結(jié)果表明,基于深度學(xué)習(xí)的煙霧檢測(cè)方法相較于傳統(tǒng)方法具有顯著的優(yōu)勢(shì),特別是在準(zhǔn)確率、召回率、誤報(bào)率和漏報(bào)率等方面,深度學(xué)習(xí)模型(如CNN與Transformer模型)在復(fù)雜場(chǎng)景下的表現(xiàn)尤為突出。同時(shí),YOLO目標(biāo)檢測(cè)在實(shí)時(shí)性和檢測(cè)精度方面也表現(xiàn)出較高的性能,適用于實(shí)時(shí)監(jiān)測(cè)任務(wù)。深度學(xué)習(xí)模型在訓(xùn)練過程中對(duì)大規(guī)模數(shù)據(jù)的需求較高,可能增加訓(xùn)練時(shí)間和計(jì)算成本。因此,未來研究可以探討如何通過增強(qiáng)數(shù)據(jù)集、多模態(tài)數(shù)據(jù)融合、輕量化網(wǎng)絡(luò)模型等手段,進(jìn)一步提升模型的魯棒性和實(shí)用性。
參考文獻(xiàn)
[1]張松濤,張洪敏,安浩平,等.基于物聯(lián)網(wǎng)和圖像處理的森林智慧煙感預(yù)警系統(tǒng)[J].農(nóng)機(jī)化研究,2022,44(8):229-233.
[2]主文君,曹淼,孫鳴雪,等.基于多源數(shù)據(jù)協(xié)同感知的火災(zāi)預(yù)警算法分析[J].數(shù)字技術(shù)與應(yīng)用,2024,42(11):115-117.
[3]徐勇,王芝圍.基于數(shù)字孿生的多層建筑火災(zāi)應(yīng)急系統(tǒng)研究[J].技術(shù)與市場(chǎng),2024,31(9):1-6.
[4]王克巍.基于動(dòng)態(tài)仿真的古鎮(zhèn)建筑消防疏散與滅火救援策略及應(yīng)用[J].工程建設(shè)與設(shè)計(jì),2024(14):40-42.