何揚(yáng) 胡秀云
摘? 要:近年來,大多數(shù)火災(zāi)自動(dòng)報(bào)警系統(tǒng)都是通過檢測(cè)感溫、感煙和感光等傳感器的方法進(jìn)行檢測(cè),只能針對(duì)單一特征信息進(jìn)行判斷識(shí)別,受到外界空間、環(huán)境或人為因素的影響。卷積神經(jīng)網(wǎng)絡(luò)(CNN)以其高準(zhǔn)確率的識(shí)別率在廣泛應(yīng)用成為一個(gè)活躍的研究課題。然而如何可靠、有效地解決火焰檢測(cè)問題仍然是實(shí)踐中一個(gè)具有挑戰(zhàn)性的問題。本文提出了一種新的基于CNN的火焰實(shí)時(shí)檢測(cè)算法,該算法通過對(duì)普通攝像機(jī)監(jiān)控場(chǎng)景產(chǎn)生的視頻數(shù)據(jù)進(jìn)行處理。首先,為了提高識(shí)別效率,提出了一種候選目標(biāo)區(qū)域特征提取算法,用于處理可疑火焰區(qū)域。其次,提取候選區(qū)域的圖像特征根據(jù)設(shè)計(jì)的基于CNN的深度神經(jīng)網(wǎng)絡(luò)模型進(jìn)行分類,最后根據(jù)分類得到相應(yīng)的判斷。
關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)? 火焰檢測(cè)? 特征提取? 深度學(xué)習(xí)
中圖分類號(hào):TP319? ? ? ? ? ? ? ? ? ? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1674-098X(2021)05(b)-0109-03
Flame Detection Method Based on Convolution Neural Network
HE Yang? HU Xiuyun
(School of Information Science and Engineering, Shenyang Ligong University, Shenyang, Liaoning Province, 110159 China)
Abstract: In recent years, most of the automatic fire alarm systems are detected by detecting temperature, smoke and light sensors. They can only judge and identify single feature information, which is affected by the external space, environment or human factors. Convolutional neural network (CNN) has become an active research topic in a wide range of applications because of its high accuracy. However, how to solve the problem of flame detection reliably and effectively is still a challenging problem in practice. In this paper, a new real-time flame detection algorithm based on CNN is proposed. The algorithm processes the video data produced by ordinary camera monitoring scene. Firstly, in order to improve the recognition efficiency, a candidate target region feature extraction algorithm is proposed to deal with the suspicious flame region. Secondly, the image features of candidate regions are extracted and classified according to the designed CNN based deep neural network model. Finally, the corresponding judgment is obtained according to the classification.
Key Words: Convolution neural network; Flame detection; Feature extraction; Deep learning
為了有效地實(shí)時(shí)檢測(cè)火災(zāi),傳統(tǒng)的火焰檢測(cè)方法識(shí)別算法大多采用人工特征,如顏色、形狀、質(zhì)地和運(yùn)動(dòng)。然而,火焰單一特征的提取不能滿足高的火焰檢測(cè)率。所以各種深度學(xué)習(xí)算法被廣泛應(yīng)用于該領(lǐng)域,反向傳播(BP)、貝葉斯神經(jīng)網(wǎng)絡(luò)(BNN)和卷積神經(jīng)網(wǎng)絡(luò)(CNN),去提高火災(zāi)視頻檢測(cè)性能。
1? 火焰檢測(cè)方法概述
提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)[1]的彩色火焰特征檢測(cè)與識(shí)別方法。首先,利用所提出的RGB模型[2]提取火焰圖像的顏色特征,得到候選區(qū)域。其次,利用神經(jīng)網(wǎng)絡(luò)對(duì)歸一化特征圖進(jìn)行分類。最后,利用卷積神經(jīng)網(wǎng)絡(luò)的分類結(jié)果得到報(bào)警信號(hào),并對(duì)所提出的神經(jīng)網(wǎng)絡(luò)的性能進(jìn)行了測(cè)試。本文選用方法主要包括3個(gè)主要階段。
2? 火焰視頻圖像采集
首先選取火焰視頻圖像數(shù)據(jù)作為自己的訓(xùn)練集[3],訓(xùn)練集主要包含在不同環(huán)境下采集的圖像數(shù)據(jù),其次訓(xùn)練集中的圖像數(shù)據(jù)包括75%的正序列(fire)和25%的負(fù)序列(nofire),正序列即包含帶有火焰的數(shù)據(jù)圖像,負(fù)序列即不帶有火焰的圖像數(shù)據(jù)。
3? 擬定方法
本文以提高火災(zāi)探測(cè)性能為目標(biāo),提出了一種基于深度神經(jīng)網(wǎng)絡(luò)的火災(zāi)探測(cè)方法。
算法原理圖如圖1所示。該算法可分為2個(gè)主要階段。第一,提出了一種基于不同環(huán)境的顏色模型來精確分割視頻序列中的火災(zāi)候選區(qū)域。第二,通過以下方法確定歸一化候選區(qū)域,即一種基于CNN的新型結(jié)構(gòu)。第三,根據(jù)辨識(shí)結(jié)果做出響應(yīng)。
3.1 候選火焰區(qū)域提取方法
因?yàn)榛馂?zāi)危害極大,警告越早火災(zāi)造成的損失越小。因此,火焰識(shí)別算法的實(shí)時(shí)性要求在實(shí)際消防工程中具有重要意義。
傳統(tǒng)的目標(biāo)檢測(cè)深度學(xué)習(xí)方法大多基于多尺度滑動(dòng)窗口[4],但這些方法大大降低了算法的效率。本文通過加入火焰顏色特征模型,提高了算法的計(jì)算速度。由于RGB模型的計(jì)算復(fù)雜度低于其他顏色模型[5],因此本文采用RGB模型提取火焰顏色特征。首先,利用火焰顏色模型對(duì)原始圖像進(jìn)行分割,得到候選區(qū)域,基于統(tǒng)計(jì)經(jīng)驗(yàn)數(shù)據(jù),實(shí)驗(yàn)結(jié)果表明,火災(zāi)的每個(gè)RGB像素應(yīng)滿足以下條件:
這里,M(x,y)表示分段函數(shù)圖像顏色二值化掩模,fR(x,y)是通道R的值,fB(x,y)是通道B的值。然后,通過獲取連通區(qū)域的外矩形,提取神經(jīng)網(wǎng)絡(luò)的歸一化候選區(qū)域,得到不同外場(chǎng)景的外矩形區(qū)域的二值圖像。
3.2 神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)
卷積神經(jīng)網(wǎng)絡(luò)(CNN)的結(jié)構(gòu)分為3個(gè)部分:卷積層、池化層和全連通層。這3個(gè)部分的功能分別是魯棒特征提取、函數(shù)特征降維和分類[6]。根據(jù)CNN的結(jié)構(gòu),提出了一種新的CNN結(jié)構(gòu)更適合火災(zāi)探測(cè)的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。
3.2.1 卷積層
卷積層是所提出的神經(jīng)網(wǎng)絡(luò)的核心。為了有效區(qū)分火和像火一樣的分心,這些層由一個(gè)矩形的神經(jīng)元網(wǎng)格組成,這使得分類更加快捷。在卷積層中,基于RGB模型的火災(zāi)圖像經(jīng)過三次卷積運(yùn)算,卷積核大小分別設(shè)置為最優(yōu)參數(shù)。眾所周知,ReLU[7]函數(shù)φ(x)具有單側(cè)抑制、寬激發(fā)邊界和稀疏激活等優(yōu)點(diǎn),因此具有ReLU函數(shù)φ(x)在每個(gè)卷積層后采用,滿足以下條件:φ(x)=max(0,x),其中max(.)表示0和x之間的較大值。第一層卷積核函數(shù)的可視化,神經(jīng)網(wǎng)絡(luò)模型的卷積濾波器主要檢測(cè)邊緣、角度和曲線等低階特征。然后,第一層的卷積特征映射,可以看出得出不同的特征由不同的濾波器檢測(cè)出來。
3.2.2 匯集層
在前3個(gè)ReLU函數(shù)φ(x)之后,處理后的數(shù)據(jù)在池層中進(jìn)行下采樣。為了減少更多參數(shù)的成本,采用了一個(gè)最大池化窗口。為了提高該結(jié)構(gòu)的泛化能力,避免擬合現(xiàn)象的產(chǎn)生,數(shù)據(jù)在前兩個(gè)池化層用范數(shù)理論進(jìn)行歸一化。歸一化函數(shù)滿足以下條件:
其中,||.||1和||.||2分別代表L1范數(shù)和L2范數(shù),x表示卷積特征向量火災(zāi)候選區(qū)域。
3.2.3 完全連接層
最后,在第3個(gè)池化層之后,全連通層的功能是級(jí)聯(lián)火災(zāi)特征圖像。為了減少過平滑現(xiàn)象,在最后2個(gè)ReLU函數(shù)φ(x)之后采用了dropout方法,包括以一定的概率將所選層中每個(gè)隱藏神經(jīng)元的輸出設(shè)置為零。
4? 結(jié)語
本文提出的基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的算法流程圖如圖2所示。在訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的過程中,卷積層的訓(xùn)練就是訓(xùn)練一些卷積濾波器,這些濾波器具有高激活度的獨(dú)特模式,以達(dá)到CNN的目的。層數(shù)越多,特征就越復(fù)雜。為了訓(xùn)練出更好的卷積核,并得到這些卷積核更有效的組合方式,本文利用所提出的模型得到最優(yōu)參數(shù),然后用最優(yōu)參數(shù)對(duì)測(cè)試樣本進(jìn)行有效分類,訓(xùn)練集和測(cè)試集的損失函數(shù)通過計(jì)算可以得出,隨著訓(xùn)練和測(cè)試迭代次數(shù)的增加,損失函數(shù)都減小,函數(shù)趨于穩(wěn)定。試驗(yàn)精度通過計(jì)算可以得出,隨著訓(xùn)練迭代次數(shù)的增加,測(cè)試精度提高。
參考文獻(xiàn)
[1] 楊真真,匡楠,范露,等.基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類算法綜述[J].信號(hào)處理,2018,34(12):1474-1489.
[2] 王玲.彩色數(shù)字圖像的量子表示及加密算法研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2020.
[3] 馬天兵,劉健,杜菲,等.基于改進(jìn)Otsu方法的振動(dòng)圖像分割研究[J].電光與控制,2019,26(2):11-15,31.
[4] 鐘卓耀.基于深度學(xué)習(xí)的自然場(chǎng)景圖像中文字檢測(cè)的研究和應(yīng)用[D].廣州:華南理工大學(xué),2020.
[5] 陳杰.基于色彩信息的圖像增強(qiáng)研究[D].南京:南京郵電大學(xué),2017.
[6] 章琳,袁非牛,張文睿,等.全卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)工程與應(yīng)用,2020,56(1):25-37.
[7] 王紅霞,周家奇,辜承昊,等.用于圖像分類的卷積神經(jīng)網(wǎng)絡(luò)中激活函數(shù)的設(shè)計(jì)[J].浙江大學(xué)學(xué)報(bào):工學(xué)版,2019,53(7):1363-1373.