羅小權,潘善亮
寧波大學 信息科學與工程學院,浙江 寧波 315211
目前火災探測器[1]被廣泛應用于火災檢測中,但是單一的火災探測器檢測結果往往不夠可靠,Ting 等[2]提出了多傳感器數(shù)據(jù)融合算法將采集到的火災物理參數(shù)進行融合。但是火災探測器有很多局限性,設備必須接近火源,屬于接觸性探測,而且必須等待火災發(fā)生一定時間后產(chǎn)生大量的煙霧、CO 等火災物理參數(shù)后才能夠觸發(fā)報警[3],而且無法清楚地感知到火災的大小、詳細位置信息等,給火災檢測帶來了很大的不便[4]。
隨著計算機視覺的快速發(fā)展,Zhao等[5]利用時空特征和動態(tài)紋理對火災進行檢測,Kim等[6]通過RGB顏色模型進行火災檢測,Mueller等[7]利用運動模型來模擬火的運動特征進行火災檢測,這些方法主要是針對火焰顏色和形狀進行檢測,但是特征提取由人工手動提取,人為因素較高,方法的穩(wěn)健性和泛化能力不足,難以在多個場景應用。Frizzi 等[8]通過卷積神經(jīng)網(wǎng)絡(CNN)取代人工提取特征,自動對火災進行特征提取和分類。但是采用CNN來檢測火災只能檢測出是否有火災發(fā)生卻無法得知火災發(fā)生的具體位置,而且對于火災區(qū)域較小的圖像,往往存在漏檢的問題[9]。
CNN 主要實現(xiàn)了火災圖像和非火災圖像的分類,往往沒有考慮與火相似的物體,對于類火物體存在很多的誤報。到目前為止,各種改進版的CNN相繼出現(xiàn),這些方法主要分為兩類:(1)兩步法(Two Stage)?;趨^(qū)域進行檢測如R-CNN[10]、Fast R-CNN[11]、Faster R-CNN[12]。(2)一步法(One Stage)?;诨貧w進行檢測,直接輸出物體的分類概率和坐標如 SSD[13]、YOLO[14]、YOLOV2[15]、YOLOV3[16]可以更快地實現(xiàn)目標檢測。
針對火災檢測這一特定領域,本文提出一種改進YOLOV3 的火災檢測方法(YOLOV3-IMP),提高了對火災檢測的效果,特別是對小火災區(qū)域的檢測。通過對該模型的訓練實現(xiàn)對火災圖像和非火圖像進行分類,實驗表明該模型能夠實現(xiàn)精準、快速的火災檢測。
YOLOV3 由卷積層(Convolution Layers)、激活層(Leaky Relu)、批標準化層(Batch Normalization,BN)組成,網(wǎng)絡基本采用全卷積,同時引入了殘差塊(Residual Block)[17]結構,降低了深層網(wǎng)絡的訓練難度,使目標檢測的精度和速度大幅度提升。
YOLOV3 的骨干網(wǎng)(Backbone)為 DarkNet-53,對輸入的圖像先進行特征提取,為了獲取細粒度特征,YOLOV3 的特征金字塔(Feature Pyramid Networks,F(xiàn)PN)[18]使用步長為2的卷積來降采樣,在32、16、8倍降采樣時進行目標檢測,將三次降采樣得到的特征信息通過轉移層(Passthrough Layer)進行拼接,在多尺度檢測(Multiscale Detection)部分使用3種不同尺度特征圖融合(13×13,26×26,52×52),把淺層特征圖連接到深層特征圖,對不同尺度的特征進行融合使YOLOV3 可以學習到深層和淺層特征信息,YOLOV3的網(wǎng)絡結構如圖1所示。
YOLOV3采用回歸的方法來提取特征,是一種端到端的訓練過程,輸入圖像之后直接在特征層回歸出其類別和邊框[19],相比之前的Faster R-CNN等算法先檢測再回歸的兩步法,這種一步法明顯地提高了實時性。
YOLOV3在目標檢測方面雖然有比較好的表現(xiàn),但是在火災檢測這一特定領域上,部分火災區(qū)域很小,需要及時地檢測到,YOLOV3 還需要進行相應的改進,使得能夠更好地保證火災檢測的準確度和實時性,針對YOLOV3 在火災檢測上的不足之處,本文提出改進YOLOV3 的火災檢測方法YOLOV3-IMP,并通過實驗驗證本文方法在火災檢測上的可行性。
圖1 YOLOV3網(wǎng)絡結構圖
3.1.1 特征提取網(wǎng)絡改進
YOLOV3 采用Conv3×3/2 和殘差塊來對輸入的火災圖像進行特征提取工作,可以一定程度上避免隨著網(wǎng)絡層次增加,在特征提取過程中特征損失的問題,但該特征提取網(wǎng)絡在進行特征提取時,還是容易丟失部分特征,為了進一步減少特征提取時的損失,本文引入了深度可分離卷積(Depthwise Separable Convolutions)[20]代替殘差塊中的普通卷積,并在輸出到下一層特征圖的卷積層之前采用Conv1×1來進一步進行特征平滑,特征提取網(wǎng)絡對比如圖2所示。
圖2 特征提取網(wǎng)絡對比
深度可分離卷積相比較傳統(tǒng)卷積將對通道的卷積和對空間的卷積分離開來[21],輸入圖像為RGB三通道,先利用Conv3×3 對輸入圖像每個通道的空間進行卷積來做特征提取,然后用Conv1×1對每個通道上采集到的空間特征進行點卷積進行特征融合。深度可分離卷積示意圖如圖3 所示,其中I1,I2,I3為上一層特征圖的輸入,T1,T2,T3為經(jīng)過深度卷積后的每個通道的輸出,O1,O2,O3為經(jīng)過深度卷積和點卷積后的最終輸出。
圖3 深度可分離卷積
經(jīng)過深度可分離卷積之后再利用Conv1×1 進行特征融合,結合殘差塊進行特征輸出,最終將輸出結果利用Conv1×1 進行特征,可以提高特征提取能力,加快網(wǎng)絡訓練速度,改進后的特征提取網(wǎng)絡結構如表1所示。
表1 改進后的特征提取網(wǎng)絡結構
本文網(wǎng)絡最終會產(chǎn)生火災、街燈、消防員,清潔工這4類輸出,根據(jù)這四類對象的差異對各自的關鍵特征進行提取?;馂臎]有固定的形狀,但是有鮮明的顏色特征,將火災區(qū)域大小和顏色作為關鍵特征進行提取;街燈的顏色與火災顏色類似,但是有固定的形狀(燈罩、燈柱),將街燈的形狀和顏色結合起來作為關鍵特征;消防員和清潔工衣服的顏色與火災顏色相似,但是有人的體型,結合體型和衣服顏色可作為關鍵特征,根據(jù)消防員和清潔工的工具等細節(jié)可將兩者分別開來。通過改進后的特征提取網(wǎng)絡可以在提取特征時減少特征提取損失,有效提取出圖像中的關鍵特征,提高網(wǎng)絡識別精度。
3.1.2 多尺度檢測改進
在網(wǎng)絡特征提取過程中,淺層特征圖分辨率較大,包含的位置信息較多;深層特征圖分辨率較小,包含的語義信息較多但位置信息較少[22]。為了利用淺層特征圖信息,YOLOV3 在火災檢測時使用了13×13,26×26,52×52這3個尺度的特征圖融合。
這種方法在火災區(qū)域較大時檢測效果較好,但是由于對淺層信息利用得不夠充分,經(jīng)過多次卷積后火災圖像的部分信息會丟失,導致小火災區(qū)域的檢測效果欠佳。
為了解決這一問題,本文添加低維的尺度檢測來強化對淺層特征圖信息的學習能力,但是添加新的尺度檢測會增大網(wǎng)絡復雜度,增加檢測時延,經(jīng)過對火災檢測精度和實時性的綜合考慮,將之前的3尺度檢測拓展為4尺度檢測,添加104×104尺度的檢測。
另外,在傳統(tǒng)的YOLOV3 中上采樣步長為2,本文將上采樣步長拓展為2,4,8 融合不同的淺層特征圖信息,使深層特征圖得到更好的重用,最后將上采樣后的特征圖與104×104的特征圖進行級聯(lián),更加充分地利用淺層特征圖信息,將不同尺度的特征融合之后再進行火災檢測。改進的多尺度檢測如圖4所示。
圖4 改進的多尺度檢測
改進后的4 尺度檢測融合了更多尺度的淺層特征圖信息,在火災檢測實時性可接受范圍內進一步提高對小火災區(qū)域圖像的檢測效果。
由于數(shù)據(jù)集中的火災圖像的火災區(qū)域大小各異,為了使檢測算法能夠更快速和精準地對火災進行檢測,利用K-means聚類算法對火災數(shù)據(jù)集中的真實框(Ground True Box)進行聚類分析,找到其統(tǒng)計規(guī)律,以聚類個數(shù)k為先驗框的個數(shù),以K個聚類中心框的寬高為先驗框(Anchor)的寬高。
K-means 通常使用歐式距離來計算對象間的距離,但是對先驗框使用歐式距離計算時,大的先驗框會比小的先驗框產(chǎn)生更多的誤差,因此使用改進的距離公式進行計算。因為聚類的目的是為了讓先驗框與鄰近的真實框有更大的交并比(IOU),IOU是用來檢測數(shù)據(jù)集中相關對象準確性的標準,計算公式如公式(1):
其中,TP為真陽性,F(xiàn)P為假陽性,F(xiàn)N為假陰性。為了對網(wǎng)絡中先驗框與真實框能夠方便進行交并比計算,采用如下計算公式:
其中,I(X)為像素點的交集,U(X)為像素點的并集,計算公式如式(3)、(4):
其中,P為訓練集中所有圖像像素的集合,X為集合P上像素點經(jīng)過網(wǎng)絡的輸出,?為真實框在P上的分布,若為背景像素點,?=0;若為對象像素點,X?=1。
為了使先驗框到聚類中心的距離越小,同時使先驗框與真實框的IOU更大,改進后的距離公式為:
使用優(yōu)化后的K-means聚類算法,可以得出先驗框個數(shù)K與IOU的關系如圖5所示。
圖5 先驗框個數(shù)K與IOU分析圖
圖5 中,隨著先驗框個數(shù)K的增加,IOU會逐漸增大,在K=12 時增速變緩,綜合考慮網(wǎng)絡的計算成本和火災檢測的精確度,將先驗框個數(shù)設置為12,所以聚類中心數(shù)k為12,隨機產(chǎn)生12個初始聚類中心如表2所示。
得到初始聚類中心之后,將火災數(shù)據(jù)集中所有標記對象的真實框進行統(tǒng)計,按照上述距離公式來計算距離,不停地進行迭代,直到聚類中心的距離變化小于給定閾值(本文中為0.005)則停止,迭代過程中距離變化如圖6所示。
表2 初始聚類中心
圖6 迭代過程中距離變化
當聚類中心趨于穩(wěn)定時,可以得出聚類后的聚類中心如表3所示。
表3 聚類后的聚類中心
通過聚類得到的聚類中心,與輸入圖像的尺寸進行乘積運算可以得到聚類后的先驗框如表4所示。
表4 聚類后的先驗框
針對改進后的四種不同尺寸的特征圖,在每種尺寸的特征圖上分別采用三種先驗框,在13×13的特征圖上,有最大的感受野,采用126×73,175×174,210×312這三種尺寸的先驗框來檢測火災區(qū)域最大的圖像;在26×26 的特征圖上,采用70×212,100×141,115×292 這三種尺寸的先驗框來檢測火災區(qū)域較大的圖像;在52×52 的特征圖上,采用42×152,59×50,64×97 這三種尺寸的先驗框來檢測火災區(qū)域中等的圖像;在新添加的104×104 的特征圖上,有最小的感受野,采用14×23,30×36,30×77 這三種尺寸的先驗框來檢測火災區(qū)域較小的圖像。
YOLOV3 的損失函數(shù)由坐標誤差,置信度誤差,分類誤差三部分組成如式(6)~(9)所示:
其中,表示網(wǎng)格j中的邊界框i里面有對象出現(xiàn)表示網(wǎng)格j中的邊界框i里面沒有對象出現(xiàn)時λcoord表示預測框與真實框的坐標誤差,為預測框坐標,為真實框(Ground Truth)坐標。λobj和λnoobj分別表示有對象和沒有對象的邊界框的置信度,為分類誤差,當火災存在真實框里時,。
其中Losscoord采用和方差(The Sum of Squares due to Error,SSE)損失函數(shù),置信度誤差和分類誤差采用交叉熵(Cross entropy)損失函數(shù)。當網(wǎng)絡的輸出較大時,平方差損失函數(shù)得到的誤差很小,網(wǎng)絡收斂較慢,容易造成梯度消失的情況,交叉熵損失函數(shù)可以避免梯度消失的發(fā)生。
在YOLOV3 的坐標誤差部分,通過邊界框與真實框的寬度差和高度差的平方和來進行計算。但是當待檢測圖像中的火災區(qū)域的寬度和高度很相近時,邊界框的寬度的計算權重較低,大火災區(qū)域對坐標誤差的影響較大,而小火災區(qū)域的坐標誤差很容易被忽略。當待檢火災圖像中的火災區(qū)域較小時,該火災區(qū)域可能無法被標記,坐標誤差的損失函數(shù)的也會得到一個很小輸出,不利于檢測小火災區(qū)域。
針對原始YOLOV3 的坐標誤差損失函數(shù)的缺陷,本文在邊界框和真實框的平方和的基礎上,考慮真實框的寬度和高度,將真實框的寬度和高度進行加權,使大火災區(qū)域的坐標誤差不會對小火災區(qū)域的檢測產(chǎn)生太大的影響,提高小火災區(qū)域的檢測能力。改進的坐標誤差損失函數(shù)如式(10)所示:
以一個火災圖像中有兩個火災區(qū)域為例,其中小火災區(qū)域的真實框為15×23,邊界框為21×32;大火災區(qū)域的真實框為232×326,邊界框為226×340;可以得出小火災區(qū)域的為0.04,為0.06,w為0.05,h為0.08;大火災區(qū)域的為0.56,?為0.78,w為0.54,h為0.82。通過式(7)與式(10)可得出改進前后各自損失函數(shù)的值如表5所示。
表5 改進前后損失函數(shù)數(shù)值
通過表5可以看出,對真實框的寬度和高度進行加權,可以根據(jù)待檢火災區(qū)域的大小來調整該火災區(qū)域在坐標損失函數(shù)中的權重,使得大火災區(qū)域坐標誤差的權重降低,不會掩蓋小火災區(qū)域的坐標誤差。通過對坐標誤差損失函數(shù)的修正有利于提高對小火災區(qū)域的檢測精度,使算法的準確率和召回率進一步提高。
對于每張輸入的火災圖像,YOLOV3在得出最終預測框之前會采用非極大值抑制算法(Non Maximum Suppression,NMS)[23]進行局部最大值搜索,先將預測框按置信度得分排序,保留得分最高的預測框,然后以最高得分的預測框與其他框進行IOU計算,刪除該預測框IOU大于給定閾值的其他預測框,然后對剩余框迭代進行這一過程,最終輸出預測框位置。
如果當待檢測區(qū)域重合度較高,NMS 會將較低置信度的預測框刪除,可能會導致該區(qū)域漏檢,以至于檢測結果的Recall較低。為了解決這一問題,Soft-NMS[24]對IOU 大于給定閾值的預測框進行得分衰減而不是直接刪除,本文采用Softer-NMS[25],用一種新的最小化預測框回歸損失函數(shù)(KL Loss),KL Loss 使預測框的預測呈高斯分布,而且與真實框接近,將預測框預測的標準差作為定位置信度,用來學習預測框變換和定位置信度(localization confidence)。
KL Loss 為預測框的高斯分布和真實框的狄拉克分布的KL散度的損失函數(shù),由式(11)~(13)計算:
其中,Pθ(x)為預測框的高斯分布,PD(x)為真實框的狄拉克分布;xe為預測框的位置期望,xg為真實框的位置。因為PD(x)為一種標準差趨近于0 的高斯分布的極限,所以Pθ(x)的標準差越趨近于0,Lossreg也會越趨近于0,代表預測框與真實框越接近,所以將預測框的標準差作為定位置信度可以對預測框進行有效定位。
Softer-NMS 對預測標注方差范圍內的預測框進行加權平均,使得高定位置信度的預測框具有較高的分類置信度。
因為本文數(shù)據(jù)集中有很多圖像的區(qū)域的重疊面積較大,如火情很復雜的區(qū)域采用了多個框作為標注,而不是用一個框將所有火災范圍包圍起來;部分街燈的燈柱上有很多燈且相互覆蓋較大,遮住了部分特征;部分消防員和清潔工的位置十分接近,身體遮掩程度較大,原有的NMS 會導致較高的漏檢率。采用Softer-NMS 代替YOLOV3 原來的NMS 進行預測框輸出可以使重合度較高的區(qū)域得到有效檢測,使算法的Recall得以提高。
本文使用的實驗數(shù)據(jù)集為自制的Fire-Detection Dataset,所有圖像均取自互聯(lián)網(wǎng)相關圖像,選取4 000張火災(Fire)的圖像,2 600 張類火圖像(Fire-Like)(類火圖片包含800 張夜晚街燈圖像,1 000 張消防員圖像,800張清潔工圖像),共計6 600張,數(shù)據(jù)集分布情況如圖7所示。
圖7 Fire-DetectionDataset數(shù)據(jù)分布
將該數(shù)據(jù)集按8∶1∶1 分配為訓練集、驗證集、測試集,具體分配情況如表6所示。
表6 數(shù)據(jù)集分配情況
本文算法需要通過對TXT 文本的讀取來獲得訓練圖像的存儲路徑以及圖像中目標的標記像素坐標和目標類別。因此首先對訓練圖像進行統(tǒng)一編號,編號后對待識別目標(火災、類火)用LabelImg 圖像標注軟件進行標注,將圖像中標注的目標位置信息和類信息存儲為訓練需要的XML 文件,再通過Python 程序生成對應的TXT 文件,將這些文件組合成YOLOV3 可以識別的VOC2007 格式的數(shù)據(jù)集,訓練集樣本示例如圖8所示。
圖8 訓練集樣本示例
由于從互聯(lián)網(wǎng)上采集到的火災圖像數(shù)量有限,為了讓網(wǎng)絡能夠更好地學習到目標特征,需要對數(shù)據(jù)集進行數(shù)據(jù)拓展。常用的數(shù)據(jù)增強方法有翻轉、旋轉、平移、縮放、隨機對比度等。本文對圖像進行90°、180°、270°旋轉和水平翻轉進行數(shù)據(jù)增強,訓練集圖像的角度變換增強了訓練模型對不同角度圖像的魯棒性,提高了模型的泛化能力,數(shù)據(jù)增強如圖9所示。
圖9 數(shù)據(jù)增強示例
在模型訓練階段,將動量(Momentum)設置為0.9、衰變值(Decay)為0.000 5、批尺寸(Batch size)為32,使用小批量隨機梯度下降進行優(yōu)化,初始學習率(Learning rate)為0.001,整個過程的學習率為10-3、10-4、10-5,分別對應于前 5 000 次、前 5 000~10 000 次、前 10 000~15 000 次。采用數(shù)據(jù)增強來增加訓練樣本。在訓練過程中保存訓練日志和訓練權重,從訓練日志中提取出loss 值和IOU 值畫圖,根據(jù)損失函數(shù)和IOU 對網(wǎng)絡的參數(shù)進行優(yōu)化調整至最優(yōu),將loss 值最小時的權重作為最終權重對火災圖像進行檢測,訓練參數(shù)如表7所示。
表7 訓練模型初始參數(shù)
損失函數(shù)圖如圖10所示,從圖中可以看出,前5 000次迭代過程中,loss 值變化很大,在到達第12 500 次迭代次數(shù)時,loss值趨于穩(wěn)定。
圖10 損失函數(shù)曲線圖
IOU 圖如圖11 所示,從圖中可以看出,在第1 輪到第200 000 輪,隨著迭代次數(shù)增加,IOU 值上升較快,在200 000輪之后,IOU值也趨于穩(wěn)定。
圖11 平均IOU曲線圖
本文將通過訓練后模型檢測的準確率(Precision,P)、召回率(Recall,R)、平均精度(mean Average Precision,mAP)作對比,由式(14)~(17)計算:
其中,TP為真正例,F(xiàn)P為假正例,F(xiàn)N為負正例,c為分類數(shù)。P-R(Precison-Recall)曲線以精度和召回率為Y軸和X軸來繪制,檢測目標對應的P-R曲線圖如圖12所示。
圖12 P-R曲線圖
4.5.1 不同改進策略的影響
通過對YOLOV3 網(wǎng)絡結構進行修改,將其特征提取網(wǎng)絡中的普通卷積修改為深度可分離卷積,并在特征輸出后用Conv1×1 進行特征平滑,提高特征提取能力,改進后效果如圖13所示。
圖13 特征提取網(wǎng)絡改進效果
另外將3 尺度檢測拓展到4 尺度檢測,提高對淺層特征圖的利用,并將上采樣步長進行拓展到2,4,8,提升對深層特征的重用。將篩選出來的先驗框在每個尺度上按1∶3進行分配,在高維分配3個最大尺寸的先驗框,在低維分配3個最小尺寸的先驗框,以此類推將先驗框分配完畢。該種改進方案效果如圖14 所示,圖像上方火災區(qū)域較小,改進后的多尺度檢測可以有效檢測出小火災區(qū)域。
圖14 多尺度檢測改進效果
在原來的YOLOV3坐標誤差損失函數(shù)加入對邊界框尺寸的考慮,將邊界框的寬高進行加權,降低大框對小框的影響程度,可以提高網(wǎng)絡的檢測效果,加快網(wǎng)絡的收斂,該方法改進后的效果如圖15所示。
圖15 損失函數(shù)改進效果
最后在輸出預測框之前,將原來的NMS 改進為Softer-NMS,可以有效提高對重疊區(qū)域的檢測能力,使網(wǎng)絡召回率得以提高,改進后的效果如圖16所示。
圖16 非極大值抑制改進效果
對YOLOV3 進行不同策略的改進對mAP有不同程度的影響,YOLOV3不同改進策略對mAP的影響如表8所示。
表8 不同改進策略對mAP的影響
將傳統(tǒng)YOLOV3算法與不同改進策略的YOLOV3算法在P、R、mAP上進行比較,影響對比如圖17 所示。其中Network-IMP 為網(wǎng)絡結構(特征提取網(wǎng)絡和多尺度檢測)改進后的算法,Loss-IMP 為損失函數(shù)改進后的算法,YOLOV3-IMP 為添加了所有改進策略的算法。
圖17 不同改進策略的影響對比
4.5.2 驗證集上部分檢測結果
為了測試算法的魯棒性,在驗證集中添加了火災和類火圖像,用YOLOV3-IMP 在該驗證集上進行測試。部分檢測結果如圖18所示。
圖18 YOLOV3-IMP部分檢測結果
圖18 中(a)~(f)為火災圖像的檢測結果,其中(a)~(c)為火情較單一的情況,(a)中的火災區(qū)域較大,(b)、(c)中的火災區(qū)域較小,本文算法均能有效檢測出火災;(d)~(f)為火情較復雜的情況,本文算法在火情較復雜的情況下有效檢測出大火災區(qū)域和小火災區(qū)域,在檢測的準確度和召回率上都表現(xiàn)良好。(g)~(i)為類火圖像的檢測結果,(g)中夜晚街燈的光和火災發(fā)出光極其類似,(h)中消防員和(i)中清潔工衣服的顏色和火焰也很相似,本文算法能夠有效檢測出是否有真正的火災發(fā)生。
實驗結果表明本文算法不僅在大火災區(qū)域的圖像上有良好的檢測結果,而且能夠有效檢測出小火災區(qū)域,在對類火物體檢測時,能夠有效分辨出街燈、消防員和環(huán)衛(wèi)工,漏檢率和誤檢率低,在火災檢測上有良好的表現(xiàn)。
4.5.3 對比實驗
為了進一步驗證本文算法在火災檢測上的有效性,將本文算法與目標檢測效果良好的Faster R-CNN、SSD、YOLO、YOLOV2、YOLOV3 等模型在相同的數(shù)據(jù)集上進行實驗對比分析,6 種算法性能測試結果如表9所示。
表9 算法測試結果
根據(jù)表9可以看出,在測試集相同的情況下,本文算法相比于Faster R-CNN,P、R、mAP分別提高3.2%、11.7%、7.9%,F(xiàn)aster R-CNN 作為典型的是基于候選區(qū)域的火災檢測算法,其RPN(Region Proposal Networks)推薦候選區(qū)域時會消耗大量時間。雖然該算法整體性能較好,但是其檢測一張火災圖像的時間長達0.34 s,雖然 Faster R-CNN 比 R-CNN 與 Fast R-CNN 的檢測時間要短得多,但是在火災檢測的實時性要求上仍然有所不足。
將本文算法與基于回歸的檢測算法進行對比分析,相比于SSD,P、R、mAP分別提高11.2%、21.8%、16.6%,SSD使用低級特征去檢測小火災區(qū)域,但是低級特征的卷積層較少,特征提取不夠充分,導致對小火災區(qū)域的檢測效果欠佳,算法的R較低,雖然檢測速度比本文算法快0.1 s,但是本文算法比SSD火災檢測效果有大幅度提高。
與YOLO 系列進行對比分析,本文算法在性能上比YOLO 和YOLOV2 有大幅度提升,相比于傳統(tǒng)的YOLOV3,P、R、mAP分別提高6.2%、7.2%、6.7%,因為本文算法在YOLOV3 上進行了相應拓展,檢測速度比YOLOV3慢0.3 s,但是提高了火災檢測效果,特別是對于小火災區(qū)域的檢測能力有明顯提升。
本文算法在滿足火災檢測的實時性要求下對該數(shù)據(jù)集以0.28 s的平均檢測速度獲得了84.5%的mAP,實驗證明本文算法在火災檢測中的可行性。算法性能對比如圖19所示。
圖19 算法性能對比
針對YOLOV3 在火災檢測應用上的不足,本文主要對YOLOV3 進行了特征提取網(wǎng)絡改進、多尺度檢測改進、先驗框改進、損失函數(shù)改進和非極大值抑制改進,使之可以對火災進行更好的檢測,自行設計并標注了火災數(shù)據(jù)集Fire-DetectionDataset進行實驗。
實驗結果表明,本文改進后的方法與同類火災檢測算法相比對火災檢測有更好的魯棒性,無論是在準確度還是速度上都有良好的表現(xiàn),在數(shù)據(jù)集上達到了91.6%的準確率,83.2%的召回率,84.5%的mAP,平均檢測速度達0.28 s。在之后的工作中,將對網(wǎng)絡進行優(yōu)化改進,進一步提高檢測效果和算法速度,同時對現(xiàn)有的火災數(shù)據(jù)集進行拓展,增加數(shù)據(jù)集的樣本的多樣性,提高訓練集樣本質量。