祖鑫萍,李丹
(東北林業(yè)大學(xué)信息與計(jì)算機(jī)工程學(xué)院,哈爾濱 150040)
近年來(lái),隨著地球氣候的不斷變化,森林火災(zāi)在世界各地頻繁發(fā)生,對(duì)人類生命財(cái)產(chǎn)安全和生態(tài)環(huán)境構(gòu)成嚴(yán)重的威脅。森林火災(zāi)通常蔓延極快,成災(zāi)范圍廣,難以控制,因此在森林火災(zāi)早期進(jìn)行積極有效的探測(cè)和預(yù)警至關(guān)重要。
傳統(tǒng)的監(jiān)測(cè)技術(shù)有傳感器監(jiān)測(cè)、紅外監(jiān)測(cè)、衛(wèi)星遙感監(jiān)測(cè)等。傳感器(煙霧、溫度探測(cè)器等)無(wú)法提供火勢(shì)大小、具體位置等火情信息,且在開(kāi)闊的林區(qū)安裝成本較高,因此并不適用于森林火災(zāi)監(jiān)測(cè)。紅外監(jiān)測(cè)方法對(duì)監(jiān)測(cè)距離要求較高,易受周邊環(huán)境的干擾,從而發(fā)生漏判、錯(cuò)判等現(xiàn)象。衛(wèi)星遙感監(jiān)測(cè)技術(shù)的時(shí)間和空間分辨率較低,掃描周期長(zhǎng),無(wú)法探測(cè)早期區(qū)域火災(zāi)[1]。
隨著圖像處理技術(shù)的發(fā)展,研究人員開(kāi)始尋求新的森林火災(zāi)智能探測(cè)方法。例如,?elik等[2]基于YCbCr構(gòu)建了用于火焰顏色分類的色度模型,該算法復(fù)雜度低,可用于實(shí)時(shí)監(jiān)測(cè)。Zhao等[3]通過(guò)融合煙霧的顏色特征、顫振特征和圖像能量特征構(gòu)建了用于識(shí)別早期森林火災(zāi)的煙霧模型,該模型能夠排除森林水霧的干擾從而準(zhǔn)確識(shí)別森林火災(zāi)早期煙霧。Chino等[4]提出了一種新穎的用于識(shí)別靜態(tài)圖像火災(zāi)算法BowFire,該算法通過(guò)集成顏色特征與超像素區(qū)域紋理特征,降低靜態(tài)場(chǎng)景的誤報(bào)率。綜上所述,目前傳統(tǒng)圖像處理方法的特征學(xué)習(xí)過(guò)程很煩瑣并且探測(cè)效果十分依賴于人工選擇特征的優(yōu)劣[5]。
近年來(lái),基于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)的深度學(xué)習(xí)技術(shù)得到越來(lái)越多關(guān)注,深度學(xué)習(xí)憑借其強(qiáng)大的特征提取能力,能夠獲取更深的圖像語(yǔ)義信息,并且具備端到端的模型訓(xùn)練過(guò)程,能夠有效避免人工選取特征的復(fù)雜性和局限性[6-7]。隨著深度學(xué)習(xí)的發(fā)展,有研究人員將深度學(xué)習(xí)算法應(yīng)用于森林火災(zāi)探測(cè)領(lǐng)域。Lee等[8]提出了一種基于Faster R-CNN(Faster Region-CNN)算法的火災(zāi)探測(cè)模型,該模型考慮圖像的全局和局部特征,結(jié)果表明,該算法的假陽(yáng)性檢測(cè)率降至0.1%左右,明顯低于傳統(tǒng)方法,具有良好防誤判能力。Liu等[9]基于HOG-Adaboost和CNN-SVM提出了一種多層次的火災(zāi)識(shí)別方法,該模型通過(guò)對(duì)火區(qū)二次識(shí)別,在訓(xùn)練樣本較少情況下提高了森林火災(zāi)識(shí)別率。Majid等[10]提出了一個(gè)基于關(guān)注的CNN模型,該模型融入注意力機(jī)制并使用Grad-CAM方法,幫助網(wǎng)絡(luò)對(duì)真實(shí)圖像中的火災(zāi)進(jìn)行更好的可視化和定位。Cheng等[11]基于多尺度卷積神經(jīng)網(wǎng)絡(luò)開(kāi)發(fā)了一種穩(wěn)健的VFD(video fire detection)融合模型,有效解決因裁剪導(dǎo)致圖像特征丟失的問(wèn)題,從而提升火災(zāi)的探測(cè)效果。
現(xiàn)有算法雖然探測(cè)準(zhǔn)確度較高,但網(wǎng)絡(luò)層數(shù)較深,識(shí)別速率較慢。本研究擬將Focus模塊、解耦頭、無(wú)錨框(anchor-free)檢測(cè)機(jī)制和SimOTA(simplified optimal transport assignment)動(dòng)態(tài)標(biāo)簽分配策略引入YOLOv3-SPP(you only look once version three-spatial pyramid pooling)模型中,利用無(wú)人機(jī)拍攝的森林火災(zāi)遙感影像對(duì)改進(jìn)的YOLOv3-SPP模型進(jìn)行訓(xùn)練、評(píng)估,以提高森林火災(zāi)識(shí)別的準(zhǔn)確度與時(shí)效性。
本試驗(yàn)基于Keras 2.2.4學(xué)習(xí)框架搭建森林火災(zāi)煙霧識(shí)別模型,操作系統(tǒng)為Ubuntu 18.04.2,GPU為NVIDIA GTX1080,Python版本為3.6。
圖1 基于無(wú)人機(jī)的森林火災(zāi)煙霧數(shù)據(jù)集Fig. 1 UAV-based forest fire smoke dataset
試驗(yàn)所使用的數(shù)據(jù)來(lái)源于兩方面,一方面是從文獻(xiàn)[12]中獲取的廣泛用于評(píng)估森林火災(zāi)煙霧識(shí)別模型的公開(kāi)數(shù)據(jù)集,包括1 400多幅煙霧圖像;另一方面是基于無(wú)人機(jī)采集的西昌地區(qū)近10年的森林火災(zāi)煙霧視頻(圖1)。為將視頻分解成模型輸入所需圖像,利用OpenCV圖像處理庫(kù)將視頻進(jìn)行分幀處理,即每15幀截取一張圖像。通過(guò)對(duì)數(shù)據(jù)進(jìn)行篩選整理最終獲得約5 500幅圖像。
首先將森林火災(zāi)煙霧圖像調(diào)整為608×608像素,然后利用LabelImg工具對(duì)圖像中煙霧進(jìn)行標(biāo)注,標(biāo)簽為smoke,最后從數(shù)據(jù)集中隨機(jī)取出1/10作為測(cè)試集,剩余圖像數(shù)據(jù)按照9∶1的比例隨機(jī)分為訓(xùn)練集和驗(yàn)證集。
圖2 改進(jìn)的YOLOv3-SPP網(wǎng)絡(luò)結(jié)構(gòu)Fig. 2 Network structure diagram of improved YOLOv3-SPP
YOLOv3作為YOLO系列的第三代網(wǎng)絡(luò),是目前最常用的One-stage目標(biāo)識(shí)別算法之一[13]。YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)主要分為三部分,分別是基于DarkNet53的主干特征提取網(wǎng)絡(luò)、特征金字塔融合結(jié)構(gòu)(feature pyramid networks,F(xiàn)PN)和預(yù)測(cè)結(jié)構(gòu)(Yolo Head)。DarkNet53結(jié)構(gòu)由5個(gè)殘差塊(Residual Block)跳躍連接,每個(gè)殘差塊由兩個(gè)卷積構(gòu)成,卷積核為1×1和3×3,緩解了卷積層數(shù)增加導(dǎo)致的梯度消失問(wèn)題。YOLOv3模型中,每一個(gè)基本卷積單元(CBL,CBL=Convolutional+Batch Normalization+Leaky Relu)由卷積、批量標(biāo)準(zhǔn)化層和Leaky Relu激活函數(shù)構(gòu)成。在特征金字塔融合階段,對(duì)DarkNet53結(jié)構(gòu)輸出3個(gè)有效特征層進(jìn)行融合,即通過(guò)上采樣的方式將不同尺度的特征層進(jìn)行拼接,擴(kuò)寬網(wǎng)絡(luò)的感受野,實(shí)現(xiàn)多尺度目標(biāo)檢測(cè)。融合后的3個(gè)加強(qiáng)特征層最終輸入Yolo Head中進(jìn)行預(yù)測(cè),通過(guò)對(duì)預(yù)測(cè)結(jié)果進(jìn)行解碼,得出最終邊界框的中心點(diǎn)坐標(biāo)和高寬等信息,計(jì)算公式如下:
bx=α(tx)+cx
(1)
by=α(ty)+cy
(2)
bw=pw+etw
(3)
bh=ph+eth
(4)
式中:bx、by、bw、bh為邊界框的中心點(diǎn)位置及寬和高;α為sigmoid激活函數(shù);tx、ty、tw、th為模型輸出結(jié)果偏移量;cx、cy為該點(diǎn)對(duì)應(yīng)網(wǎng)格的左上角坐標(biāo);pw、ph為先驗(yàn)框的寬和高。
YOLOv3-SPP模型在YOLOv3主干特征提取網(wǎng)絡(luò)后增加了一個(gè)空間金字塔池化結(jié)構(gòu)(spatial pyramid pooling,SPP)模塊,此模塊利用多個(gè)并行分支學(xué)習(xí)不同尺度的特征,拓展了模型感受野,提升對(duì)不同尺度圖片的識(shí)別效果。
本研究對(duì)YOLOv3-SPP網(wǎng)絡(luò)模型從4個(gè)方面進(jìn)行改進(jìn)(圖2)。首先在主干特征提取網(wǎng)絡(luò)中使用Focus網(wǎng)絡(luò)結(jié)構(gòu),在擴(kuò)展每個(gè)像素點(diǎn)感受野、減少火災(zāi)圖像原始信息丟失的同時(shí),減少后期卷積運(yùn)算量,加快網(wǎng)絡(luò)特征提取速度。其次,在Yolo Head中使用解耦頭,將分類與回歸拆分成兩個(gè)獨(dú)立的模塊進(jìn)行,避免二者產(chǎn)生沖突,提高模型預(yù)測(cè)準(zhǔn)確度。再次,利用無(wú)錨框檢測(cè)器對(duì)物體邊界直接預(yù)測(cè),減少計(jì)算錨框的參數(shù),簡(jiǎn)化解碼過(guò)程。最后,在模型訓(xùn)練過(guò)程中采用SimOTA動(dòng)態(tài)標(biāo)簽分配策略動(dòng)態(tài)為不同目標(biāo)選取不同數(shù)量正樣本,避免額外的參數(shù)優(yōu)化,從而加快模型訓(xùn)練速度。
1.4.1 Focus模塊
改進(jìn)的YOLOv3-SPP模型在圖片輸入預(yù)處理完成后,利用Focus模塊對(duì)其進(jìn)行切片處理,F(xiàn)ocus模塊結(jié)構(gòu)如圖3所示。首先,將圖片每隔一個(gè)像素取一個(gè)值,這些值通過(guò)整合形成4個(gè)獨(dú)立的特征層,這些特征層完好保留了圖片所有信息;之后,將4個(gè)特征層縱向通道進(jìn)行拼接,此時(shí)高、寬維度上的信息便集中到通道空間。輸入圖片尺寸設(shè)定為608×608×3,經(jīng)過(guò)切片處理形成304×304×12的特征層,輸入通道擴(kuò)大4倍,減少之后卷積運(yùn)算的計(jì)算量,提升模型特征學(xué)習(xí)速度。
圖3 Focus模塊結(jié)構(gòu)Fig. 3 Module structure diagram of Focus
1.4.2 解耦頭
原始YOLO系列算法的Yolo Head分類與回歸任務(wù)通過(guò)一個(gè)1×1卷積完成。但分類更關(guān)注每一個(gè)樣本的紋理內(nèi)容,回歸更關(guān)注物體圖像的邊緣特征,二者的關(guān)注點(diǎn)不同,會(huì)在預(yù)測(cè)過(guò)程中出現(xiàn)沖突,導(dǎo)致模型性能降低。因此利用解耦頭將分類與回歸任務(wù)進(jìn)行解耦。
解耦頭網(wǎng)絡(luò)結(jié)構(gòu)圖如圖4所示:對(duì)于輸入的特征層,解耦頭會(huì)利用1×1卷積對(duì)其進(jìn)行降維,然后利用兩個(gè)平行通道分別進(jìn)行對(duì)象分類和目標(biāo)框坐標(biāo)回歸任務(wù)。為降低解耦頭復(fù)雜度,提高模型收斂速度,每個(gè)通道使用了2個(gè)3×3卷積。通過(guò)處理可以獲得Cls、Reg和Obj 3個(gè)輸出值,其中,Cls為目標(biāo)框?qū)?yīng)的種類,Reg為目標(biāo)框的位置信息,Obj為每個(gè)特征點(diǎn)是否含有物體。將3個(gè)輸出值進(jìn)行融合,得到最終的預(yù)測(cè)信息。
圖4 解耦頭網(wǎng)絡(luò)結(jié)構(gòu)Fig. 4 Network structure diagram of Decoupling Head
1.4.3 無(wú)錨框檢測(cè)器
YOLOv3-SPP模型基于錨框檢測(cè)器每個(gè)特征層的3個(gè)預(yù)測(cè)結(jié)果Cls、Reg和Obj進(jìn)行解碼,提取預(yù)測(cè)框的位置并計(jì)算與真實(shí)框的差距。然而在實(shí)際訓(xùn)練中,錨框檢測(cè)器需要計(jì)算錨框與真實(shí)框的重合程度值,復(fù)雜度較高[14]。因此,利用Anchor-free檢測(cè)器代替錨框檢測(cè)器,使預(yù)測(cè)網(wǎng)絡(luò)能依據(jù)Reg中目標(biāo)位置信息直接預(yù)測(cè)網(wǎng)格左上角的兩個(gè)偏移量和預(yù)測(cè)框的高寬,從而將每個(gè)錨框的預(yù)測(cè)參數(shù)減少2/3。同時(shí),設(shè)定每個(gè)物體中心點(diǎn)為正樣本并定義一個(gè)比例范圍,便于指定每個(gè)物體FPN水平,減少模型GFLOPS的參數(shù)量計(jì)算,提高模型的識(shí)別速度。
1.4.4 動(dòng)態(tài)標(biāo)簽分配策略
在訓(xùn)練過(guò)程中,由于標(biāo)準(zhǔn)動(dòng)態(tài)分配策略中的經(jīng)典Sinkhorn-Knopp算法需反復(fù)迭代才能挑選出正樣本錨框,時(shí)間成本較高。因此引入SimOTA方法[15]。SimOTA方法通過(guò)引入Cost代價(jià)矩陣計(jì)算每個(gè)真實(shí)框和預(yù)測(cè)框IoU(intersection over union)值、種類預(yù)測(cè)精確度和真實(shí)框中心點(diǎn)與特征點(diǎn)半徑位置關(guān)系,使每個(gè)特征點(diǎn)能夠自適應(yīng)地尋找應(yīng)去擬合的真實(shí)框。
SimOTA方法主要分為3個(gè)步驟:第一,將候選框數(shù)量設(shè)定為10,并根據(jù)Cost值選出重合度最高的10個(gè)特征點(diǎn);第二,將這10個(gè)特征點(diǎn)構(gòu)成的預(yù)測(cè)框分別與真實(shí)框進(jìn)行IoU計(jì)算,并將結(jié)果進(jìn)行求和從而得到每個(gè)真實(shí)框?qū)?yīng)的特征點(diǎn)數(shù)k(k≥1);第三,為每個(gè)真實(shí)框選取Cost最低的k個(gè)錨框作為正樣本。
在目標(biāo)識(shí)別任務(wù)中,采用交叉熵?fù)p失函數(shù)(cross-entropy Loss,L)、精確率(precision,P)、召回率(recall,R)、F1分?jǐn)?shù)(F1-score,F1)、平均精度均值(mAP,MAP)、識(shí)別速率評(píng)估所提出的方法。交叉熵?fù)p失函數(shù)(L)用來(lái)度量模型的預(yù)測(cè)結(jié)果與真實(shí)值之間的差異程度,值越小,模型魯棒性越強(qiáng),其計(jì)算公式為:
(5)
精確率是指在所有識(shí)別到的樣本中,被正確識(shí)別的樣本所占比例;召回率指在所有應(yīng)該被正確識(shí)別的樣本中,被正確識(shí)別的樣本所占比例;F1分?jǐn)?shù)兼顧了假陽(yáng)性與假陰性,并結(jié)合了精確度和召回率兩個(gè)指標(biāo);識(shí)別速率代表每秒鐘模型處理圖片的幀率,值越高,識(shí)別速率越快。
(6)
(7)
(8)
式中:TP為正確識(shí)別森林火災(zāi)圖像的數(shù)量,即真陽(yáng)性;FP為錯(cuò)誤識(shí)別的森林火災(zāi)圖像的數(shù)量,即假陽(yáng)性;FN為未能識(shí)別的森林火災(zāi)圖像,即假陰性。
(9)
式中:ΣAPclasses為各類別平均精度的總和;Nclasses為所有類別的總數(shù)。mAP值越高,模型性能越好。
由于森林火災(zāi)識(shí)別要求實(shí)時(shí)性,所以算法的識(shí)別速率也是衡量模型優(yōu)劣的重要指標(biāo)之一。公式如下:
(10)
式中:n為處理的總幀數(shù);t為處理相應(yīng)幀需要的時(shí)間。
本實(shí)驗(yàn)在訓(xùn)練模型時(shí),將alpha設(shè)置為1,訓(xùn)練批次大小設(shè)置為16,初始學(xué)習(xí)率設(shè)置為0.001。為提高訓(xùn)練速度,將主干網(wǎng)絡(luò)凍結(jié)并進(jìn)行50 epoch的網(wǎng)絡(luò)訓(xùn)練,然后將其解凍并將學(xué)習(xí)率設(shè)置為0.000 1,訓(xùn)練批次大小設(shè)置為8,訓(xùn)練150輪次。采用遷移學(xué)習(xí)的手段對(duì)模型進(jìn)行訓(xùn)練。由于前50輪次訓(xùn)練網(wǎng)絡(luò)被凍結(jié),訓(xùn)練參數(shù)改變較少,訓(xùn)練速度較快。根據(jù)訓(xùn)練日志,描繪出模型損失函數(shù)值的變化曲線如圖5所示。由圖5可知,YOLOv3-SPP模型和改進(jìn)后的YOLOv3-SPP模型在解凍后均快速收斂,而改進(jìn)后的YOLOv3-SPP模型的損失值最終穩(wěn)定在3.5左右,較改進(jìn)前降低了6,這表明改進(jìn)的YOLOv3-SPP模型的魯棒性更好。
圖5 模型訓(xùn)練損失曲線Fig. 5 Model training loss curves
為驗(yàn)證改進(jìn)部分對(duì)森林火災(zāi)煙霧識(shí)別模型性能的影響,對(duì)基于YOLOv3-SPP網(wǎng)絡(luò)僅使用Focus模塊改進(jìn)的模型(YOLOv3SPP+F)、僅使用解耦頭改進(jìn)的模型(YOLOv3SPP+DH)、僅使用無(wú)錨框檢測(cè)器改進(jìn)的模型(YOLOv3SPP+AF)和僅使用SimOTA策略改進(jìn)的模型(YOLOv3SPP+S)分別實(shí)驗(yàn),結(jié)果如表1所示。
從表1數(shù)據(jù)可知,引入Focus模塊的煙霧識(shí)別模型檢測(cè)幀率提高了11 幀/s,說(shuō)明通過(guò)擴(kuò)張?zhí)卣鲗虞斎胪ǖ烙行p少了卷積運(yùn)算量。在預(yù)測(cè)網(wǎng)絡(luò)中引入解耦頭,雖然模型識(shí)別速度有所下降,但精確率和mAP分別提升了0.86%和1.75%,說(shuō)明該模塊能有效提高模型對(duì)煙霧識(shí)別的準(zhǔn)確性。利用無(wú)錨框檢測(cè)器代替錨框檢測(cè)器,降低了計(jì)算錨框參數(shù)量,檢測(cè)幀率提升了13幀/s。引入SimOTA策略避免了通過(guò)反復(fù)迭代挑選正樣本錨框過(guò)程,減少計(jì)算量,精確率和mAP分別提升了0.28%和0.53%。實(shí)驗(yàn)結(jié)果表明,同時(shí)引入上述4種改進(jìn)策略可有效提升模型對(duì)森林火災(zāi)煙霧識(shí)別的準(zhǔn)確性和識(shí)別速率。
表1 消融實(shí)驗(yàn)結(jié)果Table 1 Ablation experiment results
模型訓(xùn)練完成后,將YOLOv3-SPP和改進(jìn)的YOLOv3-SPP模型在測(cè)試集上進(jìn)行對(duì)比實(shí)驗(yàn),模型輸出參數(shù)見(jiàn)表2。改進(jìn)的YOLOv3-SPP模型精確率、mAP、F1分?jǐn)?shù)、召回率和識(shí)別速率較改進(jìn)前分別提高了1.14%、2.06%、0.04、15.03%和17幀/s,這表明改進(jìn)后的模型識(shí)別效果更好、識(shí)別速率更快,具有更高的森林火災(zāi)煙霧識(shí)別工程的實(shí)用性。
表2 2種模型進(jìn)行煙霧識(shí)別綜合性能對(duì)比Table 2 Comprehensive performance comparison of two models for smoke recognition
根據(jù)訓(xùn)練模型對(duì)森林火災(zāi)煙霧進(jìn)行識(shí)別得到的預(yù)測(cè)效果見(jiàn)圖6??梢园l(fā)現(xiàn),YOLOv3-SPP和改進(jìn)的YOLOv3-SPP模型都完成森林火災(zāi)煙霧的識(shí)別,包括定位煙霧區(qū)域、輸出預(yù)測(cè)框置信度和類別,但YOLOv3-SPP模型對(duì)于濃度較低的煙霧存在漏檢情況,而改進(jìn)的YOLOv3-SPP模型能夠全部檢出。綜合多張圖像識(shí)別可視化結(jié)果分析,相比于YOLOv3-SPP模型,改進(jìn)的YOLOv3-SPP網(wǎng)絡(luò)模型對(duì)低濃度煙霧識(shí)別效果較好,有效提高了森林火災(zāi)煙霧識(shí)別任務(wù)的準(zhǔn)確度。
圖6 YOLOv3-SPP與改進(jìn)YOLOv3-SPP預(yù)測(cè)可視化結(jié)果Fig. 6 The prediction visualization results of YOLOv3-SPP and improved YOLOv3-SPP
將本試驗(yàn)提出的方法與其他深度學(xué)習(xí)模型進(jìn)行比較,其中包括Faster R-CNN、YOLOv4[16]、YOLOv4-Mobilenet[17]、YOLOv4-lite[18]、YOLOv4-tiny[19]、YOLOv5[20]、SSD(Single Shot MultiBox Detector)[21]、M2det(Detector built upon multi-level and multi-scale features)[22]、Retinanet[23]。經(jīng)過(guò)對(duì)比分析這幾種模型在測(cè)試數(shù)據(jù)集上的各個(gè)檢測(cè)指標(biāo),得出一種準(zhǔn)確率較高、檢測(cè)時(shí)間能夠滿足實(shí)際需求的最優(yōu)模型。9種模型的識(shí)別精確率、召回率、mAP、F1、識(shí)別速度見(jiàn)表3,對(duì)煙霧遙感圖像預(yù)測(cè)可視化結(jié)果見(jiàn)圖7。結(jié)果表明,F(xiàn)aster R-CNN、YOLOv5、SSD、M2det都較完整地識(shí)別出森林火災(zāi)煙霧,但它們的預(yù)測(cè)置信度以及精確率、mAP、F1分?jǐn)?shù)、召回率、識(shí)別速度均低于改進(jìn)的YOLOv3-SPP模型。YOLOv4、YOLOv4-Mobilenet、YOLOv4-lite、YOLOv4-tiny和Retinanet網(wǎng)絡(luò)模型的預(yù)測(cè)可視化結(jié)果存在明顯錯(cuò)誤,對(duì)部分煙霧存在漏報(bào)問(wèn)題,不適合作為森林火災(zāi)煙霧識(shí)別模型。改進(jìn)的YOLOv3-SPP模型在預(yù)測(cè)精確率、mAP、F1分?jǐn)?shù)、召回率方面均取得了最優(yōu)結(jié)果,且?guī)蔬_(dá)到51幀/s,滿足森林火災(zāi)識(shí)別任務(wù)的實(shí)時(shí)性要求。雖然YOLOv4-tiny模型的識(shí)別速度略高于改進(jìn)的YOLOv3-SPP模型,但它其余評(píng)價(jià)指標(biāo)值較低,且在煙霧圖像識(shí)別可視化結(jié)果中存在嚴(yán)重漏報(bào)現(xiàn)象??傮w看來(lái),本研究提出改進(jìn)的YOLOv3-SPP模型兼顧了識(shí)別精確率和識(shí)別速率,對(duì)森林火災(zāi)煙霧識(shí)別效果最好。
表3 9種模型進(jìn)行森林火災(zāi)煙霧識(shí)別的綜合性能對(duì)比Table 3 Comprehensive performance comparison of nine models for smoke recognition
圖7 9種模型預(yù)測(cè)可視化結(jié)果Fig. 7 The prediction visualization results of nine models
綜上,與其他深度學(xué)習(xí)算法相比,改進(jìn)的YOLOv3-SPP模型在識(shí)別精確度和識(shí)別速率方面均具有較大的優(yōu)勢(shì),具有良好的泛化能力,能夠滿足森林火災(zāi)煙霧識(shí)別任務(wù)高準(zhǔn)確率和實(shí)時(shí)性要求,在森林火災(zāi)煙霧識(shí)別方面有一定的現(xiàn)實(shí)應(yīng)用價(jià)值。
本研究針對(duì)當(dāng)前森林火災(zāi)煙霧識(shí)別存在的問(wèn)題,提出了基于改進(jìn)的YOLOv3-SPP森林火災(zāi)煙霧識(shí)別方法。該方法在YOLOv3-SPP算法的基礎(chǔ)上使用Focus模塊,解耦頭、無(wú)錨框檢測(cè)機(jī)制和動(dòng)態(tài)標(biāo)簽分配策略,提高了煙霧識(shí)別的速率以及準(zhǔn)確率。利用自建的無(wú)人機(jī)森林火災(zāi)遙感影像數(shù)據(jù)集進(jìn)行訓(xùn)練和測(cè)試,所提出模型的煙霧識(shí)別精確率、mAP、F1分?jǐn)?shù)、召回率分別達(dá)到91.07%,92.02%,90%和89.08%,識(shí)別速率達(dá)到51幀/s。該模型識(shí)別速率是YOLOv3-SPP模型識(shí)別速率的1.5倍。并通過(guò)設(shè)置對(duì)比實(shí)驗(yàn),驗(yàn)證了本研究所提模型的有效性和準(zhǔn)確性。實(shí)驗(yàn)結(jié)果表明,改進(jìn)的YOLOv3-SPP模型實(shí)現(xiàn)了森林火災(zāi)圖像中煙霧區(qū)域的實(shí)時(shí)精準(zhǔn)定位,為大面積、高效率、低成本的森林火災(zāi)監(jiān)測(cè)研究提供了一種重要的方法。
考慮到森林火災(zāi)煙霧識(shí)別過(guò)程中,水霧或云等具有與煙霧類似特征的目標(biāo)會(huì)影響識(shí)別準(zhǔn)確度,且?guī)?lái)的干擾鮮有人研究,因此后續(xù)將進(jìn)一步對(duì)煙霧特征與其他相似目標(biāo)特征進(jìn)行對(duì)比分析,以提升模型抗干擾性。