劉志贏, 謝春思, 李進軍, 桑 雨
(1. 海軍大連艦艇學院學員五大隊, 遼寧 大連 116018; 2. 海軍大連艦艇學院導彈與艦炮系, 遼寧 大連 116018)
隨著計算機視覺技術(shù)的不斷發(fā)展,基于圖像識別的尋的制導技術(shù)取得了廣泛應用[1],常用成像方式有電視和紅外成像。復雜背景下,煙霧遮擋導致目標識別系統(tǒng)容易出現(xiàn)漏、錯識別[2],為了提高檢測能力,學者們提出串行和并行等方法規(guī)避遮擋干擾,無論哪種方法都需要對圖像中遮擋物進行識別。因此,煙霧區(qū)域檢測對于圖像尋的制導技術(shù)具有重要現(xiàn)實意義。傳統(tǒng)煙霧檢測技術(shù)采用模式識別的方法,通過人工提取目標場景下煙霧的顏色、紋理、空間關(guān)系等特征,經(jīng)數(shù)據(jù)處理后利用閾值法、分類器等進行判別,存在計算冗余量大、時間復雜度高的缺陷,且難以適應復雜場景和異源成像機制,算法魯棒性差[3-6]。常見算法有K-means聚類分析、差分盒維數(shù)分析、動態(tài)閾值聚類分析等[7-9]。
近年來,基于深度學習的煙霧檢測技術(shù)得到迅速發(fā)展,以深度卷積神經(jīng)網(wǎng)絡(luò)代替人工操作提取目標特征,按照輸出形式可分為兩類:一是通過目標檢測的方法,輸出矩形框?qū)崿F(xiàn)對煙霧區(qū)域識別和標注,如Zhang等[10]利用模擬的森林背景煙霧對Faster R-CNN網(wǎng)絡(luò)訓練,實現(xiàn)了對真實森林火災場景的識別;梁杰等[11]改進了YOLOv2深度學習模型,較好地實現(xiàn)了對導引頭視場中煙幕和遮擋物的識別,且能適應多種成像體制。目標檢測法對剛性目標具備優(yōu)異的識別能力,但煙霧形態(tài)變化多樣,標準矩形框容易框入非煙霧區(qū)域[12-13]。二是通過語義分割的方法,針對圖像中所有像素點類別判定并輸出分割圖,如Xu等[14]設(shè)計了像素級和對象級相結(jié)合的深度顯著性網(wǎng)絡(luò),通過提取包含豐富細節(jié)特征和語義特征的特征圖,實現(xiàn)對視頻中煙霧的精細化分割;Yuan等[15]將跳躍結(jié)構(gòu)加入改進全卷積網(wǎng)絡(luò)(fully convolutional network, FCN)模型,設(shè)計了包含粗路徑和細路徑的端到端語義分割網(wǎng)絡(luò),實現(xiàn)對煙霧細節(jié)的精細化分割。語義分割法能更好地提取煙霧的本質(zhì)特征,以檢測對象邊緣為界限區(qū)分不同目標區(qū)域,實現(xiàn)精細化識別分割[16-18]。
2014年,Long等提出的FCN模型成為語義分割的開山之作[19],該模型通過逆卷積層對最后的特征圖層上采樣,實現(xiàn)分辨率復原和像素級目標分類和預測。在此基礎(chǔ)上,U-Net網(wǎng)絡(luò)[20]采用編碼器-解碼器(encoder-decoder, ED)結(jié)構(gòu),在提取特征階段通過路徑收縮融合不同深度的信息,在預測階段通過路徑擴張實現(xiàn)對分割出的不同尺度目標準確定位,有效解決了由于特征圖分辨率變小導致的分割邊界精度降低的問題。Deeplab語義分割系列模型提出基于空洞卷積的金字塔構(gòu)型(atrous spatial pyramid pooling,ASPP)[21],在不改變分辨率的條件下實現(xiàn)擴大感受野,同時對不同層級的特征融合,有利于解決多尺度分割問題。Deeplabv3+結(jié)合了ED結(jié)構(gòu)和ASPP構(gòu)型的優(yōu)點[22],成為當前綜合性能優(yōu)異的語義分割算法。
結(jié)合煙霧形態(tài)特點和工程應用的現(xiàn)實要求,本文提出了基于改進Deeplabv3+的煙霧區(qū)域分割識別算法,通過創(chuàng)新異感受野融合的ASPP結(jié)構(gòu),提高了對不同層級特征圖的信息使用率,進一步擴大了空洞卷積的感受野,有利于聯(lián)系上下文特征信息;受到殘差網(wǎng)絡(luò)的啟發(fā),對骨干網(wǎng)絡(luò)使用殘差結(jié)構(gòu)優(yōu)化設(shè)計,同時剔除部分冗余通道,降低了網(wǎng)絡(luò)計算量;增加多尺度融合模塊,增強了模型對目標尺度變化的適應能力;引入通道注意力模塊,通過分配通道權(quán)重實現(xiàn)對包含重點特征信息的通道重點訓練,提高了模型的學習效率。實驗結(jié)果表明,改進算法具備更好的全場景理解能力,能對煙霧邊界進行精細化處理,在工程應用方面平衡兼顧了分割精度和檢測效率,可移植性更優(yōu),具有重要的應用價值。
Deeplabv3+基礎(chǔ)模型的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。文獻[22]中以改進Xception為骨干網(wǎng)絡(luò),初始圖像輸入到Encoder模塊,經(jīng)輸入流、中間流和輸出流卷積運算,生成分辨率為原始圖像1/16的特征張量;將提取的特征張量傳入ASPP結(jié)構(gòu),該結(jié)構(gòu)包含一個全域池化特征層和3種不同擴張率的并行空洞卷積層,經(jīng)拼接處理后通過1×1卷積實現(xiàn)通道壓縮;Decoder模塊中,對來自ASPP結(jié)構(gòu)的特征張量通過雙線性插值4倍上采樣,然后與來自骨干網(wǎng)絡(luò)的同分辨率特征圖拼接,再次經(jīng)3×3卷積和4倍上采樣操作后輸出分割結(jié)果。模型使用大量深度分離卷積代替常規(guī)卷積,降低了參數(shù)量和計算量,有利于模型輕量化;構(gòu)建特征金字塔時使用空洞卷積代替下采樣來擴大卷積核感受野,改善輸出分辨率,避免圖像細節(jié)特征丟失;通過一次上采樣將高級特征與低級特征融合,兼顧圖像的語義信息和細節(jié)信息,減少了直接對高級特征空間維度恢復造成的誤差。
圖1 Deeplabv3+基礎(chǔ)模型的網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Network structure of Deeplabv3+basic model
利用Deeplabv3+基礎(chǔ)模型分別對可見光和紅外條件下的煙霧圖像分割,其結(jié)果如圖2所示。該模型雖然能較好地分割煙霧內(nèi)部區(qū)域,但煙霧邊緣分割精度較差,細節(jié)損失嚴重;與煙霧真實分布相比存在錯分割區(qū)域,整體分割精度較低。由于煙霧這類非剛性目標空間形態(tài)和尺度變化較大,基礎(chǔ)模型ASPP結(jié)構(gòu)不能很好地適應煙霧形變;參與預測的特征張量中包含的細節(jié)信息較少,煙霧邊緣和小尺度煙團存在漏分割。因此,本文提出改進Deeplabv3+煙霧分割模型。
圖2 Deeplabv3+基礎(chǔ)模型煙霧分割結(jié)果Fig.2 Smoke segmentation results of Deeplabv3+basic model
以Deeplabv3+基礎(chǔ)模型為主體,從以下3個方面進行改進。首先,通過異感受野融合的方式改進ASPP結(jié)構(gòu),提高信息利用率;其次,優(yōu)化骨干網(wǎng)絡(luò)中間流結(jié)構(gòu),將多尺度特征張量拼接傳入Decoder模塊;最后,特征融合中融入通道注意力模塊(channel attention module, CAM),優(yōu)化網(wǎng)絡(luò)通道權(quán)重配置。改進Deeplabv3+模型的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。
圖3 改進Deeplabv3+模型的網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Network structure of the improved Deeplabv3+model
原網(wǎng)絡(luò)ASPP結(jié)構(gòu)使用擴張率分別為6、12和18的空洞卷積擴大感受野,空洞卷積是通過卷積核補零的方式實現(xiàn)的,最終輸出非零采樣點的卷積結(jié)果。隨著擴張率的增大,非零采樣點占比快速下降,在同等計算量條件下空洞卷積獲取的信息量丟失嚴重,信息利用率低,學習到的特征相關(guān)性差,不利于網(wǎng)絡(luò)訓練[14]。此外,ASPP結(jié)構(gòu)單一擴張率卷積層的輸出結(jié)果為骨干網(wǎng)絡(luò)生成的特征張量的線性運算,相對原特征圖,卷積核感受野擴張有限,且忽略了不同擴張率空洞卷積間的相關(guān)性。
基于以上分析,創(chuàng)新異感受野融合的ASPP結(jié)構(gòu)如圖4所示,以擴張率r=12的卷積層說明這個過程。圖4(a)為通道拼接,將原始特征圖與r=6卷積層處理過的特征圖拼接后傳入r=12卷積層;圖4(b)為r=12卷積層對原始特征圖的采樣點分布,感受野大小為width=25,參與有效運算的元素數(shù)量為num=9;圖4(c)為r=12卷積層對r=6特征圖的采樣點分布。r=6特征圖上各元素在原始特種圖中也有對應的采樣點分布,級聯(lián)的空洞卷積導致在原始特征圖上感受野擴大(width=37),參與有效運算的元素數(shù)量增多(num=49)。
定義信息利用率η為原始特征圖中參與有效運算的元素量與感受野內(nèi)元素總量的比值,則異感受野融合前后空洞卷積在原始特征圖中表現(xiàn)如表1所示。融合后,擴張率為12和18的空洞卷積感受野分別從25和37擴大至37和61,信息利用率分別從1.44%和0.66%增長至3.58%和2.18%。該方法通過增強不同感受野信息間的相關(guān)性,從更大區(qū)域內(nèi)判別單一像素的類別屬性,有效降低信息損失。
圖4 異感受野融合的空洞卷積Fig.4 Empty convolution of different-sensory field fusion
表1 異感受野融合對空洞卷積的影響
異感受野融合將增加大量網(wǎng)絡(luò)運算,對此通過通道刪減減少ASPP模塊參數(shù)量。原ASPP模塊各空洞卷積的輸入特征圖為2 048通道,輸出為256通道,前后分辨率一致,參數(shù)量為
N1=2 048×32×256×3=14 155 776
對于改進ASPP中r=6的空洞卷積層,先采用1×1的卷積將原始特征圖縮減為1 280通道,再進行卷積運算;對于r=12和r=18的空洞卷積層,先采用1×1的卷積將原始特征圖縮減為1 024通道,再與上級卷積層的輸出拼接為1 280通道的特征張量,最后進行卷積運算。此時參數(shù)量為
N2=2 048×1 280+1 280×32×256+
(2 048×1 024+1 280×32×256)×2=15 663 104
與原ASPP結(jié)構(gòu)相比,異感受野融合的ASPP結(jié)構(gòu)參數(shù)量增加了10.65%,以較小的網(wǎng)絡(luò)復雜度擴大感受野并提高信息利用率。
骨干網(wǎng)絡(luò)Xception的中間流是主要特征學習模塊,結(jié)構(gòu)如圖5(a)所示,由8個重復的分離卷積模塊(depthwise separable convolutions module, DSCM)直連組成,每個分離卷積模塊由3個728通道的深度分離卷積以殘差結(jié)構(gòu)連接。文獻[23]指出,該中間層存在冗余計算和特征利用不充分的問題,給出了密集連接的中間流結(jié)構(gòu)加以解決。分析認為,密集連接導致網(wǎng)絡(luò)過于復雜,通道拼接引入的大量計算不利于模型輕量化,由此提出殘差連接的中間流結(jié)構(gòu),如圖5(b)所示。直連的分離卷積模塊構(gòu)成直接映射關(guān)系,殘差理論指出[24],網(wǎng)絡(luò)的直接映射不利于特征學習。對此用1×1卷積把輸入通道數(shù)降為600后,將8個模塊均分成4組,每組以殘差連接,再次使用1×1卷積把通道數(shù)恢復為728。該方法增強了模塊間信息的相關(guān)性,有利于網(wǎng)絡(luò)的特征學習,同時降低網(wǎng)絡(luò)運算量。
圖5 骨干網(wǎng)絡(luò)中間流結(jié)構(gòu)優(yōu)化Fig.5 Structure optimization of backbone network middle flow
為提高分割精度,降低細節(jié)損失,在Decoder模塊參與預測的特征圖中引入更低層特征,經(jīng)多尺度特征融合后形成新的特征圖。如圖3所示,將ASPP輸出的特征圖經(jīng)4倍上采樣后,與輸入流降采樣率為4的特征圖拼接;合成的特征圖再次經(jīng)2倍上采樣,與輸入流降采樣率為2的特征圖拼接,利用1×1卷積將通道數(shù)調(diào)整與先前一致;經(jīng)3×3卷積后2倍上采樣處理,恢復特征圖分辨率與原圖一致。
Deeplabv3+網(wǎng)絡(luò)中涉及多處通道融合操作,融合前不同通道攜帶的特征經(jīng)歷不同卷積運算,隨著卷積深度的增加,所獲取的語義特征愈加抽象,其對后續(xù)特征學習過程的影響不同。因此,根據(jù)不同特征通道對目標預測的影響力大小設(shè)置權(quán)重系數(shù),突出對網(wǎng)絡(luò)有重大影響的通道信息的學習,抑制冗余通道信息,加強特征學習的針對性,增強網(wǎng)絡(luò)學習能力和泛化能力。
文獻[25]中壓縮獎勵網(wǎng)絡(luò)(squeeze and excitation networks, SENet)采用的通道注意力模塊較好地實現(xiàn)了通道權(quán)重的自學習。CAM原理如圖6所示,分為壓縮和獎勵兩部分。
圖6 通道注意力模塊構(gòu)型Fig.6 Structure of channel attention module
壓縮過程通過一個全局平均池化層產(chǎn)生對應通道的統(tǒng)計信息,對第i個通道有:
(1)
式中,W×H表示原特征圖分辨率;ui(p,q)表示第i個通道層坐標為(p,q)位置的元素,總通道數(shù)為C;zi為該通道的特征映射量。至此壓縮過程得到1×1×C的一維向量z∈RC。獎勵過程如下所示:
s=σ(g(z,W))=σ(W2δ(W1z))
(2)
首先通過一個權(quán)重為W1的全連接層降低通道數(shù)為原來的1/h,經(jīng)ReLU函數(shù)(δ)激活后輸入第二個全連接層(權(quán)重為W2)恢復通道數(shù),最后用Sigmoid函數(shù)(σ)生成歸一化通道權(quán)重s∈RC,其尺度為1×1×C。將歸一化通道權(quán)重與原特征圖對應通道相乘,即得到通道注意力特征圖Scale。
如圖3所示,改進Deeplabv3+模型中,ASPP多感受野特征融合和Decoder模塊兩處多尺度融合部分采用通道減少率為h=16的通道注意力模塊;骨干網(wǎng)絡(luò)中間流共包含12處基于殘差構(gòu)型的網(wǎng)絡(luò)連接,采用通道減少率為h=15的通道注意力模塊。
為使訓練出的煙霧分割模型對可見光和紅外條件下的目標都具備良好的適應能力,原則上數(shù)據(jù)集應包括該兩種成像體制下的煙霧樣本。目前尚未有開源煙霧語義分割數(shù)據(jù)集,使用不同成像體制的拍攝設(shè)備自建成本過高。為解決數(shù)據(jù)短缺的問題,借鑒文獻[2]采用的煙霧仿真的方法,將實拍煙霧和模擬煙霧相結(jié)合,按照PASCALVOC數(shù)據(jù)集格式自建數(shù)據(jù)庫。
訓練集包括實拍和模擬兩種數(shù)據(jù)類型。實拍煙霧通過在室外設(shè)置油盆實驗,利用DSC-WX700相機獲取723張可見光圖像;模擬煙霧采用OSG粒子仿真系統(tǒng)描述煙霧特性,初始靜態(tài)參數(shù)設(shè)置如表2所示,將生成的煙霧粒子圖加入不同的紅外場景中,共生成683張模擬紅外煙霧圖像。實拍可見光煙霧圖像、紅外原始圖像、模擬紅外煙霧圖像和實拍紅外煙霧圖像對比如圖7所示,模擬紅外煙霧圖像與實拍紅外煙霧圖像視覺效果上相近。獲取的煙霧圖像經(jīng)灰度反轉(zhuǎn)、水平翻轉(zhuǎn)、拉伸、放縮、旋轉(zhuǎn)等數(shù)據(jù)增廣處理后擴充成 16 438張,如圖8所示。測試集為從互聯(lián)網(wǎng)獲取的實拍煙霧圖像,包括830張可見光圖像和186張紅外圖像。正式訓練前,將上述圖像統(tǒng)一為單通道320×240分辨率。
表2 粒子初始靜態(tài)屬性
圖7 實拍圖像與模擬圖像效果對比Fig.7 Comparison between real image and simulated image
圖8 數(shù)據(jù)增廣Fig.8 Data augmentation
為加速網(wǎng)絡(luò)收斂,將訓練集的20%設(shè)定為驗證集。循環(huán)次數(shù)設(shè)置為200 000,初始學習率設(shè)置為1×10-4,終止學習率設(shè)置為1×10-5,隨訓練次數(shù)線性遞減;根據(jù)計算機配置batchsize設(shè)置為4;ASPP空洞卷積速率設(shè)置為[6,12,18]。
Deeplabv3+基礎(chǔ)網(wǎng)絡(luò)和本文改進Deeplabv3+網(wǎng)絡(luò)的訓練過程如圖9所示,總體來看二者損失函數(shù)值都隨訓練次數(shù)增加逐漸穩(wěn)定,但改進Deeplabv3+網(wǎng)絡(luò)收斂速度更快,后期波動更小。這是由于CAM 模塊對特征圖通道合理分配權(quán)重,強化對重點通道特征信息的學習,降低一般通道的冗余計算,使網(wǎng)絡(luò)學習能力和排除干擾信息的能力得到加強。
圖9 網(wǎng)絡(luò)的訓練過程曲線Fig.9 Training process curve of network
以平均交并比(mean intorsection over unin,MIoU)和每秒檢測幀數(shù)(frames per second, FPS)為量化指標,評估模型的分割精度和檢測效率;依據(jù)生成的權(quán)重文件的內(nèi)存大小判斷模型的工程實用性。MIoU計算方法如下:
(3)
式中,TP表示被正確分割為煙霧區(qū)域的像素數(shù)量;FN表示被錯誤標記為背景的煙霧區(qū)域的像素數(shù)量;FP表示被錯誤分割為煙霧的背景像素數(shù)量。改進Deeoplabv3+模型與Deeplabv3+基礎(chǔ)模型,以及傳統(tǒng)基于差分盒維數(shù)膨脹的模式識別算法的煙霧分割量化結(jié)果對比如表3所示。
表3 改進Deeplabv3+模型煙霧分割量化結(jié)果對比
由表3可知,兩個深度學習煙霧分割模型的分割精度遠遠優(yōu)于傳統(tǒng)的基于差分盒維數(shù)膨脹的煙霧分割算法,且檢測效率高于傳統(tǒng)算法近百倍,說明深度學習算法具有極強的優(yōu)越性。深度學習模型對可見光和紅外圖像的分割精度相近,改進Deeplabv3+模型總體平均交并比和每秒檢測幀數(shù)分別為91.03%和12.51,與Deeplabv3+基礎(chǔ)模型相比分別提升3.24%和-1.04%,以較小的檢測效率損失為代價取得了更高的分割精度;改進模型權(quán)重文件占用計算機內(nèi)存更低,提升了工程實用性。
表4所示為改進Deeplabv3+模型與基礎(chǔ)模型、傳統(tǒng)差分盒維數(shù)膨脹算法的煙霧分割效果對比。從上至下,前3組為可見光成像,第4組為紅外成像;從左至右依次為測試樣本原圖、標注圖和差分盒維數(shù)膨脹算法分割圖,Deeplabv3+基礎(chǔ)模型分割圖和改進Deeplabv3+模型分割圖。由表4可知,傳統(tǒng)差分盒維數(shù)膨脹算法僅能對煙霧邊緣灰度粗糙區(qū)域有較好的分割效果,對于煙霧內(nèi)部灰度均一區(qū)域分割效果不理想,說明算法的全場景理解能力差;對于紅外圖像幾乎失去分割作用,難以應對異源成像體制;處理結(jié)果存在嚴重的錯分割,算法魯棒性差。與傳統(tǒng)算法相比,Deeplabv3+基礎(chǔ)模型具備優(yōu)異地分割效果,能將煙霧區(qū)域完整地識別和分割,但將煙霧邊緣處理的更為平滑,將標注圖中曲折的煙霧邊緣分割為直線線條,細節(jié)丟失嚴重;在煙霧和背景對比度較低的區(qū)域,基礎(chǔ)模型存在漏分割現(xiàn)象。Deeplabv3+改進模型在不同場景下均較好地保留了煙霧細節(jié)特征,邊緣識別更加清晰準確,具備較強的魯棒性;對可見光圖像和紅外圖像均具備較好的分割性能,表現(xiàn)出良好的泛化能力。
表4 改進Deeplabv3+模型與基礎(chǔ)模型分割結(jié)果對比
為驗證異感受野融合的ASPP、骨干網(wǎng)絡(luò)優(yōu)化與多尺度融合、通道注意力模塊等措施的有效性,以MIoU和FPS為指標,采用控制變量法對比分析各個改進點對模型的影響,實驗結(jié)果分析如表5所示。
表5 不同改進措施的分割效果對比
組別1和組別2對比可知,異感受野融合的ASPP結(jié)構(gòu)使MIoU提升1.67%,提高了分割精度,該方法可有效擴大空洞卷積的感受野,提高信息使用率,降低信息損失帶來的不良影響;但每秒傳輸幀數(shù)下降0.6,新增參數(shù)量和計算量降低了模型檢測效率。對比組別2和3可知,骨干優(yōu)化與多尺度融合操作使每秒傳輸幀數(shù)提高1.18,說明減少中間流通道數(shù)有利于模型輕量化,檢測實時性有明顯提升;通道數(shù)減少會導致模型檢測精度的降低,但組別3的MIoU值較組別2正增長,說明多尺度融合對分割精度有積極作用。組別3和4對比可知,通道注意力模塊進一步提高了分割精度,MIoU值超過91%;但FPS下降超過5.3%,說明優(yōu)化通道權(quán)重增加了較多的計算量,檢測效率下降嚴重。綜合分析表5數(shù)據(jù)可知,模型的分割精度和檢測效率難以同時取得大幅提升,改進Deeplabv3+模型在二者之間取得了較好的權(quán)衡。
為測試骨干網(wǎng)絡(luò)對語義分割算法的影響,將本文改進模型與基于不同特征提取網(wǎng)絡(luò)的Deeplabv3+模型進行對比,結(jié)果如表6所示。
表6 不同骨干網(wǎng)絡(luò)的Deeplabv3+模型分割性能對比
對比發(fā)現(xiàn),本文改進模型的分割精度最好,模型大小適中;以MobileNet-v2系列為骨干網(wǎng)絡(luò),具備優(yōu)異的處理效率和工程實用性,但分割精度損失太大;ResNet系列骨干網(wǎng)絡(luò)兼顧檢測實時性和準確性,但與本文改進模型相比分割精度仍有一定差距,且模型文件過大,不利于工程應用??傊?改進Deeplabv3+模型綜合考慮了任務(wù)需求和工程應用因素,在分割精度和檢測效率之間取得較好權(quán)衡;實驗數(shù)據(jù)表明,該模型對可見光和紅外圖像中煙霧區(qū)域均具備良好的識別分割能力,全場景理解能力和細節(jié)分割能力突出,具有一定的現(xiàn)實應用價值。
針對基于圖像的尋的制導系統(tǒng)煙霧遮擋問題,提出了改進Deeplabv3+煙霧區(qū)域分割模型,通過改進異感受野融合的ASPP、骨干網(wǎng)絡(luò)優(yōu)化與多尺度融合、添加通道注意力模塊等措施,提高了算法的煙霧分割能力。實驗數(shù)據(jù)表明,改進Deeplabv3+模型在測試集中平均交并比為91.03%,分割效率為12.64幀/秒,分割效果遠超傳統(tǒng)的模式識別算法;改進模型在分割精度和檢測實時性之間取得良好的權(quán)衡,相對基礎(chǔ)模型具備更好的工程實用性,對提高圖像尋的制導系統(tǒng)抗煙霧干擾能力具有重要的現(xiàn)實價值。