霍鑫怡,李焱磊,陳龍永?,張福博,孫巍
(1 中國科學(xué)院空天信息創(chuàng)新研究院 微波成像技術(shù)國家重點(diǎn)實(shí)驗(yàn)室, 北京 100094; 2 中國科學(xué)院大學(xué), 北京 100049)
合成孔徑雷達(dá)(synthetic aperture radar ,SAR)作為一種對地觀測微波傳感器,具有全天時(shí)、全天候的特點(diǎn),廣泛應(yīng)用在軍事偵查、地形勘測等多方面。SAR目標(biāo)識(shí)別技術(shù)可以幫助我們自動(dòng)判定目標(biāo)型號(hào),應(yīng)用場景廣泛[1]。傳統(tǒng)SAR目標(biāo)識(shí)別方法需要人工提取目標(biāo)特征,算法準(zhǔn)確率較低,普適性較差[2]。深度學(xué)習(xí)方法自動(dòng)提取目標(biāo)高維特征,準(zhǔn)確率有很大提高[3-5]。然而,該類方法依賴于大量訓(xùn)練數(shù)據(jù),由于SAR平臺(tái)依賴性高,獲取數(shù)據(jù)的成本高,對于非合作目標(biāo),不可能獲得大量數(shù)據(jù)。樣本量不足制約了深度學(xué)習(xí)在SAR目標(biāo)識(shí)別領(lǐng)域的發(fā)展[6]。
研究者們?nèi)STAR訓(xùn)練集的10%~30%的數(shù)據(jù)進(jìn)行研究,希望利用更少的數(shù)據(jù),獲得更高的準(zhǔn)確率。目前,少樣本目標(biāo)識(shí)別問題主要分為以下幾個(gè)方向:數(shù)據(jù)擴(kuò)充[7-8]、遷移學(xué)習(xí)[9-11]、度量學(xué)習(xí)[12]、半監(jiān)督學(xué)習(xí)[13]等。這些方法均利用卷積神經(jīng)網(wǎng)絡(luò)提取特征,存在以下問題:卷積神經(jīng)網(wǎng)絡(luò)中的池化層對特征圖下采樣(如圖1所示),降低了特征圖的空間分辨率,損失細(xì)節(jié)信息,不適用于SAR少樣本數(shù)據(jù)集;二是卷積神經(jīng)網(wǎng)絡(luò)只判斷圖像中是否存在局部特征,忽略了不同特征之間的空間位置關(guān)系。雷達(dá)圖像的散射系數(shù)隨角度變化十分明顯,不同角度下的圖片差異較大[14],卷積神經(jīng)網(wǎng)絡(luò)并不具備識(shí)別這些變化的能力。在MSTAR數(shù)據(jù)集上,當(dāng)訓(xùn)練集樣本數(shù)目減少為278張時(shí),卷積神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率下降到70%左右[15]。可見,卷積神經(jīng)網(wǎng)絡(luò)在SAR少樣本目標(biāo)識(shí)別問題中存在準(zhǔn)確率低的問題。
圖1 由CNN中的池化層引起的空間分辨率的下降
自Sabour等[16]提出膠囊網(wǎng)絡(luò)以來,多位學(xué)者將膠囊網(wǎng)絡(luò)應(yīng)用在目標(biāo)識(shí)別問題上。Paoletti等[17]提出結(jié)合膠囊網(wǎng)絡(luò)高光譜圖像分類模型,通過高光譜膠囊提高網(wǎng)絡(luò)的信息提取能力,提高對高光譜圖像的準(zhǔn)確率。Guo等[18]提出Capsules-Unet模型,提取出高維度信息,在遙感數(shù)據(jù)集中驗(yàn)證模型的有效性。張盼盼等[19]利用改進(jìn)的膠囊網(wǎng)絡(luò)對MSTAR數(shù)據(jù)進(jìn)行分類,獲得了98.85%的準(zhǔn)確率。馮偉業(yè)等[20]對CapsuleNet 結(jié)構(gòu)進(jìn)行輕量化設(shè)計(jì),在MSTAR數(shù)據(jù)集上驗(yàn)證了算法的有效性。
在少樣本SAR目標(biāo)識(shí)別問題中,樣本有用信息少,膠囊網(wǎng)絡(luò)不能選擇性關(guān)注目標(biāo)重要特征,學(xué)習(xí)效率較低。借鑒人類視覺的注意力機(jī)制系統(tǒng),在神經(jīng)網(wǎng)絡(luò)快速掃描一幅圖像后,注意力機(jī)制引導(dǎo)神經(jīng)網(wǎng)絡(luò)重點(diǎn)關(guān)注目標(biāo)細(xì)節(jié)特征,提高了圖像解譯的效率[21]。學(xué)者們分別在空間域[22]、通道域[23]、混合域[24]、時(shí)間域[25]等不同域提出了注意力機(jī)制。李紅艷等[26]在Faster-RCNN中引入注意力機(jī)制,提高了遙感圖像的檢測精度。Wang等[27]提出基于卷積注意力機(jī)制的SAR圖像變化檢測模型,在實(shí)測SAR數(shù)據(jù)上獲得了良好的效果。周龍等[28]將注意力機(jī)制引入細(xì)粒度車輛模型分類中,在Compcars和Stanford Cars數(shù)據(jù)集上獲得了良好性能。
為了充分利用少樣本SAR圖像的信息,進(jìn)一步提高算法的準(zhǔn)確率,本文提出結(jié)合卷積注意力機(jī)制和膠囊網(wǎng)絡(luò)的SAR少樣本目標(biāo)識(shí)別模型CBAM-CapsNet(convolutional block attention module-capsule network)。分為2個(gè)模塊。第1個(gè)模塊:特征提取模塊,在卷積層提取輸入圖像的初級(jí)特征后,加入注意力機(jī)制,在通道和空間2個(gè)維度分別對初級(jí)特征進(jìn)行加權(quán)融合,引導(dǎo)神經(jīng)網(wǎng)絡(luò)重點(diǎn)關(guān)注SAR初級(jí)特征圖中對分類結(jié)果貢獻(xiàn)大的特征,忽略無用特征,從而提高了神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)效率。第2個(gè)模塊:實(shí)體特征提取和分類模塊,用膠囊網(wǎng)絡(luò)代替卷積神經(jīng)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)每次用單個(gè)神經(jīng)元提取目標(biāo)特征,而膠囊網(wǎng)絡(luò)同時(shí)利用多個(gè)神經(jīng)元提取目標(biāo)的實(shí)體特征,具有表示更多信息的能力。實(shí)驗(yàn)表明,CBAM-CapsNet在少樣本SAR數(shù)據(jù)集的情況下,準(zhǔn)確率優(yōu)于卷積神經(jīng)網(wǎng)絡(luò)。
本文采用了2個(gè)數(shù)據(jù)集:MSTAR數(shù)據(jù)集和實(shí)測車輛目標(biāo)數(shù)據(jù)集。MSTAR數(shù)據(jù)集是由美國國防高等研究計(jì)劃署公布的實(shí)測SAR地面靜止目標(biāo)數(shù)據(jù),包含10類目標(biāo),系統(tǒng)分辨率為0.3 m×0.3 m,工作在X波段,采用HH極化。本文采用標(biāo)準(zhǔn)工作條件 (SOC) 下采集的數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。
實(shí)測車輛目標(biāo)數(shù)據(jù)集是由中國科學(xué)院空天信息研究院微波成像技術(shù)國家重點(diǎn)實(shí)驗(yàn)室獲得的SAR圖像,采集該數(shù)據(jù)集的傳感器為mini SAR設(shè)備,系統(tǒng)分辨率為0.2 m×0.2 m,工作在Ku波段,極化方式為HH、VV、HV等3種。包含5類不同的車輛目標(biāo),分別是:消防車、救護(hù)車、油罐車、相撞的2輛小汽車和追尾的2輛小汽車,不同類別目標(biāo)的光學(xué)圖像如圖2所示,每一類目標(biāo)有66張圖像,由于實(shí)測車輛目標(biāo)數(shù)據(jù)集的數(shù)量有限,數(shù)據(jù)集劃分準(zhǔn)則是:每次實(shí)驗(yàn)中,沒有參與訓(xùn)練的圖片,全部劃分為測試集。
圖2 實(shí)測車輛數(shù)據(jù)集SAR圖像和對應(yīng)的光學(xué)圖像
在實(shí)驗(yàn)前,對所有的訓(xùn)練集做了如下的預(yù)處理:首先將原始圖片以中心為基準(zhǔn),裁剪為110×110大小的圖片,再將圖片隨機(jī)裁剪成92×92大小的圖片。對測試集的預(yù)處理為:從中心裁剪為92×92大小的圖片。這樣做的好處有2點(diǎn):一是隨機(jī)裁剪使得每一個(gè)目標(biāo)不一定在圖片的中心位置,體現(xiàn)了圖像的平移不變性;二是92×92大小的圖片足夠包含整個(gè)目標(biāo),圖像的尺寸變小后,減小了神經(jīng)網(wǎng)絡(luò)的參數(shù),也減少了模型過擬合的風(fēng)險(xiǎn)。
膠囊網(wǎng)絡(luò)和卷積網(wǎng)絡(luò)的結(jié)構(gòu)對比如圖3所示。相比于卷積層每次只用一組卷積核提取特征,膠囊網(wǎng)絡(luò)中的初級(jí)膠囊層利用C1組卷積核對特征圖進(jìn)行卷積運(yùn)算,得到H×W×C×C1的高維特征圖。將對應(yīng)位置組合,得到H×W×C個(gè)向量,每一個(gè)向量的大小為1×C1,稱為一個(gè)膠囊。膠囊的長度代表實(shí)體存在的概率,方向代表所提取出的目標(biāo)實(shí)體,如:目標(biāo)的紋理、特征的空間位置、特征的旋轉(zhuǎn)角度等。利用多維神經(jīng)元提取特征,具有表示更多信息的能力。
圖3 膠囊結(jié)構(gòu)和卷積結(jié)構(gòu)對比
ci=softmax(bi),
(1)
再重復(fù)上述步驟K次,通過下式
(2)
本文提出的基于卷積注意力機(jī)制的膠囊網(wǎng)絡(luò)SAR分類模型的結(jié)構(gòu)如圖4所示,圖中的數(shù)字代表該層的特征維度,每一層的參數(shù)在名字的下方標(biāo)注。為了防止神經(jīng)網(wǎng)絡(luò)對少樣本數(shù)據(jù)集的過擬合,網(wǎng)絡(luò)不宜過深,參數(shù)量不宜過大。在膠囊網(wǎng)絡(luò)前設(shè)計(jì)了2層卷積神經(jīng)網(wǎng)絡(luò),卷積層1提取目標(biāo)的初級(jí)特征,卷積層2提取目標(biāo)的高級(jí)特征。因此,卷積層1選取的卷積核較大,為9×9,卷積層2選取的卷積核較小,為5×5。
圖4 CBAM-CapsNet結(jié)構(gòu)
輸入圖像經(jīng)過卷積層提取特征,注意力機(jī)制層對特征進(jìn)行加權(quán),提高有用信息的權(quán)重,抑制無用信息的權(quán)重,膠囊層提取目標(biāo)高維實(shí)體特征,最后求取輸出膠囊的長度,得到目標(biāo)屬于不同類別的概率。下面分別敘述每一層的細(xì)節(jié)。
F1=max_pool(σ(W1(X))),
(3)
其中:W1表示卷積層1的權(quán)重參數(shù),σ表示ReLU激活函數(shù),max_pool表示最大池化。
第2層是注意力機(jī)制層,由通道注意力層和空間注意力層串聯(lián)而成,對初級(jí)特征進(jìn)行加權(quán)融合。在神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過程中,卷積注意力層分別在通道和空間維度上學(xué)習(xí)到不同特征對分類結(jié)果的貢獻(xiàn)程度。在通道維度得到一個(gè)1×C的注意力向量圖,指導(dǎo)神經(jīng)網(wǎng)絡(luò)哪些維度的特征需要重點(diǎn)關(guān)注;在空間維度得到一個(gè)H×W的注意力向量圖,指導(dǎo)神經(jīng)網(wǎng)絡(luò)圖像中哪些區(qū)域需要重點(diǎn)關(guān)注。訓(xùn)練時(shí),隨機(jī)初始化一個(gè)權(quán)重,以不斷減小損失值為目標(biāo),根據(jù)梯度下降算法更新權(quán)重,最終給出合適大小的權(quán)重。將注意力向量圖和初級(jí)特征F1相乘,便可根據(jù)特征的重要程度對特征進(jìn)行加權(quán),自適應(yīng)地引導(dǎo)后面的神經(jīng)網(wǎng)絡(luò)在學(xué)習(xí)過程中重點(diǎn)關(guān)注對結(jié)果貢獻(xiàn)較大的特征,弱化無關(guān)特征,從而提高神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)效率。
圖5 注意力機(jī)制結(jié)構(gòu)圖
(4)
(5)
其中:符號(hào)“?”代表對應(yīng)元素逐個(gè)相乘,即每一維度的特征乘以對應(yīng)維度的加權(quán)系數(shù)。
(6)
(7)
(8)
其中:W2表示卷積層2的參數(shù),σ表示ReLU激活函數(shù)。
第4層為初級(jí)膠囊層(PrimaryCaps),提取目標(biāo)的實(shí)體。由128個(gè)8×8的卷積核提取特征,每一個(gè)卷積核得到一組大小為1×C1的量神經(jīng)向元,記為膠囊,最終得到若干個(gè)表示目標(biāo)特征的初級(jí)SAR膠囊
ui=[u1,u2,…,uN1]=Squash(W3(F2)),
(9)
其中:W3表示初級(jí)膠囊層卷積核權(quán)重參數(shù),N1代表初級(jí)膠囊層輸出的膠囊數(shù)目,Q表示初級(jí)膠囊層的卷積核數(shù)目,C1取16。由于每一個(gè)膠囊由一組向量神經(jīng)元組成,具有表示物體更多特征信息的能力。
第5層為數(shù)字膠囊層(DigitCaps),對初級(jí)SAR膠囊加權(quán)融合,最終得到N組膠囊,每一個(gè)膠囊的長度代表目標(biāo)屬于不同類別的概率。輸入為初級(jí)實(shí)體膠囊ui,輸出為N個(gè)膠囊,N代表數(shù)據(jù)集的類別數(shù)目。每個(gè)膠囊用vj表示,如下所示
vj=[v1,v2,…,vN],j=1,2,…,N,
(10)
計(jì)算過程如下
(11)
其中:cij是根據(jù)動(dòng)態(tài)路由算法[16]確定的耦合系數(shù)。
為保證訓(xùn)練的收斂性,CBAM-CapsNet網(wǎng)絡(luò)采用邊緣損失函數(shù)[16]訓(xùn)練網(wǎng)絡(luò)
Lk=Tkmax(0,m+-‖vk‖)2+
λ(1-Tk)max(0,‖vk‖-m-)2,
(12)
其中:m+、m-和λ為超參數(shù)。當(dāng)k類別存在時(shí),Tk為1;當(dāng)k類別不存在時(shí),Tk為0。
為驗(yàn)證本文所提算法在SAR少樣本數(shù)據(jù)集上的有效性,分別在2種數(shù)據(jù)集上進(jìn)行不同數(shù)據(jù)量下的實(shí)驗(yàn)。對于MSTAR數(shù)據(jù)集,分別隨機(jī)選278張(占總訓(xùn)練集數(shù)目的10%,下同)、556張(20%)、827張(30%)、1 930張(70%)的數(shù)據(jù)進(jìn)行實(shí)驗(yàn),其中,除SN-132、SN-C71這2種樣本在10%、20%、30%數(shù)據(jù)量情況下樣本數(shù)目分別是27、55、82張外,其他類別的樣本在不同數(shù)據(jù)量下的樣本數(shù)目分別是28、56、83和193張。
對于實(shí)測車輛數(shù)據(jù)集,分別選取50、100、150、175張的圖片作為訓(xùn)練集,在每次實(shí)驗(yàn)時(shí),沒有參與模型訓(xùn)練的圖片作為測試集。其中,訓(xùn)練集中,不同類別的數(shù)據(jù)量是均衡的。在不同數(shù)據(jù)量下,分別對比了CBMA-CapsNet和其他算法的準(zhǔn)確率和加入不同注意力機(jī)制下的準(zhǔn)確率。
采用準(zhǔn)確率和混淆矩陣評價(jià)算法的性能。由于本文中所有實(shí)驗(yàn)都是在數(shù)據(jù)類別均衡的情況下實(shí)現(xiàn)的,所以準(zhǔn)確率可以客觀評價(jià)算法性能?;煜仃囍械拿恳粋€(gè)元素代表每一種類別被識(shí)別的數(shù)目或概率,更加直觀地展示模型對不同類別目標(biāo)的識(shí)別能力。
設(shè)置Adam優(yōu)化器的學(xué)習(xí)率為0.000 1,batch_size為8。為提高模型的穩(wěn)定性,加快收斂,設(shè)置學(xué)習(xí)率衰減方式為指數(shù)衰減,衰減率為0.99。膠囊網(wǎng)絡(luò)邊緣損失函數(shù)的超參數(shù)λ=0.5,m-=0.1,m+=0.9。所用的服務(wù)器系統(tǒng)為Ubuntu18.04,顯卡型號(hào)為GeForce GTX1080ti,顯存為11 GB。
本文在不同訓(xùn)練集樣本數(shù)目的情況下,對比了CBAM-CapsNet算法與其他經(jīng)典算法(DCNN[7]、A-ConvNet[15]和CapsNet算法)的準(zhǔn)確率。對比結(jié)果如表1所示。
表1 MSTAR數(shù)據(jù)集不同方法準(zhǔn)確率對比
在10%訓(xùn)練集的情況下,與前2種方法對比,CBAM-CapsNet對少樣本數(shù)據(jù)的準(zhǔn)確率分別提高19.83和11.88個(gè)百分點(diǎn),與膠囊網(wǎng)絡(luò)(CapsNet)相比,CBAM-CapsNet算法對少樣本數(shù)據(jù)的準(zhǔn)確率提高3.22個(gè)百分點(diǎn);在所有數(shù)據(jù)集的情況下,CBAM-CapsNet算法與其他算法相比,準(zhǔn)確率也有一定的提高??梢?,相比于傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò),膠囊網(wǎng)絡(luò)的膠囊可以學(xué)習(xí)到更豐富的目標(biāo)特征,在膠囊網(wǎng)絡(luò)中引入注意力機(jī)制,可以使得神經(jīng)網(wǎng)絡(luò)重點(diǎn)學(xué)習(xí)對分類結(jié)果貢獻(xiàn)大的特征,忽略無關(guān)特征,從而優(yōu)化神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率。本文算法在少樣本數(shù)據(jù)集的情況下優(yōu)勢更加明顯。
為驗(yàn)證注意力機(jī)制在模型中的作用,設(shè)計(jì)了不同數(shù)據(jù)量下,加入不同注意力機(jī)制的對比實(shí)驗(yàn):分別對比了CBAM-CapsNet與卷積神經(jīng)網(wǎng)絡(luò)模型(CNN)、膠囊網(wǎng)絡(luò)分類模型(CapsNet)、引入空間注意力機(jī)制的膠囊網(wǎng)絡(luò)分類模型(SA-CapsNet)、引入通道注意力機(jī)制的膠囊網(wǎng)絡(luò)分類模型(CA-CapsNet)、卷積注意力機(jī)制加在第2層卷積層后面的膠囊網(wǎng)絡(luò)分類模型(CBAM2-CapsNet)對不同數(shù)據(jù)量下的準(zhǔn)確率。
對于MSTAR數(shù)據(jù)集,分別對比了訓(xùn)練集每個(gè)類別隨機(jī)取10%、20%、30%和70%的情況下,模型對測試集的準(zhǔn)確率。不同模型的準(zhǔn)確率對MSTAR數(shù)據(jù)集的識(shí)別結(jié)果對比如表2所示,CBAM-CapsNet方法的混淆矩陣如表3所示。準(zhǔn)確率對比結(jié)果表明,不同數(shù)據(jù)量下,相比于其他算法,本文算法的準(zhǔn)確率均有提高。其中,在訓(xùn)練數(shù)據(jù)為10%的情況下,CBAM-CapsNet相比于膠囊網(wǎng)絡(luò),準(zhǔn)確率提高3.22個(gè)百分點(diǎn),相比于傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò),準(zhǔn)確率提高27.51個(gè)百分點(diǎn)。
表2 MSTAR數(shù)據(jù)集不同數(shù)據(jù)量下、不同方法對比
表3 CBAM-CapsNet在MSTAR數(shù)據(jù)集10類目標(biāo)10%數(shù)據(jù)量下的混淆矩陣
對于實(shí)測車輛數(shù)據(jù)集,不同數(shù)據(jù)量下的準(zhǔn)確率表格如表4,混淆矩陣表格如表5所示。結(jié)果表明,在訓(xùn)練集分別取50、100、150和275張的情況下,相比于卷積神經(jīng)網(wǎng)絡(luò),CBAM-CapsNet算法的準(zhǔn)確率分別提高22.91%、17.6%、26.51%和8.28%;相比于其他算法,本文所提算法的準(zhǔn)確率也有一定提高。當(dāng)訓(xùn)練集的數(shù)據(jù)量為50張時(shí),相比于膠囊網(wǎng)絡(luò),本文所提算法的準(zhǔn)確率提高9.09個(gè)百分點(diǎn)。注意到,CBAM-CapsNet算法的準(zhǔn)確率略高于CBAM2-CapsNet算法。可見,將注意力機(jī)制模塊加入卷積層1后面的準(zhǔn)確率要高于加入卷積層2后面的準(zhǔn)確率。卷積層1所提取出的特征為初級(jí)特征,卷積層2提取出的特征為高維抽象特征,可能為目標(biāo)紋理、姿態(tài)等。在初級(jí)特征后加入注意力機(jī)制,可以提前抑制對分類結(jié)果不重要的初級(jí)特征,提高卷積層2提取高級(jí)特征的效率。如果在高級(jí)特征后才加入注意力機(jī)制,卷積層2會(huì)對所有的初級(jí)特征進(jìn)行相同權(quán)重的學(xué)習(xí),降低了提取高級(jí)抽象特征的效率。因此,CBAM-CapsNet算法的準(zhǔn)確率略高于CBAM2-CapsNet算法。在少樣本目標(biāo)的情況下,目標(biāo)特征缺乏,如果一開始就注意到目標(biāo)區(qū)別于其他類別目標(biāo)的重點(diǎn)部位,隨后再對重點(diǎn)的初級(jí)特征賦予較高權(quán)重,提取高級(jí)特征,給予更多的關(guān)注,相比于對所有部位進(jìn)行相同程度的提取高級(jí)特征來說,會(huì)提高神經(jīng)網(wǎng)絡(luò)提取信息的能力。
表4 實(shí)測車輛數(shù)據(jù)集不同數(shù)據(jù)量下不同方法準(zhǔn)確率對比
表5 CBAM-CapsNet在車輛目標(biāo)數(shù)據(jù)集5類目標(biāo)100張數(shù)據(jù)量下的混淆矩陣
CNN方法與本文所提算法的特征圖對比如圖 6所示,從第1~5行依次是消防車、救護(hù)車、油罐車、相撞的2輛小汽車和追尾的2輛小汽車的圖;第1列是每類圖隨機(jī)選取的一張SAR圖像;第2~3列分別是CNN算法的第1層卷積層和第2層卷積層提取出的特征圖;第3~4列分別是CBAM-CapsNet第1層卷積層和第2層卷積層提取出的特征圖。將特征圖進(jìn)行對比可得:CNN提取出的特征僅為目標(biāo)的大體輪廓,特征圖比較模糊,不夠清晰;而CBAM-CapsNet提取出來更細(xì)節(jié)更抽象的特征,特征圖更清晰,細(xì)節(jié)更明顯。其中,較為直觀的是第4類目標(biāo):2輛小汽車相撞的特征圖,該類目標(biāo)的原SAR圖像中有一個(gè)明顯的“拐角”,對比CNN網(wǎng)絡(luò)和CBAM-CapsNet網(wǎng)絡(luò)中卷積層2提取出的高級(jí)特征發(fā)現(xiàn),CNN的卷積層2提取出的特征包含整個(gè)目標(biāo),“拐角”特征不夠明確;而CBAM-CapsNet的卷積層2將“拐角”作為單獨(dú)的特征重點(diǎn)提取出來,使得后續(xù)神經(jīng)網(wǎng)絡(luò)專門針對“拐角”特征進(jìn)行特征提取和分類決策,更有利于提高分類網(wǎng)絡(luò)的準(zhǔn)確率。此外,第2類目標(biāo)救護(hù)車的SAR圖像中,“豎線”屬于實(shí)驗(yàn)場景中的背景回波,會(huì)影響神經(jīng)網(wǎng)絡(luò)對目標(biāo)類別的判斷。而在提取出的特征圖中可以明顯地看到,CNN在Conv1和卷積層2都提取出了“豎線”作為特征進(jìn)行學(xué)習(xí),使得后續(xù)神經(jīng)網(wǎng)絡(luò)誤以為“豎線”也是目標(biāo)的特征,干擾神經(jīng)網(wǎng)絡(luò)的特征提取和決策;但是,CBAM-CapsNet提取出的特征中不包含“豎線”,只提取出了目標(biāo)的特征,更有利于后續(xù)的特征提取和分類決策。
每列從左到右依次是:SAR原圖、CNN第1層卷積特征圖、CNN第2層卷積特征圖、CBAM-CapsNet第1層卷積特征圖和CBAM-CapsNet第2層卷積特征圖
對比MSTAR數(shù)據(jù)和實(shí)測車輛數(shù)據(jù)的數(shù)據(jù)結(jié)果發(fā)現(xiàn),實(shí)測數(shù)據(jù)的準(zhǔn)確率整體上低于MSTAR數(shù)據(jù)的準(zhǔn)確率,這是因?yàn)閷?shí)測數(shù)據(jù)的數(shù)據(jù)量小于MSTAR的數(shù)據(jù)量。因此,CBAM-CapsNet基本符合訓(xùn)練集數(shù)據(jù)量越大,準(zhǔn)確率越高的規(guī)律。在所有的實(shí)驗(yàn)結(jié)果中注意到2個(gè)細(xì)節(jié):
一是2個(gè)數(shù)據(jù)集樣本數(shù)目相差不多時(shí),實(shí)測車輛數(shù)據(jù)的準(zhǔn)確率略高于MSTAR數(shù)據(jù)集的準(zhǔn)確率:實(shí)測數(shù)據(jù)中,當(dāng)樣本數(shù)目為275時(shí),準(zhǔn)確率為98.18%,MSTAR數(shù)據(jù)中,當(dāng)樣本數(shù)目為278時(shí),準(zhǔn)確率為92%。這是因?yàn)閷?shí)測車輛目標(biāo)數(shù)據(jù)集為五分類問題,分類難度略低于十分類問題的MSTAR數(shù)據(jù),并且實(shí)測車輛目標(biāo)數(shù)據(jù)集的分辨率也高于MSTAR數(shù)據(jù)集。
二是隨著數(shù)據(jù)量的增多,本文算法對準(zhǔn)確率改善程度呈現(xiàn)下降趨勢,尤其是在實(shí)測車輛數(shù)據(jù)集中,當(dāng)樣本數(shù)目為275時(shí),本文所提算法與CBAM2-CapsNet和CA-CapsNet這2種算法的準(zhǔn)確率持平。對這一現(xiàn)象主要考慮到2點(diǎn)原因,一是本文所提算法旨在解決當(dāng)數(shù)據(jù)量不足的情況下,如何使得神經(jīng)網(wǎng)絡(luò)更加充分高效的提取特征信息這一問題。當(dāng)數(shù)據(jù)量增多時(shí),意味著特征信息量增多,經(jīng)典算法學(xué)習(xí)到了更多的信息量后,準(zhǔn)確率會(huì)提高。二是實(shí)測車輛數(shù)據(jù)十分有限,當(dāng)訓(xùn)練集為275時(shí),測試集只有55張樣本,98.18%的準(zhǔn)確率意味著測試集中有一張SAR圖像沒有被正確分類。不同于MSTAR數(shù)據(jù)集的3 203張測試集,有限的測試集圖像數(shù)目會(huì)導(dǎo)致測試結(jié)果存在一定的誤差。
本文研究基于CBAM注意力機(jī)制和膠囊網(wǎng)絡(luò)的少樣本SAR目標(biāo)識(shí)別方法,解決了現(xiàn)有方法對少樣本數(shù)據(jù)集識(shí)別準(zhǔn)確率低的問題。利用膠囊網(wǎng)絡(luò)可以使得神經(jīng)網(wǎng)絡(luò)表征更豐富的特征,在膠囊網(wǎng)絡(luò)中引入CBAM注意力機(jī)制可以引導(dǎo)網(wǎng)絡(luò)在學(xué)習(xí)過程中重點(diǎn)關(guān)注對分類結(jié)果貢獻(xiàn)大的特征,弱化對分類結(jié)果貢獻(xiàn)小的特征。在MSTAR數(shù)據(jù)集和實(shí)測車輛SAR圖像數(shù)據(jù)集上分別對比不同數(shù)據(jù)量下本文算法和其他算法的準(zhǔn)確率,結(jié)果驗(yàn)證了本文算法的有效性。因此,本文所提的模型在少樣本數(shù)據(jù)集情況下,相比于傳統(tǒng)算法,更具優(yōu)勢。