高詩(shī)飏, 董會(huì)旭, 田潤(rùn)瀾, 張歆東,*
(1. 吉林大學(xué)電子科學(xué)與工程學(xué)院, 吉林 長(zhǎng)春 130012;2. 空軍航空大學(xué)航空作戰(zhàn)勤務(wù)學(xué)院, 吉林 長(zhǎng)春 130022)
雷達(dá)輻射源識(shí)別[1]是通過(guò)分析處理截獲的對(duì)方雷達(dá)信號(hào),獲取對(duì)方雷達(dá)的工作參數(shù)和信號(hào)特征參數(shù),通過(guò)與已知雷達(dá)數(shù)據(jù)庫(kù)對(duì)比,判斷雷達(dá)的型號(hào)、工作模式、位置,進(jìn)而掌握其作戰(zhàn)平臺(tái)、工作狀態(tài)、威脅等級(jí)等信息,為戰(zhàn)場(chǎng)電磁態(tài)勢(shì)感知[2]、威脅告警[3]、作戰(zhàn)計(jì)劃制定等提供情報(bào)支持。隨著戰(zhàn)場(chǎng)電磁環(huán)境的日漸復(fù)雜,傳統(tǒng)的基于脈沖描述字(pulse description words, PDW)參數(shù)[4]的識(shí)別方法已經(jīng)不能很好地滿足低信噪比條件下雷達(dá)輻射源信號(hào)識(shí)別的要求。而低截獲概率(low probability of intercept,LPI)雷達(dá)[5]的出現(xiàn)使雷達(dá)輻射源信號(hào)識(shí)別更加困難。因此,對(duì)雷達(dá)輻射源信號(hào)的準(zhǔn)確識(shí)別,具有十分重要的現(xiàn)實(shí)意義。
雷達(dá)輻射源識(shí)別的關(guān)鍵是特征提取[6]。近年來(lái),基于機(jī)器學(xué)習(xí)的雷達(dá)輻射源識(shí)別技術(shù)因其具有更強(qiáng)的泛化性和智能性受到研究學(xué)者的廣泛關(guān)注[7]。作為機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)重要研究分支,深度學(xué)習(xí)及其應(yīng)用也是人工智能領(lǐng)域的研究熱點(diǎn),在諸如機(jī)器翻譯[8]、問(wèn)題回答[9]、圖像分類(lèi)[10]、語(yǔ)音識(shí)別[11-12]、文本分類(lèi)[13]等領(lǐng)域已經(jīng)取得了很好的效果。深度學(xué)習(xí)與傳統(tǒng)模式識(shí)別方法最大的不同在于其能夠從數(shù)據(jù)中自動(dòng)提取特征。通過(guò)逐層特征變換,將樣本在原空間的特征變換到一個(gè)新特征空間,用簡(jiǎn)單模型即可完成復(fù)雜的分類(lèi)任務(wù),從而使分類(lèi)或預(yù)測(cè)更容易。
國(guó)內(nèi)外的許多學(xué)者將深度學(xué)習(xí)方法引入到雷達(dá)輻射源識(shí)別中,以期達(dá)到比傳統(tǒng)人工識(shí)別方法更好的識(shí)別效果。文獻(xiàn)[14]提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks, CNN)和基于樹(shù)結(jié)構(gòu)的機(jī)器學(xué)習(xí)過(guò)程優(yōu)化識(shí)別方法,對(duì)二維時(shí)頻圖進(jìn)行識(shí)別,在信噪比為-4 dB的條件下對(duì)12種信號(hào)的總體識(shí)別率達(dá)到94.42%。文獻(xiàn)[15]提出了一種混合分類(lèi)器,包括CNN和埃爾曼神經(jīng)網(wǎng)絡(luò)兩個(gè)相對(duì)獨(dú)立的子網(wǎng)絡(luò),在信噪比為-2 dB的條件下,12種信號(hào)的總體識(shí)別率達(dá)到94.5%。文獻(xiàn)[16]提出利用深度卷積網(wǎng)絡(luò)遷移學(xué)習(xí)的識(shí)別方法,將信號(hào)轉(zhuǎn)化為時(shí)頻圖并進(jìn)行預(yù)處理后,輸入到CNN預(yù)訓(xùn)練模型中進(jìn)行特征提取,最后用支持向量機(jī)分類(lèi)器得到分類(lèi)結(jié)果,在信噪比為-2 dB的條件下,對(duì)9類(lèi)調(diào)制信號(hào)總體識(shí)別率可達(dá)97%。
上述方法主要的問(wèn)題在于:第一,在低信噪比條件下,識(shí)別準(zhǔn)確率不高,上述文獻(xiàn)的實(shí)驗(yàn)結(jié)果多是在較高的信噪比下得出的,而在戰(zhàn)場(chǎng)電磁環(huán)境中,這樣的信噪比條件是很難達(dá)到的;第二,各類(lèi)信號(hào)的識(shí)別準(zhǔn)確率不平衡,特征不明顯、不容易識(shí)別的信號(hào)也是最有可能被對(duì)方采用、威脅最大的信號(hào),這種不平衡可能會(huì)造成嚴(yán)重的后果。由此也限制了這些網(wǎng)絡(luò)的實(shí)際應(yīng)用。
針對(duì)上述問(wèn)題,本文提出了基于切片循環(huán)神經(jīng)網(wǎng)絡(luò)(sliced recurrent neural networks, SRNN)、注意力機(jī)制和CNN的雷達(dá)輻射源信號(hào)識(shí)別方法。通過(guò)SRNN網(wǎng)絡(luò)提取雷達(dá)輻射源信號(hào)更高層次的信號(hào)特征,將輸入的幅度序列轉(zhuǎn)化成一個(gè)固定長(zhǎng)度的向量,產(chǎn)生的特征向量經(jīng)過(guò)Attention層處理后輸入到CNN網(wǎng)絡(luò)中,將特征向量轉(zhuǎn)化成分類(lèi)結(jié)果輸出。在CNN中引入批歸一化(batch normalization,BN)層,進(jìn)一步提升網(wǎng)絡(luò)的識(shí)別能力。
循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural networks, RNN)[17-18]是一類(lèi)專(zhuān)門(mén)用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。RNN中引入了循環(huán)結(jié)構(gòu),可以利用上下文信息,但是每一個(gè)狀態(tài)都依賴(lài)前一狀態(tài)的輸入,這種串行結(jié)構(gòu)訓(xùn)練需要花費(fèi)大量的時(shí)間,這就限制了RNN的應(yīng)用。
2018年,Yu等人提出了SRNN算法[19]。將輸入的雷達(dá)輻射源幅度序列分割成幾個(gè)具有相同長(zhǎng)度的最小子序列并在每一個(gè)子序列上應(yīng)用循環(huán)單元同時(shí)工作,信息通過(guò)多個(gè)網(wǎng)絡(luò)層進(jìn)行傳遞。將長(zhǎng)度為T(mén)的序列劃分成n個(gè)等長(zhǎng)的子序列,重復(fù)劃分操作K次,直到最底層的最小子序列長(zhǎng)度合適為止。將每個(gè)子序列的輸出合并為一個(gè)新的序列作為下一層的輸入,即:
(1)
(2)
(3)
網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。以一個(gè)1 024輸入的SRNN計(jì)算模型為例,共劃分2次,每次劃分為8個(gè)子序列,則最小子序列長(zhǎng)度為16。
圖1 SRNN網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 SRNN network structure
相較于標(biāo)準(zhǔn)RNN結(jié)構(gòu),SRNN在訓(xùn)練時(shí)間上具有優(yōu)勢(shì)。設(shè)每個(gè)循環(huán)單元花費(fèi)的時(shí)間為r,對(duì)于標(biāo)準(zhǔn)RNN結(jié)構(gòu),訓(xùn)練所需時(shí)間為
tRNN=Tr
(4)
對(duì)于k+1層的SRNN網(wǎng)絡(luò),訓(xùn)練時(shí)間為
(5)
比較SRNN與RNN的訓(xùn)練時(shí)間:
(6)
序列長(zhǎng)度T通常為定值。理論上,只要調(diào)整劃分的份數(shù)n和劃分的次數(shù)k,就可以調(diào)整SRNN相對(duì)于RNN的訓(xùn)練速度優(yōu)勢(shì)的大小。
注意力機(jī)制[20-22]最早應(yīng)用于視覺(jué)圖像領(lǐng)域,來(lái)源于人類(lèi)的視覺(jué)注意力。通常人類(lèi)視覺(jué)在感知物體時(shí),會(huì)將更多的注意力聚焦到當(dāng)前任務(wù)目標(biāo)更關(guān)鍵的部分,從眾多信息中選擇出對(duì)當(dāng)前任務(wù)目標(biāo)更關(guān)鍵的信息。注意力機(jī)制本質(zhì)上是一種權(quán)重概率分布機(jī)制,對(duì)重要的內(nèi)容分配更大的權(quán)重,對(duì)其他內(nèi)容減少權(quán)重。這樣的機(jī)制更專(zhuān)注于找到輸入數(shù)據(jù)中與當(dāng)前輸出顯著相關(guān)的有用信息,發(fā)掘信號(hào)中的自相關(guān)性,突出與預(yù)測(cè)相關(guān)的部分特征,從而提高輸出的質(zhì)量,使得訓(xùn)練更為高效。工作原理[23]如圖2所示。
圖2 注意力機(jī)制工作原理Fig.2 Working principle of attention mechanism
注意力狀態(tài)轉(zhuǎn)換的實(shí)現(xiàn)如下所示:
(7)
(8)
(9)
注意力機(jī)制的實(shí)現(xiàn)如圖3所示。
圖3 Attention層結(jié)構(gòu)Fig.3 Attention layer structure
在訓(xùn)練時(shí)某一層的參數(shù)更新后,會(huì)導(dǎo)致該層網(wǎng)絡(luò)的輸出分布改變,使訓(xùn)練變得復(fù)雜。使用較小的學(xué)習(xí)率及較好的權(quán)重初值,會(huì)導(dǎo)致訓(xùn)練很慢,同時(shí)也導(dǎo)致使用飽和非線性激活函數(shù)時(shí)訓(xùn)練很困難。
BN層[24]是一種特殊的歸一化層,由Ioffe等人于2015年提出,其目的是對(duì)神經(jīng)網(wǎng)絡(luò)中間層的輸出進(jìn)行標(biāo)準(zhǔn)化處理,使得中間層的輸出更加穩(wěn)定[24]。其出現(xiàn)解決了在訓(xùn)練過(guò)程中,中間層數(shù)據(jù)分布發(fā)生改變的問(wèn)題。BN層的作用主要有3點(diǎn)[25]:① 加快網(wǎng)絡(luò)訓(xùn)練和收斂的速度;② 防止梯度爆炸和梯度消失;③ 防止過(guò)擬合。BN層可以使優(yōu)化環(huán)境更加平滑[26]。這種平滑性會(huì)導(dǎo)致漸變的預(yù)測(cè)性和穩(wěn)定性更好,從而可以更快地進(jìn)行訓(xùn)練。BN過(guò)程如下:
(10)
(11)
對(duì)于在神經(jīng)網(wǎng)絡(luò)中應(yīng)如何使用BN層這一問(wèn)題,一些學(xué)者也進(jìn)行了研究。文獻(xiàn)[24]認(rèn)為BN層應(yīng)該放在卷積層之后非線性激活層之前。而在目前的實(shí)踐中,更傾向于把BN層放在激活函數(shù)層后面。文獻(xiàn)[27]中對(duì)卷積層、BN層和激活函數(shù)層組成的3種網(wǎng)絡(luò)方式進(jìn)行了分析對(duì)比,得出結(jié)論:在復(fù)雜數(shù)據(jù)集和深度網(wǎng)絡(luò)上卷積+BN+激活函數(shù)的組成表現(xiàn)更好,這樣的組合使輸入數(shù)據(jù)的范圍更契合激活函數(shù)的定義域。在本身網(wǎng)絡(luò)比較簡(jiǎn)單的情況下,BN+卷積+激活函數(shù)的結(jié)構(gòu)能夠更好地加速網(wǎng)絡(luò)收斂,把輸入映射到正態(tài)分布,加快當(dāng)前層卷積網(wǎng)絡(luò)的收斂。而卷積+激活函數(shù)+BN的組合方式將上一層的輸出歸一化,能夠加快下一層的卷積的收斂。在不同的應(yīng)用場(chǎng)景下,需要具體實(shí)驗(yàn)確定。
CNN[28-30]是一種深度學(xué)習(xí)模型,具備良好的表征學(xué)習(xí)能力,能自主學(xué)習(xí)雷達(dá)輻射源信號(hào)的特征,實(shí)現(xiàn)低級(jí)特征到高級(jí)特征的抽象提取。
傳統(tǒng)的CNN模型由卷積、池化和全連接層構(gòu)成。假設(shè)輸入為x,卷積核為w,偏置為b,則卷積算子可以表示為
h=f(w*x+b)
(12)
式中:*代表卷積運(yùn)算;f(·)表示卷積層的激活函數(shù)。
在CNN中,對(duì)卷積操作得到的局部特征采用池化方法提取的特征代替整個(gè)局部特征,可以大幅降低特征向量的大小。池化主要分為兩種:平均池化和最大池化。
經(jīng)過(guò)多個(gè)卷積-池化層提取雷達(dá)輻射源信號(hào)特征后,通過(guò)全連接層進(jìn)行分類(lèi):
Output=softmax(W*X+b)
(13)
式中:W表示全連接層的權(quán)重;b為全連接層的偏置;softmax(·)為全連接層的激活函數(shù),輸出的每一個(gè)值都在[0,1]區(qū)間內(nèi),且和為1。這就將多分類(lèi)的輸出數(shù)值轉(zhuǎn)化為概率,更容易理解和比較。
模型結(jié)構(gòu)如圖4所示。
圖4 模型結(jié)構(gòu)Fig.4 Model structure
本文采用的模型主要由SRNN層、注意力層、3個(gè)相同的BN-卷積-池化層和Dense層組成。參數(shù)如表1所示,除表中提及的參數(shù)外,其他參數(shù)均為默認(rèn)值。
表1 模型參數(shù)
模型訓(xùn)練流程如下。
步驟1數(shù)據(jù)預(yù)處理。對(duì)讀入的雷達(dá)輻射源信號(hào)數(shù)據(jù)進(jìn)行Min-Max歸一化處理。歸一化處理后數(shù)據(jù)的值在[0,1]內(nèi),特征向量中不同特征取值的差相對(duì)減小,降低了奇異樣本數(shù)據(jù)導(dǎo)致的不良影響,可以加快梯度下降求最優(yōu)解的速度。Min-Max轉(zhuǎn)換函數(shù)如下:
(14)
步驟2建立訓(xùn)練集、驗(yàn)證集和測(cè)試集。將數(shù)據(jù)和標(biāo)簽對(duì)應(yīng)隨機(jī)打亂,按照60%、20%、20%的比例劃分訓(xùn)練集、驗(yàn)證集和測(cè)試集。
步驟3對(duì)所有數(shù)據(jù)的標(biāo)簽進(jìn)行one-hot編碼[31]:one-hot編碼針對(duì)離散型特征,將屬性值轉(zhuǎn)化為二元特征,在任意時(shí)刻只有其中一位有效。
步驟4對(duì)輸入數(shù)據(jù)進(jìn)行切割分片,滿足SRNN對(duì)輸入數(shù)據(jù)的維度要求。
步驟5設(shè)置優(yōu)化器、損失函數(shù)、早停和學(xué)習(xí)率衰減。優(yōu)化器采用AdamOptimizer;采用交叉熵?fù)p失函數(shù);為了避免過(guò)擬合的發(fā)生以防止網(wǎng)絡(luò)的泛化能力降低,引入早停機(jī)制,以驗(yàn)證集損失作為標(biāo)準(zhǔn),在驗(yàn)證集損失連續(xù)10輪不減小時(shí)停止訓(xùn)練;引入學(xué)習(xí)率衰減,當(dāng)驗(yàn)證集損失連續(xù)3輪不減小時(shí),學(xué)習(xí)率下降為原來(lái)的10%。
步驟6訓(xùn)練網(wǎng)絡(luò)。將訓(xùn)練集數(shù)據(jù)輸入到網(wǎng)絡(luò)模型中訓(xùn)練。設(shè)置初始學(xué)習(xí)率為 0.001,最大訓(xùn)練輪數(shù)為200輪,batch_size大小為200。
為了驗(yàn)證第2.1節(jié)構(gòu)建的模型的性能,設(shè)計(jì)實(shí)驗(yàn)如下。首先,探究第1.1節(jié)SRNN相對(duì)于GRU的速度優(yōu)勢(shì),并確定基本模型。其次,探究第1.2節(jié)注意力機(jī)制在網(wǎng)絡(luò)中的效果。然后,探究第1.3節(jié)BN層對(duì)訓(xùn)練時(shí)間和識(shí)別準(zhǔn)確率的影響,確定模型。最后,在前3個(gè)實(shí)驗(yàn)的基礎(chǔ)上,對(duì)照經(jīng)典網(wǎng)絡(luò)模型,對(duì)第2.1節(jié)所構(gòu)建的模型進(jìn)行評(píng)價(jià)。實(shí)驗(yàn)環(huán)境如表2所示。
表2 實(shí)驗(yàn)環(huán)境
為了驗(yàn)證模型的性能,本次實(shí)驗(yàn)采用Matlab仿真的時(shí)域下雷達(dá)脈沖幅度序列數(shù)據(jù)得到的原始數(shù)據(jù)集,包括二進(jìn)制相移鍵控(binary phase shift keying, BPSK)、科斯塔斯碼(Costas)、調(diào)頻連續(xù)波(frequency-modulated continuous wave, FMCW)、弗蘭克碼(Frank)、P相碼(P1、P2、P3和P4)共8種信號(hào),其中弗蘭克碼與P相碼統(tǒng)稱(chēng)為多相碼。信號(hào)信噪比范圍-20~10 dB,步進(jìn)2 dB;每種信號(hào)每種信噪比產(chǎn)生2 000個(gè)樣本,每個(gè)樣本長(zhǎng)度為1 024。信號(hào)參數(shù)如表3所示。
表3 仿真信號(hào)參數(shù)
實(shí)驗(yàn) 1驗(yàn)證第1.1節(jié)提出的SRNN相較于GRU的速度優(yōu)勢(shì),并確定基本模型。通過(guò)比較測(cè)試集損失和識(shí)別準(zhǔn)確率、訓(xùn)練輪數(shù)、訓(xùn)練總時(shí)間以及測(cè)試集測(cè)試的運(yùn)行時(shí)間來(lái)衡量網(wǎng)絡(luò)的訓(xùn)練效果。實(shí)驗(yàn)結(jié)果取多次實(shí)驗(yàn)的平均值,如表4所示。
表4 實(shí)驗(yàn)結(jié)果
從SRNN與GRU的比較中可以看出,無(wú)論是從訓(xùn)練總時(shí)間還是單輪平均訓(xùn)練時(shí)間,SRNN均優(yōu)于GRU,單輪平均訓(xùn)練時(shí)間僅為GRU的6.54%,證明了并行化結(jié)構(gòu)的SRNN能夠大大加快訓(xùn)練速度,解決訓(xùn)練時(shí)間過(guò)長(zhǎng)的問(wèn)題。進(jìn)一步,在SRNN的基礎(chǔ)上,與CNN結(jié)合,雖然單輪平均訓(xùn)練時(shí)間上相比SRNN有略微提升,但訓(xùn)練輪數(shù)有明顯減少,網(wǎng)絡(luò)收斂速度加快,訓(xùn)練總時(shí)間下降,識(shí)別準(zhǔn)確率也略有提升。從測(cè)試時(shí)間上來(lái)看,與CNN結(jié)合并沒(méi)有過(guò)多的增加模型的復(fù)雜程度,對(duì)測(cè)試集的測(cè)試時(shí)間幾乎沒(méi)有影響。因此,將SRNN+CNN確定為基本模型。
實(shí)驗(yàn) 2在實(shí)驗(yàn)1中SRNN+CNN基本模型的基礎(chǔ)上探究注意力機(jī)制對(duì)訓(xùn)練時(shí)間和識(shí)別準(zhǔn)確率的影響。
為了探究注意力機(jī)制對(duì)網(wǎng)絡(luò)性能的影響,實(shí)驗(yàn)將是否使用Attention層作為自變量,分別訓(xùn)練網(wǎng)絡(luò)模型。通過(guò)比較測(cè)試集損失和識(shí)別準(zhǔn)確率、訓(xùn)練輪數(shù)、訓(xùn)練總時(shí)間以及測(cè)試集測(cè)試時(shí)間來(lái)衡量網(wǎng)絡(luò)的訓(xùn)練效果。實(shí)驗(yàn)結(jié)果取多次實(shí)驗(yàn)的平均值,如表5所示。
表5 Attention層對(duì)網(wǎng)絡(luò)識(shí)別的影響
由表5可以看出,注意力機(jī)制能夠在一定程度上降低損失,提高識(shí)別準(zhǔn)確率,加快訓(xùn)練速度,訓(xùn)練時(shí)間相比不使用Attention層的網(wǎng)絡(luò)減少了9%。Attention層將注意力更多地分配到需要關(guān)注的特征上,在一定程度上加快網(wǎng)絡(luò)訓(xùn)練,提升網(wǎng)絡(luò)的識(shí)別準(zhǔn)確率。
為了觀察Attention層關(guān)注了哪些特征,使得訓(xùn)練時(shí)間減少和準(zhǔn)確率提高,設(shè)計(jì)實(shí)驗(yàn)探究Attention層的輸入與輸出特征向量的變化。實(shí)驗(yàn)步驟如下。
步驟 1在數(shù)據(jù)集中任取1個(gè)長(zhǎng)度為1 024的信號(hào),輸入保存的模型中,獲得Attention層的輸入特征向量Feature1和輸出特征向量Feature2。
步驟 2將Feature1和Feature2按統(tǒng)一的標(biāo)準(zhǔn)進(jìn)行Min-Max歸一化。取Feature1最小值與Feature2最小值中較小的作為歸一化的最小值;同理,取二者最大值中較大的作為歸一化的最大值。
步驟 3取歸一化后Feature2與Feature1的差值FeatureDIF。
實(shí)驗(yàn)算法偽代碼如下所示。
算法1中,FeatureDIF的正負(fù)代表Attention層對(duì)某一特征賦予更多或更少的關(guān)注,分配更大或更小的權(quán)重。
在FeatureDIF中截取長(zhǎng)度為100的樣本可視化輸出,將結(jié)果繪制成火柴圖,如圖5所示。
圖5 可視化輸出結(jié)果Fig.5 Visual output
從圖5可以明顯的看出經(jīng)過(guò)Attention層后特征的變化。Attention層對(duì)6/17/49/55/70/81等圖中值為負(fù)的位置的特征分配了更少的注意力甚至不分配注意力;對(duì)39/53/85/96等圖中值為正的位置特征分配更多的注意力,說(shuō)明這些特征是對(duì)訓(xùn)練網(wǎng)絡(luò)更重要的。
實(shí)驗(yàn) 3在實(shí)驗(yàn)2的基礎(chǔ)上,探究BN層對(duì)訓(xùn)練時(shí)間和識(shí)別準(zhǔn)確率的影響。
為了探究BN層對(duì)網(wǎng)絡(luò)性能的影響,在實(shí)驗(yàn)2中SRNN+Attention+CNN模型的基礎(chǔ)上,將是否在CNN中使用BN層以及BN層與卷積層和池化層的相對(duì)位置作為自變量,分別訓(xùn)練網(wǎng)絡(luò)模型。通過(guò)比較測(cè)試集損失、識(shí)別準(zhǔn)確率、訓(xùn)練輪數(shù)、訓(xùn)練總時(shí)間以及測(cè)試集測(cè)試時(shí)間來(lái)衡量訓(xùn)練效果,進(jìn)而確定BN層在模型中的位置。實(shí)驗(yàn)結(jié)果取多次實(shí)驗(yàn)的平均值,如表6所示,表中Conv表示卷積層,AF(activation function)表示激活函數(shù)。
表6 探究BN層對(duì)網(wǎng)絡(luò)識(shí)別的影響
從訓(xùn)練輪數(shù)與訓(xùn)練總時(shí)間可以看出,對(duì)于SRNN+Attention+CNN模型來(lái)說(shuō),BN層的使用使訓(xùn)練輪數(shù)明顯減少,訓(xùn)練總時(shí)間減少,最多減少近8%,收斂速度加快。從測(cè)試集的測(cè)試時(shí)間上看,使用BN層會(huì)使測(cè)試集測(cè)試時(shí)間略微增加。
Conv+AF+BN的組合方式將上一層的輸出歸一化,第一層卷積輸入并沒(méi)有被歸一化,因而相對(duì)于其他兩種組合方式訓(xùn)練時(shí)間更長(zhǎng),理論上這種差異在卷積層數(shù)較少的網(wǎng)絡(luò)中尤為明顯。綜合衡量測(cè)試集損失、識(shí)別準(zhǔn)確率以及訓(xùn)練時(shí)間等方面,BN+Conv+AF的組合方式更有優(yōu)勢(shì),損失低,識(shí)別準(zhǔn)確率更高且訓(xùn)練時(shí)間和測(cè)試時(shí)間與Conv+BN+AF組合基本持平,因而本文選定這種組合方式作為最終方案。
實(shí)驗(yàn) 4在實(shí)驗(yàn)3選定的BN+Conv+AF的組合方式的基礎(chǔ)上,首先探究SRNN+Attention+CNN模型在不同信噪比條件下對(duì)8種信號(hào)的識(shí)別情況。利用訓(xùn)練保存的模型對(duì)8種信號(hào)識(shí)別,在不同信噪比下識(shí)別準(zhǔn)確率結(jié)果如圖6所示。從圖6中可以看出,信噪比大于等于-10 dB情況下基本可以達(dá)到100%的準(zhǔn)確率;在-20 dB時(shí)全部信號(hào)的識(shí)別準(zhǔn)確率均大于60%,BPSK和FMCW準(zhǔn)確率超過(guò)70%,其他5種多相碼信號(hào)準(zhǔn)確率超過(guò)85%。
圖6 SRNN+Attention+CNN模型在不同信噪比條件下對(duì)8種信號(hào)的識(shí)別準(zhǔn)確率Fig.6 Recognition accuracy of SRNN+attention+CNN modelfor 8 kinds of signals under different SNR
8類(lèi)信號(hào)的混淆矩陣如圖7所示。
圖7 SRNN+Attention+CNN模型混淆矩陣Fig.7 Confusion matrix of SRNN+Attention+CNN model
圖7中,主對(duì)角線上代表信號(hào)被正確識(shí)別,同一行的其他格子代表被錯(cuò)誤識(shí)別成其他7類(lèi)信號(hào)對(duì)應(yīng)某一類(lèi)。格子顏色越深,代表相應(yīng)的概率越高??梢钥闯?對(duì)角線上的顏色最深,證明大多數(shù)信號(hào)都能夠被正確識(shí)別。BPSK與Costas、Costas與FMCW(圖中紅框)相互識(shí)別錯(cuò)誤率相對(duì)比較高,結(jié)合圖6可以說(shuō)明,在低信噪比下以上兩組信號(hào)比較接近難以區(qū)分。SRNN+Attention+CNN模型對(duì)Frank、P1~P4碼5種多相碼有較好的識(shí)別準(zhǔn)確率,且相互之間錯(cuò)誤識(shí)別的概率也普遍較小,證明模型對(duì)多相碼的特征提取效果是比較好的。
在上述實(shí)驗(yàn)的基礎(chǔ)上,進(jìn)一步將SRNN+Attention+CNN模型與經(jīng)典模型比較。通過(guò)比較測(cè)試集損失、識(shí)別準(zhǔn)確率、訓(xùn)練輪數(shù)、訓(xùn)練總時(shí)間以及測(cè)試集測(cè)試時(shí)間來(lái)衡量網(wǎng)絡(luò)的訓(xùn)練效果。實(shí)驗(yàn)結(jié)果取多次實(shí)驗(yàn)的平均值,如表7所示。
表7 SRNN+Attention+CNN模型與經(jīng)典模型比較
從表7的實(shí)驗(yàn)結(jié)果中可以看出,SRNN+Attention+CNN模型相比于GRU,在訓(xùn)練速度方面有著明顯的優(yōu)勢(shì),在測(cè)試集損失以及識(shí)別準(zhǔn)確率方面也有較大的優(yōu)勢(shì)。相比其他經(jīng)典模型在識(shí)別準(zhǔn)確率方面有一定的優(yōu)勢(shì),在訓(xùn)練時(shí)間方面僅比AlexNet差,與VGG16持平,比VGG19和ResNet18更好。在測(cè)試時(shí)間方面, SRNN+Attention+CNN模型與AlexNet接近,與其他經(jīng)典模型相比有很大的優(yōu)勢(shì)。
在表7實(shí)驗(yàn)結(jié)果的基礎(chǔ)上,進(jìn)一步探究6種模型在不同信噪比條件下的表現(xiàn)。用不同信噪比的8種信號(hào)對(duì)6種模型進(jìn)行測(cè)試。測(cè)試結(jié)果如圖8所示。
圖8 6種模型在不同信噪比條件下的識(shí)別準(zhǔn)確率Fig.8 Recognition accuracy of six models under different SNR
由圖8可以看出,SRNN+Attention+CNN模型在低信噪比的條件下的表現(xiàn)相對(duì)于其他5種經(jīng)典模型要更好,在-12 dB條件下識(shí)別準(zhǔn)確率接近100%,在-20 dB條件下依然達(dá)到近80%,證明了SRNN+Attention+CNN模型在低信噪比的條件下有著較好的識(shí)別能力。
本文將SRNN模型引入雷達(dá)輻射源信號(hào)識(shí)別領(lǐng)域,提出了SRNN+Attention+CNN模型,對(duì)8種常見(jiàn)的雷達(dá)輻射源信號(hào)進(jìn)行識(shí)別,并與其他5種經(jīng)典模型進(jìn)行比較。實(shí)驗(yàn)結(jié)果表明,本文提出的模型在低信噪比條件下能夠?qū)?種常見(jiàn)信號(hào)有效識(shí)別,相比于GRU模型在訓(xùn)練速度和識(shí)別準(zhǔn)確率方面有較大的提升,相比于其他4種經(jīng)典模型也有一定的優(yōu)勢(shì)。