金 濤, 王曉峰, 田潤(rùn)瀾, 張歆東,*
(1. 吉林大學(xué)電子科學(xué)與工程學(xué)院, 吉林 長(zhǎng)春 130012; 2. 空軍航空大學(xué)航空作戰(zhàn)勤務(wù)學(xué)院, 吉林 長(zhǎng)春 130022)
雷達(dá)輻射源識(shí)別[1]是電子戰(zhàn)的一個(gè)重要組成部分和關(guān)鍵步驟,在完成信號(hào)截獲和脈沖參數(shù)分析后,需要對(duì)信號(hào)進(jìn)行進(jìn)一步分析,以得到輻射源型號(hào)甚至是個(gè)體信息。傳統(tǒng)的雷達(dá)輻射源識(shí)別方法需要手動(dòng)提取并選取特征,比如文獻(xiàn)[2]提出了基于多尺度信息熵的雷達(dá)輻射源識(shí)別方法;文獻(xiàn)[3]提出基于脈沖角度特征的雷達(dá)輻射源識(shí)別方法來(lái)進(jìn)一步提升識(shí)別準(zhǔn)確率。這些方法過(guò)于依賴情報(bào)人員經(jīng)驗(yàn)[4],并且在低信噪比時(shí)表現(xiàn)不足;另一方面,雷達(dá)技術(shù)的不斷進(jìn)步使得當(dāng)前電子對(duì)抗偵察所要面對(duì)的電磁環(huán)境[5]日益復(fù)雜,時(shí)域、頻域和空域交迭情況錯(cuò)綜復(fù)雜,所以迫切需要探究適用于雷達(dá)輻射源識(shí)別的新方法。
為了探究替代傳統(tǒng)雷達(dá)輻射源識(shí)別的方法,眾多學(xué)者將機(jī)器學(xué)習(xí)引入雷達(dá)輻射源識(shí)別,如文獻(xiàn)[6]提出基于時(shí)頻圖像紋理特征的雷達(dá)輻射源識(shí)別方式;文獻(xiàn)[7]提出基于小波不變矩來(lái)進(jìn)行輻射源識(shí)別,且都取得了不錯(cuò)的成果。但是機(jī)器學(xué)習(xí)存在模型普適性較差、難以識(shí)別有交迭的不完整數(shù)據(jù)、訓(xùn)練模型需要運(yùn)用大量樣本等問(wèn)題。隨著這些年深度學(xué)習(xí)在圖像、語(yǔ)音識(shí)別[8-9]、自然語(yǔ)言識(shí)別領(lǐng)域的不斷突破,如何將深度學(xué)習(xí)[10-15]運(yùn)用到輻射源識(shí)別領(lǐng)域,從而有效提升識(shí)別效率和精度成為當(dāng)前重點(diǎn)關(guān)注的問(wèn)題。以往文獻(xiàn)中,往往先將輻射源幅度序列轉(zhuǎn)換為時(shí)頻圖像進(jìn)行識(shí)別,如文獻(xiàn)[16]將提取的時(shí)頻圖像放入埃爾曼網(wǎng)絡(luò)中進(jìn)行識(shí)別;文獻(xiàn)[17]用棧式稀疏自編碼器來(lái)提取特征并識(shí)別信號(hào);文獻(xiàn)[18]使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行雷達(dá)信號(hào)波形識(shí)別。將幅度序列轉(zhuǎn)換為時(shí)頻圖像需要耗費(fèi)大量的工作量,時(shí)頻圖像在低信噪比時(shí)識(shí)別效果也較差,因此無(wú)法應(yīng)用于實(shí)際戰(zhàn)場(chǎng)。
在此背景下,本文提出了一種基于改進(jìn)一維卷積神經(jīng)網(wǎng)絡(luò)[19-20](one-dimensional convolutional neural network, 1DCNN)與時(shí)間卷積網(wǎng)絡(luò)(temporal convolutional network, TCN)[21]的新型分類方法。相較于需要輸入時(shí)頻圖像的方法,本文模型能夠直接輸入輻射源幅度序列。序列數(shù)據(jù)相較于時(shí)頻圖像,所需內(nèi)存更小,因此不僅能夠節(jié)省大量轉(zhuǎn)換時(shí)間,而且能夠同時(shí)處理更多數(shù)據(jù)。另外,本文模型還能夠自主學(xué)習(xí)和提取特征,相較于人工提取特征的方法能夠更加準(zhǔn)確快速地提取信息,從而有效提升識(shí)別準(zhǔn)確率和識(shí)別精度。
TCN是在傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)上進(jìn)行改進(jìn)和優(yōu)化而得到的一種新型網(wǎng)絡(luò)結(jié)構(gòu),主要是由卷積神經(jīng)網(wǎng)絡(luò)和殘差[22-23]結(jié)構(gòu)連接構(gòu)成,同時(shí)引入因果卷積和空洞卷積[24]。因果卷積能夠?qū)崿F(xiàn)序列建模,空洞卷積能夠在不增加池化層的前提下擴(kuò)大感受野,并學(xué)習(xí)長(zhǎng)序列數(shù)據(jù)。TCN的網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示。TCN結(jié)構(gòu)具有以下特點(diǎn):
(1) 并行性:由于卷積神經(jīng)網(wǎng)絡(luò)每一層使用相同的卷積核,因此一個(gè)長(zhǎng)序列輸入可以用TCN并行處理;
(2) 靈活的感受視野:引入空洞卷積能夠在不增加池化的同時(shí)擴(kuò)大感受野,所以TCN網(wǎng)絡(luò)擁有靈活的感受野;
(3) 可變的輸入長(zhǎng)度:TCN中加入了0-padding使網(wǎng)絡(luò)能夠輸入不同長(zhǎng)度的數(shù)據(jù);
(4) 梯度較為穩(wěn)定:不會(huì)因?yàn)椴煌瑫r(shí)間段共享參數(shù)而導(dǎo)致梯度爆炸或者消失;
(5) 更小的內(nèi)存訓(xùn)練:TCN里同一層卷積核共享,所以能夠占用更少內(nèi)存。
對(duì)于雷達(dá)輻射源識(shí)別來(lái)說(shuō),如何迅速準(zhǔn)確地識(shí)別出信號(hào)是要解決的首要問(wèn)題。相較于常見(jiàn)的神經(jīng)網(wǎng)絡(luò)模型,TCN能夠做到保證準(zhǔn)確率的同時(shí)更加迅速地識(shí)別輻射源信號(hào),主要原因有以下3點(diǎn):① TCN能夠并行處理雷達(dá)輻射源信號(hào),相較于常見(jiàn)串行處理數(shù)據(jù)的循環(huán)神經(jīng)(recurrent neural network, RNN)、長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(long short time memory, LSTM)網(wǎng)絡(luò)等,其速度更快。② 通常來(lái)說(shuō),網(wǎng)絡(luò)層數(shù)越多,訓(xùn)練越復(fù)雜,識(shí)別雷達(dá)輻射源信號(hào)所耗費(fèi)的時(shí)間越長(zhǎng)。TCN采取空洞卷積,能夠識(shí)別長(zhǎng)輻射源幅度序列的同時(shí)減少層數(shù)的數(shù)量,進(jìn)而縮短訓(xùn)練時(shí)間。③ 常用于雷達(dá)輻射源識(shí)別的RNN和LSTM等網(wǎng)絡(luò),采用逐層傳遞信息的方式,TCN采用殘差連接,能夠跨層傳遞信息,所以訓(xùn)練速度更快。
TCN一般采用ReLU激活函數(shù)[25],該激活函數(shù)確實(shí)能在一定程度上加快模型的收斂,但是ReLU激活函數(shù)在訓(xùn)練過(guò)程中是很脆弱的,很容易就會(huì)導(dǎo)致神經(jīng)元壞死等問(wèn)題。
為了解決這個(gè)問(wèn)題,需要尋找一個(gè)代替ReLU的激活函數(shù),常見(jiàn)的選擇方向有指數(shù)修正單元ELUs或者參數(shù)化線性修正單元如Leaky ReLU[26]等。ReLU是將所有的負(fù)軸上的值都設(shè)為零,如圖2(a)所示;ELUs在負(fù)軸上采用較小的指數(shù)函數(shù)代替ReLU負(fù)軸上的零值,使得負(fù)軸上的值能得以保留一部分,如圖2(b)所示;Leaky ReLU是給負(fù)軸的值賦予一個(gè)非零斜率,如圖2(c)所示,合理地選取斜率值不僅能在一定程度上增加模型在零點(diǎn)附近的擬合能力,還會(huì)降低模型過(guò)擬合的風(fēng)險(xiǎn)。
當(dāng)向模型中輸入輻射源幅度序列時(shí),隨著幅度序列的不斷增長(zhǎng),會(huì)出現(xiàn)信息過(guò)載問(wèn)題,為了解決這個(gè)問(wèn)題,引入注意力機(jī)制[27]。注意力機(jī)制能夠計(jì)算當(dāng)前輸入序列和輸出的匹配程度,匹配度越高,網(wǎng)絡(luò)也就越重視輸入序列里面包含的信息。Attention計(jì)算得到的匹配度權(quán)重,只限于當(dāng)前序列對(duì),并不是整體權(quán)重,因此能夠根據(jù)輸入序列和輸出的不同來(lái)變換權(quán)重。對(duì)于雷達(dá)輻射源識(shí)別來(lái)說(shuō),注意力機(jī)制能幫助深度學(xué)習(xí)模型將已經(jīng)輸出的輻射源信號(hào)類型與輸入的輻射源幅度序列相匹配,并計(jì)算出相應(yīng)的匹配度權(quán)重來(lái)幫助網(wǎng)絡(luò)進(jìn)一步提升整體識(shí)別準(zhǔn)確率。對(duì)于易于漏選、錯(cuò)報(bào)的弱小信號(hào),注意力機(jī)制也能夠通過(guò)計(jì)算輸入的弱小信號(hào)與輸出的匹配程度,并計(jì)算匹配度權(quán)重來(lái)提升識(shí)別準(zhǔn)確率。注意力機(jī)制的具體實(shí)現(xiàn)流程如圖3所示。
一系列的<“鍵”,“值”>數(shù)據(jù)對(duì)構(gòu)成“源頭”中的數(shù)據(jù),首先選定一個(gè)“詢問(wèn)”,通過(guò)計(jì)算“詢問(wèn)”和各個(gè)“鍵”的相似性或者相關(guān)性,并通過(guò)相似性的不同得到每個(gè)“鍵”對(duì)應(yīng)“值”的權(quán)重系數(shù),然后使用softmax將這些權(quán)重系數(shù)歸一化處理,最后將“值”和權(quán)重系數(shù)進(jìn)行加權(quán)求和,即得到了最終的注意力數(shù)值。
對(duì)于注意力機(jī)制而言,“詢問(wèn)”表示輻射源信號(hào),源頭中的“鍵”和“值”含義相同,就是輸入的輻射源信號(hào)中每個(gè)信號(hào)所對(duì)應(yīng)的權(quán)值。通過(guò)對(duì)輻射源信號(hào)進(jìn)行加權(quán)求和,得到最后的注意力輻射源信號(hào),從而使模型關(guān)注更重要的輻射源信息來(lái)更加快速準(zhǔn)確地完成對(duì)輻射源信號(hào)的識(shí)別。注意力機(jī)制在輻射源幅度序列識(shí)別中采用自動(dòng)加權(quán)方式,可以通過(guò)加權(quán)的方式將源模塊ms和目標(biāo)模塊mt相聯(lián)系。目前常用的計(jì)算方式為
(1)
(2)
式中:Wa、Ua、Va表示權(quán)值矩陣;mt和ms在輻射源識(shí)別中表示“輻射源信號(hào)”和“每個(gè)信號(hào)對(duì)應(yīng)的權(quán)值”;dot表示點(diǎn)乘;general加入了參數(shù)Wa表示更通用的點(diǎn)乘;Concat表示拼接;perceptron表示感知機(jī)。
本文在原有TCN的基礎(chǔ)上進(jìn)行改進(jìn),同時(shí)引入1DCNN和注意力機(jī)制,模型結(jié)構(gòu)如圖4所示。本文的結(jié)構(gòu)主要由一維卷積層、TCN層、Attention層3部分組成。
第一部分是改進(jìn)的1DCNN,相較于常見(jiàn)的卷積神經(jīng)網(wǎng)絡(luò),本文首先在第一層卷積層前加入批歸一化層[28]來(lái)加快模型擬合速度,然后將ReLU激活函數(shù)替換為L(zhǎng)eaky ReLU激活函數(shù),最后在全連接層中加入權(quán)值初始化來(lái)加速訓(xùn)練過(guò)程。第二部分是TCN層,本文采用了兩層TCN,并將其中的ReLU激活函數(shù)替換為L(zhǎng)eaky ReLU激活函數(shù)來(lái)增加模型零值附近擬合能力。第三部分是Attention層,該層位于全連接層前,能夠幫助模型提取關(guān)鍵特征輸入到全連接層中,提高分類準(zhǔn)確率。
卷積層1的卷積核數(shù)量為32,卷積核的時(shí)域窗長(zhǎng)度為5,最大池化層的窗口大小為2;卷積層2的卷積核數(shù)量為16,卷積核的時(shí)域窗長(zhǎng)度為5。時(shí)間卷積網(wǎng)絡(luò)1的第一個(gè)卷積層的卷積核時(shí)域窗長(zhǎng)度為5,卷積核數(shù)量為32,第二個(gè)卷積層的卷積核時(shí)域窗長(zhǎng)度為5,卷積核數(shù)量為16;時(shí)間卷積網(wǎng)絡(luò)2采用與時(shí)間卷積網(wǎng)絡(luò)1相同的參數(shù),這4個(gè)卷積層分別由兩個(gè)殘差網(wǎng)絡(luò)連接;全連接層的參數(shù)設(shè)置為8,用來(lái)分類8種輻射源信號(hào)。為了防止過(guò)擬合,在網(wǎng)絡(luò)中加入Dropout,大小設(shè)置為0.2。
步驟 1將數(shù)據(jù)輸入到本文的網(wǎng)絡(luò)之中。
步驟 2將讀取的數(shù)據(jù)預(yù)處理后以14∶7∶9的比例分為訓(xùn)練集、測(cè)試集、驗(yàn)證集,并將其隨機(jī)打散。
步驟 3將要分類數(shù)據(jù)的標(biāo)簽變成獨(dú)熱碼的形式。
步驟 4設(shè)置datetime用來(lái)獲取模型訓(xùn)練時(shí)間。
步驟 5本文采用Adam優(yōu)化算法來(lái)快速得到最優(yōu)解,避免模型達(dá)到局部最優(yōu)解。初始學(xué)習(xí)率設(shè)置為0.001,最大訓(xùn)練輪數(shù)設(shè)置為50。
步驟 6在訓(xùn)練過(guò)程中驗(yàn)證集損失可能會(huì)先減后增,這是過(guò)擬合的一種表現(xiàn)。為了避免過(guò)擬合對(duì)實(shí)驗(yàn)結(jié)果產(chǎn)生影響,本文引入了早停機(jī)制,當(dāng)驗(yàn)證集誤差不再減小,且再經(jīng)過(guò)3輪的訓(xùn)練仍不再減小的情況下提前終止訓(xùn)練,否則模型會(huì)完成50輪訓(xùn)練后再終止。
本文所要分類識(shí)別的雷達(dá)輻射源信號(hào)有8種,分別為調(diào)頻連續(xù)波(frequency modulated continous wave, FMCW)、多相碼(Frank,P1,P2,P3,P4)、二進(jìn)制相移鍵控(binary phase shift keying, BPSK)和Costas。載頻取值范圍均為1~1.2 kHz,除Costas之外,其余7種信號(hào)采樣頻率為7 kHz。每個(gè)信號(hào)的參數(shù)如表1所示。
表1 信號(hào)的主要參數(shù)
根據(jù)實(shí)際信號(hào)特征,采用 Matlab 仿真生成實(shí)驗(yàn)數(shù)據(jù),信噪比范圍為-20~10 dB,間隔2 dB;各個(gè)信噪比下每類信號(hào)均產(chǎn)生2 000個(gè)樣本,樣本長(zhǎng)度固定為1 024。實(shí)驗(yàn)采用的實(shí)驗(yàn)測(cè)試平臺(tái)為Intel(R)Core(TM)i7-10750H,NVIDIA GeForce RTX 2070 super。本文的神經(jīng)網(wǎng)絡(luò)模型是在TensorFlow平臺(tái)上所搭建的,學(xué)習(xí)框架采用Keras2.3.0,平臺(tái)為PyCharm 2018.3.6 x64,編譯器為Python 3.6。
實(shí)驗(yàn) 1本文所采用的網(wǎng)絡(luò)是在TCN的基礎(chǔ)之上進(jìn)行改進(jìn),并引入改進(jìn)的1DCNN和注意力機(jī)制得到的。首先分析引入注意力機(jī)制后對(duì)改進(jìn)TCN識(shí)別輻射源信號(hào)的影響。本文的注意力結(jié)構(gòu)放在時(shí)間卷積網(wǎng)絡(luò)結(jié)構(gòu)之后,加上Attention的結(jié)構(gòu)圖如圖5所示。
這時(shí)網(wǎng)絡(luò)結(jié)構(gòu)變成N對(duì)N,因?yàn)橐獙⒍鄠€(gè)特征輸入到注意力層。本文所采用的是注意權(quán)值不共享的注意力層,從數(shù)據(jù)集中選取1 024個(gè)序列數(shù)據(jù),將注意力層給這1 024個(gè)幅度序列數(shù)據(jù)分配的權(quán)重系數(shù)可視化如圖6所示。從圖中可以看出,當(dāng)數(shù)據(jù)流入注意力層之后,注意力機(jī)制會(huì)計(jì)算已經(jīng)輸出的輻射源信號(hào)類型與輸入的輻射源幅度序列的匹配程度,并根據(jù)匹配程度分配不同權(quán)重系數(shù),在選取的1 024個(gè)序列數(shù)據(jù)中有3個(gè)數(shù)據(jù)與輸出匹配程度較高,因此相應(yīng)的權(quán)重系數(shù)較高。
TCN+注意力與TCN的準(zhǔn)確率、損失和訓(xùn)練時(shí)間對(duì)比如表2所示。從表2中可以看出,加入注意力機(jī)制之后,TCN對(duì)于雷達(dá)輻射源的識(shí)別能力有較為明顯的提升,但是模型訓(xùn)練所用時(shí)間大幅增長(zhǎng),這不符合雷達(dá)輻射源快速識(shí)別的要求。為了解決這個(gè)問(wèn)題,在TCN+注意力網(wǎng)絡(luò)之前加入改進(jìn)的1DCNN幫助時(shí)間卷積網(wǎng)絡(luò)提取特征來(lái)加速訓(xùn)練。下面分析加入改進(jìn)1DCNN前后的影響。
表2 TCN加入注意力前后對(duì)比
TCN+注意力網(wǎng)絡(luò)加入改進(jìn)的1DCNN前后的準(zhǔn)確率、損失、訓(xùn)練時(shí)間如表3所示,并在表3中對(duì)加入時(shí)間卷積網(wǎng)絡(luò)的準(zhǔn)確率、損失、訓(xùn)練時(shí)間進(jìn)行對(duì)比。從表中可以看出相較于TCN+注意力網(wǎng)絡(luò),加入1DCNN之后,在準(zhǔn)確率和損失基本保持不變的情況下,訓(xùn)練時(shí)間能夠較為明顯的縮短。對(duì)比CNN+TCN+注意力(CTA)網(wǎng)絡(luò)與TCN,可以發(fā)現(xiàn)在訓(xùn)練時(shí)間基本一致的同時(shí),CTA網(wǎng)絡(luò)的準(zhǔn)確率和損失明顯優(yōu)于TCN。
表3 加入改進(jìn)1DCNN前后對(duì)比
為了對(duì)比不同激活函數(shù)對(duì)本文深度學(xué)習(xí)模型的影響,將激活函數(shù)ReLU、Leaky ReLU、ELUs分別替換到本文所用的深度模型中,其他參數(shù)保持不變,得到的結(jié)果如表4所示。從表4中可以看出,Leaky ReLU在準(zhǔn)確率和損失方面對(duì)比其他兩種激活函數(shù)有較為明顯的優(yōu)勢(shì),所以選擇Leaky ReLU作為本文神經(jīng)網(wǎng)絡(luò)激活函數(shù)。
表4 使用不同激活函數(shù)的準(zhǔn)確率和損失對(duì)比
實(shí)驗(yàn) 2為了進(jìn)一步探究本文所采用的網(wǎng)絡(luò)(簡(jiǎn)稱為CTA)與本文網(wǎng)絡(luò)中所用的TCN的優(yōu)勢(shì),選取了采用相同參數(shù)的時(shí)間卷積網(wǎng)絡(luò)與本文網(wǎng)絡(luò)進(jìn)行對(duì)比;同時(shí),為了進(jìn)一步探究本文所采用的深度學(xué)習(xí)模型對(duì)比常見(jiàn)深度學(xué)習(xí)模型的優(yōu)勢(shì),選擇經(jīng)典的深度學(xué)習(xí)模型AlexNet[29]、VGG19[30]、ResNet18[31]進(jìn)行對(duì)比。5種模型采用相同的數(shù)據(jù)集,得到5種模型在不同信噪比條件下識(shí)別準(zhǔn)確率如圖7所示,5種模型訓(xùn)練所用的時(shí)間、訓(xùn)練輪數(shù)、準(zhǔn)確率和損失如表5 所示。
首先對(duì)比采用相同參數(shù)的時(shí)間卷積網(wǎng)絡(luò)與本文所采用網(wǎng)絡(luò),可以看出,雖然TCN網(wǎng)絡(luò)訓(xùn)練速度稍快,但是,本文所采用的網(wǎng)絡(luò)模型相較TCN網(wǎng)絡(luò)在準(zhǔn)確率上有較為明顯的提升。尤其是當(dāng)信噪比處于-20~-10 dB的時(shí)候,本文所采用的神經(jīng)網(wǎng)絡(luò)模型明顯優(yōu)于TCN網(wǎng)絡(luò),這說(shuō)明在低信噪比情況下,本文所采用的神經(jīng)網(wǎng)絡(luò)模型,能夠更加準(zhǔn)確地識(shí)別出雷達(dá)輻射源信號(hào)。
表5 5種模型訓(xùn)練情況
從圖7中和表5中可以看出,相較于其他3種經(jīng)典模型,本文所采用的神經(jīng)網(wǎng)絡(luò)模型,無(wú)論訓(xùn)練時(shí)間還是準(zhǔn)確率方面都具有明顯優(yōu)勢(shì),這說(shuō)明本文所采用的神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練難度對(duì)比其他3種經(jīng)典網(wǎng)絡(luò)模型較低,更適合應(yīng)用于雷達(dá)輻射源識(shí)別;AlexNet對(duì)比其他幾種模型網(wǎng)絡(luò)精度最低,雖然單輪所花費(fèi)的時(shí)間較短,但是所需要的輪數(shù)較多,因此不適合用于雷達(dá)輻射源識(shí)別;ResNet18和VGG19對(duì)于雷達(dá)輻射源識(shí)別的準(zhǔn)確度基本相似,但VGG19所用時(shí)間明顯低于ResNet18;綜合比較時(shí)間卷積網(wǎng)絡(luò)和常用的經(jīng)典網(wǎng)絡(luò)模型,本文所采用的網(wǎng)絡(luò)模型能夠較好地均衡分類精度和時(shí)間,能夠更加準(zhǔn)確快速地識(shí)別雷達(dá)輻射源信號(hào)。
實(shí)驗(yàn) 3為了探究本文所采用的模型對(duì)不同雷達(dá)輻射源信號(hào)識(shí)別的能力。將本文訓(xùn)練得到的網(wǎng)絡(luò)模型在不同信噪比下對(duì)8種輻射源信號(hào)進(jìn)行識(shí)別??梢缘玫侥P蛯?duì)8種信號(hào)在不同信噪比的識(shí)別情況如下圖8所示。
從圖8中可以看出,當(dāng)信噪比高于-10 dB的時(shí)候,本文所采用的模型對(duì)于8種信號(hào)的識(shí)別基本可以達(dá)到100%,即使信噪比處于-16 dB時(shí),模型對(duì)于8種信號(hào)的識(shí)別精度依舊能達(dá)到90%,能夠基本滿足模型低信噪比下對(duì)于信號(hào)識(shí)別精度的要求;當(dāng)信噪比的值繼續(xù)下降時(shí),模型對(duì)于8種雷達(dá)信號(hào)的識(shí)別精度也會(huì)隨之繼續(xù)降低,當(dāng)信噪比處于-20 dB時(shí),可以看出Costas信號(hào)受到信噪比的影響最大,精度會(huì)降低到55%左右;P3碼受到的影響最小,精度依舊會(huì)保持在77%以上;對(duì)于BPSK和Frank信號(hào)來(lái)說(shuō),當(dāng)信噪比處于-20 dB時(shí),識(shí)別準(zhǔn)確率會(huì)降低到63%左右;對(duì)于其他4種信號(hào)識(shí)別結(jié)果將為均衡,都保持在72%以上。當(dāng)信號(hào)的信噪比較低時(shí),傳入模型中的信息會(huì)包含大量噪聲和干擾,這些噪聲和干擾會(huì)被模型當(dāng)作信號(hào)特征導(dǎo)入模型,所以當(dāng)信噪比較低時(shí)識(shí)別精度會(huì)顯著下降。
8種信號(hào)的整體混淆矩陣如圖9所示。從圖9中可以看出,絕大部分信號(hào)能夠被準(zhǔn)確的分類,能夠明顯看出一條清晰的對(duì)角線。對(duì)于這8種信號(hào),在-20~10 dB信噪比下,平均準(zhǔn)確率均能達(dá)到94.7%以上,能夠做到較為準(zhǔn)確的識(shí)別。從圖9中也可以看出,P3和Frank信號(hào)受噪聲影響相對(duì)較小,BPSK和Costas更容易受到噪聲影響。
本文在TCN的基礎(chǔ)之上,引入改進(jìn)后的1DCNN和注意力機(jī)制,并且通過(guò)改進(jìn)激活函數(shù)等方式進(jìn)一步優(yōu)化神經(jīng)網(wǎng)絡(luò)模型性能。引入注意力機(jī)制,將輻射源信號(hào)依照權(quán)重系數(shù)進(jìn)行篩選,使網(wǎng)絡(luò)更加集中于重要信息,能夠有效提高模型對(duì)于輻射源信號(hào)識(shí)別準(zhǔn)確率;加入一維卷積神經(jīng)網(wǎng)絡(luò)能較明顯加快網(wǎng)絡(luò)訓(xùn)練速度。通過(guò)仿真實(shí)驗(yàn)對(duì)比表明,對(duì)于8種輻射源信號(hào),本文提出的網(wǎng)絡(luò)結(jié)構(gòu)能夠做到快速準(zhǔn)確的識(shí)別,有效地平衡了識(shí)別速度和識(shí)別精度。