董章華 趙士杰 賴莉
本文針對低截獲概率(Low Probability of Intercept, LPI)雷達信號調(diào)制類型的識別問題提出了一種基于Swin Transformer神經(jīng)網(wǎng)絡的識別方法. 該方法首先用平滑偽Wigner-Ville分布對信號進行時頻變換,將一維時域信號轉(zhuǎn)換為二維時頻圖像,然后使用Swin Transformer神經(jīng)網(wǎng)絡對時頻圖像進行特征提取和調(diào)制類型識別. 仿真結(jié)果顯示該方法具有較強的抗噪聲能力,在低信噪比條件下識別準確率高,且具有較強的小樣本適應能力.
低截獲概率雷達; Swin Transformer神經(jīng)網(wǎng)絡; 平滑偽Wigner-Ville分布; 調(diào)制類型識別
O29A2023.021004
收稿日期: 2022-05-11
基金項目: 國家重點研發(fā)計劃(2020YFA0714000)
作者簡介: 董章華(1996-), 男, 四川成都人, 碩士研究生, 主要研究方向為智能系統(tǒng)和數(shù)學信息技術(shù). E-mail: mathpix01@163.com
通訊作者: 賴莉. laili@scu.edu.cn
A radar signal modulation type recognition method based on Swin Transformer neural network
DONG Zhang-Hua, ZHAO Shi-Jie, LAI Li
(School of Mathematics,? Sichuan University,? Chengdu 610064,? China)
In this paper, based on the Swin Transformer neural network we propose a method for the recognition of modulation type of Low Probability of Intercept (LPI) radar signal. We firstly perform the time-frequency transformation, say, transform the one-dimensional time-domain radar signal into a two-dimensional time-frequency image by using the smooth pseudo Wigner-Ville Distribution (WVD). We then use the Swin Transformer network to extract the desired feature from the image and identify the modulation type. Numerical simulation shows that this method possesses strong anti-noise ability and high recognition accuracy even under the condition of low signal-to-noise ratio. Meanwhile, it is also shown that this method has strong adaptability to small samples.
LPI radar; Swin Transformer neural network; Smooth pseudo WVD; Radar signal modulation type recognition
1 引 言
近年來,隨著低截獲概率(Low Probability of Intercept, LPI)雷達技術(shù)的發(fā)展,傳統(tǒng)的雷達輻射源識別方法的識別準確率大大降低. 鑒于LPI雷達輻射源的有效識別基于雷達信號的調(diào)制類型的識別,如何提高LPI雷達信號的調(diào)制類型的識別率就成為提高對于LPI雷達的偵察能力的關(guān)鍵問題. 對此問題,國內(nèi)外學者開展了大量研究,取得了豐碩成果, 如張等提出的基于熵特征和信息維數(shù)等的調(diào)制類型識別算法[1-3]及文獻[4-9]基于時頻分析方法進行的信號調(diào)制類型的識別,等. 在中等信噪比條件下(高于4 dB),這些算法有較好的識別效果. 同時,在信噪比高于0 dB的條件下,這些算法也能在小樣本(訓練集大小為200)條件下取得較好的識別效果.
近年來,隨著深度學習方法在圖像處理中的廣泛應用, 將時頻變換后獲得的LPI雷達時頻圖像(Time-Frequency Image,TFI)與深度學習算法相結(jié)合的研究成果越來越多. 例如,基于卷積神經(jīng)網(wǎng)絡(CNN)的深層次自動特征提取能力[10],文獻[11]將其應用于信號的時頻圖像,在信噪比為-2 dB時識別率接近94%. 文獻[12]將去噪后的雷達信號的時頻圖像輸入Alex Net卷積神經(jīng)網(wǎng)絡進行調(diào)制類型識別,在信噪比為-6 dB時識別率達到90%以上. 文獻[13]則提出了一種基于Choi-Williams分布(CWD)和深度卷積神經(jīng)網(wǎng)絡遷移學習的調(diào)制類型識別方法. 此外,文獻[14]通過兩個獨立網(wǎng)絡(卷積神經(jīng)網(wǎng)絡(CNN)和Elman神經(jīng)網(wǎng)絡(ENN))來處理時頻圖像的特征提取問題. 文獻[15]通過卷積神經(jīng)網(wǎng)絡完成去噪,用Inception-V4網(wǎng)絡進行特征提取,在數(shù)據(jù)量為200時識別率接近90%,未去噪時識別率則約為75%. 文獻[16]評估了AlexNet和GoogleNet在不同數(shù)據(jù)集上的識別精度. 文獻[17]采用ResNet解決了CNN中梯度消失的問題. 文獻[18]提出了一種基于CNN的分層調(diào)制類型分類器,其中的兩個CNN分別基于低階特征和高階特征進行識別. 以上這些方法多基于卷積神經(jīng)網(wǎng)絡,需要對雷達時頻圖像進行較為繁瑣的預處理. 在低信噪比條件下,這些方法必須進行去噪預處理,效率低、識別率不高.
不同于常見的卷積神經(jīng)網(wǎng)絡,本文將時頻分析與深度學習相結(jié)合,用一種基于Swim Transformer的神經(jīng)網(wǎng)絡來提取時頻圖像的特征,然后用Softmax分類器來完成LPI雷達信號調(diào)制類型的識別. 對5種LPI雷達信號調(diào)制類型(BFSK、BPSK、Costas、LFM、QPSK)的仿真識別結(jié)果顯示,在不同噪聲條件、不同訓練集大小條件下,該方法都具有較強的抗噪聲能力和小樣本適應性.
2 雷達信號轉(zhuǎn)換
雷達信號x(t)=Aejφ(t)+n(t)是一種非平穩(wěn)信號.單一的時域分析或頻率分析并不能有效表征信號頻率的時間變化.這里的n(t)為噪聲. 另一方面,時頻聯(lián)合分析方法作為處理非平穩(wěn)信號的基本方法, 可以直觀地刻畫信號的時域與頻域的聯(lián)合特征.典型的非線性時頻分析方法主要有Wigner-Ville分布,Cohen類分布,Affine類分布等. 其中,Wigner-Ville分布(WVD)是信號瞬時自相關(guān)函數(shù)的傅立葉變換,具有許多優(yōu)良性能,如對稱性、時移性、組合性、復共軛關(guān)系等,且不會損失信號的幅值與相位信息,對瞬時頻率和群延時敏感.
盡管WVD在信號可視化和波形識別[19]等領域有諸多應用, 但其抑制交叉項干擾的效果卻較差. 為解決這個問題,我們引入如下的平滑偽Wigner-Ville分布.
SPWx(t,v)=∫+∞-∞∫+∞-∞x(t-u+τ/2)x*·
(t+u-τ/2)g(u)h(τ)e-j2πvtdτdu(1)
其中,g(u),h(τ)為窗函數(shù),用于分別實現(xiàn)時域和頻域的平滑濾波. 圖1給出了分別經(jīng)BFSK、BPSK、Costas、LFM和QPSK這5種調(diào)制方式處理之后的雷達信號經(jīng)平滑偽Wigner-Ville分布變換后得到的TFI圖像. 可以看到,經(jīng)過平滑偽Wigner-Ville分布變換,TFI圖像展示了信號調(diào)制周期與帶寬特征. 后續(xù)我們將通過對TFI圖像的特征提取來識別雷達信號的調(diào)制類型.
3 基于Swin Transformer神經(jīng)網(wǎng)絡的雷達信號調(diào)制類型識別
基于注意力機制的Transformer方法是自然語言處理領域的主流[20]. 在圖像處理領域,Transformer方法可以通過注意力機制來捕獲全局信息,對目標建立遠距離依賴,進而提取出更強有力的特征. 進一步,Swin Transformer神經(jīng)網(wǎng)絡結(jié)合了CNN的層次化結(jié)構(gòu)和Transformer模型的注意力機制優(yōu)勢[21],可以更好地識別雷達信號的調(diào)制類型. 圖2給出了基于Swin Transformer神經(jīng)網(wǎng)絡的信號調(diào)制類型識別方法. 該方法主要由4個部分構(gòu)成:圖像預處理與分割,Swin Transformer模塊,池化層及Softmax分類器.
首先,我們通過圖像分割模塊將輸入的時頻圖像(寬度為W,高度為H)分割為非重疊的小尺寸子圖,其特征被設置為原始時頻圖像像素RGB值. 在Swin Transformer中,我們使用4×4的子圖大小,原始圖像分割為(H/4)×(W/4)個子圖,每個子圖的特征維數(shù)為4×4×3=48. Swin Transformer神經(jīng)網(wǎng)絡的特征提取過程一共分為4個階段.
(i) 在原始特征上應用線性嵌入層,將其投影到任意維度(如C-維度),然后將上述子圖輸入Swin Transformer模塊進行特征提取. 為了產(chǎn)生多尺度的特征表示,隨著網(wǎng)絡的深入,我們通過圖像合并來減少子圖總數(shù)量.
(ii) 先融合每組2×2個相鄰子圖特征,在融合后的4C-維度特征上應用線性嵌入層,子圖總數(shù)量減少了2×2=4倍,輸出維度為2C. 然后輸入Swin Transformer模塊進行特征提取,分辨率為(H/8)×(W/8).
(iii) 重復上述過程. 這個階段包含3個相連的Swin Transformer模塊,輸出分辨率分別為(H/16)×(W/16)和(H/32)×(W/32).
(iv) 重復上述過程.
Swin Transformer模塊將原始Transformer模塊中的MSA(Multi-head Self Attention)模塊替換為W-MSA(Windows Multi-head Self Attention)和SW-MSA(Shifted Windows Multi-head Self Attention). 其中,W-MSA引入了窗,可使得計算量由平方增長降為線性增長. 但是,由于缺乏跨窗口特征提取,其對建模能力有一定限制. 此外,SW-MSA在保持非重疊窗口高效計算的同時引入了跨窗口連接. 圖3給出了Swin Transformer模塊的工作流程[21],其中MLP是以
GELU(x)=0.5x(1+tanh(2/π(x+ 0.044715x3)))
為激活函數(shù)的包含兩層的多層感知機(Multilayer Perceptron),且在W-MSA、SW-MSA和MLP之前使用層標準化LN(Layer Norm),在每個模塊之后使用殘差連接,計算格式如下.
l=W-MSALNzl-1+zl-1,zl=MLPLNl+l,l+1=SW-MSALNzl+zl,zl+1=MLPLNl+1+l+1 (2)
其中,l和zl分別表示l層的W-MSA(或SW-MSA)模塊和MLP模塊的輸出特征.
圖4給出了W-MSA和SW-MSA工作原理[21]. 如圖4a所示,在第l層,W-MSA從左上角像素開始進行常規(guī)窗口分割,將8×8特征圖均勻地分割為大小為4×4(M=4)的2×2個窗口,并在每個窗口應用注意力機制. 在接下來的第l+1層,W-MSA則改變窗口分割方式,如圖4b所示. SW-MSA按圖4c所示方法置換(M/2,M/2)像素生成新的特征圖,再將置換過的8×8特征圖均勻地分割為大小為4×4(M=4)的2×2個窗口,并在新窗口應用注意力機制. 通過窗口的置換與重新分割,SW-MSA在保持非重疊窗口高效計算的同時引入了跨窗口連接.
在經(jīng)過4個階段的Swin Transformer模塊的計算后,我們在輸出特征上使用全局平均池化層,最后使用Softmax分類器實現(xiàn)雷達信號調(diào)制方式分類.
4 仿真與分析
4.1 數(shù)據(jù)集生成
針對前述5種調(diào)制方式,我們將信號參數(shù)的采用范圍隨機化,具體參數(shù)值如表1所示. 我們在雷達信號中加入高斯白噪聲,在-12~8 dB的信噪比范圍內(nèi)以2 dB為步長,每一信噪比、每一調(diào)制方式生成600組數(shù)據(jù)(共計33 000組數(shù)據(jù)),其中80%用于訓練,20%用于測試.
4.2 識別效果分析
為了驗證Swin Transformer識別方法的有效性,我們將其與KNN、SVM、樸素貝葉斯和決策樹等4種算法的識別結(jié)果進行比較. KNN可解釋性強,不需要訓練模型,可以直接使用數(shù)據(jù)進行分類,但預測速度慢、準確性差. 樸素貝葉斯同樣可解釋性強,可以高效處理高維數(shù)據(jù),但其缺點是可能忽略雷達信號特征間的依賴關(guān)系. 決策樹可讀性強、
訓練速度快,但易出現(xiàn)過擬合問題. SVM的訓練速度快、泛化錯誤率低,但對參數(shù)和核函數(shù)的敏感性強. SVM和決策樹都是具有堅實理論基礎且具有較好魯棒性的算法,因此具有較高的可比性.
混淆矩陣常用于在機器學習中總結(jié)分類模型預測結(jié)果. 我們以矩陣形式將數(shù)據(jù)集中的記錄按照真實類別與分類模型預測類別判斷這兩個標準進行匯總. 圖5展示了信號在信噪比為-10 dB時采用Swin Transformer神經(jīng)網(wǎng)絡的識別混淆矩陣及其他4種機器學習算法的識別混淆矩陣(圖中識別準確率均保留兩位小數(shù)). 其中,矩陣的行表示真實標簽,列表示預測標簽,矩陣的元素則表示對應真實標簽的各預測標簽所占比例,對角線上的值即為識別準確率. 可以看到,針對5種LPI雷達信號調(diào)制類型,使用Swin Transformer進行特征提取并分類的效果均明顯優(yōu)于其他4種算法. 例如,從圖5a可以看到,Swin Transformer神經(jīng)網(wǎng)絡對BFSK、BPSK、Costas、QPSK 這4種調(diào)制類型識別準確率不低于93%,對LFM雖有一定的識別錯誤概率,但仍明顯優(yōu)于其它4種識別算法,在-10 dB信噪比下整體識別率可以達到90%以上.
4.3 抗噪聲效果分析
圖6展示了5種識別方法在不同信噪比下對5種LPI雷達信號調(diào)制類型的識別準確率. 可以看到,基于Swin Transformer方法在信噪比較低時仍有較為理想的識別準確率,整體上優(yōu)于其他4種方法. 值得注意的是,不同的信噪比也會對結(jié)果產(chǎn)生影響,如LFM信號當信噪比較低時(-12 dB,-10 dB)Swin Transformer方法和其他4個識別算法一樣準確率較低. 但是,隨著信噪比的提高,前者的識別準確率快速提升. 在信噪比為-8~2 dB范圍內(nèi),其識別的準確率顯著高于其他4種方法.
4.4 魯棒性分析
為了進一步驗證不同識別方法的魯棒性,我們選擇信噪比為-10 dB的樣本進行測試,訓練集數(shù)量分別為200,400,600. 圖7給出了5種方法在不同訓練集大小下的識別準確率. 可以看到,隨數(shù)據(jù)量的增加,所有方法的識別率都呈上升趨勢,而Swin Transformer神經(jīng)網(wǎng)絡方法在不同數(shù)據(jù)量下的識別率均為最優(yōu),說明該方法對小樣本具有較強的適應性. 當訓練集每類數(shù)據(jù)量僅為200時,Swin Transformer方法的識別率約為83.5%,而當訓練集大小為600時,其識別率則增至92.8%.
5 結(jié) 論
本文針對低截獲概率雷達信號調(diào)制類型的識別問題提出一種基于Swin Transformer神經(jīng)網(wǎng)絡的識別方法. 該方法采用平滑偽Wigner-Ville分布對信號進行時頻變換,得到一個二維時頻圖像,然后通過Swin Transformer神經(jīng)網(wǎng)絡對時頻圖像進行特征提取,最后再通過Softmax分類器實現(xiàn)調(diào)制類型識別. 通過仿真實驗,我們對比分析了該方法與其它4種常見算法的識別率差異. 結(jié)果顯示,基于Swin Transformer神經(jīng)網(wǎng)絡的識別方法具有較強的抗噪聲能力,在低信噪比條件下對5種雷達信號(BFSK、BPSK、Costas、LFM、QPSK)有整體上不低于90%的識別準確率. 此外,該方法還具有較強的小樣本適應能力,在訓練樣本數(shù)量較少的情況下仍可實現(xiàn)較高的識別準確率.
本文提出的方法有效地實現(xiàn)了LPI雷達信號的調(diào)制類型的識別,可以為有效檢測、跟蹤和定位雷達信號源提供基礎,因而具有重要的潛在應用價值.
參考文獻:
[1] 張葛祥, 胡來招, 金煒東. 雷達輻射源信號脈內(nèi)特征分析[J]. 紅外與毫米波學報, 2004, 23: 477.
[2] 張葛祥, 胡來招, 金煒東. 基于熵特征的雷達輻射源信號識別[J]. 電波科學學報, 2005, 20: 440.
[3] Zhang G, Rong H, Jin W, et al. Radar emitter signal recognition based on resemblance coefficient features [C]//International Conference on Rough Sets and Current Trends in Computing. Berlin/ Heidelberg: Springer, 2004.
[4] Cohen L. Time-frequency analysis theory and applications [M]. New Jersey: Prentice Hall, 1995.
[5] 朱振波, 王玉生, 何明浩. 基于近似小波變換的信號脈內(nèi)特征分析[J]. 空軍雷達學院學報, 2002, 16: 8.
[6] Gao J, Dong X, Wang W B, et al. Instantaneous parameters extraction via wavelet transform [J]. IEEE T Geosci Remot, 1999, 37: 867.
[7] 郁春來, 萬建偉, 徐如海, 等. 改進小波脊線法算法分析和仿真[J]. 現(xiàn)代雷達, 2005, 27: 46.
[8] Lopez-Risueno G, Grajal J, Yeste-Ojeda O. Atomic decomposition-based radar complex signal interception [J]. IEEE P-Radar Son Nav, 2003, 150: 323.
[9] 柳征, 姜文利, 周一宇. 基于小波包變換的輻射源信號識別[J]. 信號處理, 2005, 21: 460.
[10] 彭朝霞, 蒲亦非. 基于分數(shù)階微分的卷積神經(jīng)網(wǎng)絡的人臉識別[J]. 四川大學學報: 自然科學版, 2022, 59: 012001.
[11] Zhang M, Diao M, Guo L. Convolutional neural networks for automatic cognitive radio waveform recognition [J]. IEEE Access, 2017, 5: 11074.
[12] 郭立民, 陳鑫, 陳濤. 基于AlexNet模型的雷達信號調(diào)制類型識別[J]. 吉林大學學報: 工學版,? 2019, 49: 1000.
[13] Guo Q, Yu X, Ruan G. LPI radar waveform recognition based on deep convolutional neural network transfer learning [J]. Symmetry, 2019, 11: 540.
[14] Zhang M, Diao M, Gao L, et al. Neural networks for radar waveform recognition [J]. Symmetry, 2017, 9: 75.
[15] 肖易寒, 王亮, 郭玉霞. 基于去噪卷積神經(jīng)網(wǎng)絡的雷達信號調(diào)制類型識別[J]. 電子與信息學報, 2021, 43: 8.
[16] Peng S, Jiang H, Wang H, et al. Modulation classification based on signal constellation diagrams and deep learning [J]. IEEE T Neur Net Lear, 2018, 30: 718.
[17] Qin X, Zha X, Huang J, et al. Radar waveform recognition based on deep residual network [C]//2019 IEEE 8th Joint International Information Technology and Artificial Intelligence Conference (ITAIC). Piscataway: IEEE, 2019.
[18] Wang Y, Liu M, Yang J, et al. Data-driven deep learning for automatic modulation recognition in cognitive radios [J]. IEEE T Veh Tech, 2019, 68: 4074.
[19] Wu Y, Li X, Wang Y. Extraction and classification of acoustic scattering from underwater target based on Wigner-Ville distribution [J]. Appl Acous, 2018, 138: 52.
[20] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need [J]. Proc Adv Neur Inf Process Syst, 2017, 2017: 30.
[21] Liu Z, Lin Y, Cao Y, et al. Swin Transformer: hierarchical vision transformer using shifted windows [C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE, 2021.