陳觀業(yè) 侯 進(jìn) 張 姬
(西南交通大學(xué)信息科學(xué)與技術(shù)學(xué)院 四川 成都 611756)
自動(dòng)調(diào)制識(shí)別是信號(hào)檢測(cè)和解調(diào)之間的重要中間步驟,在各種民用和軍用應(yīng)用中起著關(guān)鍵作用。對(duì)于民用應(yīng)用,它用于頻譜管理、信號(hào)確認(rèn)和干擾識(shí)別;在軍事應(yīng)用中,它用于電子戰(zhàn)、監(jiān)視和威脅分析。目前傳統(tǒng)的調(diào)制識(shí)別有兩個(gè)主要的研究方向:基于最大似然的估計(jì)方法和基于特征工程的方法。文獻(xiàn)[1]提出了一種用于連續(xù)相位調(diào)制的混合最大似然分類器。文獻(xiàn)[2]結(jié)合連續(xù)相位調(diào)制分解和最大期望算法,提出信道參數(shù)可估計(jì)的連續(xù)相位調(diào)制信號(hào)似然函數(shù)方法。然而,最大似然算法同時(shí)有著較高的計(jì)算復(fù)雜度和需要較多先驗(yàn)信息的缺點(diǎn),這成為該類方法應(yīng)用的主要瓶頸?;谔卣鞯恼{(diào)制識(shí)別算法則需要從數(shù)據(jù)中提取信號(hào)的時(shí)域特征或變換域特征,選取合適的分類器來完成信號(hào)的調(diào)制識(shí)別任務(wù)。文獻(xiàn)[3]利用小波域中接收信號(hào)的循環(huán)平穩(wěn)特征、估計(jì)的符號(hào)速率對(duì)接收的信號(hào)特征的直方圖來識(shí)別調(diào)制類型。文獻(xiàn)[4]使用輸入信號(hào)的瞬時(shí)幅度作為特征向量對(duì)不同ASK信號(hào)進(jìn)行分類,并使用8階的高階累積量對(duì)不同PSK信號(hào)進(jìn)行分類。文獻(xiàn)[5]結(jié)合離散小波變換和廣義自回歸條件異方差模型,對(duì)六種不同類型的數(shù)字調(diào)制進(jìn)行識(shí)別。在分類決策中,傳統(tǒng)的分類器包括隨機(jī)森林[6]、多層感知器[7]和支持向量機(jī)[8]等。然而,上述調(diào)制識(shí)別方法很大程度上依賴于人工對(duì)信號(hào)特定特征的提取。
隨著深度學(xué)習(xí)在圖像識(shí)別和語音識(shí)別領(lǐng)域的快速發(fā)展,利用深度學(xué)習(xí)技術(shù)實(shí)現(xiàn)信號(hào)自動(dòng)調(diào)制識(shí)別逐漸受到了重視。深度學(xué)習(xí)具有自動(dòng)提取目標(biāo)特征的優(yōu)點(diǎn),可以直接學(xué)到數(shù)據(jù)的特征,不需要依賴于人為特征提取。O’Shea等[9]提出了一個(gè)用于調(diào)制識(shí)別研究的不同信噪比下11類復(fù)雜調(diào)制信號(hào)的IQ數(shù)據(jù)集,并在文獻(xiàn)[10]中利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)對(duì)該數(shù)據(jù)集進(jìn)行分類,在低信噪比條件下具有更加穩(wěn)定的性能,證明了深度學(xué)習(xí)在調(diào)制識(shí)別領(lǐng)域的可靠性。文獻(xiàn)[11]利用卷積神經(jīng)網(wǎng)絡(luò)ReSENet對(duì)時(shí)頻圖的特征進(jìn)行自動(dòng)提取和調(diào)制識(shí)別。West等[12]得出調(diào)制識(shí)別領(lǐng)域中的深度神經(jīng)網(wǎng)絡(luò)的性能不受網(wǎng)絡(luò)深度的限制,且需要進(jìn)一步發(fā)展改進(jìn)訓(xùn)練方法和網(wǎng)絡(luò)架構(gòu)來提升識(shí)別效果。
本文在研究分析調(diào)制識(shí)別領(lǐng)域深度學(xué)習(xí)模型的基礎(chǔ)上,設(shè)計(jì)一種結(jié)合一維卷積神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短期記憶網(wǎng)絡(luò)(Long Short Term Memory Networks,LSTM)的深度學(xué)習(xí)模型(One-dimensional Convolutional Neural Network and Long Short Term Memory Networks,OCLN)。該方法更加適合對(duì)時(shí)序信號(hào)進(jìn)行調(diào)制識(shí)別,在識(shí)別信號(hào)原始IQ數(shù)據(jù)集上得到了很好的發(fā)揮。針對(duì)調(diào)制信號(hào)QAM16和QAM64難識(shí)別問題,將IQ數(shù)據(jù)轉(zhuǎn)化為瞬時(shí)幅度和相位數(shù)據(jù),并利用OCLN在幅度和相位的AP(Amplitude and Phase)數(shù)據(jù)集上識(shí)別,從而提高了QAM16和QAM64識(shí)別區(qū)分度,也提升了總體的識(shí)別精度。
本文研究的調(diào)制信號(hào)數(shù)據(jù)來源于文獻(xiàn)[10]中生成并公開的RadioML2016.10b數(shù)據(jù)集,其包括了10種調(diào)制信號(hào)類型:8種數(shù)字調(diào)制和2種模擬調(diào)制,包括用于數(shù)字調(diào)制的BPSK、QPSK、8PSK、QAM16、QAM64、BFSK、CPFSK和PAM4,以及用于模擬調(diào)制的WBFM和AM-DSB。整個(gè)數(shù)據(jù)集是在GNU Radio中生成的序列長(zhǎng)度為128的復(fù)雜時(shí)域向量。數(shù)據(jù)集生成的詳細(xì)信息可以在文獻(xiàn)[9]中找到??倶颖緮?shù)為1 200 000,訓(xùn)練示例以2×128個(gè)向量的形式輸入網(wǎng)絡(luò),其中:2表示的是同相I和正交Q;128表示每個(gè)樣本信號(hào)序列長(zhǎng)度為128。IQ向量是原始復(fù)數(shù)樣本到兩組實(shí)值數(shù)據(jù)向量的映射,其中一組攜帶同相樣本,另一組保留正交分量值。輸入數(shù)據(jù)中的標(biāo)簽包括信噪比基本信息和相應(yīng)的10種調(diào)制類型。樣本的信噪比一共有20種,從-20 dB到18 dB均勻分布。
通常來講一個(gè)調(diào)制信號(hào)公式如下:
r(t)=s(t)*c(t)+n(t)
(1)
式中:s(t)是接收信號(hào)的無噪聲復(fù)基帶包絡(luò);n(t)是均值為零的加性高斯白噪聲;c(t)是發(fā)射無線信號(hào)時(shí)變脈沖響應(yīng)渠道;*代表卷積運(yùn)算。為了讓接收信號(hào)r(t)在數(shù)學(xué)運(yùn)算和計(jì)算機(jī)硬件設(shè)計(jì)方面具有更好的適應(yīng)性和簡(jiǎn)便性,通常以IQ格式表示信號(hào)數(shù)據(jù)。
同相分量I表示為:
I=Acos(φ)
(2)
正交分量Q表示為:
Q=Asin(φ)
(3)
式中:A和φ分別為接收信號(hào)r(t)的瞬時(shí)幅度和相位。因此由信號(hào)IQ數(shù)據(jù)通過轉(zhuǎn)換,也能得到信號(hào)的幅度和相位數(shù)據(jù)。其計(jì)算式為:
(4)
(5)
式中:Xφn為相位數(shù)據(jù)的元素;XAn為幅度數(shù)據(jù)的元素;rin為IQ數(shù)據(jù)的同相分量;rqn為IQ數(shù)據(jù)的正交分量值。
將變換后的幅度和相位存儲(chǔ)為AP數(shù)據(jù),格式與IQ數(shù)據(jù)一樣,樣本都是2×128,相應(yīng)的信噪比和調(diào)制類型基本信息也對(duì)應(yīng)地存儲(chǔ)在新的數(shù)據(jù)集上。
在輸入模型訓(xùn)練之前,對(duì)獲得的幅度和相位數(shù)據(jù)使用L2范數(shù)正則化進(jìn)行數(shù)據(jù)預(yù)處理。數(shù)據(jù)正則化將樣本的范數(shù)歸一化,對(duì)于每個(gè)樣本,將樣本范數(shù)縮放成單位范數(shù)。這樣能在計(jì)算點(diǎn)積或其他核函數(shù)的相似度時(shí)對(duì)樣本向量具有統(tǒng)一的標(biāo)準(zhǔn)。向量x(x1,x2,…,xn)的L2范數(shù)定義為:
(6)
L2范數(shù)歸一化就是向量中每個(gè)元素除以向量的范數(shù),歸一化公式表示為:
(7)
通過對(duì)AP數(shù)據(jù)做L2范數(shù)處理,解空間得到了縮小,進(jìn)而控制模型復(fù)雜度,降低結(jié)構(gòu)化風(fēng)險(xiǎn)。對(duì)模型空間實(shí)施了控制,從而避免了模型的過擬合,并在一定程度上提高了模型的泛化能力。
2.1.1卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
目前在調(diào)制信號(hào)IQ數(shù)據(jù)識(shí)別上一般采用卷積神經(jīng)網(wǎng)絡(luò)比較多。而傳統(tǒng)的CNN模型采用3×3或者更小的1×1的卷積核,針對(duì)調(diào)制信號(hào)數(shù)據(jù)和圖像識(shí)別領(lǐng)域的差異,卷積神經(jīng)網(wǎng)絡(luò)模型的卷積核選擇使用了1×3和2×3的卷積核,基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
圖1 卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)
使用這樣的卷積核在更有效地減少模型參數(shù)的同時(shí),使得模型的收斂速度加快和訓(xùn)練時(shí)間縮短,有利于訓(xùn)練效果的提升。在每一層卷積層之前,都加入了零填充(Zero Padding)層,保持邊界信息,避免卷積過后的矩陣變得越來越小,讓更深層的輸入依舊保持有足夠多的信息量。跟傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)卷積層之間周期性地插入池化層相比,調(diào)制識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)模型取消了池化層。雖然池化層會(huì)減小參數(shù)的空間大小,在一定程度上減少了模型過擬合的情況,但是IQ信號(hào)序列的相鄰位置信息對(duì)于調(diào)制類別之間的區(qū)分是很重要的,需要給予必要的關(guān)注。
本文訓(xùn)練模型都使用了早停(Early Stopping)的方法,監(jiān)視模型驗(yàn)證的損失函數(shù)的變化。當(dāng)其在5個(gè)epoch不變時(shí)則停止模型訓(xùn)練,進(jìn)而減少模型過擬合的情況。訓(xùn)練模型時(shí)使用丟棄法(Dropout),在每個(gè)訓(xùn)練批次中,忽略一部分隱藏的神經(jīng)元。本文使用的Dropout層加在卷積層后面,Dropout的取值都是0.5。網(wǎng)絡(luò)同時(shí)加入了批正則化[13](Batch Normalization,BN),這有利于加速神經(jīng)網(wǎng)絡(luò)訓(xùn)練的收斂速度和減少梯度爆炸,同時(shí)也減輕了對(duì)參數(shù)初始化的依賴和允許使用較大的學(xué)習(xí)率,大大地增加模型泛化能力。
2.1.2ResNet網(wǎng)絡(luò)結(jié)構(gòu)
在深度學(xué)習(xí)模型的訓(xùn)練集上,傳統(tǒng)神經(jīng)網(wǎng)絡(luò)并不是越深效果就越好,盲目地增加網(wǎng)絡(luò)的層數(shù)會(huì)導(dǎo)致網(wǎng)絡(luò)模型梯度消失現(xiàn)象。而隨著網(wǎng)絡(luò)層數(shù)越深,訓(xùn)練參數(shù)也會(huì)越多,訓(xùn)練隨之變得更難,網(wǎng)絡(luò)優(yōu)化也會(huì)越來越難。文獻(xiàn)[14]提出的殘差結(jié)構(gòu)能有效地解決這個(gè)問題。殘差模塊如圖2所示。
圖2 基本的殘差網(wǎng)絡(luò)結(jié)構(gòu)
本文在CNN模型卷積層優(yōu)化成殘差模塊,網(wǎng)絡(luò)每層卷積層的卷積核的數(shù)目都為50,模型的其他層選擇維持跟CNN模型一樣。借助ResNet網(wǎng)絡(luò)能夠加深模型深度而不會(huì)梯度消失的優(yōu)勢(shì),分析在加深網(wǎng)絡(luò)深度的同時(shí),模型能否更好地學(xué)習(xí)到更多的參數(shù)特征,對(duì)信號(hào)調(diào)制識(shí)別精度是否有提升。
2.1.3DenseNet網(wǎng)絡(luò)結(jié)構(gòu)
文獻(xiàn)[15]提出DenseNet,相比于ResNet參數(shù)量更少,同時(shí)也緩解了梯度消失的問題,加強(qiáng)了特征傳播和特征復(fù)用,減少了參數(shù)量。DenseNet模塊如圖3所示。
圖3 基本的DenseNet網(wǎng)絡(luò)模塊
該結(jié)構(gòu)每一層的輸入來自前面所有層的輸出。本文DenseNet網(wǎng)絡(luò)卷積層的卷積核數(shù)目分別選擇80和256,模型的其他層也維持跟CNN模型一樣。在全連接層前將各層的輸出權(quán)重疊加在一起作為輸出,再將特征映射到獨(dú)立空間。
遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,RNN)被大量用于從時(shí)間序列數(shù)據(jù)中學(xué)習(xí)持久特征。LSTM是一種特殊的RNN,可以有效地學(xué)習(xí)長(zhǎng)期依賴關(guān)系。
LSTM單元具有內(nèi)部狀態(tài)門Ct、輸入門it、忘記門ft和輸出門ot。這種門控機(jī)制有助于LSTM單元將信息存儲(chǔ)更長(zhǎng)的時(shí)間,從而實(shí)現(xiàn)持久的特征學(xué)習(xí)。計(jì)算公式如下:
it=σ(Wxtxt+Whiht-1+bi)
(8)
ft=σ(Wxfxt+Whfht-1+bf)
(9)
ot=σ(Wxoxt+Whoht-1+bo)
(10)
C-int=(Wxcxt+Whcht-1+bC-in)
(11)
Ct=ft·Ct-1+it·C-int
(12)
ht=ot·tanh(Ct)
(13)
式中:W為權(quán)重;b為偏差。
長(zhǎng)短期記憶的輸入門、遺忘門和輸出門可以控制信息的流動(dòng)。長(zhǎng)短期記憶可以解決循環(huán)神經(jīng)網(wǎng)絡(luò)中的梯度衰減問題,并更好地捕獲時(shí)間序列中時(shí)間步距的依賴性。本文LSTM網(wǎng)絡(luò)中選擇了兩層LSTM模型,輸出維度選擇為64,LSTM后面直接連接展平(Flatten)層,把多維的輸入一維化。之后將一維化的輸入直接傳遞給分類器,不需要借用全連接層來進(jìn)一步映射。
就模型性能而言,CNN擅長(zhǎng)減小頻域方面的變化,LSTM可以提供長(zhǎng)時(shí)間的記憶,所以在時(shí)域上有著廣泛應(yīng)用,而DNN(Deep Neural Networks)則更適合將特征映射到獨(dú)立空間。CLDNN[16]同時(shí)使用卷積結(jié)構(gòu)、循環(huán)結(jié)構(gòu)、全連接結(jié)構(gòu)構(gòu)建神經(jīng)網(wǎng)絡(luò)模型。CLDNN已被廣泛用于涉及時(shí)域信號(hào)的識(shí)別任務(wù),因?yàn)槠涔逃械拇鎯?chǔ)特性可識(shí)別輸入信號(hào)中的時(shí)間相關(guān)性。CLDNN網(wǎng)絡(luò)的通用結(jié)構(gòu)從輸入層輸入時(shí)域相關(guān)的特征,連接若干層CNN來減小頻域變化,CNN的輸出接著若干層LSTM來減小時(shí)域變化,LSTM最后一層的輸出輸入到全連接DNN層,目的是將特征空間映射到更加容易分類的輸出層。
本文在CLDNN網(wǎng)絡(luò)基礎(chǔ)上設(shè)計(jì)OCLN深度學(xué)習(xí)模型來契合AP數(shù)據(jù)的訓(xùn)練,比起常規(guī)的CLDNN模型,OCLN在幅度和相位數(shù)據(jù)上能學(xué)習(xí)到更多的特征,模型識(shí)別性能也更加好。本文設(shè)計(jì)的OCLN模型結(jié)構(gòu)如圖4所示。
圖4 OCLN網(wǎng)絡(luò)模型基礎(chǔ)結(jié)構(gòu)
深度學(xué)習(xí)模型在調(diào)制識(shí)別應(yīng)用中,卷積神經(jīng)網(wǎng)絡(luò)的卷積層一般使用二維卷積(Conv2D),而OCLN模型在卷積神經(jīng)網(wǎng)絡(luò)的卷積層選擇了一維卷積(Conv1D),卷積核數(shù)目為50,卷積核長(zhǎng)度為8。二維卷積是將一個(gè)特征圖在水平和垂直兩個(gè)方向上進(jìn)行窗口滑動(dòng)操作,對(duì)應(yīng)位置進(jìn)行相乘并求和;而一維卷積則是只在水平或者垂直方向上進(jìn)行窗口滑動(dòng)并相乘求和。一維卷積可以在整個(gè)數(shù)據(jù)集的固定長(zhǎng)度段中獲得感興趣的信號(hào)調(diào)制特征,并且該特征在數(shù)據(jù)段中的位置不跟高度相關(guān),相比二維卷積,能更好地用于分析具有固定長(zhǎng)度周期的信號(hào)數(shù)據(jù)。
一維卷積層后使用一維的最大池化層,池化的窗口大小為2,池化步長(zhǎng)為2,這將減少輸出的復(fù)雜度并防止數(shù)據(jù)的過擬合,同時(shí)加入了BN層加速訓(xùn)練和減少梯度爆炸。在循環(huán)卷積網(wǎng)絡(luò)中選擇了3層LSTM網(wǎng)絡(luò),輸出維度都選擇為64。在LSTM層后面也加上Dropout層,其取值為0.5。CLDNN需要借助重塑(Reshape)層來連接CNN模塊和LSTM模塊,而OCLN不需要使用Reshape層就可以使CNN模塊直接連接LSTM模塊,加速了網(wǎng)絡(luò)的訓(xùn)練,這也是選擇一維卷積帶來的一個(gè)優(yōu)勢(shì)。
CLDNN會(huì)在LSTM后使用DNN全連接層,綜合全局信息,把圖像降維成一維序列。全連接層存在參數(shù)冗余,這導(dǎo)致了訓(xùn)練速度的降低和模型容易過擬合。目前越來越多的神經(jīng)網(wǎng)絡(luò)放棄全連接層,使用全局平均池化或者全卷積來代替。卷積層相當(dāng)于局部連接,它根據(jù)卷積核的感受野確定提取的特征范圍。當(dāng)卷積核的感受野覆蓋整個(gè)圖時(shí),其作用類似于全連接層。目前大多數(shù)任務(wù)不需要提取全圖特征,而只需要可以覆蓋目標(biāo)對(duì)象大小的感受野特征即可。全卷積網(wǎng)絡(luò)的情況表明,用卷積層代替全連接層,簡(jiǎn)化網(wǎng)絡(luò)的同時(shí)而不會(huì)造成明顯的性能下降。本文通過一維卷積得到的一維信號(hào)特征,不需要全連接層對(duì)其降維,提取到的特征也足以覆蓋信號(hào)的感受野。OCLN模型去掉了全連接層,最后仍使用Softmax分類器來指導(dǎo)分類過程,也能達(dá)到原來的效果。
本文實(shí)驗(yàn)所使用的硬件配置為:Inter Xeon CPU,48 GB內(nèi)存,NVIDIA GTX 1080Ti 580 3 GB GPU顯卡。軟件運(yùn)行環(huán)境為64位Ubuntu16.04操作系統(tǒng),網(wǎng)絡(luò)模型由Python調(diào)用Keras API編寫,以TensorFlow作為計(jì)算框架并由CUDA8.0加速計(jì)算。數(shù)據(jù)集使用RadioML2016.10b調(diào)制信號(hào)數(shù)據(jù)集,分別以原來IQ信號(hào)格式和轉(zhuǎn)換后的幅度相位信號(hào)格式作為數(shù)據(jù)。本文將1 200 000個(gè)信號(hào)樣本劃分成900 000個(gè)訓(xùn)練樣本和300 000個(gè)測(cè)試樣本,并將劃分的數(shù)據(jù)打亂順序輸入。數(shù)據(jù)的批量大小為1 024,優(yōu)化器使用自適應(yīng)矩估計(jì)(Adam),初始學(xué)習(xí)率設(shè)為0.001。
將信噪比-20 dB到18 dB,信噪比間隔為2的原始IQ信號(hào)輸入到本文的CNN、ResNet、DenseNet、LSTM和專為調(diào)制信號(hào)設(shè)計(jì)的OCLN模型中進(jìn)行訓(xùn)練。不同模型在20種信噪比下的10類調(diào)制信號(hào)識(shí)別準(zhǔn)確率曲線如圖5所示。網(wǎng)絡(luò)模型的各項(xiàng)平均準(zhǔn)確率如表1所示。
(a) 各信噪比下模型的識(shí)別精度曲線
(b) 0 dB以上混淆部分放大后的曲線圖5 IQ數(shù)據(jù)各模型識(shí)別準(zhǔn)確率曲線
表1 基于IQ數(shù)據(jù)的模型平均準(zhǔn)確率(%)
在IQ信號(hào)數(shù)據(jù)中,本文的OCLN在-20 dB到18 dB信噪比下平均準(zhǔn)確率達(dá)到了62.82%,與其他模型相比均是最高。這也說明了OCLN模型在IQ信號(hào)中有著良好的識(shí)別性能。表現(xiàn)最差的網(wǎng)絡(luò)模型ResNet總體平均準(zhǔn)確率只有46.92%,而淺層的CNN模型為56.41%。DenseNet的總體平均準(zhǔn)確率56.24%比CNN稍低,但高于0 dB信噪比的平均準(zhǔn)確率卻比CNN稍高,說明了DenseNet在高信噪比下比CNN識(shí)別性能稍好。這也反映了卷積網(wǎng)絡(luò)中卷積層數(shù)的增加和在其上面的優(yōu)化對(duì)于IQ信號(hào)調(diào)制識(shí)別提升不大。LSTM的效果比卷積神經(jīng)網(wǎng)絡(luò)要好,僅次于OCLN模型,反映了在時(shí)序IQ信號(hào)識(shí)別中LSTM比卷積神經(jīng)網(wǎng)絡(luò)更加具有優(yōu)勢(shì),單純地對(duì)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化并沒達(dá)到理想的結(jié)果,這也是OCLN模型設(shè)計(jì)重心偏向LSTM的原因之一。
在維持信噪比、調(diào)制類別和信號(hào)長(zhǎng)度不變的基礎(chǔ)上,將IQ信號(hào)轉(zhuǎn)換成具有瞬時(shí)幅度和相位信息的數(shù)據(jù),數(shù)據(jù)格式依然為2×128,但這里的2表示瞬時(shí)幅度和瞬時(shí)相位。不同模型在20種信噪比下的10類調(diào)制信號(hào)識(shí)別準(zhǔn)確率如圖6所示。網(wǎng)絡(luò)模型的各項(xiàng)平均準(zhǔn)確率如表2所示。
圖6 AP數(shù)據(jù)各模型識(shí)別準(zhǔn)確率曲線
表2 基于AP數(shù)據(jù)的模型平均準(zhǔn)確率(%)
在瞬時(shí)幅度和相位數(shù)據(jù)集下,對(duì)于所有信噪比平均準(zhǔn)確率和0 dB以上的平均準(zhǔn)確率比較,雖然ResNet性能提升不大,效果仍然比不上淺層的CNN,但是其優(yōu)化版的DenseNet卻分別達(dá)到了59.22%和89.21%,在識(shí)別性能上遠(yuǎn)好于淺層的CNN。這也一定程度上表明了在瞬時(shí)幅度和相位數(shù)據(jù)中,DenseNet具有非常好的抗過擬合性能和對(duì)于卷積網(wǎng)絡(luò)識(shí)別性能利用的提高。值得一提的是LSTM依然具有良好的識(shí)別性能,總體平均準(zhǔn)確率達(dá)到了62.66%。對(duì)比可以看出即使在AP數(shù)據(jù)集下,LSTM對(duì)于時(shí)序信號(hào)的識(shí)別依然好于卷積神經(jīng)網(wǎng)絡(luò)。本文設(shè)計(jì)的OCLN模型表現(xiàn)仍然優(yōu)秀,總體平均準(zhǔn)確率和0 dB以上的平均準(zhǔn)確率分別達(dá)到了64.40%和93.21%,與其他模型相比識(shí)別效果最高。這也表明了融合一維卷積和LSTM優(yōu)點(diǎn)的OCLN在信號(hào)AP數(shù)據(jù)集上識(shí)別的有效性,識(shí)別效果也比其他模型要好。
為了進(jìn)一步驗(yàn)證本文OCLN模型的性能,與其他文獻(xiàn)提出的方法進(jìn)行對(duì)比分析。文獻(xiàn)[12]使用結(jié)合ResNet的CLDNN模型;文獻(xiàn)[17]使用了基本的CLDNN模型;文獻(xiàn)[18]使用基于CNN的多任務(wù)學(xué)習(xí)模型;文獻(xiàn)[19]提出了基于貝葉斯優(yōu)化算法和CNN結(jié)合的模型。表3給出了基于IQ數(shù)據(jù)的本文OCLN方法和其他文獻(xiàn)的各項(xiàng)平均準(zhǔn)確率對(duì)比。
表3 本文OCLN方法與其他文獻(xiàn)的準(zhǔn)確率對(duì)比(%)
對(duì)比文獻(xiàn)都基于原始的IQ數(shù)據(jù),只是各自的模型方法不同。本文OCLN模型的各項(xiàng)指標(biāo)的平均準(zhǔn)確率均最高,說明了本文設(shè)計(jì)的OCLN模型在IQ數(shù)據(jù)上識(shí)別效果要好于其他方法。而且在AP數(shù)據(jù)集上OCLN效果會(huì)更加好,在0 dB以上平均準(zhǔn)確率相比文獻(xiàn)[19]提高了3.4百分點(diǎn)。盡管OCLN模型在0 dB到18 dB的平均準(zhǔn)確率達(dá)到了90.81%,但是OCLN基于IQ數(shù)據(jù)有著與其他文獻(xiàn)方法一樣的通病。圖7為OCLN模型在0 dB信噪比的混淆矩陣。
圖7 OCLN模型在0 dB信噪比的混淆矩陣
可以看出,在QAM16和QAM64之間的識(shí)別還不是很高。WBFM超過一半識(shí)別為AM-DSB,這些在高信噪比條件下也沒有得到很好的改善。這也是總體的平均準(zhǔn)確率不高的原因之一,另一方面信噪比在-6 dB以下低信噪比的識(shí)別效果較差。
通過將調(diào)制信號(hào)的IQ數(shù)據(jù)轉(zhuǎn)化為AP數(shù)據(jù),OCLN模型的識(shí)別準(zhǔn)確率得到了進(jìn)一步的提高。表4給出了OCLN模型在IQ和AP數(shù)據(jù)的各項(xiàng)平均準(zhǔn)確率對(duì)比。
表4 本文OCLN模型在IQ和AP數(shù)據(jù)的平均準(zhǔn)確率(%)
AP數(shù)據(jù)集下各項(xiàng)準(zhǔn)確率指標(biāo)分別提高了1.58百分點(diǎn)、2.40百分點(diǎn)和0.76百分點(diǎn)。雖然總體上提升不夠明顯,但可以進(jìn)一步分析它在兩種不同數(shù)據(jù)集上的混淆矩陣,挖掘基于AP數(shù)據(jù)給OCLN模型調(diào)制識(shí)別帶來的作用。圖8為信噪比為16 dB下AP和IQ數(shù)據(jù)的混淆矩陣。
(a) 基于AP數(shù)據(jù)的混淆矩陣
(b) 基于IQ信號(hào)的混淆矩陣圖8 信噪比在16 dB下OCLN模型的混淆矩陣
除了WBFM信號(hào)外,OCLN模型在高信噪比下瞬時(shí)幅度和相位數(shù)據(jù)有著非常好的識(shí)別效果,OCLN在數(shù)字調(diào)制信號(hào)上識(shí)別準(zhǔn)確率更是超過了99%。相比在IQ信號(hào)識(shí)別效果,OCLN模型在AP數(shù)據(jù)中對(duì)于QAM16和QAM64兩者識(shí)別效果有著顯著提升,對(duì)QAM16和QAM64識(shí)別率分別達(dá)到了98%和99%,相比IQ數(shù)據(jù)下分別提高了13百分點(diǎn)和11百分點(diǎn)。這也表明了轉(zhuǎn)化后AP的數(shù)據(jù)相比IQ數(shù)據(jù)更有助于提高OCLN模型對(duì)于QAM16和QAM64的識(shí)別區(qū)分度,有效地解決了QAM之間的調(diào)制識(shí)別問題。但基于AP數(shù)據(jù)并沒有很好地提高對(duì)WBFM和AM-DSB的辨別效果,只有2百分點(diǎn)的提升,而且還有53%WBFM的樣本被識(shí)別為AM-DSB。
OCLN模型在信噪比不是很高的情況下就達(dá)到了很好的識(shí)別效果。圖9是AP數(shù)據(jù)集信噪比為0 dB時(shí)候的OCLN模型的混淆矩陣。
圖9 OCLN模型在AP數(shù)據(jù)集0 dB時(shí)的混淆矩陣
此時(shí)相對(duì)于IQ數(shù)據(jù)難以區(qū)分的QAM16和QAM64,其識(shí)別率就分別達(dá)到了96%和97%。雖然8PSK識(shí)別率只有87%,WBFM識(shí)別精度也還是有所欠缺,但是從圖6可知0 dB時(shí)準(zhǔn)確率達(dá)到90.43%。對(duì)于模擬調(diào)制信號(hào)AM-DSB和WBFM之間的區(qū)分,WBFM容易被識(shí)別為AM-DSB,雖然在高信噪比16 dB時(shí)準(zhǔn)確率比在0 dB時(shí)提高了約8%,但WBFM依然難識(shí)別,這主要是由于音頻的靜音期所致,調(diào)制信號(hào)是從真實(shí)音頻流中生成的。
本文在OCLN模型全連接層的選擇上進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)使用了AP數(shù)據(jù),有無全連接層的平均準(zhǔn)確率和模型參數(shù)實(shí)驗(yàn)結(jié)果如表5所示。
表5 本文OCLN模型在有無全連接層的比較
添加了全連接層的模型參數(shù)要比無全連接層的要多,訓(xùn)練所用時(shí)長(zhǎng)也相應(yīng)要多。另一方面無全連接層的模型跟添加全連接層的準(zhǔn)確率相差不大,甚至要好一點(diǎn)。在性能和效率平衡的角度上,本文放棄使用了全連接層。
本文先是基于信號(hào)的原始IQ數(shù)據(jù),通過比較一些在自動(dòng)調(diào)制識(shí)別領(lǐng)域經(jīng)常應(yīng)用的深度學(xué)習(xí)模型,選出能提取信號(hào)低維度特征的一維CNN和擅長(zhǎng)于長(zhǎng)時(shí)間的記憶LSTM網(wǎng)絡(luò),將兩者結(jié)合,同時(shí)去掉參數(shù)冗余的全連接層,平衡了模型的性能和效率。與傳統(tǒng)的模型以及改善性能的模型相比,本文的OCLN模型進(jìn)一步提高了調(diào)制信號(hào)的識(shí)別能力。在此基礎(chǔ)上,通過將IQ數(shù)據(jù)轉(zhuǎn)化為信號(hào)的瞬時(shí)幅度和相位數(shù)據(jù),OLCN模型顯著提高了QAM的類間識(shí)別。應(yīng)用于信號(hào)的瞬時(shí)幅度和相位數(shù)據(jù),本文模型在信噪比大于0 dB時(shí)平均準(zhǔn)確率達(dá)到了93.21%,高信噪比條件下數(shù)字調(diào)制信號(hào)識(shí)別率達(dá)到了99%。但該方法依然存在著模擬信號(hào)WBFM和AM-DSB識(shí)別不高的問題,如何進(jìn)一步解決模擬信號(hào)的識(shí)別并提高模型的總體識(shí)別精度,將是下一步研究的方向。