李泊含, 劉蕓江, 李艷福
(空軍工程大學信息與導航學院,西安 710000)
隨著現(xiàn)代戰(zhàn)爭手段日益更新變革,不斷演化交替,2015年12月,美軍發(fā)布了名為《決勝電磁波:重拾美國電磁頻譜領(lǐng)域主宰地位》的研究報告,闡述了“低-零功率”電磁頻譜戰(zhàn)概念[1],在這之后,又不斷提出新概念,使得電磁頻譜在現(xiàn)代戰(zhàn)爭中成為繼陸、海、空、天、網(wǎng)絡(luò)(賽博)之后的第6個作戰(zhàn)域[2]。電磁頻譜資源是稀缺的自然資源,在軍民政共用的大環(huán)境下,電磁頻譜的高效管理和有效利用成為了研究熱點,而無線通信信號的調(diào)制識別和分類對于提高頻譜效率和解決頻譜短缺問題均有著重要意義[3]。在非協(xié)作通信中,發(fā)送端的信號相關(guān)信息,譬如調(diào)制方式等是未知的,因此長時間以來相關(guān)領(lǐng)域科研人員都在研究如何處理該類信號。
自動調(diào)制識別(Automatic Modulation Recognition,AMR)是對接收信號解調(diào)前的一個處理過程[4],能夠有效處理非協(xié)作通信中所接收到的信號,對信號的調(diào)制類型進行分類,方便后續(xù)的解調(diào)工作。調(diào)制識別經(jīng)歷了從人工識別到自動識別[5]的發(fā)展歷程,之后發(fā)展出了基于假設(shè)檢驗的最大似然(Likelihood Based,LB)和基于特征提取(Featured Based,F(xiàn)B)的兩種識別方法[6]。其中,基于FB的識別方法由于所需先驗知識較少,因此計算量較小,從而得到了廣泛的研究和發(fā)展。而隨著人工智能(Artificial Intelligence,AI),機器學習(Machine Learning,ML)以及深度學習(Deep Learning,DL)等技術(shù)的出現(xiàn),相關(guān)研究人員將神經(jīng)網(wǎng)絡(luò)技術(shù)運用到了信號的調(diào)制識別方法中。
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)作為一種深層的包含卷積計算的前饋神經(jīng)網(wǎng)絡(luò),是一種熱門且流行的DL方法。時延神經(jīng)網(wǎng)絡(luò)(Time Delay Neural Network,TDNN)[7]于1989年被提出,這是第一種出現(xiàn)的卷積神經(jīng)網(wǎng)絡(luò),它由兩個隱含層構(gòu)成,能夠提取到語音特征并發(fā)現(xiàn)其與時間之間的關(guān)系。在這之后,CNN的優(yōu)良性能和泛化性能使得這種技術(shù)得到快速發(fā)展,并被廣泛應(yīng)用于語音處理、圖像處理以及信號處理等多個領(lǐng)域。早期,很多研究人員都采取直接將基帶信號送入神經(jīng)網(wǎng)絡(luò)中進行訓練識別[8-9]。PENG等[10]介紹了一種將信號轉(zhuǎn)換為星座圖并進行CNN訓練的方法,通過仿真對8種信號進行了測試,實驗證明,此方法能夠?qū)π盘栒{(diào)制方式進行有效識別;WANG等[11]結(jié)合了在不同數(shù)據(jù)集上訓練的兩個CNN。除了星座圖之外,還使用相位和正交樣本,在低信噪比的正交振幅調(diào)制(QAM)信號分類中獲得更好的結(jié)果。但是前人的研究方法在不同的場景條件下還存在一些問題,例如,對于數(shù)字調(diào)制信號與模擬調(diào)制信號的混合信號樣本識別率低、網(wǎng)絡(luò)模型泛化性能差以及提取特征能力較差等問題亟待解決。
根據(jù)上述思路,本文在原有CNN的基礎(chǔ)上融入多尺度金字塔池化(Multi-Scale Pyramid Pooling,MSPP)提出MSPP-CNN算法。首先,根據(jù)真實的通信環(huán)境生成BPSK,QPSK,8PSK,16QAM,64QAM等11種不同的數(shù)字和模擬信號樣本。然后,結(jié)合多尺度金字塔池化(Multi-scale Pyramid Pooling,MSPP)進行MSPP-CNN網(wǎng)絡(luò)模型的優(yōu)化與設(shè)計,并對網(wǎng)絡(luò)模型進行不同信噪比條件下的自動調(diào)制識別訓練、測試。最后,通過仿真與其他傳統(tǒng)特征提取算法以及CNN算法的識別準確率做對比,驗證本文算法相較于其他算法具有更優(yōu)性能。
目前,許多AMR算法被提出用于協(xié)助動態(tài)頻譜接入和智能頻譜管理,這些算法主要分為LB和FB兩大類。其中,F(xiàn)B類的算法可與機器學習或深度學習結(jié)合起來,圖1為傳統(tǒng)基于特征的AMR流程圖。
圖1 基于特征的AMR流程圖Fig.1 Flow chart of FB-based AMR
首先將接收到的已調(diào)信號輸入,對其進行特征提取,隨后,將提取出的特征代入所用分類器,如SVM[12]和KNN[13]等中進行訓練、測試,最終,識別出其調(diào)制方式,再輸出對其進行相應(yīng)的解調(diào)處理。
然而,人工選擇信號特征是一個繁瑣的過程,為了解決這個問題,一些基于深度學習(DL)的AMR算法[14-15]被提出。與傳統(tǒng)的基于特征的算法相比,深度學習能夠自動提取特征并得到更好的性能。圖2所示為基于DL的AMR流程圖。
圖2 基于DL的AMR流程圖Fig.2 Flow chart of DL-based AMR
圖2所示算法對信號進行數(shù)據(jù)轉(zhuǎn)換和重構(gòu)等預處理,然后通過深度學習方法對數(shù)據(jù)進行訓練和學習,再進行測試,從而識別出信號的調(diào)制方式。
深度學習方法中的卷積神經(jīng)網(wǎng)絡(luò)由于具有從高維非結(jié)構(gòu)化數(shù)據(jù)中提取代表性特征的良好能力而被廣泛應(yīng)用于AMR方法。調(diào)制分類的性能一般由識別準確率(Precision)來衡量,其算式為
(1)
式中:TP為真陽性(預測為正,實際為正);TN為真陰性;FP為假陽性;FN為假陰性。同時,調(diào)制識別的詳細結(jié)果可以用機器學習領(lǐng)域的混淆矩陣來表示。
CNN一般由卷積層和池化層兩部分組成。其中,卷積層又由卷積核、濾波器和特征圖組成,卷積核是二維的矩陣,具有加權(quán)輸入,并像神經(jīng)元一樣生成輸出;濾波器則是由多個卷積核組成的三維矩陣,多出的一維是通道;特征圖是應(yīng)用于前一層的一個濾波器的輸出。池化層對前一層的特征圖進行下采樣,通過遵循一系列卷積層來鞏固先前特征圖中的學習特征。故池化也可以被認為是一種壓縮和泛化特征表示的技術(shù),從而普遍減少模型過擬合現(xiàn)象。
CNN中每一層輸出的特征圖上的像素點在原圖像上映射的區(qū)域大小被稱為感受野,因為每個神經(jīng)元只感受局部的圖像區(qū)域,在更高層再將這些感受不同局部的神經(jīng)元綜合起來,從而得到全局信息。通過這種方式減少連接的數(shù)目,即減少了神經(jīng)網(wǎng)絡(luò)需要訓練的權(quán)值參數(shù)的數(shù)量,亦被稱為權(quán)值共享。以上兩點使得CNN在訓練大數(shù)據(jù)集、提取特征效率上,相比其他神經(jīng)網(wǎng)絡(luò)具有更多的優(yōu)勢。
在卷積神經(jīng)網(wǎng)絡(luò)中加入激活函數(shù)后,信號的表示變成非線性形式。一階、二階統(tǒng)計量不能夠完備地表示出信號的統(tǒng)計特征,即信息沒有全部包含在一、二階統(tǒng)計量中,更高階的統(tǒng)計量中也包含了大量有用的信息。而信號的高階累積量就是高階統(tǒng)計量中的一個主要統(tǒng)計量,本文對比的特征提取算法使用高階累積量作為樣本特征,k階累積量ckx(τ1,τ2,…,τk-1)的定義為
ckx(τ1,τ2,…,τk-1)=
cum(x(n),x(n+τ1),…,x(n+τk-1))
(2)
式中:x(n)為信號;cum(·)為累積函數(shù)。由此可得p階混合矩的概念,即
Mpq=E[x(n)p-qx*(n)q]
(3)
式中:*表示共軛;q為不超過p/2的整數(shù)。由式(2)可得到各階累積量定義為
(4)
本文設(shè)計了一種使用多尺度金字塔池化網(wǎng)絡(luò)的深度CNN模型來進行調(diào)制信號識別,網(wǎng)絡(luò)的深化可以對輸入特征抽象的層次更深入,對其理解的準確度相對來說也就更深。而為了更好地適應(yīng)深度的卷積神經(jīng)網(wǎng)絡(luò),同時,也為了得到更多的非線性因素,本文在傳統(tǒng)CNN模型的基礎(chǔ)上加入了批量歸一化層,并應(yīng)用了一種多尺度金字塔池化網(wǎng)絡(luò)。如圖3所示。
圖3 MSPP-CNN網(wǎng)絡(luò)模型圖Fig.3 MSPP-CNN network model
本文設(shè)計的模型由6個卷積層和1個全連接層組成,其中,除了最后一個卷積層外,每個卷積層后都有一個批量歸一化層、激活層和池化層。前5個卷積層使用校正線性單元(ReLU)激活函數(shù)和金字塔池化層處理樣本,在最后一個卷積層中,用平均池化層替代金字塔池化層來保留經(jīng)多次篩選過的信息特征。輸出使用軟最大輸出函數(shù)(Softmax)作為激活函數(shù)。算法流程如圖4所示。
圖4 MSPP-CNN算法流程圖Fig.4 Flow chart of MSPP-CNN algorithm
1≤i≤M-m+1,1≤j≤N-n+1。
(5)
同時,為了不丟失輸入圖像邊緣的許多重要信息,在進行卷積操作前,先采用SAME填充方式在圖像周圍填充像素點,降低信息的丟失率,對于一幅圖像大小為n×n且過濾器尺寸為f×f的SAME運算為
[(n+2p)×(n+2p)]×(f×f)→
(n+2p-f+1)×(n+2p-f+1)
(6)
式中,p=(f-1)/2。
對信號進行卷積運算后,再進行池化處理。池化又稱為下采樣,是一種對特征進行降維從而減少參數(shù)、提升計算速度的方法,池化分為平均池化與最大池化:最大池化能夠盡可能多地篩選出有用的信息特征;平均池化能夠保留已篩選的有用信息。當對一個矩陣D進行下采樣時,先對其分塊,一般的分塊操作是不重疊的,其中,第ij個塊可以表示為
(7)
(8)
(9)
同時,本文采用的ReLU和Softmax兩個激活函數(shù)分別為
ReLU(x)=max(0,x)
(10)
(11)
多尺度金字塔池化(MSPP)是根據(jù)空間金字塔池化網(wǎng)絡(luò)(Spatial Pyramid Pooling Networks,SPP-Net)[16]結(jié)合信號調(diào)制識別的特點提出的一種池化技術(shù)。SPP-Net被用于提取非固定尺寸圖片特征的卷積神經(jīng)網(wǎng)絡(luò),使網(wǎng)絡(luò)可輸入任意圖片,并生成固定大小的輸出。與傳統(tǒng)CNN網(wǎng)絡(luò)不同,SPP-Net不需要對圖像進行剪裁或者包裹處理,而是可以直接對輸入的任意大小的圖像進行處理。對于信號而言,使用一種并行的金字塔池化,即多尺度金字塔池化對輸入進行并行處理,能夠賦予網(wǎng)絡(luò)更強的特征表達和泛化性能。
假設(shè)輸入數(shù)據(jù)大小為(c,hin,win),分別表示通道數(shù)、高度和寬度,池化塊大小為n×n,則核(Kernel)大小、步長(Stride)大小分別為
9日深夜,一些示威者開始強行占領(lǐng)郵電大樓;一些人前往火車站朝開往莫斯科的特快列車扔石頭,打砸車窗玻璃,叫嚷“俄國狗……”;還有一些人則動用刀子、石塊、皮帶對付執(zhí)勤警察,甚至搶奪其武器。赫魯曉夫獲悉事態(tài)近乎失控后終于明白:“不動武是不行的?!薄安豢梢詫@種狂熱聽之任之?!盵5](P163-164)于是,他命令坦克、摩托化步兵和內(nèi)務(wù)部隊進入第比利斯市區(qū)。隨后,軍方動用坦克驅(qū)散了主要街道和列寧廣場上的人群。一些人負隅頑抗,結(jié)果遭到了鎮(zhèn)壓。據(jù)不完全統(tǒng)計,“至少有20名示威者被打死,60人受傷,被捕入獄的人更多?!盵9](P298-299)
(12)
(13)
其中:「·,·?為向上取整符號;?·,·」為向下取整符號。則
(14)
可以驗證得到,池化后的矩陣大小即為(n,n)。
根據(jù)本文設(shè)計的MSPP-CNN各層結(jié)構(gòu)以及步驟,對卷積層、池化層和歸一化層進行具體分析。本文模型與傳統(tǒng)CNN不同,由于具有一定深度,為了輸入、輸出的計算方便,特別加入了BN層,即批量歸一化層。輸入層輸入的樣本大小為1024×1×1,其中,1024為每幀的樣本數(shù),網(wǎng)絡(luò)深度定為1。根據(jù)輸入的樣本類型和特點,設(shè)定每一個卷積層的卷積核尺寸為1×8,步長為1,使用SAME填充方式進行填充,1~6層的金字塔池化層大小分別為16,24,32,48,64,96,逐層增加。經(jīng)過第1個卷積層,輸入信號的卷積表示為
(15)
式中:x1_c為卷積層輸出;xi_q為輸入原始信號SAME填充后的IQ樣本;w1_c和b1_c分別為第1個卷積層的權(quán)重和偏置,均為可學習參數(shù)。
隨后,經(jīng)過BN層對處理后的樣本進行批量歸一化,BN層置于卷積層與激活層之間,能夠?qū)?shù)據(jù)都轉(zhuǎn)換在均值為0、方差為1的狀態(tài)下。經(jīng)過第1個BN層,其歸一化過程表示為
x1_b=c1_bx1_c+k1_b
(16)
式中:x1_b為BN層輸出;c1_b為x1_c的方差;k1_b為x1_c的均值。均為可學習重構(gòu)參數(shù),能夠讓網(wǎng)絡(luò)學習恢復出原始網(wǎng)絡(luò)所要學習的特征分布,使得每層數(shù)據(jù)分布一致。訓練會較容易收斂,同時控制梯度爆炸,防止梯度消失以及過擬合。
在進行了批量歸一化處理后,特征圖經(jīng)過激活函數(shù)層,施加激活函數(shù)為提取的特征加入非線性因素,使本文模型具有更強的表達能力??紤]到可能出現(xiàn)的梯度彌散問題以及網(wǎng)絡(luò)的稀疏性,選取ReLU激活函數(shù)σ(·)對x1_b進行處理,算式為
x1_r=σ(x1_b)。
(17)
之后進入池化層,池化層步幅為2,池化塊大小為n×n,n為池化層數(shù),池化能夠?qū)⑿∴徲騼?nèi)的特征點整合,得到新的特征,以便進行下一步的學習訓練。第1個池化層的池化過程可表示為
x1_p=Pn×n(x1_r)。
(18)
以上即第1個卷積層所進行的步驟,包含了卷積、批量歸一化、激活和池化4步。同樣,之后的4個卷積層重復上述4步,提取出更抽象的特征,以得到輸出x5_p。最后一個卷積層,用平均池化層替代金字塔池化層,池化塊大小為1×32,其輸入為xL_b,輸出xL_p可以表示為
xL_p=avgpooling1×32(xL_b)。
(19)
最終得到大小為1×1×96的樣本,再將其輸入至全連接層,全連接層能夠?qū)⒎植际教卣饔成涞綐颖緲擞浛臻g,即全連接層可以將特征整合到一起,極大減少了特征位置對分類帶來的影響。使用Softmax函數(shù)作為激活函數(shù)來滿足多分類的目的,神經(jīng)元的個數(shù)與標簽數(shù)相同,本文模型中調(diào)制信號類型有11種,該層的輸出預測標簽ys為
ys=ρ(wsxL_p+bs)
(20)
式中:ρ(·)為Softmax激活函數(shù);ws和bs分別為全連接層的權(quán)重和偏置,均為可學習參數(shù)。
以上即為本文設(shè)計的MSPP-CNN信號調(diào)制識別模型。
本文使用Windows10家庭版64位操作系統(tǒng)下的Matlab軟件深度學習工具箱,基于Nvidia GeForce GTX 1650Ti圖像處理器進行網(wǎng)絡(luò)模型的搭建與計算訓練。主要通過不同信噪比下的訓練過程與測試幀的混淆矩陣對算法的性能進行分析,并通過與其他算法進行對比來驗證此算法具有更好的性能。
首先,使用Matlab生成含有110 000個樣本的數(shù)據(jù)集,內(nèi)含有11種調(diào)制信號,分別為8種數(shù)字調(diào)制信號BPSK,QPSK,8PSK,16QAM,64QAM,PAM4,GFSK和CPFSK,以及3種模擬調(diào)制信號B-FM,DSB-AM和SSB-AM。每一種調(diào)制信號含有10000幀,其中,8000幀用于訓練神經(jīng)網(wǎng)絡(luò),1000幀用于驗證,最后1000幀用來獲得最終分類準確度。生成信號參數(shù)如表1所示。
表1 信號樣本參數(shù)Table 1 Parameters of signal sample
為了使生成信號樣本更趨于實際,給信號施加了加性高斯白噪聲(Additive White Gaussian Noise,AWGN),萊斯多徑衰落以及時鐘偏移后再進行調(diào)制轉(zhuǎn)換,得到形式為a+bi的信號原始樣本作為輸入。
其中,通過AWGN通道時,給信號增加了信噪比為-18~18 dB的AWGN,信噪比的算式為
(21)
式中:PS為信號功率;PN為白噪聲功率。
隨后,通過萊斯多徑衰落信道,信號是復高斯信號和直射分量的疊加(即正弦波加窄帶高斯過程),其包絡(luò)的概率密度函數(shù)服從萊斯分布,即
(22)
(23)
時鐘偏移是由于時鐘源到達不同寄存器所經(jīng)歷路徑的驅(qū)動和負載不同,時鐘邊沿的位置有所差異,由此造成了時鐘偏移,其中,時鐘偏移因子C的算式為
(24)
式中,Δclock為時鐘偏移量。同樣地,對每幀的頻率偏移fo和采樣率偏移(SFO,用OSFO表示)由時鐘偏移因子、采樣率fs和中心頻率fc(·)所決定,分別為
fo=-(C-1)fc(1)
(25)
OSFO=C×fs。
(26)
隨后,生成通過通道后減損的幀,同時,生成其所對應(yīng)的調(diào)制類型標簽以備用。
首先,將網(wǎng)絡(luò)迭代輪數(shù)設(shè)置為18,這是在網(wǎng)絡(luò)深度為2的情況下,經(jīng)過多次訓練仿真對比得出的較為合適的訓練輪數(shù),其平衡了訓練時間和識別準確度之間的關(guān)系。其次,初步設(shè)置學習率為0.01,通過算法可將大部分參數(shù)優(yōu)化至極小值附近,但仍存在梯度過大的參數(shù)。若學習率過大,則已經(jīng)優(yōu)化得差不多的參數(shù)可能會出現(xiàn)不穩(wěn)定的情況。故設(shè)置每經(jīng)過9輪的訓練,學習率降低10%,以便進行更充分的參數(shù)優(yōu)化和模型訓練。MSPP-CNN模型的參數(shù)如表2所示。
表2 MSPP-CNN模型參數(shù)Table 2 Parameters of MSPP-CNN model
本文將訓練過程的準確率曲線進行平滑處理后,提取了每輪次訓練完成后的識別準確率和損失,分別如圖5、圖6所示。
圖5 不同信噪比下的準確率曲線Fig.5 Accuracy curves of different SNR
圖6 不同信噪比下的損失曲線Fig.6 Loss curves of different SNR
首先,在低信噪比(-18 dB)條件下進行訓練,訓練開始時,識別準確率為10%,誤差損失為2.5;在進行10輪迭代后,模型的準確率約為36%,其損失約為2;而當?shù)_到最終次時,最終的準確率為56%,損失降到了1.4。針對每個調(diào)制類型的具體識別分析,將在之后的混淆矩陣分析中展開。
接下來,在信噪比為0 dB時進行訓練,與-18 dB時不同,準確率曲線在開始時就有明顯上升趨勢,達到40%左右時開始保持平穩(wěn)增加態(tài)勢,損失在同一時間段迅速達到1.5,這與信噪比的升高有著很大的關(guān)系;經(jīng)過10輪迭代后,準確率達到57%左右,損失約為1.3;經(jīng)過18輪迭代,準確率停至62.98%,損失降至0.9。相比信噪比為-18 dB時有明顯的性能提升,說明此模型一定程度上會受到信噪比的影響,但也具有一定的抗噪性能。
最后,對信噪比為18 dB的情況進行分析,全覽整個訓練過程,可以明確的是,在高信噪比條件下,本文模型具有非常優(yōu)良的性能。同0 dB時一樣,準確率曲線一開始便迅速上升達到80%左右之后趨于穩(wěn)定,損失也迅速下降至0.4左右;10輪迭代后,準確率和損失曲線有一小波動,隨后分別進入穩(wěn)定上升和下降期,最終準確率達到92.04%,損失為0.2。
為了進一步研究本文模型性能,分別對不同信噪比下的調(diào)制識別結(jié)果(即其混淆矩陣)進行具體研究分析,如圖7所示。
圖7 不同信噪比的混淆矩陣Fig.7 Confusion matrix of different SNRs
圖7(a)所示為信噪比為-18 dB時的混淆矩陣。其中,橫坐標為預測調(diào)制類型,縱坐標為實際調(diào)制類型。由混淆矩陣可以看出,在低信噪比情況下,混淆結(jié)果較為雜亂,并無明顯規(guī)律可循。但值得注意的是,盡管信噪比很低,但是B-FM,CPFSK,GFSK的識別準確度均高于75%,這說明上述3種調(diào)制類型受信噪比影響較其他類型而言相對較小。
圖7(b)所示為信噪比為0 dB時的混淆矩陣。提高信噪比后,網(wǎng)絡(luò)預測性能有顯著提高,尤其對B-FM,CPFSK,GFSK均高達90%以上,幾乎不受噪聲影響。而此混淆矩陣已經(jīng)能夠初步判斷出,網(wǎng)絡(luò)對64QAM和16QAM,8PSK和QPSK,DSB-AM和SSB-AM這3對調(diào)制類型存在明顯的混淆,出現(xiàn)這種現(xiàn)象分別因為:16QAM是64QAM的子集,而每幀只能攜帶128個符號,故網(wǎng)絡(luò)會混淆這兩種調(diào)制類型;而對于QPSK和8-PSK,在通道衰落和頻率偏移引發(fā)相位旋轉(zhuǎn)后,這兩種調(diào)制類型的星座圖看起來很相似,所以會出現(xiàn)混淆的情況;DSB-AM和SSB-AM,一個是雙邊帶調(diào)幅,另一個是單邊帶調(diào)幅,兩者還具有同樣的抗噪性能,故存在混淆的情況。
圖7(c)所示為信噪比為18 dB時的混淆矩陣。可以看出,除了64QAM和16QAM,8PSK和QPSK,DSB-AM和SSB-AM這3對調(diào)制類型,其他調(diào)制類型的準確率全部達到99%以上,B-FM,CPFSK和GFSK更是高達100%,網(wǎng)絡(luò)達到預期效果。
最后,對本文所提算法與傳統(tǒng)CNN算法以及傳統(tǒng)基于特征提取的SVM[12],KNN[13]算法進行性能對比,其中,進行對比的CNN模型為傳統(tǒng)兩層卷積神經(jīng)網(wǎng)絡(luò)。不同算法的對比如圖8所示。
圖8 不同算法的對比圖Fig.8 Comparison chart of different algorithms
由圖8可以看出:當信噪比為-18 dB時,CNN,SVM和KNN算法的識別準確率約為10%,而本文算法識別準確率為56%,已經(jīng)遠高于其他3種算法;隨著信噪比的增加,當信噪比為-18~-4 dB時,其他3種算法識別準確率呈快速上升趨勢,而本文算法識別準確率穩(wěn)定上升;當信噪比為-4~-2 dB時,本文算法與傳統(tǒng)CNN算法識別準確率最為接近;當信噪比增至4 dB后,SVM,KNN算法的識別準確率趨于平緩;當信噪比為4~10 dB時,CNN算法與本文算法識別準確率依舊呈增長趨勢,直至10 dB時傳統(tǒng)CNN算法的識別準確度開始趨于平緩。最后,當信噪比為18 dB時,本文算法的識別準確度為92.04%,CNN算法為78%,SVM算法為66.6%,KNN算法為67%。由圖8可以得出,本文算法無論是在低信噪比還是高信噪比的條件下,其性能均優(yōu)于其他3種算法,尤其是低信噪比時,性能更是達到50%以上,遠超其他3種算法。
本文提出了一種基于多尺度金字塔池化的卷積神經(jīng)網(wǎng)絡(luò)算法。在設(shè)計時考慮到不同調(diào)制信號的不同特征以及網(wǎng)絡(luò)模型所需的泛化能力和特征表達,使用多尺度金字塔池化來優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu);并使用批量歸一化層和Dropout值來優(yōu)化深度網(wǎng)絡(luò)中的參數(shù),提升網(wǎng)絡(luò)的泛化性能。最后,對根據(jù)真實通信環(huán)境生成的不同信噪比下的多種調(diào)制信號使用所設(shè)計的網(wǎng)絡(luò)模型進行調(diào)制識別訓練與測試。仿真結(jié)果表明,當信噪比為-18 dB時,網(wǎng)絡(luò)已具有50%以上的識別準確率,而當信噪比為18 dB時,識別準確率達到92.04%。識別準確率全程高于SVM,KNN以及傳統(tǒng)CNN算法,驗證了本文所提算法的有效性以及高識別準確率。