馮 磊,蔣 磊,許 華,茍澤中
空軍工程大學(xué) 信息與導(dǎo)航學(xué)院,西安 710000
近年來,深度學(xué)習(xí)技術(shù)在圖像分類[1]、目標(biāo)檢測(cè)[2]和機(jī)器翻譯[3]等智能任務(wù)上取得優(yōu)異效果。因此,基于深度學(xué)習(xí)的通信信號(hào)調(diào)制樣式識(shí)別也迅速成為國內(nèi)外的研究熱點(diǎn)。文獻(xiàn)[4]直接利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)時(shí)域的I、Q兩路信號(hào)進(jìn)行特征提取,實(shí)驗(yàn)證明了該方法相較于傳統(tǒng)調(diào)制識(shí)別方法具有更高的識(shí)別準(zhǔn)確率。文獻(xiàn)[5]將截獲的通信信號(hào)進(jìn)行一定的預(yù)處理后,嘗試將通信信號(hào)時(shí)頻圖作為卷積神經(jīng)網(wǎng)絡(luò)的輸入,取得了較為理想的識(shí)別效果,并且將通信信號(hào)調(diào)制識(shí)別領(lǐng)域與圖像識(shí)別領(lǐng)域相融合。文獻(xiàn)[6]和文獻(xiàn)[7]中分別將卷積神經(jīng)網(wǎng)絡(luò)和殘差網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)中的長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)相結(jié)合作為語音信號(hào)和通信調(diào)制信號(hào)的特征提取模塊,實(shí)驗(yàn)表明這種組合模塊相較于單一模塊提取的通信信號(hào)特征具有更強(qiáng)的表征能力。然而這些基于深度學(xué)習(xí)的調(diào)制識(shí)別方法在訓(xùn)練過程中需要依賴大量的訓(xùn)練樣本,否則會(huì)使網(wǎng)絡(luò)發(fā)生嚴(yán)重的過擬合問題。在通信對(duì)抗領(lǐng)域獲取通信信號(hào)樣本“代價(jià)”太大,上述的深度學(xué)習(xí)方法難以得到廣泛應(yīng)用,而小樣本學(xué)習(xí)可以在小樣本訓(xùn)練集中使得特征提取網(wǎng)絡(luò)收斂。
現(xiàn)階段用于解決小樣本問題的方案主要包括:數(shù)據(jù)增強(qiáng)、元學(xué)習(xí)和度量學(xué)習(xí)。數(shù)據(jù)增強(qiáng)技術(shù)[8-9]從特征和屬性層面實(shí)現(xiàn)對(duì)訓(xùn)練樣本的擴(kuò)充,在一定程度上可以緩解過擬合問題。但是由于小樣本數(shù)據(jù)空間過小、變換模式有限以及生成的訓(xùn)練樣本相似于原始訓(xùn)練樣本,使得數(shù)據(jù)增強(qiáng)技術(shù)無法完全解決過擬合問題。元學(xué)習(xí)技術(shù)[10-12]通過學(xué)習(xí)器學(xué)習(xí)跨任務(wù)領(lǐng)域的梯度更新策略與初始化條件以實(shí)現(xiàn)在小樣本訓(xùn)練過程中實(shí)現(xiàn)快速收斂。通過添加循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)搭建的外部存儲(chǔ)器[11]記憶學(xué)習(xí)過程,并將其遷移至小樣本訓(xùn)練過程中以實(shí)現(xiàn)在小樣本新任務(wù)中的快速學(xué)習(xí)。這些元學(xué)習(xí)方法均取得較為優(yōu)異的識(shí)別分類效果,但是基于RNN結(jié)構(gòu)的外部存儲(chǔ)器單元會(huì)使得算法復(fù)雜度增大,訓(xùn)練效率低下。度量學(xué)習(xí)方法的思想是學(xué)習(xí)一個(gè)特征嵌入空間,在特征嵌入空間中根據(jù)樣本類別進(jìn)行度量,并利用最近鄰分類器進(jìn)行分類識(shí)別。常用方法包括原型網(wǎng)絡(luò)[13]、孿生網(wǎng)絡(luò)[14]以及關(guān)系網(wǎng)絡(luò)[15]等。原型網(wǎng)絡(luò)認(rèn)為每個(gè)類均存在一個(gè)類原型,數(shù)據(jù)集均勻分布在類原型的周圍,通過學(xué)習(xí)類原型的表達(dá)并基于類原型通過最近鄰分類器即可準(zhǔn)確進(jìn)行分類識(shí)別。但是原型網(wǎng)絡(luò)沒有考慮到類內(nèi)樣本存在偏差時(shí)會(huì)導(dǎo)致類原型學(xué)習(xí)不準(zhǔn)確進(jìn)而導(dǎo)致分類偏差。孿生網(wǎng)絡(luò)通過使用權(quán)值共享、完全對(duì)稱的特征提取網(wǎng)絡(luò)學(xué)習(xí)訓(xùn)練集的特征嵌入空間,通過距離度量尋找最近鄰分類作為測(cè)試集的分類結(jié)果。實(shí)驗(yàn)表明孿生網(wǎng)絡(luò)在小樣本訓(xùn)練集中識(shí)別效果較為理想,但是當(dāng)訓(xùn)練集中存在相似類別時(shí)會(huì)出現(xiàn)相似類別分類混淆的問題。
鑒于此,本文在度量學(xué)習(xí)的基礎(chǔ)上提出一種基于網(wǎng)絡(luò)度量的三分支孿生網(wǎng)絡(luò)調(diào)制識(shí)別算法,可有效緩解孿生網(wǎng)絡(luò)在相似類別上識(shí)別混淆問題。同時(shí)為進(jìn)一步提升算法的識(shí)別性能,使用網(wǎng)絡(luò)度量代替固定度量函數(shù),降低對(duì)特征提取模塊提取特征的深度依賴;使用局部異常因子檢測(cè)算法(Local Outlier Factor,LOF)[16]剔除訓(xùn)練樣本中偏差數(shù)據(jù),有效解決通信調(diào)制信號(hào)在接收過程中受到信道噪聲和接收機(jī)噪聲的影響,確保類原型生成更加準(zhǔn)確。在公開的調(diào)制數(shù)據(jù)集DeepSig[17]上進(jìn)行仿真,結(jié)果表明,本文算法可以有效降低訓(xùn)練特征提取網(wǎng)絡(luò)所需樣本量,并且相較于固定的距離度量方法具有更高的識(shí)別準(zhǔn)確率。
本文算法具體實(shí)現(xiàn)分為訓(xùn)練過程與測(cè)試過程,總體框架是在三分支孿生網(wǎng)絡(luò)的基礎(chǔ)上級(jí)聯(lián)一個(gè)非線性度量學(xué)習(xí)的關(guān)系網(wǎng)絡(luò)。在訓(xùn)練過程中通過聯(lián)合損失函數(shù)約束進(jìn)行訓(xùn)練,算法訓(xùn)練框架如圖1所示。
圖1 算法訓(xùn)練框架圖Fig.1 Algorithm training frame diagram
其中,特征提取子網(wǎng)絡(luò)中采用三個(gè)參數(shù)共享的殘差網(wǎng)絡(luò)模塊組成,提取最后一層輸出作為輸入樣本的特征表達(dá);然后將正樣本對(duì)與負(fù)樣本對(duì)作為共享權(quán)值參數(shù)的關(guān)系網(wǎng)絡(luò)的輸入,以學(xué)習(xí)一個(gè)用于分類的非線性度量函數(shù);通過閾值約束解決三元約束組組合后訓(xùn)練量指數(shù)級(jí)增加而引起訓(xùn)練時(shí)間長(zhǎng)的問題;最后通過聯(lián)合損失函數(shù)約束整個(gè)網(wǎng)絡(luò)的訓(xùn)練。
為降低算法的運(yùn)算量和提升測(cè)試精度,在測(cè)試過程中通過原始標(biāo)簽生成每個(gè)調(diào)制樣式的均值類原型表達(dá)作為關(guān)系子網(wǎng)絡(luò)的輸入,考慮到通信調(diào)制信號(hào)由于信噪比和接收機(jī)的誤差而引起的偏差,采用LOF算法剔除偏差較大的數(shù)據(jù)。算法測(cè)試框架如圖2所示。
圖2 算法測(cè)試框架圖Fig.2 Algorithm testing frame diagram
1.1.1 特征提取子網(wǎng)絡(luò)
現(xiàn)有的度量學(xué)習(xí)方法的特征提取模塊設(shè)置相對(duì)較為簡(jiǎn)單,多為卷積層簡(jiǎn)單堆疊而成,導(dǎo)致提取到的特征不夠完善。而且為避免在小樣本條件下訓(xùn)練網(wǎng)絡(luò)由于訓(xùn)練參數(shù)過大出現(xiàn)過擬合問題,CNN 結(jié)構(gòu)設(shè)置也不宜過深。進(jìn)而導(dǎo)致常規(guī)度量學(xué)習(xí)提取的特征無法較為準(zhǔn)確的表達(dá)原始訓(xùn)練樣本。本文借鑒殘差網(wǎng)絡(luò)的設(shè)計(jì)原理[18],使用改進(jìn)型殘差網(wǎng)絡(luò)作為特征提取網(wǎng)絡(luò)基礎(chǔ)網(wǎng)絡(luò),利用多個(gè)小卷積核連續(xù)卷積代替大卷積核,有效減少網(wǎng)絡(luò)的訓(xùn)練參數(shù)。同時(shí)還考慮到通信信號(hào)的I、Q 序列在網(wǎng)絡(luò)中同時(shí)具有圖像的空間特性和信號(hào)的時(shí)序特性,本文還在改進(jìn)型殘差網(wǎng)絡(luò)后級(jí)聯(lián)長(zhǎng)短時(shí)記憶網(wǎng)絡(luò),以提取其時(shí)序特征。改進(jìn)型殘差塊結(jié)構(gòu)和整個(gè)特征提取模塊結(jié)構(gòu)如圖3 所示,圖(a)為改進(jìn)型n級(jí)殘差塊結(jié)構(gòu),圖(b)為特征提取模塊結(jié)構(gòu)圖。
圖3 特征提取模塊結(jié)構(gòu)圖Fig.3 Feature extraction module structure diagram
殘差網(wǎng)絡(luò)先進(jìn)的思想在于對(duì)卷積層實(shí)現(xiàn)跳層連接技術(shù),可有效緩解網(wǎng)絡(luò)深度加深在訓(xùn)練過程中出現(xiàn)的梯度消散和梯度爆炸問題。具體實(shí)現(xiàn)是通過在標(biāo)準(zhǔn)卷積結(jié)構(gòu)上增加一個(gè)恒等映射,即
其中x表示模塊的輸入,y是模塊的輸出,F(xiàn)(x)=y-x即為網(wǎng)絡(luò)訓(xùn)練需要學(xué)習(xí)的映射。當(dāng)網(wǎng)絡(luò)訓(xùn)練最優(yōu)解時(shí)殘差映射F(x)直接置零,輸出和輸入一致,不會(huì)改變網(wǎng)絡(luò)參數(shù)。
而使用小卷積核級(jí)聯(lián)代替大卷積核的操作,可以使得在不改變感受野的情況下有效減少網(wǎng)絡(luò)參數(shù),同時(shí)還將使用更多的激活函數(shù),使得神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到更具判別性的映射函數(shù)。
1.1.2 關(guān)系學(xué)習(xí)子網(wǎng)絡(luò)
如圖4 所示,本文關(guān)系網(wǎng)絡(luò)gφ由兩個(gè)卷積模塊和兩個(gè)全連接層模塊組成。其中每個(gè)卷積模塊由64 個(gè)1×3 的卷積核構(gòu)成的卷積層和1 個(gè)1×2 的最大池化層組成,并使用ReLU函數(shù)作為激活函數(shù)。兩個(gè)全連接層分別使用ReLU 函數(shù)與Sigmoid 函數(shù)作為激活函數(shù),使其歸一化至(0,1)區(qū)間中。
圖4 關(guān)系網(wǎng)絡(luò)模塊結(jié)構(gòu)圖Fig.4 Relational network module structure diagram
為利于關(guān)系網(wǎng)絡(luò)的輸入,引入算子τ作為特征提取子網(wǎng)絡(luò)輸出特征向量的融合并接,得到三元組的特征表示為:
將深度特征融合后的正負(fù)樣本對(duì)特征組輸入至兩個(gè)參數(shù)共享的關(guān)系網(wǎng)絡(luò)中,得到兩個(gè)(0,1)之間的關(guān)系值作為正負(fù)樣本對(duì)之間的相似度得分。最終正負(fù)樣本對(duì)相似關(guān)系得分表示為:
其中,R為正負(fù)樣本對(duì)的相似度得分,gφ(·)為關(guān)系網(wǎng)絡(luò),φ為關(guān)系網(wǎng)絡(luò)的參數(shù)。
1.1.3 LOF算法
在模型完成訓(xùn)練后,從特征提取子網(wǎng)絡(luò)后端提取出每個(gè)類各樣本的特征映射為使在各類別生成的類原型中更加準(zhǔn)確,本文使用LOF算法檢測(cè)并剔除掉樣本數(shù)據(jù)中偏差較大的訓(xùn)練數(shù)據(jù)。針對(duì)每個(gè)樣本的特征表達(dá),尋找距離其最近的k個(gè)樣本點(diǎn),并記低K個(gè)最近樣本點(diǎn)為其的k-近鄰距離,表示為而對(duì)于該樣本點(diǎn)的第k距離鄰域?yàn)樵摌颖军c(diǎn)中第k距離以內(nèi)的所有點(diǎn),記為樣本點(diǎn)到之間的可達(dá)距離為樣本點(diǎn)的K近鄰距離和兩點(diǎn)之間距離的最大值,記為
為衡量樣本點(diǎn)的異常程度,基于局部可達(dá)距離定義局部可達(dá)密度為:
為進(jìn)一步衡量樣本點(diǎn)的異常程度,通過比較其與周圍近鄰樣本點(diǎn)之間的相對(duì)密度。定義樣本點(diǎn)的近鄰樣本點(diǎn)的平均局部可達(dá)密度與樣本點(diǎn)的局部可達(dá)密度比值為局部異常因子,表達(dá)式為:
針對(duì)算法的三元輸入特性,本文選擇可以學(xué)習(xí)三元輸入樣本間的區(qū)分信息的鉸鏈損失函數(shù)。該損失函數(shù)通過對(duì)正負(fù)樣本對(duì)的輸出相似關(guān)系值進(jìn)行約束使得算法模型可以學(xué)習(xí)到更具辨識(shí)度的特征表達(dá)。具體而言,針對(duì)關(guān)系網(wǎng)絡(luò)后端輸出正負(fù)樣本對(duì)相似關(guān)系得分進(jìn)行約束,得到鉸鏈損失函數(shù)為:
式中m為閾值,該約束使得正樣本對(duì)之間的相似度關(guān)系得分需大于負(fù)樣本對(duì)之間的關(guān)系相似度得分。
為使三元組的訓(xùn)練過程更加高效,Hermans 等人[19]在行人重識(shí)別算法中提出一種三元組的挑選方法,稱為“batch hard”。具體來說就是在每個(gè)訓(xùn)練批次中,隨機(jī)選取P個(gè)類別,每個(gè)類別選取K個(gè)訓(xùn)練樣本組成PK個(gè)訓(xùn)練數(shù)據(jù)。對(duì)于每個(gè)參考樣本從相同類別中選取最為不相似的樣本作為正樣本,從不同類別中選取最為相似的作為負(fù)樣本,選出PK個(gè)三元訓(xùn)練樣本組。因此上式中損失函數(shù)變換為:
但是,基于“batch hard”的挑選方法沒有考慮到類內(nèi)樣本相似得分遠(yuǎn)低于類間樣本相似得分時(shí)會(huì)造成網(wǎng)絡(luò)收斂慢的問題。而通信調(diào)制信號(hào)類內(nèi)樣本數(shù)據(jù)由于信道誤差等情況會(huì)出現(xiàn)偏差過大的問題。因此,本文采取閾值約束解決此問題,通過對(duì)類內(nèi)樣本相似度設(shè)置閾值,在訓(xùn)練過程中剔除掉偏差較大的正樣本訓(xùn)練數(shù)據(jù)。最終損失函數(shù)定義為:
其中α為正樣本對(duì)相似度關(guān)系值約束閾值。
本文算法實(shí)現(xiàn)過程分為訓(xùn)練過程和測(cè)試過程,具體步驟如下:
1.訓(xùn)練過程
1.1.訓(xùn)練樣本的特征映射
將輸入的訓(xùn)練樣本三元組通過三個(gè)權(quán)值參數(shù)共享的特征提取網(wǎng)絡(luò)中,提取最后一層LSTM 的輸出作為樣本的特征映射,記為fψ(X+)、fψ(X)、fψ(X-)。
1.2.正負(fù)樣本對(duì)特征融合
通過算子τ將正負(fù)樣本特征與參考樣本特征融合,得到正負(fù)樣本對(duì)的特征融合表示為(τ(fψ(X),fψ(X+)))、(τ(fψ(X),fψ(X-)))。其中算子τ表示為特征的級(jí)聯(lián)。
1.3.正負(fù)樣本對(duì)相似度計(jì)算
將特征融合后的正負(fù)樣本對(duì)輸入至參數(shù)共享的關(guān)系網(wǎng)絡(luò)中,計(jì)算正負(fù)樣本對(duì)的相似度關(guān)系分值分別為gφ(τ(fψ(X),fψ(X+)))、gφ(τ(fψ(X),fψ(X-)))。
1.4.網(wǎng)絡(luò)訓(xùn)練與參數(shù)更新
通過設(shè)置閾值選取合適的三元組樣本輸入,然后利用正負(fù)樣本對(duì)的相似度關(guān)系計(jì)算出損失函數(shù),通過損失函數(shù)對(duì)模型的訓(xùn)練進(jìn)行約束。
2.測(cè)試過程
2.1.各個(gè)類別的類原型表達(dá)
首先從訓(xùn)練好的特征提取子網(wǎng)絡(luò)后端提取每個(gè)類別的特征表達(dá),通過LOF算法剔除偏差較大的樣本數(shù)據(jù),然后確定每個(gè)類別的特征中心作為該類的類原型。
2.2.測(cè)試樣本的類別確定
將測(cè)試樣本與每個(gè)類原型輸入至關(guān)系網(wǎng)絡(luò)中,選取相似度最大的類別作為測(cè)試樣本的類別識(shí)別。
實(shí)驗(yàn)中數(shù)據(jù)集采用DeepSig 的調(diào)制識(shí)別公開數(shù)據(jù)集,將數(shù)據(jù)集中的8PSK、AM-DSB、AM-SSB、BPSK、CPFSK、GFSK、PAM4、QAM16、QAM64、QPSK、WBFM 11種調(diào)制方式,在-4 dB、18 dB信噪比的條件下,對(duì)每個(gè)調(diào)制樣式分別取240、360、480、600、720、840、1 200、1 800的訓(xùn)練樣本數(shù)量和100的測(cè)試樣本數(shù)量。
實(shí)驗(yàn)硬件平臺(tái)基于Windows7,32 GB 內(nèi)存,NVDIA P4000顯卡的計(jì)算機(jī)。通過python中的Keras開源人工神經(jīng)網(wǎng)絡(luò)庫完成網(wǎng)絡(luò)的搭建、訓(xùn)練與測(cè)試的。
在模型優(yōu)化過程中選取Adam優(yōu)化算法,相較于隨機(jī)梯度下降算法,其具有更快的收斂速度和更高的算法穩(wěn)定性。實(shí)驗(yàn)中使用優(yōu)化算法默認(rèn)超參數(shù)設(shè)置,并設(shè)置初始學(xué)習(xí)率為10-3和最小學(xué)習(xí)率為10-5,當(dāng)驗(yàn)證損失值增加10%以上,學(xué)習(xí)率降低一半,選取驗(yàn)證損失最低模型作為最終訓(xùn)練模型。
針對(duì)實(shí)驗(yàn)過程每批次三元組訓(xùn)練集的構(gòu)造,每個(gè)類別隨機(jī)挑選與類別總數(shù)相同的11 個(gè)訓(xùn)練樣本組成121個(gè)三元組訓(xùn)練集。而對(duì)于實(shí)驗(yàn)過程中其他參數(shù)設(shè)置則采用對(duì)比實(shí)驗(yàn),挑選算法達(dá)到最優(yōu)時(shí)個(gè)參數(shù)設(shè)置,其中聯(lián)合損失函數(shù)閾值約束設(shè)置為0.9,LOF 算法選取11 近鄰距離進(jìn)行計(jì)算,正樣本對(duì)相似度約束設(shè)置為0.5。
同時(shí)在訓(xùn)練過程中為避免出現(xiàn)過擬合的問題,本文還采用提前終止迭代算法(Early Stop Iteration,ESI)[20]使模型收斂至驗(yàn)證集損失值最低點(diǎn)。
2.3.1 三元組約束對(duì)算法性能提升
為驗(yàn)證三分支孿生網(wǎng)絡(luò)作為特征提取子網(wǎng)絡(luò)對(duì)小樣本調(diào)制識(shí)別的性能影響,通過設(shè)置具有相同特征提取模塊的孿生網(wǎng)絡(luò)(Siamese Network,SN)作為基準(zhǔn)方法進(jìn)行多方面的對(duì)比實(shí)驗(yàn)。首先對(duì)比二者訓(xùn)練過程中在相同訓(xùn)練樣本數(shù)量上的平均識(shí)別精度,得到實(shí)驗(yàn)結(jié)果如表1所示。
表1 不同特征提取模塊對(duì)訓(xùn)練樣本量需求Table 1 Sample size requirements of different feature extraction modules
由表中結(jié)果,選取兩種模型結(jié)構(gòu)均已達(dá)到理想識(shí)別精度時(shí)所需的訓(xùn)練樣本量720,對(duì)比兩種模型結(jié)構(gòu)在不同信噪比條件下的平均識(shí)別率如圖5 所示;而圖6(a)、(b)分別顯示兩模型結(jié)構(gòu)在信噪比為0時(shí)的混淆矩陣。
圖5 不同模型的識(shí)別性能對(duì)比Fig.5 Comparison of recognition performance of different models
圖6 兩算法模型在信噪比為0時(shí)混淆矩陣Fig.6 Obfuscation matrix comparison of two algorithm models at SNR=0
由圖5、6可以看出,孿生三分支網(wǎng)絡(luò)作為特征提取網(wǎng)絡(luò)時(shí)具有更優(yōu)的識(shí)別效果,主要優(yōu)勢(shì)體現(xiàn)在對(duì)于相似調(diào)制類別WBFM 和AM-DSB 之間識(shí)別準(zhǔn)確率的提升。主要原因在于孿生三分支網(wǎng)絡(luò)相較于二分支孿生網(wǎng)絡(luò)添加了對(duì)比約束分支結(jié)構(gòu),可以在同一批次的訓(xùn)練過程中對(duì)正負(fù)樣本對(duì)同時(shí)進(jìn)行約束,學(xué)習(xí)更具細(xì)粒度差異的類間信息差異,提取更具區(qū)分度的樣本特征。
2.3.2 度量函數(shù)對(duì)識(shí)別性能的影響
為驗(yàn)證度量函數(shù)的選取對(duì)算法性能的影響,使用常用距離度量函數(shù)歐式距離度量函數(shù)與余弦相似度作為實(shí)驗(yàn)基準(zhǔn)方法,在本文算法的整體框架下替換后續(xù)關(guān)系網(wǎng)絡(luò)的非線性度量結(jié)構(gòu),實(shí)驗(yàn)結(jié)果如表2所示。
表2 不同度量方式的識(shí)別性能對(duì)比Table 2 Performance comparison between different measures
實(shí)驗(yàn)結(jié)果表明,在本文算法框架下相較于固定歐式距離度量和余弦相似度度量函數(shù),采用網(wǎng)絡(luò)進(jìn)行相似度度量識(shí)別性能分別提升了1.4和1.9個(gè)百分點(diǎn),但是算法的復(fù)雜度也相應(yīng)有所增加。主要原因在于通過神經(jīng)網(wǎng)絡(luò)進(jìn)行相似度度量,度量網(wǎng)絡(luò)可以和特征提取網(wǎng)絡(luò)聯(lián)合訓(xùn)練,所提取的樣本特征同時(shí)滿足度量網(wǎng)絡(luò)的約束,網(wǎng)絡(luò)結(jié)構(gòu)也更加復(fù)雜;而固定的度量函數(shù)僅僅是對(duì)提取的正負(fù)樣本對(duì)特征進(jìn)行簡(jiǎn)單的距離度量,識(shí)別性能過于依賴特征提取模塊所提取的特征。
2.3.3 LOF算法對(duì)識(shí)別性能的提升
本節(jié)針對(duì)LOF算法對(duì)識(shí)別性能進(jìn)行分析,與直接均值類原型表達(dá)的TSN-RN-AVG模型進(jìn)行對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果如表3所示。
表3 LOF算法的識(shí)別效果Table 3 Recognition effect of LOF algorithm
由表3可以得出,使用LOF算法剔除偏差的樣本數(shù)據(jù)后生成的類原型表達(dá),相較于直接均值生成的類原型表達(dá)更加準(zhǔn)確、識(shí)別精度更高。雖然在本文實(shí)驗(yàn)中識(shí)別精度提升有限,但是主要原因在于實(shí)驗(yàn)中的調(diào)制識(shí)別數(shù)據(jù)集是在實(shí)驗(yàn)室環(huán)境中采集的,環(huán)境噪聲與接收機(jī)噪聲相對(duì)于實(shí)際的環(huán)境中較低、偏差數(shù)據(jù)較少,對(duì)實(shí)驗(yàn)影響有限。但是,基于LOF算法剔除偏差樣本對(duì)于實(shí)際電磁環(huán)境中的通信數(shù)據(jù)的識(shí)別有較大的實(shí)用性與性能提升。
2.3.4 不同小樣本模型對(duì)比分析
為驗(yàn)證本文所提算法模型的性能,選取現(xiàn)階段較為流行的基于度量學(xué)習(xí)的小樣本識(shí)別模型Prototypical network[13]、Siamese network[14]、Relation network[15]作 為基準(zhǔn)方法進(jìn)行對(duì)比實(shí)驗(yàn),由于上述算法模型結(jié)構(gòu)均運(yùn)用在圖像識(shí)別領(lǐng)域,其構(gòu)建的特征提取模塊不適用于通信信號(hào)的調(diào)制識(shí)別,因此在實(shí)驗(yàn)過程中將本文特征提取模塊替代原文算法中的特征提取網(wǎng)絡(luò)結(jié)構(gòu)。同時(shí)為保證所有算法均可以有效收斂,選取單類樣本數(shù)量為840進(jìn)行實(shí)驗(yàn),對(duì)比實(shí)驗(yàn)結(jié)果如表4所示。
由表4可知,本文所提算法模型在識(shí)別性能上相較于目前主流的基于度量學(xué)習(xí)的小樣本識(shí)別模型均有較大的提升,但是算法的復(fù)雜度也相應(yīng)有所增加,主要原因在于本文算法使用了三分支孿生網(wǎng)絡(luò)結(jié)構(gòu)作為特征提取模塊,極大提升了相似樣本的識(shí)別準(zhǔn)確率,但是在訓(xùn)練過程中針對(duì)每批次訓(xùn)練樣本均需挑選適合網(wǎng)絡(luò)訓(xùn)練的三元組樣本對(duì),耗費(fèi)時(shí)間資源。同時(shí),使用神經(jīng)網(wǎng)絡(luò)對(duì)正負(fù)樣本對(duì)相似度進(jìn)行度量在提升了算法識(shí)別性能的同時(shí)增加了網(wǎng)絡(luò)參數(shù),使得算法復(fù)雜度增加。
表4 不同小樣本算法模型的對(duì)比Table 4 Comparison of different small sample algorithm models
本文針對(duì)孿生網(wǎng)絡(luò)在小樣本調(diào)制識(shí)別中相似類別混淆問題,提出一種基于網(wǎng)絡(luò)度量的三分支孿生網(wǎng)絡(luò)調(diào)制識(shí)別算法。該算法特征提取模塊充分利用類內(nèi)與類間對(duì)比差異信息和通信信號(hào)的特性,學(xué)習(xí)到更深層和更具區(qū)分度的特征,同時(shí)為避免固定度量函數(shù)對(duì)算法性能的影響,采用神經(jīng)網(wǎng)絡(luò)訓(xùn)練一個(gè)非線性度量函數(shù),使得提取的特征更好的契合度量函數(shù)。最后考慮到通信信號(hào)易受干擾的特性,使用了LOF算法剔除偏差較大的訓(xùn)練樣本,使得在測(cè)試過程中生成的類原型更加準(zhǔn)確,提升了算法性能。計(jì)算機(jī)仿真結(jié)果也驗(yàn)證了本文所提算法在小樣本調(diào)制識(shí)別中的可行性和有效性。