路 雷 褚建軍 唐燕群* 陶業(yè)榮 伍哲舜 鄭承武 陳 琦
①(中國電子科技集團(tuán)公司第三十六研究所 嘉興 314033)
②(中山大學(xué)電子與通信工程學(xué)院 深圳 518107)
③(中國人民解放軍63891部隊(duì) 洛陽 471000)
④(中山大學(xué)系統(tǒng)科學(xué)與工程學(xué)院 廣州 510275)
⑤(西南科技大學(xué)信息工程學(xué)院 綿陽 621000)
移動(dòng)數(shù)據(jù)流量的爆炸式增長對(duì)可用頻譜資源提出了挑戰(zhàn)。帶內(nèi)全雙工(In-Band Full Duplex,IBFD)技術(shù)憑借其同時(shí)發(fā)送和接收的能力能夠有效提高頻譜利用率,近年來引起了研究學(xué)者的廣泛關(guān)注[1,2]。然而,IBFD系統(tǒng)中在同一時(shí)間和同一頻段發(fā)送和接收信號(hào)會(huì)帶來嚴(yán)重的自干擾(Self-Interference, SI)。為了消除或抑制自干擾,研究學(xué)者提出了模擬自干擾消除方法和數(shù)字自干擾消除方法。模擬自干擾消除方法是利用被動(dòng)或主動(dòng)抑制在模擬域中實(shí)現(xiàn)自干擾的消除,主要針對(duì)的是線性自干擾,而殘余的非線性自干擾依然能通過接收機(jī)進(jìn)入數(shù)字域。因此,諸多研究學(xué)者選擇在數(shù)字域來研究非線性特性及其消除方法[3]。
與自干擾的線性部分相比,由發(fā)射(Transmit,Tx)和接收(Receive, Rx)鏈路損傷引起的非線性部分更難消除。在Tx鏈路中,主要的非線性由同相正交(In-phase and Quadrature, IQ)混頻器和射頻(Radio Frequency, RF)功率放大器(Power Amplifier, PA)產(chǎn)生;同樣,Rx鏈路中的帶內(nèi)非線性,主要由低噪聲放大器(Low Noise Amplifier, LNA)和IQ混頻器引起。值得注意的是,信號(hào)模型中省略了數(shù)模轉(zhuǎn)換器(Digital-to-Analog Converter,DAC)和模數(shù)轉(zhuǎn)換器(Analog-to-Digital Converter,ADC)[4]產(chǎn)生的非線性以及相位噪聲的影響。對(duì)于由PA非線性和IQ不平衡引起的非線性失真影響,使用最廣泛的數(shù)字自干擾消除方法是基于多項(xiàng)式模型進(jìn)行的。特別是針對(duì)PA具有記憶性的非線性行為模型——靜態(tài)多項(xiàng)式、并行哈默斯坦(Parallel Hammerstein, PH)、渥爾特拉和徑向基函數(shù)神經(jīng)網(wǎng)絡(luò),文獻(xiàn)[5]進(jìn)行了比較分析。此外,文獻(xiàn)[6,7]討論了帶PH的綜合模型,并針對(duì)PA引起的非線性和IQ不平衡進(jìn)行了數(shù)字自干擾消除處理。
近年來,隨著神經(jīng)網(wǎng)絡(luò)技術(shù)的快速發(fā)展,基于神經(jīng)網(wǎng)絡(luò)的數(shù)字自干擾消除方法正在逐步替代多項(xiàng)式模型方法,用于數(shù)字域的非線性自干擾消除中。在文獻(xiàn)[6]中,一個(gè)簡單的全連接神經(jīng)網(wǎng)絡(luò)被用于數(shù)字對(duì)消,以較低的計(jì)算復(fù)雜度實(shí)現(xiàn)了相同的對(duì)消性能?;谕ㄐ呕鶐盘?hào)是復(fù)數(shù)的本質(zhì),文獻(xiàn)[8,9]采用復(fù)值神經(jīng)網(wǎng)絡(luò)(Complex Valued Neural Network,CVNN)進(jìn)行自干擾消除,其中權(quán)重、偏差和激活函數(shù)等變量都是復(fù)數(shù)。
綜上討論,傳統(tǒng)基于多項(xiàng)式模型的方法需要結(jié)合相關(guān)先驗(yàn)知識(shí)來建立數(shù)學(xué)模型以刻畫非線性效應(yīng),之后再通過信道估計(jì)方法來獲得模型參數(shù),重建自干擾信號(hào)。由于極其依賴相關(guān)先驗(yàn)知識(shí),如果發(fā)生模型失配的情況,將會(huì)導(dǎo)致消除效果嚴(yán)重惡化,因而人工設(shè)計(jì)模型估計(jì)相關(guān)參數(shù)的方法效率較為低下。此外,全連接神經(jīng)網(wǎng)絡(luò)僅僅是利用了多層感知機(jī)與非線性激活函數(shù)具有一定程度能夠減少特征提取過程以及對(duì)待擬合函數(shù)非線性近似的能力,而無法針對(duì)高維數(shù)據(jù)特有的空頻相關(guān)性、時(shí)間相關(guān)性等特點(diǎn)進(jìn)行處理。因此,基于多項(xiàng)式模型和神經(jīng)網(wǎng)絡(luò)的非線性自干擾消除方法無法滿足IBFD系統(tǒng)的性能要求,亟需研究新型的數(shù)字自干擾消除方法。
受卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)和遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)的設(shè)計(jì)思想所啟發(fā),本文基于卷積長短時(shí)記憶深度神經(jīng)網(wǎng)絡(luò)(Convolutional Long short-term memory Deep Neural Networks, CLDNN),提出了兩個(gè)新穎的網(wǎng)絡(luò)結(jié)構(gòu)來提高IBFD系統(tǒng)的非線性自干擾消除性能,分別為實(shí)部虛部2維神經(jīng)網(wǎng)絡(luò)(Two-Dimensional-Convolutional Long short-term memory Deep Neural Networks, 2D-CLDNN)和復(fù)數(shù)值CLDNN(Complex-Value-Convolutional Long short-term memory Deep Neural Networks, CVCLDNN)。文獻(xiàn)[10–12]將CLDNN首次用于調(diào)制分類、語音搜索和異常識(shí)別任務(wù),它結(jié)合了CNN、長短時(shí)記憶網(wǎng)絡(luò)(Long Short-Term Memory, LSTM)和深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)的優(yōu)點(diǎn)。由于RF設(shè)備產(chǎn)生的記憶長度的非線性部分,數(shù)字干擾消除的任務(wù)與時(shí)間相關(guān)問題緊密相連。通過將訓(xùn)練樣本輸入神經(jīng)網(wǎng)絡(luò),可以較為容易地重建非線性自干擾。此外,具有高維特征和高度非線性的自干擾很難通過建模來處理,而CNN在解決傳統(tǒng)數(shù)學(xué)模型難以解決的問題方面具有優(yōu)勢(shì)。因此,將CLDNN應(yīng)用于非線性數(shù)字對(duì)消有望獲得較好的性能。在IBFD系統(tǒng)中,實(shí)驗(yàn)結(jié)果與傳統(tǒng)方法相比,表明所提出的兩種新的CLDNN方法在消除自干擾性能方面顯著優(yōu)于傳統(tǒng)方法。其中,與全連接深度神經(jīng)網(wǎng)絡(luò)等傳統(tǒng)方法的基準(zhǔn)相比,所提出的方案可以實(shí)現(xiàn)至少26%的非線性自干擾消除改進(jìn)。此外,本文所提CLDNN方法只需要顯著減少訓(xùn)練輪數(shù)就能保證相同的自干擾消除性能。
本文的其余部分安排如下:第2節(jié)簡要描述了IBFD系統(tǒng)的基帶等效信號(hào)模型,并回顧了傳統(tǒng)自干擾消除方法;第3節(jié)介紹了所提出的2D-CLDNN和CV-CLDNN結(jié)構(gòu);第4, 5節(jié)進(jìn)行了實(shí)驗(yàn)結(jié)果分析和全文總結(jié)。
圖1 所提出的基帶等效信號(hào)模型的框圖
多項(xiàng)式模型能夠表征RF損傷的非線性效應(yīng),尤其是PA非線性和IQ不平衡[6,7],其顯著非線性失真主要在多項(xiàng)式非線性抵消模型中討論[4,5]發(fā)送端和接收端的數(shù)字基帶信號(hào)用x(n)和y(n)表示。M,L和P的參數(shù)分別表示PA的記憶長度、hSI的多徑長度和PH模型的非線性階數(shù)。
除基于多項(xiàng)式模型的自干擾消除方法之外,已有基于神經(jīng)網(wǎng)絡(luò)的方法主要包括實(shí)值神經(jīng)網(wǎng)絡(luò)(Real-Valued Neural Network, RVNN)[7]和CVNNsplit[8,9]。由全連接層組成的RVNN包含3種類型的節(jié)點(diǎn),分別稱為輸入節(jié)點(diǎn)、隱藏節(jié)點(diǎn)和輸出節(jié)點(diǎn)。在處理復(fù)數(shù)值數(shù)據(jù)時(shí),例如通信基帶信號(hào),需要將所有復(fù)數(shù)值拆分為實(shí)部和虛部。輸入節(jié)點(diǎn)的大小與射頻設(shè)備和無線信道的自干擾信道響應(yīng)的總長度有關(guān),有兩個(gè)輸出節(jié)點(diǎn)代表估計(jì)的自干擾信號(hào)的實(shí)部和虛部。通過使用來自參考信號(hào)數(shù)據(jù)集的訓(xùn)練樣本,可以將網(wǎng)絡(luò)的所有權(quán)重訓(xùn)練為最優(yōu)。而基于CVNN-split的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)旨在通過模仿復(fù)數(shù)網(wǎng)絡(luò)結(jié)構(gòu),將信號(hào)的實(shí)部和虛部分別饋送到不同的神經(jīng)元,然后再分別使用實(shí)值激活函數(shù)進(jìn)行處理。便于分析,下文中將實(shí)值激活函數(shù)命名為ReLU,并稱此網(wǎng)絡(luò)為CVNN-splitReLU。
憑借將低維特征映射到更高空間以實(shí)現(xiàn)更強(qiáng)大表達(dá)能力的優(yōu)勢(shì),CNN不僅在圖像分類方面,而且在視頻檢測(cè)和文本理解方面都被認(rèn)為是一種有用的方法。與之不同的是,RNN在時(shí)間相關(guān)性任務(wù)中表現(xiàn)得更好,已被確定為應(yīng)對(duì)自然語言處理問題的首選。而對(duì)于無線通信而言,越來越多的研究將其應(yīng)用在自動(dòng)調(diào)制分類(Adaptive Modulation and Coding, AMC)[10,12,13]、信道估計(jì)、信道狀態(tài)信息反饋[14,15]中。依賴于CNN和RNN這兩個(gè)網(wǎng)絡(luò)在空間和時(shí)間特征提取方面的能力,可以通過深度學(xué)習(xí)將二者結(jié)合起來從而提高數(shù)字對(duì)消的性能。
經(jīng)典的CNN網(wǎng)絡(luò)結(jié)構(gòu)由不同類型的層組成,例如池化層、卷積層等。由卷積濾波器(或核)組成的卷積層能夠通過其特征平移不變特性從原始數(shù)據(jù)中提取主要特征,并且這些濾波器在整個(gè)時(shí)頻空間中共享。通過卷積層和池化層,具有高維特征的原始數(shù)據(jù)將通過降維過程發(fā)送到下一層[12]。通過循環(huán)結(jié)構(gòu)將以前和現(xiàn)在的數(shù)據(jù)連接,RNN適合處理具有顯著時(shí)間相關(guān)性的時(shí)間序列數(shù)據(jù)。隨著深度學(xué)習(xí)的快速發(fā)展,LSTM可用來解決梯度消失問題。
通過綜合CNN和LSTM的優(yōu)點(diǎn),CLDNN更適合消除IBFD系統(tǒng)中由射頻損傷引起的具有高維特征和高度非線性的自干擾。CLDNN是由CNN,LSTM和DNN級(jí)聯(lián)組合而成的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),其中,CNN可以減小頻率的偏移變化,LSTM則很適合對(duì)時(shí)序語音進(jìn)行建模,DNN可以對(duì)特征進(jìn)行非線性映射到一個(gè)抽象空間從而進(jìn)行有效分離。因此,本文利用以下兩種CLDNN結(jié)構(gòu)進(jìn)行非線性數(shù)字干擾消除。
2D-CLDNN的設(shè)計(jì)源于圖像處理領(lǐng)域中處理多通道圖像的方案,在算法設(shè)計(jì)中引入3維張量,其中各維度分別表征原始數(shù)據(jù)的樣本量、M+L(M和L分別代表PA的記憶長度和hSI的多徑長度)與實(shí)虛部。2D-CLDNN不需要針對(duì)基帶信號(hào)的實(shí)部虛部分別設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)輸入層,因此能大大減少待估計(jì)的網(wǎng)絡(luò)參數(shù),同時(shí)顯著提高每輪訓(xùn)練速度。
基于2D-CLDNN的自干擾消除方法首先將數(shù)據(jù)的實(shí)部和虛部分開,然后分別傳輸?shù)絉VNN中的兩個(gè)神經(jīng)元中,從而構(gòu)建3維張量來表示本文的訓(xùn)練樣本。在圖像處理中,需要將具有多通道特征的灰度圖像或彩色圖像轉(zhuǎn)換為多維張量,以便后期更好地處理。同樣,本文構(gòu)建的張量有3個(gè)維度,分別代表樣本的大小、自干擾通道響應(yīng)的記憶長度以及表示基帶信號(hào)的實(shí)部和虛部的兩個(gè)“顏色通道”。與不使用特征工程而直接使用CNN的方法相比,后者減小了輸入層的大小,從而顯著減少了所需的訓(xùn)練時(shí)間。此外,CNN能夠捕捉到一個(gè)基帶信號(hào)的整體特征而不忽略相位信息,因此本文將一個(gè)基帶信號(hào)作為處理一個(gè)多通道圖像的工具。
將經(jīng)歷特征提取和降維后的樣本作為下一個(gè)LSTM層的輸入,該層能夠處理記憶長度效應(yīng)的時(shí)間相關(guān)性。之后,一個(gè)全連接層連接到LSTM層,輸出層有兩個(gè)神經(jīng)元,分別代表評(píng)估自干擾信號(hào)的實(shí)部和虛部。整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。ReLU作為激活函數(shù),網(wǎng)絡(luò)采用均方誤差作為損失函數(shù),因此該任務(wù)可以看作一個(gè)回歸問題。
圖2 2D-CLDNN結(jié)構(gòu)
卷積層由25個(gè)大小為1×8的過濾器(窗口長度為8的1維過濾器)組成,并相應(yīng)使用一個(gè)最大池化層。該層以32個(gè)單元和0.09的丟失率連接到LSTM層,并且LSTM層連接到一個(gè)與文獻(xiàn)[6]中的基線相同的大小為17的密集全連接層,該層分別連接到用作兩個(gè)輸出層的兩個(gè)密集層。
CVNN結(jié)構(gòu)經(jīng)常被用于處理通信基帶信號(hào)[8,9,16],其諸多變體主要可以分為兩種類型:一種是完全配備復(fù)數(shù)參數(shù),包括權(quán)重、激活函數(shù)等;另一個(gè)是實(shí)虛分離型激活函數(shù),將輸入層的實(shí)部和虛部分別輸入不同的實(shí)值激活函數(shù),以滿足復(fù)雜運(yùn)算的需求。受文獻(xiàn)[17]中的思想啟發(fā),本文提出了一種基于CV-CLDNN的非線性數(shù)字自干擾消除方法,與RVNN類似,該網(wǎng)絡(luò)也將樣本分為實(shí)部和虛部兩個(gè)輸入層,然后分別輸入所述卷積層進(jìn)行復(fù)卷積,得到實(shí)部復(fù)卷積層和虛部復(fù)卷積層,再進(jìn)行級(jí)聯(lián),完成所述訓(xùn)練模型,得到輸出信號(hào)。
通過CV-CLDNN通過復(fù)卷積核與輸入樣本的實(shí)部虛部進(jìn)行模仿復(fù)數(shù)運(yùn)算的復(fù)卷積運(yùn)算,同樣充分考慮了復(fù)基帶信號(hào)包含的相位信息,更好地對(duì)自干擾信號(hào)進(jìn)行刻畫和重建。假設(shè)對(duì)復(fù)數(shù)輸入樣本z=x+iy進(jìn)行卷積,其中x和y通過復(fù)數(shù)濾波器W=A+iB(A,B代表復(fù)卷積核)表示該樣本的實(shí)部和虛部。因此,通過卷積上面提到的兩個(gè)對(duì)象,可以得到
其中,?表示卷積運(yùn)算。經(jīng)過這種復(fù)雜的卷積運(yùn)算和復(fù)雜的激活函數(shù)處理后,樣本最終被送入下一個(gè)LSTM層、全連接隱藏層和輸出層。整個(gè)CV-CLDNN如圖3所示。
圖3 CV-CLDNN結(jié)構(gòu)
本節(jié)首先將自干擾信號(hào)數(shù)據(jù)集用于上述訓(xùn)練模型,然后本文展示了這些非線性數(shù)字對(duì)消方法包括本文提出的CLDNN(2D-CLDNN和CV-CLDNN),CVNN-splitReLU, RVNN和多項(xiàng)式模型的性能比較結(jié)果。與文獻(xiàn)[6]中將M+L(PA記憶長度M與自干擾信道多徑長度L之和)設(shè)置為固定值不同,本文使用不同的值來評(píng)估這些不同的方法,以反映無線信道和射頻損傷中的動(dòng)態(tài)環(huán)境。
為了公平地比較本文的網(wǎng)絡(luò)與傳統(tǒng)方法之間的非線性自干擾消除性能,決定使用Github中[6]共享的數(shù)據(jù)集,并通過最小二乘法(Least Square,LS)抵消線性部分。便于分析,以下自干擾消除性能是指LS處理后的非線性自干擾消除性能。該數(shù)據(jù)集由正交頻分復(fù)用(Orthogonal Frequency-Division Multiple, OFDM)信號(hào)組成,這些信號(hào)經(jīng)過正交相移鍵控(Quadrature Phase Shift Keying,QPSK)調(diào)制。更多關(guān)于數(shù)字抵消前模擬抵消的方法和硬件采集信號(hào)的參數(shù)可以從文獻(xiàn)[6]中獲得。
對(duì)于多項(xiàng)式模型,文獻(xiàn)[6]將非線性階數(shù)設(shè)置為P=7,并且考慮了3種不同條件下的M+L。而對(duì)于RVNN,全連接神經(jīng)網(wǎng)絡(luò)是通過使用Python的Keras框架實(shí)現(xiàn)的。輸入單元的大小為2(M+L),作為基線的隱藏單元的大小為17。將λ=0.004的學(xué)習(xí)率設(shè)置為與文獻(xiàn)[6]相同,并將不同的批量梯度下降大小設(shè)置為B=256,以便更好地訓(xùn)練本文的模型,防止過度擬合,同時(shí)盡最大努力保持與基線一致。CVNN-splitReLU的相關(guān)參數(shù)與RVNN相同,但它使用ReLU作為激活函數(shù)。兩個(gè)CLDNN的網(wǎng)絡(luò)結(jié)構(gòu)見上文第3節(jié)。
2D-CLDNN由1個(gè)具有3維張量的輸入層、1個(gè)具有Wnum=25個(gè)Wsize=8的濾波器的卷積層、1個(gè)最大池化層、1個(gè)具有32個(gè)單元的LSTM層以及其他與RVNN相同的層組成。CV-CLDNN與2D-CLDNN不同,它的輸入層大小與RVNN相同,并且有4個(gè)卷積層,可以滿足復(fù)雜算子的模擬。
從表1的數(shù)據(jù)來看,當(dāng)將M+L=13設(shè)置為與文獻(xiàn)[6]相同時(shí),不難發(fā)現(xiàn)復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在重構(gòu)自干擾信號(hào)的非線性部分時(shí)產(chǎn)生了最佳性能。很明顯,2D-CLDNN和CV-CLDNN在這兩種情況下都比其他傳統(tǒng)方法表現(xiàn)更好。更重要的是,RVNN在這兩種情況下平均表現(xiàn)最差。另外,多項(xiàng)式模型的性能可以逼近CVNN-splitReLU,甚至在內(nèi)存長度設(shè)置為20時(shí)超過它。一般來說,本文基于CLDNN提出的兩個(gè)網(wǎng)絡(luò)結(jié)構(gòu)在非線性數(shù)字自干擾消除性能方面表現(xiàn)最佳,主要體現(xiàn)在以下兩個(gè)方面:一是本文提出的兩個(gè)CLDNN的非線性自干擾消除性能能夠達(dá)到大約8 dB,但對(duì)于RVNN,它低于7 dB。此外,本文提出的兩個(gè)CLDNN是穩(wěn)健的,因?yàn)樗鼈兊姆蔷€性自干擾消除性能不受不同環(huán)境(例如不同的無線信道和RF損傷)的嚴(yán)重影響。
表1 各方法在M+L不同條件下的非線性自干擾消除性能(dB)
(1)M+L=13:根據(jù)文獻(xiàn)[6],M+L=13被認(rèn)為是匹配多項(xiàng)式模型以達(dá)到最佳抵消性能的最佳情況,RVNN也遵循相同的設(shè)置。因此,為了將本文的網(wǎng)絡(luò)結(jié)構(gòu)與其他傳統(tǒng)網(wǎng)絡(luò)進(jìn)行比較,本文首先將M+L=13作為基線。在圖4中,在線性抵消之后,本文提出的兩個(gè)CLDNN網(wǎng)絡(luò)結(jié)構(gòu)的非線性自干擾消除性能最終通過總共60次訓(xùn)練輪數(shù)接近8 dB。此外,可以發(fā)現(xiàn),僅在大約3個(gè)時(shí)期之后,這兩個(gè)CLDNN網(wǎng)絡(luò)結(jié)構(gòu)就實(shí)現(xiàn)了7 dB的非線性自干擾消除,這是傳統(tǒng)RVNN最終無法達(dá)到的性能。此外,CVNN-splitReLU的性能優(yōu)于RVNN,但仍無法與兩個(gè)CLDNN網(wǎng)絡(luò)結(jié)構(gòu)相媲美。然而,這兩個(gè)CLDNN網(wǎng)絡(luò)結(jié)構(gòu)在測(cè)試數(shù)據(jù)上的表現(xiàn)不如其他網(wǎng)絡(luò)穩(wěn)定的原因是本文提出的網(wǎng)絡(luò)更復(fù)雜,相關(guān)參數(shù)的數(shù)量也更多。因此,本文的網(wǎng)絡(luò)存在一些過度擬合是很正常的。然而,有許多方法被普遍認(rèn)為是克服深度學(xué)習(xí)中過度擬合的有用工具,例如調(diào)整學(xué)習(xí)率、批量大小、訓(xùn)練輪數(shù)等。事實(shí)上,本文采用了更多的訓(xùn)練策略來使這兩個(gè)CLDNN網(wǎng)絡(luò)結(jié)構(gòu)的性能在訓(xùn)練集和測(cè)試集上保持一致。但是為了保持比較的公平性,不愿意過多地改變相關(guān)參數(shù),并且這兩種CLDNN在非線性自干擾消除性能方面明顯優(yōu)于其他方法。
圖4 當(dāng)M+L=13時(shí),非線性自干擾消除性能(dB)與訓(xùn)練輪數(shù)的關(guān)系
在圖5中,很明顯,本文提出的方法在進(jìn)行非線性抵消后,抵消性能都達(dá)到了大約8 dB,并且非常接近接收機(jī)的底部噪聲。
圖5 自干擾信號(hào)與進(jìn)行線性/非線性抵消后的功率譜密度
如上所述,M+L的長度由兩部分組成,M與PA的記憶長度有關(guān),L代表自干擾信道多徑的長度。信號(hào)帶寬和信道條件對(duì)多徑效應(yīng)都有影響。有一些特定的無線信道由于散射環(huán)境豐富,影響L值。例如,在IEEE802.16e系統(tǒng)中,20 MHz帶寬下的44.64 ns采樣間隔遠(yuǎn)小于多徑信道下2510 ns的延遲擴(kuò)展。因此本文假設(shè)帶寬是固定的,而無線信道是動(dòng)態(tài)的,因此M+L的值不是一個(gè)固定的常數(shù)。所以,除了M+L=13之外,本文還選擇了M+L=8和M+L=20,以證明本文提出的兩個(gè)網(wǎng)絡(luò)是穩(wěn)固的,并且仍然比其他傳統(tǒng)方法表現(xiàn)更好。
(2)M+L=8:在這種情況下,4個(gè)網(wǎng)絡(luò)的非線性自干擾消除性能變得更差。從圖6可以發(fā)現(xiàn),這兩個(gè)CLDNN的非線性抵消在60次訓(xùn)練輪數(shù)后也可以達(dá)到大約7 dB。CVNN-splitReLU表現(xiàn)稍差。然而,RVNN的非線性自干擾消除非常接近6 dB,并且在這些網(wǎng)絡(luò)中表現(xiàn)相對(duì)穩(wěn)定。
圖6 當(dāng)M+L=8時(shí),非線性自干擾消除性能(dB)與訓(xùn)練輪數(shù)的關(guān)系
(3)M+L=20:從圖7可以看到所提出的兩個(gè)CLDNN的抵消大約達(dá)到8 dB,與第1種情況一樣有輕微的波動(dòng),并且仍然比其他網(wǎng)絡(luò)表現(xiàn)更好。CVNN-splitReLU在測(cè)試集上的表現(xiàn)比其他情況差,RVNN的性能還不能超過7 dB。但是可以發(fā)現(xiàn)這4個(gè)網(wǎng)絡(luò)的性能并沒有下降,這表明神經(jīng)網(wǎng)絡(luò)具有適應(yīng)時(shí)變信道環(huán)境的能力。
圖7 當(dāng)M+L=20時(shí),非線性自干擾消除性能(dB)與訓(xùn)練輪數(shù)的關(guān)系
CLDNN網(wǎng)絡(luò)結(jié)構(gòu)在卷積層可以充分利用復(fù)基帶信號(hào)的實(shí)部虛部聯(lián)合特性,且考慮復(fù)數(shù)的相位信息,因此能更加逼近自干擾信號(hào)的本質(zhì)以更好地對(duì)信號(hào)進(jìn)行近似。卷積層輸出的信號(hào)輸入到LSTM層后,算法充分利用LSTM特有的處理時(shí)間序列任務(wù)的優(yōu)勢(shì),準(zhǔn)確地反映了自干擾信號(hào)具有時(shí)間相關(guān)性的特點(diǎn)。與傳統(tǒng)非線性數(shù)字自干擾消除方法相比,本文基于CLDNN提出的2D-CLDNN和CV-CLDNN在PA記憶長度和自干擾信道多徑長度滿足M+L=13時(shí),通過總共60次訓(xùn)練輪數(shù),兩種卷積長短時(shí)記憶深度神經(jīng)網(wǎng)絡(luò)的自干擾消除性能增益達(dá)8 dB。在后續(xù)的研究工作中,將在非線性數(shù)字自干擾消除中考慮采用更為先進(jìn)的全連接網(wǎng)絡(luò),為IBFD系統(tǒng)的收發(fā)同時(shí)能力提供技術(shù)支撐。