曾舒磊,李學華,潘春雨,王亞飛,趙中原
1.北京信息科技大學 信息與通信工程學院,北京100101
2.北京郵電大學 信息與通信工程學院,北京100876
近年來,隨著5G 移動通信業(yè)務的全面展開,B5G(Beyond 5G,B5G)將進一步擴展支持的通信場景與性能。面對B5G更多樣化與更高的性能需求,霧無線接入網正在受到業(yè)界的廣泛關注[1]。為充分挖掘霧無線接入網的性能潛力,需要對光譜等資源進行適當?shù)墓芾砗头峙?。資源分配方法,如發(fā)射功率控制,波束賦形(Beamforming)設計,邊緣緩存控制等,對5G 的推廣應用及B5G的進一步演進極為重要。
在傳統(tǒng)資源分配方法中,數(shù)值優(yōu)化在解決無線資源管理問題中發(fā)揮了重要作用。文獻[2]提出一種迭代注水算法;文獻[3]采用加權最小均方誤差算法(Weighted Minimum Mean Square Error,WMMSE)來設計波束賦形器;文獻[4]考慮前傳鏈路(fronthaul)成本,提出一種基于迭代的波束形成設計方案;文獻[5-6]考慮聯(lián)合邊緣緩存,提出一種自適應傳輸選擇算法。在此類方案中,算法收斂前必須進行多次迭代,無法適配于實際應用中的實時操作需求。并且,隨著用戶數(shù)量的增加,算法需要更多次數(shù)的迭代[7]。
基于深度神經網絡的深度學習技術已在許多領域得到應用,如圖像分類等,并且已有部分研究證明該方案與傳統(tǒng)方案相比性能更優(yōu)[8-9]。DNN可以通過簡單的反向傳播算法來解決復雜的非線性問題,而無需推導復雜的數(shù)學模型。文獻[7]采用深度神經網絡來擬合文獻[3]中提出的WMMSE 的發(fā)射功率控制策略,從而解決了基于WMMSE方案的主要缺點,也就是大量迭代導致的計算時間過長。然而,考慮到這種情況下的主要目標是基于WMMSE 的方案的擬合,基于DNN 方案的可實現(xiàn)容量受限于WMMSE 方案。為突破傳統(tǒng)WMMSE方法的性能限制,文獻[10]提出基于CNN的功率分配方案。文獻[11]考慮全局最優(yōu)的EE,提出基于DNN 的功率分配方案,文獻[12]提出一種基于BP神經網絡的移動網絡物理層安全方法,然而文獻[10-11]所提方案都是基于單對單收發(fā)器模型的簡單網絡,隨著5G 移動網絡商用,早已無法適配復雜網絡及新興的5G 網絡架構所帶來的需求與挑戰(zhàn)。
為了解決上述算法中暴露出的傳統(tǒng)數(shù)值優(yōu)化算法耗時過長、機器學習算法中網絡結構無法適配5G 系統(tǒng)等問題,本文提出基于DNN 的F-RAN 資源分配方法。本文的主要貢獻概括如下:
(1)運行凸優(yōu)化迭代算法得到算法輸入的波束賦形向量,并提出基于DNN 的F-RAN 資源分配方案。在所提出方案中,通過深度學習技術,以最大化經濟頻譜效率(ESE)為目標進行自主學習,有效地確定波束賦形方案。本文中的研究是將DNN 應用于F-RAN 中波束賦形設計的初步嘗試。
(2)本文創(chuàng)新性地分別使用基于監(jiān)督學習的歸一化均方誤差(Normalized Mean Square Error,NMSE)和基于非監(jiān)督學習的ESE作為損失函數(shù)進行訓練。
(3)本文在計算機仿真的基礎上對所提出方案的性能進行評估。結果表明,相比傳統(tǒng)的迭代算法,該方案在實現(xiàn)計算時間大幅度縮短的前提下,SE 和ESE 也能夠得到一定的性能增益,此外,本文提出的方案比傳統(tǒng)的迭代方案具有更低的時間復雜度。
(4)本文對不同機器學習方案的性能進行評估。結果表明,相比基于監(jiān)督學習的CNN,本方案的SE和ESE能夠得到一定的性能增益。
(5)本文將NMSE和基于非監(jiān)督學習的ESE作為損失函數(shù)應用于CNN,結果表明,本方案與使用相同損失函數(shù)的CNN方案具有相似的性能。
考慮如圖1 所示的下行(downlink)F-RAN 場景,該場景包含N個F-AP(Fog Access Point,F(xiàn)-AP)、K個單天線終端(User Equipment,UE)和一個虛擬化基帶單元(Building Base band Unite,BBU)池,其中,每個F-AP包含M個天線。所有調度與波束形成都在BBU 池中處理。每個F-AP通過有線或者無線的前傳鏈路連接到BBU池。N個F-AP均勻覆蓋在D×D的范圍中,并分別使用有線和無線兩種典型的前傳載波技術[13],K個單天線終端隨機分布在該小區(qū)內。將終端與F-AP的集合分別記為K={1,2,…,K}和N={1,2,…,N},本文假設下行F-AP 通過有線前傳鏈路連接于BBU 池的信道集合為N1={1,2,…,N1},而通過無線前傳鏈路連接于BBU 池的信道集合記為N2={N1+1,N1+2,…,N} 。假設BBU 池已訪問所有終端的數(shù)據(jù),并通過前傳鏈路將終端數(shù)據(jù)分發(fā)給F-AP集群。
圖1 霧無線接入網架構
將F-APn到終端k的波束形成定義為wkn∈?1×M,終端k的波束形成向量可以表示為wk=[wk1,wk2,…,wkn]∈?M×N。則終端k的理論數(shù)據(jù)速率為:
其中,hk∈?M×N為終端k與所有F-AP 天線之間的信道信息(Channel State Information,CSI)矩陣[14-16],σ2為噪聲能量。
模型中F-AP的總容量受到單個鏈路瓶頸容量的限制[13],且BBU 池與F-AP 間有線與無線傳輸方式有不同的限制容量,分別記為R1n(?n∈N1)與R2n(?n∈N2)。因此,F(xiàn)-AP需滿足的前傳鏈路容量限制可表示為:
頻譜效率與能量效率(Energy Efficiency,EE)分別定義為[4,7]:
其中,ak為終端k的權重向量,ξ為功率放大器效率常量,Pc表示F-AP 的靜態(tài)功率損耗。本文中使用‖ x ‖0表示x 的l0范數(shù),‖ x ‖2表示x 的l2范數(shù),則‖可記為F-APn到終端k的發(fā)射功率。
考慮到有線和無線前傳鏈路有不同的成本,將F-APn到BBU 池記為成本系數(shù)cn,在此基礎上,本文將經濟光譜效率定義為[4]:
本文考慮資源分配的經濟頻譜效率最大化問題,即ESE最大化。為了實現(xiàn)上述目標,須解決以下優(yōu)化問題:
其中,約束條件C1為F-AP的最大發(fā)射功率約束,C2表示BBU池與F-AP間有線傳輸方式的容量限制,C3表示BBU 池與F-AP 間無線傳輸方式的容量限制。但是,由于問題(8)的Rk中包含形如等非凸項,為非凸問題,難以直接求得全局最優(yōu)解。因此,本文采用深度神經網絡方法通過數(shù)值擬合與優(yōu)化對問題(8)進行求解。
為方便閱讀,本文中使用的仿真參數(shù)符號說明表示在表1中。
表1 仿真參數(shù)符號說明
采用傳統(tǒng)優(yōu)化算法(如WMMSE和凸優(yōu)化迭代算法等)[3-4,17],時間復雜度高、給系統(tǒng)帶來的計算壓力大,因此,本文提出使用深度神經網絡解決問題(8)中的優(yōu)化問題。深度神經網絡可以針對任意信道條件訓練得到一個通用的波束賦形器策略,從而大幅度降低時間成本。在本章中,首先考慮使用DNN 網絡擬合文獻[4]提出的凸優(yōu)化迭代算法。這里并不需要對算法每次迭代過程進行擬合。DNN 具備多層隱含層,因此可以以任意精度擬合任意復雜度的函數(shù)。
這里使用的DNN 結構包含一個輸入層、一個輸出層和Q個隱藏層,算法結構如圖2所示。由于使用多個隱藏層可以顯著減少隱藏單元的總數(shù),在保持擬合精度的同時提高計算效率,因此,本文所提的算法中使用多個隱藏層(相比于單隱藏層),同時,將第q個隱藏層記為Dq。在每個隱藏層的輸出使用非線性校正函數(shù)ReLU(Rectified Linear Unit,ReLU)作為激活層:
這里x,y分別表示ReLU 激活層的輸入、輸出。此外,為了使DNN 的輸出歸一化,將輸出層的激活函數(shù)設為截斷的ReLU:
圖2 DNN架構
本文中使用的數(shù)據(jù)按以下方式生成:首先,生成信道矩陣{hk}(i)(遵循第2、4章所提到的信道條件);然后,運行凸優(yōu)化迭代算法[4],導入信道矩陣{hk}(i),得到算法輸出的波束賦形向量{wk}(i)。由于終端的位置和多徑衰落不同,因此每個信道樣本的信道矩陣和最佳波束賦形向量也不一樣。
為方便神經網絡計算,將信道矩陣hk進行標準化(normalization),將表示為標準化輸出,則有=同時,將波束賦形向量wk進行歸一化,將表示為歸一化輸出,即:
準備好訓練樣本后,使用NMSE作為損失函數(shù)進行訓練。將神經網絡的輸出記為yk,此時損失函數(shù)為:
因此,擬合訓練后的結果是凸優(yōu)化迭代方案的近似值。隨后,神經網絡可以使用優(yōu)化目標作為損失函數(shù)做進一步訓練。把最大化ESE 作為優(yōu)化目標時,損失函數(shù)為:
值得注意的是,使用ESE 作為損失函數(shù)訓練時,沒有監(jiān)督項,此時的神經網絡是非監(jiān)督學習。
本論文使用的優(yōu)化算法為RMSProp。其中,衰變率為0.9,通過交叉驗證選擇合適的batch 大小和學習率。DNN 模型是按照順序分別使用Lfit和LESE進行訓練的,這樣DNN模型首先使用Lfit進行訓練,并且在訓練后使用LESE進行訓練。為了進一步提高訓練性能,首先使用截斷正態(tài)分布初始化權值,然后將每個神經元的權值除以其輸入個數(shù)的平方根,使每個神經元輸出的方差歸一化。
根據(jù)當前的信道條件,采用訓練后的DNN 來確定波束形成向量,將DNN的輸出記為{ yk}(i)。用作標簽的數(shù)據(jù)是被做歸一化處理后的數(shù)據(jù),因此,要將輸出的{ yk}(i)進行還原,將還原后的數(shù)據(jù)記為,則
圖3 輸出算法流程圖
經過處理后的數(shù)據(jù)雖然無法保證訓練對所考慮的優(yōu)化問題的最優(yōu)解的收斂性,但與傳統(tǒng)的優(yōu)化方案相比,此處提出的優(yōu)化方案在F-AP的最大發(fā)射功率值Pmax較大可以獲得更好的解,仿真結果可以證實這一點。
圖4 CNN結構
CNN 算法同樣可用于解決式(8)中提出的優(yōu)化問題,從而根據(jù)信道條件決定波束賦形。
這里使用的CNN 結構包含一個卷積部分,一個全連接層(Fully Connected,F(xiàn)C)和一個激活層(Activation Function),詳情可見圖4。
卷積部分由串聯(lián)的Nc子塊組成,每個子塊包含一個卷積層和一個ReLU層。卷積核(filter)的大小設置為2×2,步長(stride)設置為1,并使用0填充,以便輸出的大小與輸入的大小保持一致。第i個子塊的卷積核數(shù)量設置為Ci。每個卷積層的輸出被送入ReLU層,以防止負值。
在FC 層,卷積部分的輸出被合并減少至K×N×M,用于確定波束賦形。隨后,將FC層的輸出導入激活層,這里使用截斷的非線性函數(shù)ReLU(10)作為激活函數(shù),使CNN的輸出歸一化。
與DNN相似,這里將標準化信道矩陣hk作為CNN的輸入,將CNN 輸出記為yCk。首先使用NMSE 作為CNN的損失函數(shù)進行訓練:
CNN訓練將使用與DNN相同的優(yōu)化方法和權重初始化方法,并在隨后的仿真結果中分別展示損失函數(shù)為L(C)fit與L(C)ESE時的算法性能。
本章比較了深度神經網絡與凸優(yōu)化迭代算法、WMMSE 方法等方案的性能。在仿真中,考慮一個F-RAN 小區(qū),F(xiàn)-AP 數(shù)量N=3,小區(qū)范圍D=0.5 km 。這里需要指出的是,更多的F-AP 只將帶來更高的計算復雜度,而所提出的解決方案仍然可以在保持類似的性能趨勢下工作。在三個F-APs中,假設其中一個通過無線前傳鏈路連接至BBU 池,另外兩個使用有線前傳鏈路。每個F-AP天線數(shù)M=2。假設該F-RAN小區(qū)包含的 終 端 數(shù) 為K=9 ,噪 聲 功 率 譜 密 度σ2=-174 dBm/Hz[18]。從F-AP 到終端的路徑損耗指數(shù)為4,衰弱系數(shù)為單位方差的同分布瑞利隨機變量(Rayleigh random variables)。假設所有F-AP具有相同的最大發(fā)射功率,即max,?n。對于前傳連接,有線與無線前傳連接容量約束值分別為10(bit ?s-1)/Hz與5(bit ?s-1)/Hz 。F-AP 的靜態(tài)能量損耗Pc=30 dBm,功率放大器的功率效率為ξ=2。由于有線前傳傳輸比無線前傳傳輸帶來更高的開銷,因此前傳鏈路成本系數(shù)被設置為滿足cwl<cw<1,在本文中,cw=0.5 ,cwl=0.25。
為考慮計算機效率,神經元數(shù)量最好為輸入的2n倍[19],因此,在本文所用的DNN 中,隱藏層數(shù)量Q=3,D1=216,D2=432,D3=432。此外,為訓練(訓練集,training dataset)和驗證(驗證集,validation dataset)分別生成20 000 個通道樣本,初始學習率設置為0.000 1,訓練batch 大小設置為50。另外,在本文所用的CNN中,卷積層數(shù)量Nc=7,卷積核數(shù)量Ci=8。
圖5 訓練集和驗證集的損失率變化
圖5 展示了損失函數(shù)為Lfit時DNN 的性能。用Ltrain與Lval分別表示Pmax=15 dBm 時訓練集和驗證集隨著訓練循環(huán)次數(shù)(epoch)的增加所對應的Lfit值??梢杂^察到,Ltrain與Lval很快接近于0.2。此外,隨著訓練循環(huán)次數(shù)(epoch)繼續(xù)增加,Ltrain與Lval都沒有增加,從而可以得出結論,即訓練程序可以很好地適應訓練集,而不存在過擬合(overfitting)或者欠擬合(underfitting)的情況。
考慮優(yōu)化目標為最大化ESE的神經網絡,在圖6中表示為DNN,并分別與WMMSE方案、凸優(yōu)化迭代方案和兩種CNN方案進行比較。圖中CNN(fit)表示損失函數(shù)為L(C)fit時的SE 和ESE 性能,CNN(ESE)表示損失函數(shù)為L(C)ESE時的SE和ESE性能。
圖6(a)和(b)分別展示了不同F(xiàn)-AP 最大發(fā)射功率下五種算法的SE 與ESE 性能。可以看出,使用LESE作為損失函數(shù)下的DNN 網絡都能獲得接近于或者超出凸優(yōu)化迭代算法的性能;損失函數(shù)為L(C)fit時,CNN性能差于DNN 和凸優(yōu)化迭代算法,而損失函數(shù)為L(C)ESE時,CNN 性能與DNN 相似。需要指出的是,在實際仿真過程中,由于有時間復雜度限制,凸優(yōu)化迭代算法會設置有限的迭代次數(shù)上限與一定的迭代精度,并且將非凸問題變換為迭代的凸問題求解,使得凸優(yōu)化迭代算法只能求得局部解,而本文采用的神經網絡擬合方法在F-AP 最大發(fā)射功率Pmax較大時性能可以超出凸優(yōu)化迭代算法,在Pmax=20 dBm 點時ESE 的增益為20%。
圖6(a)不同前傳鏈路設置下SE對比
圖6(b)不同前傳鏈路設置下ESE對比
圖7 表明了不同終端數(shù)量下各種算法所需的計算時間。從圖中可以看出,DNN 的計算時間要遠遠短于WMMSE 方法與凸優(yōu)化迭代算法,并且DNN 的計算時間與WMMSE、凸優(yōu)化迭代算法的計算時間之間的差距隨著終端數(shù)量的增加而增大,而CNN 的計算時間與DNN相似。
圖7 不同算法計算時間對比
本文提出了基于神經網絡的優(yōu)化方案,主要解決F-RAN下的ESE性能優(yōu)化問題。通過訓練,本文提出的神經網絡方案能夠自主學習任意信道條件下的資源分配策略,訓練后的神經網絡相比傳統(tǒng)采用凸優(yōu)化的迭代方案來說,具備更小的時間復雜度。為驗證算法性能本文還提出一種具備相同損失函數(shù)的基于CNN的優(yōu)化方案。仿真結果表明,神經網絡與傳統(tǒng)的凸優(yōu)化方案具有更好的ESE 性能,并且,本文提出的算法具備更低的時間復雜度,與此同時,使用相同損失函數(shù)的CNN方案具備與DNN相似的性能與時間復雜度。