• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于AI算法的無線網(wǎng)絡鄰區(qū)關系優(yōu)化研究與實踐

      2021-06-18 01:05:58李張錚董帝烺中國聯(lián)通福建省分公司福建福州350000
      郵電設計技術 2021年5期
      關鍵詞:鄰區(qū)經(jīng)緯度樣本

      李張錚,陳 鋒,董帝烺(中國聯(lián)通福建省分公司,福建福州 350000)

      0 引言

      在無線網(wǎng)絡優(yōu)化工作中,鄰區(qū)優(yōu)化是降低掉話率、提升移動網(wǎng)絡質量、改善用戶感知的最基本且最有效的手段。目前基站鄰區(qū)優(yōu)化有2 種方式:自動鄰區(qū)關系(ANR)和非自動鄰區(qū)關系(下文簡稱非自動鄰區(qū)關系網(wǎng)絡為傳統(tǒng)網(wǎng)絡)。具備自動鄰區(qū)關系的網(wǎng)絡可自動優(yōu)化鄰區(qū)關系,不需人工干預;傳統(tǒng)網(wǎng)絡鄰區(qū)關系需優(yōu)化人員手工優(yōu)化。這些網(wǎng)絡鄰區(qū)的數(shù)目眾多,優(yōu)化工作量非常大;需要優(yōu)化鄰區(qū)的確定與個人優(yōu)化經(jīng)驗有很大的關系,稍有不慎就可能造成鄰區(qū)漏配或冗余鄰區(qū),存在較大的優(yōu)化風險。規(guī)避上述問題,提高鄰區(qū)優(yōu)化的效率和精度已成為網(wǎng)絡優(yōu)化的關鍵??紤]到在ANR 網(wǎng)絡中,自動鄰區(qū)關系已成為小區(qū)SON 功能的標配,無需人員操作網(wǎng)絡便可自動識別和添加鄰區(qū),如何利用ANR 鄰區(qū)關系來優(yōu)化傳統(tǒng)網(wǎng)絡鄰區(qū)已成為網(wǎng)絡運營智能化的重要課題。

      機器學習技術作為人工智能的重要組成部分,是國家發(fā)展戰(zhàn)略重點扶持的目標和當下各行業(yè)關注應用的焦點。為了推動傳統(tǒng)網(wǎng)絡鄰區(qū)優(yōu)化的智能化,提升網(wǎng)絡運營智能化水平,特開展基于機器學習算法的鄰區(qū)關系優(yōu)化的研究。

      1 傳統(tǒng)無線網(wǎng)絡鄰區(qū)關系優(yōu)化難點

      在傳統(tǒng)網(wǎng)絡優(yōu)化中,鄰區(qū)關系優(yōu)化一直以來是一個難點。由于鄰區(qū)關系數(shù)量多、影響大、技術要求高、優(yōu)化手段匱乏等等方面的因素,使得鄰區(qū)關系優(yōu)化在傳統(tǒng)網(wǎng)絡中存在一些挑戰(zhàn)。

      1.1 鄰區(qū)關系數(shù)量多,導致優(yōu)化耗時耗力

      以福州聯(lián)通為例,W 現(xiàn)網(wǎng)有小區(qū)25 000 個,用每個小區(qū)有20~25 條鄰區(qū)來計算,所配置的鄰區(qū)個數(shù)至少50萬條以上,網(wǎng)優(yōu)人員每周提取MR數(shù)據(jù),使用廠家工具進行同頻、異頻鄰區(qū)核查,根據(jù)核查結果,確定需要優(yōu)化的鄰區(qū),并進行相應操作,鄰區(qū)優(yōu)化的工作量非常大。

      1.2 鄰區(qū)關系影響面大,直接關系網(wǎng)絡口碑

      鄰區(qū)設置不當,會導致干擾增大、容量下降和性能惡化,嚴重影響用戶感知,引發(fā)的掉話等問題會導致用戶投訴,給運營商網(wǎng)絡口碑帶來負面影響,影響NPS 得分。鄰區(qū)設置不當主要有2 種表現(xiàn)方式:鄰區(qū)漏配和冗余鄰區(qū)。鄰區(qū)漏配會引起干擾增大,降低用戶的通話質量甚至掉話,從而引起容量及覆蓋能力下降;冗余鄰區(qū)一方面將會由于切換的過多會導致信令負荷加重;另一方面由于終端測量能力的限制,會降低測量的精度、增加測量時延。同時信號較多會造成干擾,容易出現(xiàn)掉話,影響速率的提升,從而影響用戶感知。

      1.3 鄰區(qū)關系優(yōu)化手段缺乏,對技術要求高

      傳統(tǒng)的鄰區(qū)關系優(yōu)化手段有2 種:基于路測軟件分析和基于廠家的鄰區(qū)核查工具平臺。

      a)路測軟件分析。基于導頻的小區(qū)切換關系來定位鄰區(qū)關系合理性,該方法的局限性是路測范圍有限,覆蓋面不足,無法開展全網(wǎng)的精細鄰區(qū)優(yōu)化,且路測方法耗時耗力。

      b)基于廠家的鄰區(qū)核查平臺。通過采集UE 上報的測量報告、話統(tǒng)呼叫記錄、事件進行匯總分析,判斷鄰區(qū)漏配和冗余。該方法有較高的精確性,但受限于廠家License配額和優(yōu)化人員的技術水平。

      2 基于XGBoost算法的小區(qū)切換占比預測

      隨著運營商移動用戶數(shù)的不斷增加,良好的用戶網(wǎng)絡體驗保障對無線網(wǎng)絡運營提出了更高的要求。影響無線網(wǎng)絡質量的因素很多,其中鄰區(qū)關系是一個關鍵因素,它是小區(qū)移動性管理的直接承載者。做好鄰區(qū)關系優(yōu)化,始終是網(wǎng)優(yōu)工作的重點。

      本文通過利用XGBoost 機器學習算法學習ANR現(xiàn)網(wǎng)鄰區(qū)關系數(shù)據(jù),建立小區(qū)間切換次數(shù)占比模型預測出傳統(tǒng)網(wǎng)絡小區(qū)的鄰區(qū)關系。該模型可在開站鄰區(qū)配置、鄰區(qū)核查、用戶投訴分析等網(wǎng)優(yōu)日常工作中起到積極作用。

      2.1 訓練集和測試集樣本生成

      2.1.1 樣本的采集

      提取某省聯(lián)通2 個行政區(qū)LTE 網(wǎng)絡3 天的兩兩小區(qū)切換次數(shù)報表,匯總每個小區(qū)鄰區(qū)的切換次數(shù)占比降序排列,取每個小區(qū)占比前50 名的鄰區(qū)作為樣本,切換占比為樣本標簽,同時關聯(lián)網(wǎng)絡工參相關字段(見表1),形成最終樣本。

      表1 網(wǎng)絡工參字段

      2.1.2 樣本劃分為訓練集和測試集

      機器學習一般將樣本劃分為訓練集和測試集,訓練集用于模型訓練,測試集用于測試模型性能。本文利用sciki-learn 的train_test_split()函數(shù)將樣本劃分為訓練集和測試集,其中參數(shù)測試集比例test_size 取0.2,即訓練集和測試集比例為8∶2。

      2.2 數(shù)據(jù)預處理

      數(shù)據(jù)預處理主要是檢查每個特征是否有缺失值或非法字符,對不合理的值進行校正替換。檢查樣本數(shù)據(jù)發(fā)現(xiàn),覆蓋類型為室分的小區(qū)方位角都是0值,這與實際室分小區(qū)為全向覆蓋不符,故室分小區(qū)的方位角需修正。修正方法如下:若室分小區(qū)與宏站鄰小區(qū)同經(jīng)緯度,則室分小區(qū)取宏站鄰小區(qū)的方位角;若室分小區(qū)與室分鄰小區(qū)同經(jīng)緯度,則室分小區(qū)方位角取值368°;若室分小區(qū)與鄰小區(qū)不同經(jīng)緯度,則室分小區(qū)方位角取室分小區(qū)與鄰小區(qū)連線與正北方向的順時針夾角r(見圖1)。

      圖1 室分小區(qū)方位角定義

      設室分小區(qū)經(jīng)緯度(X1,Y1),鄰小區(qū)經(jīng)緯度(X2,Y2),具體小區(qū)連線夾角r計算公式如下:

      為了便于書寫,令

      圖2給出了室分小區(qū)方位角特征預處理過程。

      圖2 室分小區(qū)方位角特征預處理

      2.3 特征工程

      特征工程是機器學習過程的重要環(huán)節(jié),樣本特征的好壞決定了機器學習性能的上限,而模型只是逼近這個上限而已。特征工程的主要內容包括特征構造、特征抽取和特征選擇。本文的原始特征包括本地/目標小區(qū)經(jīng)緯度、本地/目標小區(qū)方位角度、本地/目標小區(qū)合計下傾角度及本地/目標小區(qū)天線掛高10 個維度。為了滿足特征選擇的需要,在此基于本地/目標小區(qū)的經(jīng)緯度構造額外的特征,主要包括haversine距離、兩經(jīng)緯度的方位角、經(jīng)緯度PCA 分量,最后進行特征選擇。

      2.3.1 haversine距離

      haversine 公式是計算球面兩點間距離的一種方法,該方法采用了正弦函數(shù),即使距離很小,也能保持足夠的有效數(shù)字。haversine距離計算公式如下:

      圖3 本地/目標小區(qū)haversine距離計算

      2.3.2 兩經(jīng)緯度的方位角

      設本地小區(qū)經(jīng)緯度為(lat1,lng1),目標小區(qū)經(jīng)緯度為(lat2,lng2),兩經(jīng)緯度間的方位角公式計算如下,代碼實現(xiàn)如圖4所示。

      圖4 2個經(jīng)緯度間的方位角計算

      2.3.3 經(jīng)緯度的PCA分量

      主成分分析(PCA——Principal Component Analysis)是最廣泛的數(shù)據(jù)壓縮算法,主要通過降維可以生成更便于人理解的新特征,加快對樣本有價值信息的處理速度。此處對本地/目標小區(qū)經(jīng)緯度4 個特征采用PCA 進行變換,默認降維后的特征數(shù)仍為4(見圖5)。

      圖5 本地/目標小區(qū)經(jīng)緯度的PCA變換

      2.3.4 特征/目標相關性分析

      特征選擇不僅具有減少特征數(shù)量(降維)、減少過擬合、提高模型泛化能力等優(yōu)點,而且還可以使模型獲得更好的解釋性,增強對特征和特征值、特征和目標之間關系的理解,加快模型的訓練速度獲得更好的預測性能。此處采用pandas 的相關系數(shù)計算函數(shù)corr()來分析特征和目標間的相關性(見圖6和表2)。

      表2 特征和目標間的相關系數(shù)值

      圖6 特征和目標間的相關性熱力圖

      從熱力圖上可以發(fā)現(xiàn),部分特征間的相關性過高,這將造成特征間的多重共線性,影響模型效果,這里剔除相關系數(shù)大于0.8 的特征(包括本地小區(qū)LATITUDE,本地小區(qū)LATITUDE_pca_0,本地小區(qū)LONGITUDE),保留與目標相關性最大的特征。

      2.3.5 特征標準化

      特征標準化就是將某列特征的值縮放到均值為0,方差為1 的狀態(tài),計算公式為標準化的好處是提升模型精度和加快收斂速度。此處使用scikit-learn自帶的StandardScaler()類進行轉換。

      2.4 模型訓練

      2.4.1 基于交叉驗證的回歸預測模型選擇

      機器學習中常用的回歸預測模型有線性回歸、KNN、隨機森林、GBDT 和XGBoost 等。這里分別使用這幾個模型進行交叉驗證打分,選出最好的模型。這些模型的參數(shù)都取默認值,交叉驗證參數(shù)取5,評估標準為平均絕對誤差MAE。實驗結果表明,最好的模型為XGBoost,平均cross_val_score 得分最高為-0.03(見圖7)。下面就使用XGBoost模型進行建模訓練。

      圖7 基于交叉驗證的回歸模型選擇

      2.4.2 XGBoost算法原理概述

      XGBoost 算法近年來在工業(yè)界和各類數(shù)據(jù)挖掘競賽中大放異彩,取得良好的預測效果。與傳統(tǒng)的Boosting 算法如GBDT 比較,XGBoost 算法優(yōu)點在于:GBDT只利用了一階導數(shù)的信息,而XGBoost對損失函數(shù)做了二階泰勒展開,并且在目標函數(shù)中加入了正則項,用來權衡目標函數(shù)和模型的復雜程度,防止過擬合;Boosting 是串行過程,不能并行化且計算復雜度較高,也不適合高維稀疏特征,而XGBoost 在特征粒度上可進行并行化計算且考慮了訓練數(shù)據(jù)為稀疏值的情況。該算法原理如下:

      XGBoost 算法的目標函數(shù)包含損失函數(shù)L和正則化項Ω:

      根據(jù)第t步的新模型的預測值ft(xi),此時的目標函數(shù)可寫成:

      利用泰勒公式將目標函數(shù)進行泰勒二階展開,得

      其中gi為損失函數(shù)一階導數(shù),hi為損失函數(shù)的二階導數(shù)。當損失函數(shù)取平方損失時,目標函數(shù)近似為:

      進一步地,基函數(shù)取為決策樹模型ft(x)=ωq(x),q(x)表示樣本x所在的葉子節(jié)點,同時設決策樹葉子節(jié)點數(shù)為T,該值決定了決策樹的復雜度,值越大模型越復雜,此時目標函數(shù)的正則項表示為:

      由于每個樣本xi最終都是落在葉子節(jié)點上,且每個葉子節(jié)點都會包含多個樣本,因此遍歷所有樣本xi求損失函數(shù)等價于遍歷所有葉子節(jié)點求損失函數(shù),設第j個葉子節(jié)點包含的樣本集合為Ij={i},則損失函數(shù)為:

      接著對ωj求一階導數(shù),并使之為0,得葉子節(jié)點j對應的權值和最優(yōu)目標函數(shù)為:

      2.4.3 基于網(wǎng)格搜索的XGBoost模型超參數(shù)調整

      XGBoost 模型的超參數(shù)分2 類:第1 類負責控制模型的復雜度,第2類用于增加隨機性,從而使得模型在訓練時對噪聲不敏感。下面介紹調參重點關注的超參數(shù):

      a)eta,學習率,默認為0.3,范圍為[0,1]。

      b)gamma,最小劃分損失,它是對于一個葉子節(jié)點,當對它采取劃分之后,損失函數(shù)的降低值的閾值,默認為0。

      c)max_depth,每棵子樹的最大深度。其取值范圍為[0,∞],0 表示沒有限制,默認值為6。該值越大,則子樹越復雜;值越小,則子樹越簡單。

      d)min_child_weight,子節(jié)點的權重閾值。表示對于一個葉子節(jié)點,當對它進行劃分之后,它的所有子節(jié)點的權重之和的閾值。該值越大,則算法越保守。默認值為1。

      e)subsample,對訓練樣本的采樣比例。取值范圍為(0,1],默認值為1。

      f)colsample_bytree,構建子樹時,對特征的采樣比例。取值范圍為(0,1],默認值為1。

      g)lambda,正則化系數(shù)(基于weights 的正則化),默認為1。該值越大則模型越簡單。

      h)alpha,正則化系數(shù)(基于weights 的正則化),默認為0。該值越大則模型越簡單。

      本文利用scikit-learn庫自帶的GridSearchCV 網(wǎng)格搜索算法來調整XGBoost算法超參數(shù)(見圖8),候選超參數(shù)值集合如下:

      圖8 基于GridSearchCV的XGBoost模型超參數(shù)調整

      最終得到的最佳超參數(shù)組合是:{′alpha′:0.85,′colsample_bytree′:0.7,′eta′:0.05,′gamma′:0,′lambda′:5,′max_depth′:18,′min_child_weight′:1,′n_estimators′:200,′subsample′:1}。在測試集上進行評估,平均絕對誤差MAE為0.005 10。

      2.4.4 基于ANR 網(wǎng)絡切換占比模型的傳統(tǒng)網(wǎng)絡小區(qū)鄰區(qū)關系預測

      對需優(yōu)化鄰區(qū)關系的傳統(tǒng)網(wǎng)絡小區(qū)選取5 km 范圍內的周邊小區(qū),根據(jù)切換占比模型特征采集數(shù)據(jù),構成樣本輸入模型進行預測。實驗結果表明,對現(xiàn)網(wǎng)真實鄰區(qū)關系的命中率為60%,即60%的現(xiàn)網(wǎng)鄰區(qū)出現(xiàn)在預測出的占比前50名小區(qū)中。

      3 總結

      傳統(tǒng)網(wǎng)絡小區(qū)鄰區(qū)優(yōu)化是網(wǎng)優(yōu)工作的重點和難點,人工優(yōu)化方法費時費力。通過引入機器學習算法學習ANR 網(wǎng)絡的鄰區(qū)關系建立切換次數(shù)占比模型可模擬真實的傳統(tǒng)現(xiàn)網(wǎng)鄰區(qū)關系情況,極大程度地提高了鄰區(qū)優(yōu)化效率和用戶網(wǎng)絡口碑。

      猜你喜歡
      鄰區(qū)經(jīng)緯度樣本
      自動鄰區(qū)優(yōu)化技術共享網(wǎng)絡中應用研究
      用樣本估計總體復習點撥
      推動醫(yī)改的“直銷樣本”
      自制中學實驗操作型經(jīng)緯測量儀
      隨機微分方程的樣本Lyapunov二次型估計
      澳洲位移大,需調經(jīng)緯度
      村企共贏的樣本
      一種利用太陽影子定位的數(shù)學模型
      小震調制比在寧夏及鄰區(qū)映震能力的研究
      從中國西南及鄰區(qū)看亞洲形成過程
      地球學報(2012年1期)2012-04-01 07:22:45
      贵阳市| 无棣县| 临颍县| 资阳市| 罗城| 乐昌市| 九台市| 聂荣县| 中超| 玉屏| 绍兴市| 德清县| 曲阜市| 桂东县| 屏山县| 望城县| 长葛市| 南安市| 伊宁县| 北碚区| 新安县| 高邮市| 香港| 郯城县| 老河口市| 南投县| 如东县| 庆阳市| 桦川县| 雷州市| 桃园县| 重庆市| 宜兴市| 桐城市| 赣州市| 阳谷县| 吉林市| 沧州市| 仁布县| 子洲县| 马龙县|