張玉敏,孫鵬凱,葉平峰,吉興全,王志豪,公 政
(1.山東科技大學(xué)電氣與自動化工程學(xué)院,山東青島 266590;2.山東科技大學(xué)儲能技術(shù)學(xué)院,山東青島 266590;3.國網(wǎng)山東煙臺供電公司,山東煙臺 264000;4.國網(wǎng)山東濰坊供電公司,山東濰坊 261000)
配電網(wǎng)重構(gòu)(Distribution Network Reconfiguration,DNR)是配電管理系統(tǒng)的一項重要功能,其在滿足運(yùn)行約束的前提下,通過對網(wǎng)絡(luò)中分段開關(guān)與聯(lián)絡(luò)開關(guān)的切換操作改善配電網(wǎng)(Distribution Network,DN)的運(yùn)行狀態(tài)[1]。在智能電網(wǎng)環(huán)境下,電網(wǎng)運(yùn)行數(shù)據(jù)所蘊(yùn)含的價值不容忽視。對DNR 問題而言,如何通過挖掘配網(wǎng)歷史運(yùn)行數(shù)據(jù)與重構(gòu)方案的關(guān)系,來實現(xiàn)自適應(yīng)快速重構(gòu)具有重要的現(xiàn)實意義。
隨著人工智能的發(fā)展,以粒子群算法[2-3]、遺傳算法[4-5]及蟻群算法[6]等為代表的各類元啟發(fā)式算法已被廣泛應(yīng)用于DNR。為提升算法性能,研究人員采用了一系列措施[7-8]。上述算法的迭代尋優(yōu)方式在賦予DNR 強(qiáng)大尋優(yōu)性能的同時,卻難以實現(xiàn)配網(wǎng)重構(gòu)方案的高效求解。實時運(yùn)算是神經(jīng)網(wǎng)絡(luò)(Neural Network,NN)算法的一項固有屬性,從神經(jīng)元M-P模型的提出到深度學(xué)習(xí)(Deep Learning,DL)理論的創(chuàng)立[9-10],神經(jīng)網(wǎng)絡(luò)模型尤其是深度學(xué)習(xí)模型已廣泛應(yīng)用于具有實時分析需求的領(lǐng)域,如圖像標(biāo)注[11]、語音識別[12]、語義理解[13]及模式識別[14]等。在電力系統(tǒng)中,深度學(xué)習(xí)模型主要運(yùn)用于故障識別[15]及負(fù)荷和電價的預(yù)測[16-17]等領(lǐng)域中。由于人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)極其依賴訓(xùn)練數(shù)據(jù)的數(shù)量,因此研究基于數(shù)據(jù)驅(qū)動的DNR 十分必要。文獻(xiàn)[18]將DNR 看作基于網(wǎng)絡(luò)參數(shù)矩陣的開關(guān)狀態(tài)預(yù)測問題,可用NN 的求解模式進(jìn)行快速求解。文獻(xiàn)[19]構(gòu)建基于長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)的概率分布預(yù)測網(wǎng)絡(luò),將其用于三相不平衡配電網(wǎng)的魯棒優(yōu)化重構(gòu)。文獻(xiàn)[20]提出一種基于強(qiáng)化學(xué)習(xí)的配電網(wǎng)在線重構(gòu)方法,使用深度Q學(xué)習(xí)(Deep Q-Learing,DQL)算法求取最優(yōu)拓?fù)洹N墨I(xiàn)[21] 將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)用于DNR 問題的求解,并基于環(huán)路組合思想構(gòu)建整體模型,驗證了CNN 的有效性。
綜上所述,本文為解決DNR 難以快速求解的問題,提出基于CNN 的配電網(wǎng)快速重構(gòu)模型。構(gòu)建用于DNR 的CNN 模型,其預(yù)測過程不涉及迭代操作,可有效提升計算速度。在CNN 模型中引入Inception 模塊[22],該模塊基于多卷積通道的并聯(lián)提取數(shù)據(jù)多尺度特征,可提升模型的特征提取性能。研究的創(chuàng)新之處在于將CNN 與配電網(wǎng)重構(gòu)模型有機(jī)結(jié)合,大幅提高配電網(wǎng)重構(gòu)決策的制定效率。
1.1.1 Inception模塊結(jié)構(gòu)
為便于提取數(shù)據(jù)高維特征,本文采用Inception模塊搭建CNN 模型。Inception 模塊是“谷歌網(wǎng)絡(luò)模型”的基本組成模塊,采用卷積核分解以減少參數(shù)量。Inception 模塊結(jié)構(gòu)如圖1 所示,括號內(nèi)數(shù)字為卷積及池化的窗口大小。
圖1 Inception 模塊結(jié)構(gòu)Fig.1 Structure of inception module
由圖1 可知,Inception 模塊同時擴(kuò)展了CNN 的廣度與深度。其優(yōu)點(diǎn)在于:1)采用池化操作以及多尺度卷積處理數(shù)據(jù),借由多通道的數(shù)據(jù)出力方式增加網(wǎng)絡(luò)廣度;2)卷積核的分解增加了網(wǎng)絡(luò)的深度,使激活函數(shù)的數(shù)量增多,進(jìn)而加強(qiáng)了網(wǎng)絡(luò)的表征能力。
1.1.2 單環(huán)路CNN模型
為解決歸一化指數(shù)分類器分類壓力大的問題,基于配網(wǎng)的環(huán)路結(jié)構(gòu)搭建多個單環(huán)路CNN 子模型,通過組合各子模型的分類器輸出,預(yù)測每個開關(guān)的狀態(tài)。單環(huán)路開關(guān)狀態(tài)預(yù)測屬于多分類問題,其損失優(yōu)化步驟如下:
1)歸一化指數(shù)分類器輸出分類索引。歸一化指數(shù)函數(shù)定義為單個元素的指數(shù)與所有元素指數(shù)和的比值,其表達(dá)式為:
式中:Zη為神經(jīng)元η的輸出;zη為神經(jīng)元η的輸入;c為當(dāng)前分類數(shù);C為總分類數(shù);zc為分類c中神經(jīng)元的輸入。
2)模型損失計算?;诜诸惤徊骒啬P蛽p失計算過程為:
式中:L(θ)為權(quán)值θ下的模型損失函數(shù);k為當(dāng)前樣本數(shù);K為批量總樣本數(shù);yk,c為樣本k在分類c上的真實概率;Zθ,(k,c)(z)為權(quán)值θ下樣本k在分類c上的輸出結(jié)果。
3)模型損失優(yōu)化。損失優(yōu)化過程將模型損失值導(dǎo)入優(yōu)化器更新網(wǎng)絡(luò)權(quán)值,并采用自適應(yīng)矩估計方法(Adaptive Moment Estimation,Adam)加速梯度下降。其迭代過程為:
式中:t為時間步長,其值初始化為零;gt為Lt(θt-1)關(guān)于θt-1的梯度;θt,θt-1分別為時段t和t-1 的權(quán)值;Lt(θt-1)為在時段t權(quán)值θt-1下的模型損失函數(shù);為梯度一階矩估計mt的校正;為一階矩的指數(shù)衰減率;mt-1為時段t-1 梯度一階矩估計;為梯度二階矩估計vt的校正;為一階矩與二階矩的指數(shù)衰減率;vt-1為時段t-1的梯度二階矩估計;α為學(xué)習(xí)率;ε 為常數(shù),本文取ε=1×10-8,旨在防止分母為0。
1.1.3 單環(huán)路整合模型
在配電網(wǎng)的重構(gòu)計算中,環(huán)路間的動作決策具有耦合效應(yīng),在CNN 模型的訓(xùn)練中也需進(jìn)行統(tǒng)一優(yōu)化,以減少子模型間的相互作用。在數(shù)據(jù)輸入階段,單環(huán)路整合模型設(shè)置帶有批標(biāo)準(zhǔn)化(Batch Normalization,BN)的卷積層進(jìn)行初步數(shù)據(jù)處理,然后分別將整合后的數(shù)據(jù)傳入各環(huán)路子模型中。
單環(huán)路整合模型使用Concatenate 層組合輸出,輸出結(jié)果在第一維度的拼接形式為:
式中:Ocon為網(wǎng)絡(luò)的最終輸出向量;l為配電網(wǎng)的環(huán)路數(shù);Ol為環(huán)路l的模型輸出向量。
模型輸出需要結(jié)合相應(yīng)的數(shù)據(jù)標(biāo)簽計算各支路損失,并取其中的最大值參與模型的權(quán)值迭代。計算精度的損失為:
式中:Lc為分類c的損失函數(shù);Ll為環(huán)路l返回的損失函數(shù)。
針對整合模型結(jié)構(gòu)復(fù)雜導(dǎo)致訓(xùn)練困難的問題,采用基于權(quán)值遷移的混合訓(xùn)練方法訓(xùn)練模型。訓(xùn)練流程可分為3 個階段:(1)單環(huán)路模型訓(xùn)練;(2)權(quán)值遷移;(3)整合模型混合訓(xùn)練。
訓(xùn)練中設(shè)置訓(xùn)練輪次約束和優(yōu)化效果約束作為進(jìn)程終止的判據(jù)。
1)訓(xùn)練輪次約束為:
式中:H為當(dāng)前訓(xùn)練輪次;Hset為訓(xùn)練輪次的預(yù)設(shè)值。
2)優(yōu)化效果約束為:
式中:LH為當(dāng)前訓(xùn)練輪次下的損失函數(shù);LH+h為當(dāng)前訓(xùn)練輪次的下次訓(xùn)練的損失函數(shù);h為訓(xùn)練輪次步長;Hlim為回調(diào)函數(shù)的輪次限制,即若模型損失在Hlim個輪次內(nèi)沒有優(yōu)化進(jìn)展,則終止訓(xùn)練,防止過擬合。
本文CNN 數(shù)據(jù)集構(gòu)建流程圖如圖2 所示。
圖2 CNN數(shù)據(jù)集構(gòu)建流程圖Fig.2 Data set construction process of CNN
由圖2 可知,通過對配電網(wǎng)絡(luò)負(fù)載參數(shù)進(jìn)行需求分級和特性分組,可將其轉(zhuǎn)化為對應(yīng)的負(fù)載模式,進(jìn)一步由系統(tǒng)負(fù)載模式與對應(yīng)優(yōu)化開關(guān)組合分別提供數(shù)據(jù)和標(biāo)簽,共同組成基于CNN 的配電網(wǎng)重構(gòu)模型的數(shù)據(jù)集。
CNN 數(shù)據(jù)集的負(fù)載模式為系統(tǒng)所有負(fù)載需求狀態(tài)的集合,對于給定的系統(tǒng)的負(fù)載模式劃分為:
式中:XM為負(fù)載模式數(shù);M,N分別為系統(tǒng)負(fù)載需求等級與負(fù)荷節(jié)點(diǎn)數(shù)量。
本文對于劃分的負(fù)載模式采用量子粒子群(Quantum Particle Swarm Optimization,QPSO)算法,以系統(tǒng)最小有功損耗為目標(biāo)函數(shù),求解其對應(yīng)的開關(guān)組合。
CNN 模型的訓(xùn)練需要同時訓(xùn)練數(shù)據(jù)與對應(yīng)標(biāo)簽,二者分別從負(fù)載模式與優(yōu)化拓?fù)渲凶儞Q而來。參數(shù)矩陣是對系統(tǒng)負(fù)載模式的矩陣化表達(dá),用以表征節(jié)點(diǎn)分布式電源(Distributed Generation,DG)的接入狀態(tài)、出力情況、類型和節(jié)點(diǎn)功率等情況,其表達(dá)式為:
在進(jìn)行模型訓(xùn)練之前,對式(9)所得數(shù)據(jù)進(jìn)行歸一化處理為:
式中:Aa,Λa分別為模型輸入矩陣A與參數(shù)矩陣Λ的第a行;為Λa中元素的最大值;Γa為矩陣A的總行數(shù)。
為驗證本文所提基于CNN 配電網(wǎng)快速重構(gòu)模型的有效性,采用IEEE33 節(jié)點(diǎn)配電系統(tǒng)作為測試算例。具體設(shè)置如下:編程環(huán)境為Python,調(diào)用Keras 深度學(xué)習(xí)庫搭建模型,計算機(jī)操作系統(tǒng)為Windows10,CPU 為Intel i7 1165G7,主頻為2.8 GHz,內(nèi)存為8 G。
3.1.1 訓(xùn)練表現(xiàn)
數(shù)據(jù)集包含19 種DG 場景,每個場景劃分有512 個負(fù)載模式,共計9 728 個系統(tǒng)狀態(tài)斷面。訓(xùn)練過程中訓(xùn)練集、測試集、驗證集分別占總數(shù)據(jù)量的80%,15%,5%。為驗證本文基于Inception 模塊的CNN 模型在性能上的優(yōu)勢,將其與基礎(chǔ)CNN 模型進(jìn)行訓(xùn)練效果對比,二者在訓(xùn)練集與測試集上的模型分類精度如圖3 所示。
圖3 模型分類精度Fig.3 Accuracy of model classification
由圖3 可知,基于Inception 的CNN 模型相比基礎(chǔ)卷積模型具有更好的特征提取能力,前者在訓(xùn)練集與測試集上的訓(xùn)練效果以及整體的準(zhǔn)確率上升速度都優(yōu)于后者。訓(xùn)練至250 輪次時,本文模型在訓(xùn)練集與測試集上的精度分別為99.31%與99.28%。從曲線趨勢上看,前50 輪次中本文模型訓(xùn)練集精度超前于測試集,在訓(xùn)練的第50~250 輪次之間,二者精度曲線趨勢相近,并在第200 輪次后趨于穩(wěn)定。混合訓(xùn)練方法通過重點(diǎn)關(guān)注模型的高損失分支,解決了訓(xùn)練初期由于分支差異而導(dǎo)致的計算精度低的問題,保證了最終訓(xùn)練效果。
3.1.2 泛化能力
針對訓(xùn)練完成的模型,需測試其在驗證集上的泛化能力。模型泛化能力可通過混淆矩陣與模型分類性能指標(biāo)表示?;煜仃囀悄P驮隍炞C集上的誤差矩陣,矩陣的行與列元素分別表示環(huán)路的實際標(biāo)簽與預(yù)測標(biāo)簽。IEEE33 節(jié)點(diǎn)系統(tǒng)混淆矩陣如圖4 所示。
圖4 IEEE33節(jié)點(diǎn)系統(tǒng)混淆矩陣Fig.4 IEEE33 Node system confusion matrix
圖4 中,B3—B17,B24,B25,B27,B28,B32,B37均為開關(guān)位置。由圖4 可知,系統(tǒng)優(yōu)化重構(gòu)的主要動作開關(guān)位于圖中深綠色色塊,即B7,B9,B14,B28與B37 處。模型的分類誤差主要表現(xiàn)在B9 和B10、B9 和B14、B10 和B14 以及B27 和B28 之間開關(guān)狀態(tài)的混淆。
DL 模型的性能指標(biāo)是在混淆矩陣基礎(chǔ)上對模型性能的量化,包括準(zhǔn)確率、召回率與衡量模型精度的F1 得分。準(zhǔn)確率為模型預(yù)測結(jié)果的真實標(biāo)簽占比;召回率為模型對真實標(biāo)簽的預(yù)測精度;F1 得分為前二者的調(diào)和平均值,與DL 性能成正相關(guān)。模型基于混淆矩陣的主要動作支路分類指標(biāo)如表1 所示。
表1 主要動作支路分類指標(biāo)Table 1 Classification index of main action branch
由表1 可知,模型對樣本數(shù)多的支路及大部分樣本數(shù)少的支路的開關(guān)分類預(yù)測效果較好,且對樣本數(shù)敏感度較低,除極小樣本數(shù)的支路B22 之外,其余各項F1 分值均在97 以上;而對極小樣本數(shù)的支路B22 的分類性能有所下降,其F1 分值為90.91。說明過于小的樣本數(shù)會使模型本身數(shù)據(jù)特征覆蓋不全,同時大樣本數(shù)模型特征會對小樣本數(shù)模型特征進(jìn)行覆蓋從而導(dǎo)致模型泛化能力下降。
3.2.1 時效性分析
為驗證CNN 模型的時效性,從數(shù)據(jù)集中隨機(jī)抽取2 000 組數(shù)據(jù)作為預(yù)測目標(biāo),導(dǎo)入訓(xùn)練完成的CNN 模型進(jìn)行預(yù)測并計時,得到3 種場景下程序運(yùn)行時間統(tǒng)計結(jié)果如表2 所示。
表2 程序運(yùn)行時間統(tǒng)計結(jié)果Table 2 Program running time statistic
表2 中,場景1 和場景2 為離線批量計算場景,將模型加載耗時計入程序運(yùn)行總時間;場景3為在線實時響應(yīng)場景,只統(tǒng)計程序運(yùn)算時間。
由表2 可知,離線批量計算中,模型加載時間占總比65%以上;若不計模型加載耗時,3 者均次計算耗時皆在2ms 以內(nèi),無較大差別。對比配置a,b可知,在加大運(yùn)算數(shù)據(jù)量之后,模型與數(shù)據(jù)加載耗時比重從93.43%降至65.35%。說明在大數(shù)據(jù)量場景中,模型與數(shù)據(jù)加載耗時對總運(yùn)行時間的影響被減小。
將本文方法與QPSO 算法和改進(jìn)的布谷鳥算法(Improved Cuckoo Search Algorithm,ICSA)[15]2 種元啟發(fā)式算法的求解時間及網(wǎng)損進(jìn)行對比,分別計算50 次并取平均值,算法求解時間對比如表3 所示。
表3 算法求解時間對比Table 3 Comparison of algorithm solution time
由表3 可知,在求解時間方面,由于訓(xùn)練完成的CNN 模型求解無需在解空間內(nèi)迭代尋優(yōu),本文算法的在線求解時間僅為0.002 s,離線求解時間僅為0.641 s,相較QPSO 算法的7.315 s 和ICSA 算法的4.509 s 有極大的提升;在網(wǎng)損方面,本文算法與ICSA 算法,均為139.554 kW,較QPSO 算法略有下降。通過對比可知,本文算法在不損失求解精度的前提下大幅提升了計算效率。
綜上,CNN 模型在線與離線的數(shù)據(jù)計算速度并無明顯差別,而離線計算可通過增大單次輸入數(shù)據(jù)量以淡化模型加載耗時對總體計算速度的影響。此外,數(shù)據(jù)驅(qū)動模型的運(yùn)算精度需要大量數(shù)據(jù)支撐,而元啟發(fā)式算法的數(shù)據(jù)量需求極少,在新系統(tǒng)的優(yōu)化重構(gòu)方面更占優(yōu)勢。因此,CNN 模型更適合應(yīng)用于在線實時重構(gòu)與大批量重構(gòu)數(shù)據(jù)運(yùn)算的場景。
3.2.2 降損效果分析
為驗證本文所提CNN 模型在降損方面的效果,抽取驗證集中的190 組數(shù)據(jù)進(jìn)行預(yù)測,對比網(wǎng)損和電壓水平。重構(gòu)前后降損效果如圖5 所示。
圖5 重構(gòu)前后降損效果Fig.5 Loss reduction after DNR
由圖5 可知,相比系統(tǒng)重構(gòu)前的拓?fù)浣Y(jié)構(gòu),采用CNN 優(yōu)化后的拓?fù)浣Y(jié)構(gòu)具有更低的網(wǎng)絡(luò)有功損耗。由降損百分比曲線可知,在測試數(shù)據(jù)中,網(wǎng)絡(luò)重構(gòu)后系統(tǒng)平均網(wǎng)損降低35.63%。原因在于CNN對網(wǎng)絡(luò)開環(huán)點(diǎn)的優(yōu)化重選平衡了各支路的潮流,減小了系統(tǒng)的有功網(wǎng)絡(luò)損耗。
3.2.3 電壓水平改善效果分析
為分析本文所提CNN 模型對重構(gòu)前后電壓的影響,得到重構(gòu)對系統(tǒng)電壓水平的增強(qiáng)與穩(wěn)定效果如圖6 所示。
圖6 重構(gòu)對系統(tǒng)電壓水平的增強(qiáng)與穩(wěn)定效果Fig.6 Boosting and stabilizing effects of DNR
由圖6 可知,CNN-DNR 模型對網(wǎng)絡(luò)節(jié)點(diǎn)電壓的優(yōu)化體現(xiàn)為節(jié)點(diǎn)最低電壓的升高與節(jié)點(diǎn)電壓極差的降低。節(jié)點(diǎn)電壓極差平均降幅35.47%,節(jié)點(diǎn)最低電壓平均增幅1.76%。綜上可知,CNN 預(yù)測拓?fù)鋬?yōu)化了系統(tǒng)潮流,減小了各支路電壓損耗,降低了節(jié)點(diǎn)間電壓差值,提升了系統(tǒng)的供電質(zhì)量,有助于配電網(wǎng)絡(luò)的安全經(jīng)濟(jì)運(yùn)行。
本文提出一種基于CNN 的配電網(wǎng)快速重構(gòu)模型,通過系統(tǒng)負(fù)載模式與對應(yīng)的優(yōu)化開關(guān)組合構(gòu)建數(shù)據(jù)集,使用CNN 提取數(shù)據(jù)集信息,采用連接網(wǎng)絡(luò)進(jìn)行開關(guān)狀態(tài)的決策,最后在IEEE33 節(jié)點(diǎn)系統(tǒng)上驗證本文所提CNN 模型的DNR 性能。通過算例分析,得到如下結(jié)論:
1)基于Inception 模塊的CNN 模型具有更強(qiáng)的特征提取能力,最終訓(xùn)練效果也更優(yōu),所得模型對驗證集具有良好的泛化能力。
2)構(gòu)建的CNN 模型具有毫秒級的平均決策速度,適用于在線快速重構(gòu)與離線大批量運(yùn)算。
3)模型預(yù)測輸出的網(wǎng)絡(luò)拓?fù)淇捎行岣吲潆娤到y(tǒng)的供電質(zhì)量與運(yùn)行經(jīng)濟(jì)性。
在后續(xù)研究中將以實際數(shù)據(jù)為基礎(chǔ),研究結(jié)合時段劃分的數(shù)據(jù)驅(qū)動配電網(wǎng)動態(tài)重構(gòu)方法,以實現(xiàn)對實際數(shù)據(jù)的價值挖掘。