宋振培, 張少迪, 周品品
[1.上海電力大學(xué), 上海 200090; 2.上海電器科學(xué)院研究所(集團)有限公司, 上海 200063; 3.上海市智能電網(wǎng)需求響應(yīng)重點實驗室, 上海 200063]
需求響應(yīng)是指電力市場用戶響應(yīng)市場價格信號或激勵措施,改變傳統(tǒng)用電模式的市場參與行為。在電力現(xiàn)貨市場競爭中引入需求響應(yīng),對資源進(jìn)行協(xié)調(diào)優(yōu)化是適應(yīng)電力現(xiàn)貨市場發(fā)展的必然要求??茖W(xué)、準(zhǔn)確的電力負(fù)荷預(yù)測是優(yōu)化調(diào)度方案和發(fā)電計劃的基礎(chǔ)。近年來,大規(guī)模間歇性新能源發(fā)電系統(tǒng)并網(wǎng),新型負(fù)荷的廣泛接入,以及需求響應(yīng)不確定性等問題,給電力負(fù)荷帶來了更高的隨機性和動態(tài)性,對電力負(fù)荷預(yù)測的準(zhǔn)確性和時間尺度提出了更高的要求[1-6]。如何在長時間序列電力負(fù)荷預(yù)測中提高電力負(fù)荷預(yù)測模型的準(zhǔn)確性,是當(dāng)前重要且新穎的一個研究方向。
常用的電力負(fù)荷預(yù)測分析方法主要分為兩大類:第1類是以數(shù)理統(tǒng)計為基礎(chǔ)的傳統(tǒng)負(fù)荷預(yù)測方法;第2類是以深度學(xué)習(xí)為代表的智能負(fù)荷預(yù)測方法。第1類方法主要是根據(jù)歷史負(fù)荷數(shù)據(jù)建立預(yù)測對象的函數(shù)模型。文獻(xiàn)[7]采用優(yōu)化后的差分整合移動平均自回歸(Autoregressive Integrated Moving Average,ARIMA)模型進(jìn)行電力負(fù)荷預(yù)測,預(yù)測結(jié)果的準(zhǔn)確度可以達(dá)到神經(jīng)網(wǎng)絡(luò)的預(yù)測水平,但是時間序列方法對電力負(fù)荷的平滑性要求較高,如果電力負(fù)荷受到其他不穩(wěn)定因素的影響,預(yù)測效果就達(dá)不到相應(yīng)的精度,甚至大打折扣。文獻(xiàn)[8]基于靈敏度分析選擇了多元非線性回歸模型的關(guān)鍵變量,獲得了高精度的制冷負(fù)荷預(yù)測結(jié)果。為了提高預(yù)測精度,文獻(xiàn)[9]提出了一種由螞蟻獅子優(yōu)化器(1,1)確定參數(shù)的滾動機構(gòu)優(yōu)化灰色模型,并用電力負(fù)荷數(shù)據(jù)集進(jìn)行驗證。然而,由于電力負(fù)荷的非線性特性,第1類方法的預(yù)測精度較低。第2類方法是以深度學(xué)習(xí)為代表的智能負(fù)荷預(yù)測方法,由于其強大的非線性擬合能力,所以能夠較好地完成電力負(fù)荷預(yù)測任務(wù)[10-12]。文獻(xiàn)[13]將支持向量機(Support Vector Machine,SVM)用于電力負(fù)荷預(yù)測,得到了比BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Natural Network,BPNN)更好的預(yù)測結(jié)果。文獻(xiàn)[14]提出了一種核組合SVM的預(yù)測模型,與傳統(tǒng)SVM模型相比,預(yù)測精度得到了很大的提高。文獻(xiàn)[15]開發(fā)了一種基于模糊邏輯的專家系統(tǒng),將其應(yīng)用于電力負(fù)荷預(yù)測。文獻(xiàn)[16-17]采用粒子群優(yōu)化(Particle Swarm Optimization,PSO)算法對神經(jīng)網(wǎng)絡(luò)進(jìn)行了優(yōu)化,解決了傳統(tǒng)BPNN收斂速度較慢的難題。然而,常用于電力負(fù)荷預(yù)測的遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Netural Network,RNN)由于點與點之間的路徑較長,故存在難以捕捉長時間序列模式的局限性。
RNN或長短期記憶(Long Short-Term Memory,LSTM)神經(jīng)網(wǎng)絡(luò)是該領(lǐng)域使用最廣泛的深度學(xué)習(xí)模型之一,原因是RNN或LSTM是一種以序列數(shù)據(jù)為輸入并沿序列方向循環(huán)的神經(jīng)網(wǎng)絡(luò),在序列數(shù)據(jù)的非線性特征學(xué)習(xí)方面優(yōu)于其他類型的神經(jīng)網(wǎng)絡(luò)。因此,許多基于LSTM的短期負(fù)荷預(yù)測(Short Term Load Forecasting,STLF)模型被開發(fā)使用[18]。文獻(xiàn)[19]提出了一種新的深度池化RNN模型,用于家庭層面的STLF,其在均方根誤差(Root Mean Square Error,RMSE)方面優(yōu)于經(jīng)典深度RNN模型。文獻(xiàn)[20]提出了一種基于LSTM的模型,通過考慮季節(jié)、天數(shù)和間隔數(shù)據(jù)預(yù)測未來15 min的負(fù)荷。文獻(xiàn)[21]結(jié)合LSTM和自注意力機制進(jìn)行了日前住宅負(fù)荷預(yù)測。此外,一些研究試圖將RNN或LSTM與卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)相結(jié)合,以提高負(fù)荷預(yù)測的精度。這些模型使用CNN提取局部特征,然后將結(jié)果平面化并反饋到LSTM層。文獻(xiàn)[22]提出了一種集成深度學(xué)習(xí)模型,將CNN和LSTM結(jié)合起來用于設(shè)備級的STLF。文獻(xiàn)[23]開發(fā)了一個使用CNN和雙向LSTM的統(tǒng)一客戶級STLF框架。這些模型的預(yù)測結(jié)果驗證了CNN層能夠從多個變量中提取有效特征,從而提高基于RNN模型的負(fù)荷預(yù)測性能。
然而,從時間序列的角度來看,LSTM不能保持長期記憶[24],難以設(shè)計以長負(fù)荷序列為輸入的基于RNN或LSTM的預(yù)測模型,并且無法從長負(fù)荷序列數(shù)據(jù)中捕獲長期依賴關(guān)系。最近,基于注意力的深度學(xué)習(xí)模型,在捕獲長期依賴關(guān)系方面表現(xiàn)出比RNN或LSTM模型更好的性能[25]。但自注意力機制的時間復(fù)雜度和內(nèi)存使用量為零(l2),限制了其在長序列特征學(xué)習(xí)中的應(yīng)用。為了解決這個問題,文獻(xiàn)[26]提出了一種高效的基于Transformer的Informer模型。它通過設(shè)計一種稱為ProbSparse的自注意力機制,將自注意力機制的復(fù)雜性降低到零(LlogL)。在這種機制中,只考慮一部分主導(dǎo)查詢并包括在注意力計算中。由于電力負(fù)荷消耗數(shù)據(jù)是一種長時間的周期序列,Informer的ProbSparse自注意力機制可能會忽略負(fù)荷曲線的周期性特征。為了解決這一問題,本文提出了一種將Informer模型與歷史慣性(Historical Inertia,HI)模型融合的HI-Informer模型,并將HI-Informer模型與Informer模型、LSTM模型、RNN模型、多層感知(Maltilayer Perception,MLP)模型進(jìn)行實驗對比。實驗結(jié)果表明,HI-Informer模型在電力負(fù)荷預(yù)測中表現(xiàn)出色,負(fù)荷預(yù)測精度高于其他模型。
Transformer在捕獲長期依賴關(guān)系方面顯然比RNN具有更高的性能。然而,Transformer存在長輸入序列下堆疊層的內(nèi)存瓶頸、自注意力機制的二次計算復(fù)雜度高,以及預(yù)測長輸出時推理比較緩慢等問題。Informer模型通過改進(jìn)Transformer結(jié)構(gòu),解決了自注意力機制中的稀疏性問題:首先,采用稀疏自注意力機制,壓縮注意層卷積池,降低時間復(fù)雜度和內(nèi)存占用;其次,利用自注意力機制減少網(wǎng)絡(luò)參數(shù)和維數(shù),接受長時間序列輸入;最后,采用生成式解碼器,得到長時間序列的輸出結(jié)果,有效提高預(yù)測精度。Informer模型由編碼器和解碼器組成。其中,編碼器用來獲取原始輸入序列魯棒性的長期依賴關(guān)系,解碼器進(jìn)一步實現(xiàn)序列預(yù)測。Informer模型整體框架如圖1所示。
圖1 Informer模型整體框架
Informer模型編碼器的輸入由t個特征變量、t個局部時間戳、t個全局時間戳組成。Q,K,V為輸入特征變量線性轉(zhuǎn)換后得到的3個相同大小的查詢矩陣、鍵矩陣和值矩陣。Q∈RLQ×d,K∈RLK×d,V∈RLV×d,d為輸入維度,LQ,LK,LV分別為Q,K,V的行維度。多頭概率稀疏自注意力機制模型O的計算公式為
O=Attention(Q,K,V)=
(1)
式中:Attention(·)——注意力函數(shù);
softmax(·)——激活函數(shù)。
為了壓縮特征維數(shù)并提取優(yōu)勢注意,編碼器采用自注意力蒸餾技術(shù),通過卷積和最大池化減少維數(shù)和網(wǎng)絡(luò)參數(shù)。經(jīng)過多次多頭概率稀疏自注意力和自注意力蒸餾,編碼器最終輸出特征映射。
從j層到j(luò)+1層的蒸餾過程為
(2)
max Pool(·)——最大池化函數(shù);
ELU(·)——激活函數(shù);
Convld(·)——一維卷積函數(shù);
[]AB——自注意力模塊。
為了一次性輸出所有預(yù)測結(jié)果,Informer模型解碼器采用并行生成解碼器機制。其中,輸入由t-k個特征變量、k個占位符0以及對應(yīng)的t個局部時間戳和t個全局時間戳組成。通過帶掩碼的多頭概率稀疏自注意力機制運算后,利用編碼器輸出的特征圖進(jìn)行多頭自注意力機制運算。最后,通過全連接層調(diào)整數(shù)據(jù)輸出的維度,可以一次性輸出研究者想要的所有預(yù)測結(jié)果。其中,t代表一個輸出長度,k代表一個預(yù)測長度。
傳統(tǒng)的時間序列預(yù)測方法通常關(guān)注時間序列數(shù)據(jù)中的趨勢、周期性和季節(jié)性等因素。然而,時間序列中的歷史信息本身包含有價值的信息。這種歷史信息的保持和延續(xù)被稱為HI。本文引入HI模型[27]與Informer模型結(jié)合。HI模型的具體原理如下。
時間預(yù)測序列:在時間t,給定一個輸出長度Lx的時間序列X(t)為
X(t)={X1(t),X2(t),X3(t),…,XLx(t)}
(3)
式中:Xi(t)——在第i個時間戳觀察到的單變量(dx=1)或多變量(dx>1),i=1,2,3,…,Lx。
(4)
時間序列預(yù)測目標(biāo)是提前Δ步預(yù)測對應(yīng)長度Ly的序列Y(t),為
Y(t)={Y1(t),Y2(t),Y3(t),…,YLy(t)}
(5)
式中:Yi(t)=[yi,1(t),yi,2(t),yi,3(t),…,yi, dy(t)]∈Rdy。
HI以輸入序列X(t)的子序列預(yù)測長度Ly為預(yù)測結(jié)果。HI作用示意如圖2所示。
圖2 HI作用示意
規(guī)范的數(shù)學(xué)表示為
(6)
電力負(fù)荷數(shù)據(jù)是一系列復(fù)雜的不連續(xù)時間序列,受多種環(huán)境因素的影響。對于電力負(fù)荷數(shù)據(jù)預(yù)測,首先,使用Informer模型提取序列特征并預(yù)測未來的電力負(fù)荷數(shù)據(jù);然后,使用HI模型預(yù)測未來序列;最后,使用最小二乘法擬合Informer和HI模型的權(quán)重系數(shù),使得混合HI-Informer模型的預(yù)測結(jié)果與實際數(shù)據(jù)之間的差異最小。將Informer模型的輸出序列定義為I(t),HI模型的輸出順序定義為H(t),最小二乘法將兩者的權(quán)重系數(shù)分配為w1,w2。HI-Informer模型框架如圖3所示。
圖3 HI-Informer模型框架
(7)
w1+w2=1
(8)
為了使HI-Informer模型的預(yù)測結(jié)果與實際結(jié)果之間的差異最小化,將距離函數(shù)定義為預(yù)測結(jié)果與實際結(jié)果之間的雙范數(shù),并選擇合適的權(quán)重系數(shù)w1和w2使雙范數(shù)最小化。雙范數(shù)是w1和w2的函數(shù),i∈T表示計算權(quán)系數(shù)的時間集,T為驗證集時間的集合。雙范數(shù)最小化的計算公式為
(9)
Y——真實序列;
Ii——第i個時間戳的輸出值;
Hi——HI模型第i個時間戳的輸出值。
為了更好預(yù)測未來數(shù)據(jù),將訓(xùn)練集拆分為新的訓(xùn)練集和驗證集,分別對w1和w2求式(7)的偏導(dǎo)數(shù),得到:
(10)
(11)
w1+w2=1
(12)
權(quán)重系數(shù)w1和w2可由式(8)~式(10)聯(lián)立求得,為
(13)
通過最小二乘法將HI模型和Informer模型的預(yù)測結(jié)果進(jìn)行加權(quán)融合,使其能夠顯著減小預(yù)測誤差,提高整體預(yù)測的可靠性和準(zhǔn)確性,增加系統(tǒng)的穩(wěn)定性,降低對特定模型的依賴,從而在不同情況下保持高性能。此外,加權(quán)融合方法非常靈活,可以根據(jù)任務(wù)需要進(jìn)行定制。
實驗數(shù)據(jù)來自新加坡的電力負(fù)荷數(shù)據(jù)。數(shù)據(jù)包含2020年1月1日至2022年12月31日321個用戶的用電量,采集間隔為1 h,數(shù)據(jù)總數(shù)為2.7萬個。某用戶歷史用電負(fù)荷如圖4所示。
圖4 某用戶歷史用電負(fù)荷
5種電力負(fù)荷預(yù)測模型實驗結(jié)果對比如圖5~圖9所示。
圖5 MLP模型預(yù)測值與真實值
圖6 RNN模型預(yù)測值與真實值
圖7 LSTM模型預(yù)測值與真實值
圖8 Informer模型預(yù)測值與真實值
圖9 HI-Informer模型預(yù)測值與真實值
從圖5~圖9中的模型預(yù)測值與真實值對比可以看出,HI-Informer模型的預(yù)測值與真實值非常接近,幾乎完美匹配負(fù)荷波動的趨勢和季節(jié)性變化。這表明HI-Informer模型在捕捉電力負(fù)荷數(shù)據(jù)中的復(fù)雜模式和周期性方面表現(xiàn)出色。相比之下,其他模型在某些時段中出現(xiàn)了明顯的誤差,未能捕捉到相同的趨勢。
在本次研究中,使用平均絕對誤差EMA、均方誤差EMS、對稱平均絕對百分比誤差ESMAP和運行時間評估模型的預(yù)測性能。EMA是回歸任務(wù)的基本評價指標(biāo)。相比EMA,EMS對異常值更為敏感。ESMAP是一種基于百分比誤差的精度度量,能更好地評價模型預(yù)測的準(zhǔn)確性。具體定義為
(14)
(15)
(16)
yn——預(yù)測流量值;
N——預(yù)測總數(shù),即預(yù)測序列長度。
在相同數(shù)據(jù)集上,將本文提出的HI-Informer模型與Informer模型、LSTM模型、RNN模型、MLP模型進(jìn)行對比實驗。模型評價結(jié)果如表1所示。
表1 模型評價結(jié)果
通過比較不同模型誤差值發(fā)現(xiàn),HI-Informer模型表現(xiàn)最佳,其平均預(yù)測誤差最小。這表明HI-Informer模型在處理電力負(fù)荷預(yù)測任務(wù)時具有明顯的優(yōu)勢。
本文進(jìn)行了電力負(fù)荷預(yù)測任務(wù)的對比實驗,特別關(guān)注了HI-Informer模型在電力負(fù)荷預(yù)測中的性能。實驗結(jié)果表明,HI-Informer模型在電力負(fù)荷預(yù)測任務(wù)中表現(xiàn)出色,在平均絕對誤差EMA、均方誤差EMS、對稱平均絕對百分比誤差ESMAP上表現(xiàn)突出,具有更低的誤差值。這表明HI-Informer模型在處理長時間序列數(shù)據(jù)方面具有優(yōu)越性,能夠更好地捕捉電力負(fù)荷趨勢和季節(jié)性變化。