宋立業(yè) 鞠亞?wèn)| 張 鑫
近年來(lái),風(fēng)電并網(wǎng)的容量日益增大,風(fēng)力發(fā)電的出力功率因風(fēng)速、風(fēng)向等諸多因素具有不確定性,大規(guī)模的風(fēng)電并網(wǎng)可能對(duì)電力系統(tǒng)的穩(wěn)定運(yùn)行造成重大影響[1]。因此,提高風(fēng)電功率預(yù)測(cè)的準(zhǔn)確度,對(duì)電力系統(tǒng)的安全、穩(wěn)定、經(jīng)濟(jì)運(yùn)行具有重要的指導(dǎo)意義。
當(dāng)前,風(fēng)電功率的預(yù)測(cè)按照時(shí)間長(zhǎng)短可分為超短期預(yù)測(cè)、短期預(yù)測(cè)、中長(zhǎng)期預(yù)測(cè)[2],其中,超短期預(yù)測(cè)是實(shí)時(shí)調(diào)度及保證風(fēng)電并網(wǎng)穩(wěn)定運(yùn)行的重點(diǎn)工作。風(fēng)電預(yù)測(cè)的方法主要有人工神經(jīng)網(wǎng)絡(luò)[3]、時(shí)間序列法[4]、空間相關(guān)性法[5]、極限學(xué)習(xí)機(jī)[6]和最小二乘支持向量機(jī)(Least square support vector machine,LSSVM)[7]等。神經(jīng)網(wǎng)絡(luò)有較強(qiáng)的信息提取能力和非線性擬合能力,因此在風(fēng)電功率預(yù)測(cè)中有著重要的應(yīng)用[8]。LSSVM 相比人工神經(jīng)網(wǎng)絡(luò)法有很強(qiáng)的泛化能力,但參數(shù)的選擇會(huì)影響預(yù)測(cè)效果,若選取不合適將造成較大的預(yù)測(cè)誤差[9]。文獻(xiàn)[10]運(yùn)用改進(jìn)的蟻群算法對(duì)LSSVM 參數(shù)進(jìn)行優(yōu)化,利用LSSVM 模型分別對(duì)風(fēng)速和風(fēng)功率進(jìn)行預(yù)測(cè)。上述研究中,盡管風(fēng)電功率預(yù)測(cè)精度有了較大提升,但是若神經(jīng)網(wǎng)絡(luò)等超參數(shù)選擇不合適將造成收斂速度變慢等問(wèn)題。
深度學(xué)習(xí)因具有較強(qiáng)的特征提取能力而得到快速發(fā)展。長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(Long short-term memory,LSTM)[11]具有學(xué)習(xí)長(zhǎng)期依賴的能力,適合處理風(fēng)電功率等非線性序列,文獻(xiàn)[12]將注意力機(jī)制加入LSTM,提高了預(yù)測(cè)精度。但是LSTM 也存在超參數(shù)不易確定的問(wèn)題,不準(zhǔn)確的參數(shù)設(shè)置對(duì)預(yù)測(cè)精度影響很大。因此,采用智能優(yōu)化算法進(jìn)行超參數(shù)尋優(yōu)是一種較好的方法。由于風(fēng)能具有不穩(wěn)定性和波動(dòng)性,單一的回歸預(yù)測(cè)模型不能滿足高精度要求。因此,需要對(duì)原始功率數(shù)據(jù)進(jìn)行分解處理,獲得較規(guī)律的特征。經(jīng)驗(yàn)?zāi)B(tài)分解(Empirical mode decomposition,EMD)針對(duì)非線性序列的處理具有較好的效果[13]。但是,EMD分解后的各分量可能出現(xiàn)模態(tài)混淆的現(xiàn)象[14]。因此,文獻(xiàn)[15]提出了集成經(jīng)驗(yàn)?zāi)B(tài)分解(Ensemble empirical mode decomposition,EEMD)和LSSVM 功率預(yù)測(cè)模型,EEMD 分解能避免EMD 分解產(chǎn)生的模態(tài)混淆現(xiàn)象,但是如果添加的噪聲不合適,可能會(huì)使計(jì)算規(guī)模變大,影響功率預(yù)測(cè)的準(zhǔn)確度。自適應(yīng)噪聲完全集合經(jīng)驗(yàn)?zāi)B(tài)分解(Complete ensemble empirical mode decomposition with adaptive noise analysis, CEEMDAN)通過(guò)加入自適應(yīng)白噪聲能夠減少模態(tài)混淆的現(xiàn)象,與EEMD 方法相比,能夠大大減少迭代次數(shù),提高了重構(gòu)準(zhǔn)確度,具有較好的收斂特性。如果對(duì)每一個(gè)分量都分別直接預(yù)測(cè),可能使計(jì)算規(guī)模變大、預(yù)測(cè)速度變慢[16],通過(guò)合并樣本熵值相近的量可以降低計(jì)算規(guī)模。
鑒于以上研究,本文提出了改進(jìn)飛蛾撲火算法(Moth-flame optimization,MFO)優(yōu)化 Attention-LSTM 的超短期風(fēng)電功率預(yù)測(cè)模型。首先,通過(guò)CEEMDAN 算法將原始數(shù)據(jù)分解成不同的模態(tài)分量,通過(guò)計(jì)算樣本熵合并相近的IMF 分量來(lái)降低計(jì)算規(guī)模。然后,通過(guò)對(duì)飛蛾撲火算法進(jìn)行改進(jìn),用改進(jìn)的MFO 算法對(duì)Attention-LSTM 的超參數(shù)進(jìn)行優(yōu)化。最后,用改進(jìn)MFO 優(yōu)化Attention-LSTM 對(duì)合并后的各新分量分別進(jìn)行預(yù)測(cè),將各個(gè)分量的單獨(dú)預(yù)測(cè)結(jié)果進(jìn)行疊加,可以得到最終的超短期功率預(yù)測(cè)結(jié)果。預(yù)測(cè)結(jié)果表明,該方法相比單一LSSVM、LSTM、Attention-LSTM、MFO-Attention-LSTM 等模型具有更好的預(yù)測(cè)效果,提升了功率預(yù)測(cè)的準(zhǔn)確度。
當(dāng)風(fēng)力發(fā)電系統(tǒng)中檢測(cè)到風(fēng)向時(shí),相對(duì)應(yīng)的控制系統(tǒng)對(duì)渦輪機(jī)進(jìn)行控制以適應(yīng)不同的風(fēng)速和風(fēng)向,風(fēng)能通過(guò)動(dòng)力系統(tǒng)將動(dòng)能輸送到發(fā)電系統(tǒng),經(jīng)轉(zhuǎn)換后的電能進(jìn)行并網(wǎng)。由于風(fēng)能的自然特性,風(fēng)速是不斷變化的,風(fēng)力機(jī)輸出功率也隨之不斷變化,因此風(fēng)電功率時(shí)間序列具有波動(dòng)性和不確定性。風(fēng)電功率與風(fēng)速關(guān)系如下所示
式中,P為風(fēng)力機(jī)輸出功率;ρ為空氣密度;S為風(fēng)輪掃掠面積;V是風(fēng)速;CP為風(fēng)能利用系數(shù)。
針對(duì)風(fēng)電功率的波動(dòng)性和不確定性問(wèn)題,需要對(duì)原始序列進(jìn)行分解以獲得較規(guī)律的特征。自適應(yīng)噪聲完全集合經(jīng)驗(yàn)?zāi)B(tài)分解(CEEMDAN)通過(guò)加入自適應(yīng)白噪聲能夠減少EMD 分解的模態(tài)混淆現(xiàn)象,克服EEMD 使計(jì)算規(guī)模變大的問(wèn)題,能夠大大減少迭代次數(shù),提高重構(gòu)準(zhǔn)確度,具有較好的收斂特性。樣本熵是常用來(lái)衡量原始時(shí)間序列的復(fù)雜度。原始序列越復(fù)雜,樣本熵值就越高[17]。如果對(duì)每一個(gè)子分量都分別直接預(yù)測(cè),可能使計(jì)算規(guī)模變大、預(yù)測(cè)速度變慢。因此,將熵值相近的序列合并,可以降低計(jì)算規(guī)模,提高預(yù)測(cè)速度。
CEEMDAN 是對(duì)EEMD 算法的改進(jìn)[18],克服了EEMD 產(chǎn)生重構(gòu)誤差的問(wèn)題,使風(fēng)電功率原始數(shù)據(jù)的分解更加完整,更適合非線性信號(hào)的分析[19]。CEEMDAN 方法分解數(shù)據(jù)的具體過(guò)程如下所示。
步驟1:將信號(hào)x(n)中添加I次均值為0 的白噪聲,共構(gòu)造I次待分解序列
式中,β為白噪聲權(quán)值系數(shù);ωi(n)為第i次處理時(shí)產(chǎn)生的白噪聲。
步驟2:先對(duì)上述序列進(jìn)行EMD 分解,分解后得到第一個(gè)分量IMF1(n)和第一階段的剩余信號(hào)
式中,IMF1(n)表示CEEMDAN 分解得到的第一個(gè)模態(tài)分量;I表示一共I次待分解序列;r1(n)表示第一次分解后的剩余信號(hào)。
步驟3:設(shè)Ek(·)為模態(tài)算子,對(duì)r1(n)+γ1E1(ωi(n))進(jìn)行分解,則CEEMDAN 的第二模態(tài)分量為
式中,β1為白噪聲權(quán)值系數(shù);ωi(n)為第i次處理時(shí)產(chǎn)生的白噪聲;r1(n)為第一階段剩余信號(hào);E1為模態(tài)算子;I表示分解序列次數(shù)。剩余信號(hào)表示為
步驟4:由此可得k個(gè)剩余分量
第k+1 個(gè)IMF 為
步驟5:重復(fù)上述步驟,直到滿足CEEMDAN停止條件,最后數(shù)據(jù)分解為
式中,R(n)為殘余分量。
對(duì)于N個(gè)樣本的時(shí)間序列,組成m維向量序列X(1),X(2),…,X(N-m+1),其中Xm(i)=[x(i),x(i+1),…,x(i+m-1)],定義序列中絕對(duì)值相差最大的距離為dm(X(i),X(j)) 樣本熵的定義為 當(dāng)N為有限時(shí),可以用式(11)進(jìn)行計(jì)算 長(zhǎng)短期記憶網(wǎng)絡(luò)[20](LSTM)是對(duì)傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent neural network, RNN)的改進(jìn),具有學(xué)習(xí)長(zhǎng)期依賴的能力,適合處理風(fēng)電功率預(yù)測(cè)和負(fù)荷預(yù)測(cè)等動(dòng)態(tài)非線性數(shù)據(jù)。由于風(fēng)電數(shù)據(jù)具有間斷性、不確定性等特點(diǎn),本文將Attention 機(jī)制用于計(jì)算LSTM 神經(jīng)網(wǎng)絡(luò)的隱層狀態(tài)的不同權(quán)重,以選擇性地關(guān)注不同時(shí)刻輸入對(duì)風(fēng)電功率預(yù)測(cè)的影響,從而改善功率預(yù)測(cè)效果。針對(duì)LSTM 模型超參數(shù)目標(biāo)函數(shù)表達(dá)式未知、超參數(shù)眾多、迭代搜索復(fù)雜等問(wèn)題,提出改進(jìn)的MFO 算法優(yōu)化LSTM 模型,得到最優(yōu)的超參數(shù)組合。 LSTM 引入遺忘門、輸入門和輸出門三個(gè)門來(lái)解決RNN 存在的梯度不合理問(wèn)題,其結(jié)構(gòu)如圖1所示。這些門使LSTM 在進(jìn)行反向傳播中能有一個(gè)更穩(wěn)定的誤差,使風(fēng)電功率預(yù)測(cè)模型可以在多個(gè)時(shí)間步上繼續(xù)學(xué)習(xí),減小風(fēng)電功率預(yù)測(cè)的誤差,提高風(fēng)電功率預(yù)測(cè)的精度。 圖1 LSTM 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖 式中,W和b是LSTM 單元的參數(shù);St是當(dāng)前單元狀態(tài);Ct是新單元狀態(tài)St的候選值;ot表示輸出門;ft表示遺忘門;it表示輸入門。 Attention 機(jī)制是一種模擬人腦注意力的模型,根據(jù)風(fēng)電功率數(shù)據(jù)輸入的每一項(xiàng)特征對(duì)輸出風(fēng)電功率預(yù)測(cè)值的影響來(lái)為神經(jīng)網(wǎng)絡(luò)中的隱層狀態(tài)賦予不同的權(quán)重。主要原理是通過(guò)保持LSTM 層對(duì)輸入序列建模時(shí)每一步的中間輸出結(jié)果,并將它們與輸出風(fēng)電功率的值聯(lián)系起來(lái),從而訓(xùn)練模型選擇性地關(guān)注輸入功率數(shù)據(jù),為相關(guān)性更高的功率輸入向量賦予更高的權(quán)重,具體原理如圖2 所示。 圖2 Attention 機(jī)制示意圖 在t時(shí)刻得到LSTM 層的隱層狀態(tài)為[ht,1,ht,2,…,ht,i,…,ht,T]。設(shè)αt,i為在t時(shí)刻隱層狀態(tài)hi對(duì)當(dāng)前輸出的注意力權(quán)重,本文選擇點(diǎn)乘形式計(jì)算注意力權(quán)重,如下所示 本文將Attention 機(jī)制用于計(jì)算LSTM神經(jīng)網(wǎng)絡(luò)隱層狀態(tài)的不同權(quán)重,結(jié)合注意力權(quán)重和LSTM 神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)超短期風(fēng)電功率預(yù)測(cè)。輸入向量由輸入層進(jìn)入LSTM 隱藏層進(jìn)行訓(xùn)練,經(jīng)訓(xùn)練后的向量進(jìn)入注意力機(jī)制層,通過(guò)該層進(jìn)行權(quán)重計(jì)算,得到的新向量進(jìn)入全連接層,經(jīng)過(guò)訓(xùn)練輸出風(fēng)電功率最終預(yù)測(cè)值。Attention-LSTM 預(yù)測(cè)模型如圖3 所示。 圖3 Attention-LSTM 模型 MFO 算法優(yōu)化問(wèn)題的待求解是飛蛾的位置,將飛蛾群按適應(yīng)度排列后作為火焰,飛蛾根據(jù)螺旋函數(shù)不斷向火焰運(yùn)動(dòng),尋優(yōu)過(guò)程中火焰數(shù)量不斷減少,直到適應(yīng)度值符合要求則停止[21]。算法原理如下所示。 飛蛾種群由矩陣M表示,與這些飛蛾存在對(duì)應(yīng)的適應(yīng)度值向量為 MFO 算法要求每只飛蛾有與其對(duì)應(yīng)的火焰來(lái)更新其位置,對(duì)全局搜索能力有較大提升。飛蛾位置用矩陣F表示,火焰位置矩陣如下 飛蛾相對(duì)火焰位置更新策略可用式(23)表示 式中,Mi表示第i只飛蛾;Fj表示第j個(gè)火焰;S為螺旋函數(shù)。S的計(jì)算式如下所示 式中,iD表示火焰j和飛蛾i之間的距離;b為螺旋常數(shù);t為[-1,1]區(qū)間中的隨機(jī)數(shù)。Di的計(jì)算式如下 火焰數(shù)量隨迭代次數(shù)增加不斷減少,即 式中,N表示飛蛾種群數(shù);k表示迭代次數(shù);T表示總迭代次數(shù)。 在求解復(fù)雜的多峰值函數(shù)過(guò)程中,傳統(tǒng)的飛蛾撲火算法在飛蛾飛向火焰的過(guò)程中容易使飛蛾錯(cuò)過(guò)全局的最優(yōu)點(diǎn),仍存在收斂精度不夠、收斂速度慢、陷入局部最優(yōu)等缺點(diǎn)。因此,本文通過(guò)加入混沌映射、自適應(yīng)權(quán)值、柯西變異對(duì)傳統(tǒng)MFO 算法進(jìn)行改進(jìn)。 3.4.1 Chebyshev 混沌映射 混沌優(yōu)化是利用混沌映射產(chǎn)生的混沌序列,具有內(nèi)部隨機(jī)性和遍歷、均勻性等特點(diǎn)。通過(guò)混沌映射可以得到分布均勻及多樣化的初始種群,因此可以提高算法尋優(yōu)的能力,有利于克服局部最優(yōu)問(wèn)題,找到全局最優(yōu)解。 Chebyshev 混沌映射的混沌序列擁有較好的內(nèi)部隨機(jī)特性,而且零均值白噪聲統(tǒng)計(jì)和遍歷統(tǒng)計(jì)特性一致。定義如下 式中,k為控制參數(shù);x0為初值。其迭代過(guò)程如圖4所示。 圖4 Chebyshev 混沌序列圖 采用式(28)將Chebyshev 映射產(chǎn)生的變量映射到飛蛾個(gè)體上,實(shí)現(xiàn)飛蛾種群的初始化。 式中,xlb、xub分別為每個(gè)個(gè)體在每個(gè)維度的上限和下限;x為映射后個(gè)體。 3.4.2 Sigmoid 函數(shù)的慣性權(quán)重 式中,l為當(dāng)前迭代次數(shù);T為最大迭代次數(shù)。 引入慣性權(quán)值后的飛蛾相對(duì)火焰位置更新策略表達(dá)式如下 慣性權(quán)值ω的大小影響著飛蛾群的整體尋優(yōu)能力。ω的值越大,說(shuō)明算法具有較強(qiáng)的全局搜索能力;ω越小,表明算法有更高的搜索精度。 3.4.3 柯西變異 柯西分布的概率密度函數(shù)如式(31)所示 式中,t為比例參數(shù)且大于0。其函數(shù)圖像如圖5 所示。 圖5 柯西分布函數(shù)圖 柯西分布使其產(chǎn)生與原點(diǎn)相距很遠(yuǎn)的隨機(jī)數(shù),通過(guò)柯西變異,飛蛾個(gè)體能快速逃離局部極值。每次計(jì)算迭代中由柯西分布產(chǎn)生柯西變異矩陣,變異公式如下 堅(jiān)定對(duì)中國(guó)特色社會(huì)主義的道路自信、理論自信、制度自信和文化自信,是十八大以來(lái)習(xí)近平總書記反復(fù)強(qiáng)調(diào)的重要思想。這個(gè)問(wèn)題,不僅是一個(gè)理論問(wèn)題,更是一個(gè)黨性修養(yǎng)問(wèn)題。對(duì)于擔(dān)負(fù)著領(lǐng)導(dǎo)責(zé)任的各級(jí)領(lǐng)導(dǎo)干部來(lái)說(shuō),尤其重要。 式中,C(1,0)表示柯西分布;Fj為待變異飛蛾的位置;β影響柯西變異的范圍。更新公式如下 式中,Mb表示解空間的上限;Nb表示解空間的下限;α是不斷更新的參數(shù)。通過(guò)柯西變異提高了種群搜索的多樣性。 為驗(yàn)證改進(jìn)MFO 算法的尋優(yōu)能力,選用表1 所示的四種函數(shù)作為對(duì)比不同算法尋優(yōu)性能的測(cè)試函數(shù)。 表1 四種測(cè)試函數(shù) 將改進(jìn)的MFO 算法和原始MFO、PSO 算法進(jìn)行尋優(yōu)性能比較,尋優(yōu)過(guò)程如圖6~9 所示,尋優(yōu)結(jié)果如表2 所示。 表2 各算法對(duì)四種測(cè)試函數(shù)的尋優(yōu)性能 圖6 f1 函數(shù)尋優(yōu)過(guò)程 圖8 f3 函數(shù)尋優(yōu)過(guò)程 圖9 f4 函數(shù)尋優(yōu)過(guò)程 f1和f3函數(shù)僅有全局最小點(diǎn),改進(jìn)MFO 算法相比其他算法有較高的收斂精度和速度。f2和f4函數(shù)具有多個(gè)極小值,可以看出改進(jìn)MFO 算法能跳出局部最優(yōu),收斂到全局最小值。 通過(guò)以上比較試驗(yàn)可以看出,加入混沌映射、柯西變異和慣性權(quán)重對(duì)于改善飛蛾撲火算法的尋優(yōu)能力和收斂速度具有十分明顯的作用,而且和其他算法相比,對(duì)于不同測(cè)試函數(shù),改進(jìn)后的飛蛾撲火算法都具有較強(qiáng)的適應(yīng)能力。 風(fēng)電功率具有不確定性、波動(dòng)性等特征。本文建立一種基于改進(jìn)MFO 優(yōu)化Attention-LSTM 的風(fēng)電功率超短期預(yù)測(cè)模型,以提高風(fēng)電功率預(yù)測(cè)的準(zhǔn)確度,組合模型建模過(guò)程如圖10 所示,具體步驟如下所示。 圖10 改進(jìn)MFO 優(yōu)化Attention-LSTM 預(yù)測(cè)流程 步驟1:數(shù)據(jù)預(yù)處理:對(duì)風(fēng)電功率數(shù)據(jù)預(yù)處理,去掉其中的異常值。 步驟2:初始化各參數(shù),包括超參數(shù)尋優(yōu)范圍、設(shè)置控制變量維度d、搜索規(guī)模n、最高迭代次數(shù)T、螺旋常數(shù)b等參數(shù)。 步驟3:將LSTM 中的超參數(shù)第一隱含層單元數(shù)、第二隱含層單元數(shù)、學(xué)習(xí)率作為優(yōu)化對(duì)象。 步驟4:通過(guò)式(23)更新飛蛾與火焰的相對(duì)位置。計(jì)算飛蛾適應(yīng)度值并與上次迭代過(guò)程的值作對(duì)比。若高出原值,則保存新值為最優(yōu)適應(yīng)值;否則保留原值繼續(xù)迭代。 步驟5:達(dá)到迭代條件后,停止搜索,輸出最優(yōu)的超參數(shù)。否則返回步驟4 重新計(jì)算。 步驟6:采用CEEMDAN 方法將原始風(fēng)電功率數(shù)據(jù)進(jìn)行分解得到各IMF 分量和殘余量R(n)。 步驟7:計(jì)算各分解得到的各分量的樣本熵值,將樣本熵值近似的分量進(jìn)行相加,得到新分量。 步驟8:針對(duì)每個(gè)子分量分別建立改進(jìn)MFOAttention-LSTM 預(yù)測(cè)模型,得到各自的預(yù)測(cè)值。 步驟9:將各分量的風(fēng)電功率預(yù)測(cè)結(jié)果線性疊加,得到超短期風(fēng)電功率預(yù)測(cè)的最終結(jié)果。 為對(duì)預(yù)測(cè)結(jié)果進(jìn)行科學(xué)準(zhǔn)確評(píng)價(jià),本文選取平均絕對(duì)百分比誤差(Mean absolute percentage error,MAPE)和均方根誤差(Root mean square error, RMSE)進(jìn)行評(píng)估。 平均絕對(duì)百分比誤差表達(dá)式為 均方根誤差表達(dá)式為 式中,n為樣本數(shù);yi為真實(shí)值;為預(yù)測(cè)值。 本文以錦州某風(fēng)電場(chǎng)24 臺(tái)2 kW 風(fēng)機(jī)總功率從2020 年12 月1 日至31 日共31 天的2 976 組數(shù)據(jù)進(jìn)行建模仿真分析,原始數(shù)據(jù)采樣間隔為15 min。將前26 天的2 496 組數(shù)據(jù)作為訓(xùn)練樣本,后5 天的480組數(shù)據(jù)作為測(cè)試樣本。本文對(duì)風(fēng)電功率采用提前15 min 的單步預(yù)測(cè),采用迭代式預(yù)測(cè),即將前一刻預(yù)測(cè)數(shù)據(jù)作為歷史值進(jìn)行下一次預(yù)測(cè)。原始數(shù)據(jù)時(shí)間序列如圖11 所示。由圖11 可知,風(fēng)機(jī)最高功率與最低功率變化幅度較大,體現(xiàn)了風(fēng)電功率的不穩(wěn)定性和波動(dòng)性。 圖11 原始數(shù)據(jù)時(shí)間序列 首先對(duì)訓(xùn)練集 2 496 組功率原始數(shù)據(jù)進(jìn)行CEEMDAN 分解,結(jié)果如圖12 所示。 圖12 CEEMDAN 分解結(jié)果 然后計(jì)算各分量的樣本熵,由式(10)、(11)可以看出,樣本熵值受m、r大小的影響。由研究結(jié)果可知[22],m=1 或2,r=0.1Sd~0.25Sd時(shí)得到的樣本熵較合理且經(jīng)過(guò)多次試驗(yàn),本文中取m=2,r=0.2Sd。CEEMDAN 分解的各分量樣本熵如圖13所示。 圖13 各分量的樣本熵 由圖13 可以看出,各分量的樣本熵值隨著各個(gè)IMF 分量頻率的下降而不斷降低,說(shuō)明樣本的復(fù)雜度不斷減小,證明樣本熵值有效。 單獨(dú)對(duì)每個(gè)IMF 分量進(jìn)行預(yù)測(cè),會(huì)使計(jì)算規(guī)模變大,為了降低計(jì)算規(guī)模,將熵值相近的分量進(jìn)行合并,產(chǎn)生新的序列,針對(duì)每一個(gè)新序列,分別采用改進(jìn)MFO-Attention-LSTM 模型進(jìn)行仿真預(yù)測(cè),降低非平穩(wěn)性對(duì)預(yù)測(cè)結(jié)果產(chǎn)生的影響。各IMF 分量合并重組后的新序列結(jié)果如表3 所示,合并后的新分量如圖14 所示。 表3 各分量合并后的新序列結(jié)果 圖14 模態(tài)合并后的新分量 針對(duì)風(fēng)電功率預(yù)測(cè),本文將MFO-LSTM 和改進(jìn)MFO-LSTM 模型的輸入層個(gè)數(shù)設(shè)置為1,隨著隱藏層數(shù)目的增多,模型的擬合能力提高,但是模型復(fù)雜度和訓(xùn)練時(shí)間也將增加,本文設(shè)置隱藏層個(gè)數(shù)為2,根據(jù)歷史功率數(shù)據(jù)預(yù)測(cè)下一步的風(fēng)電功率,因此設(shè)輸出層個(gè)數(shù)為1。飛蛾種群規(guī)模設(shè)置為50,控制變量維度d為3,最大迭代次數(shù)為300。學(xué)習(xí)率的搜索范圍為[0.000 1,0.01],第一隱藏層神經(jīng)元個(gè)數(shù)n1和第二隱藏層神經(jīng)元個(gè)數(shù)n2的搜索范圍為[0,100]。經(jīng)過(guò)多次試驗(yàn),將LSTM 網(wǎng)絡(luò)的n1設(shè)置為20,n2設(shè)置為10,學(xué)習(xí)率為0.001。MFO 算法和改進(jìn)MFO 算法尋優(yōu)過(guò)程飛蛾個(gè)體適應(yīng)度變化曲線如圖15 所示。 圖15 適應(yīng)度變化曲線對(duì)比圖 由圖15 可知,改進(jìn)MFO 算法比MFO 算法更易找到最優(yōu)解,并且適應(yīng)度值更小,說(shuō)明改進(jìn)MFO算法具有更好的尋優(yōu)性能。 MFO 算法尋找的最優(yōu)LSTM 參數(shù)為n1=40,n2=75,學(xué)習(xí)率為2.313×10-3;改進(jìn)MFO 算法尋找的最優(yōu)參數(shù)為n1=15,n2=10,學(xué)習(xí)率為1.622×10-3。 標(biāo)準(zhǔn)的MFO 算法優(yōu)化Attention-LSTM 模型和改進(jìn)MFO 優(yōu)化Attention-LSTM 模型的功率預(yù)測(cè)結(jié)果分別如圖16、17 所示。 圖16 MFO 優(yōu)化Attention-LSTM 預(yù)測(cè)結(jié)果 圖17 改進(jìn)MFO 優(yōu)化Attention-LSTM 預(yù)測(cè)結(jié)果 為了進(jìn)一步驗(yàn)證改進(jìn)MFO-Attention-LSTM 算法的準(zhǔn)確性,本文還采用單一LSSVM 算法、LSTM算法和Attention-LSTM 算法,來(lái)對(duì)風(fēng)電功率進(jìn)行超短期對(duì)比預(yù)測(cè)。不同模型測(cè)試樣本預(yù)測(cè)結(jié)果如圖18所示。 圖18 風(fēng)電功率預(yù)測(cè)對(duì)比圖 由圖16、17 可知,改進(jìn)MFO-Attention-LSTM算法的預(yù)測(cè)曲線擬合程度更高,預(yù)測(cè)精度更是高于MFO-Attention-LSTM 算法。由圖18 可以看出,單一的 LSSVM 模型擬合情況最差,改進(jìn) MFOAttention-LSTM 的預(yù)測(cè)曲線擬合程度高于其他四種,說(shuō)明本文所提模型預(yù)測(cè)效果較好。各模型的誤差結(jié)果如表4 所示。MAPE 的值在10%以下則認(rèn)為模型預(yù)測(cè)準(zhǔn)確度較高。 表4 不同模型預(yù)測(cè)結(jié)果比較 由表4 可知,LSTM 模型比單一的LSSVM 模型的MAPE 值降低了4.10%,RMSE 的值也下降1.404。加入Attention 機(jī)制的LSTM 預(yù)測(cè)模型比LSTM 模型的MAPE 值降低2.51%,RMSE 值降低0.912,引入MFO 優(yōu)化算法的Attention-LSTM 模型比Attention-LSTM 模型的MAPE 值降低了2.89%,RMSE 值降低了0.517,說(shuō)明加入Attention 機(jī)制和MFO 優(yōu)化算法使預(yù)測(cè)精度都有了提升。本文提出的改進(jìn)MFO-Attention-LSTM 算法的MAPE 的值比其他四種模型分別降低了12.16%、8.06%、5.55%、2.66%,且均方根誤差(RMSE)值分別降低2.998、1.594、0.682、0.165,預(yù)測(cè)精度有了很大提高,能夠更好地應(yīng)用于風(fēng)力機(jī)發(fā)電功率預(yù)測(cè),對(duì)風(fēng)電并網(wǎng)運(yùn)行具有一定的指導(dǎo)意義。 (1) 針對(duì)風(fēng)電功率的不確定性, 研究CEEMDAN 分解技術(shù)、樣本熵理論。CEEMDAN 分解有效解決了模態(tài)混疊現(xiàn)象,提高了預(yù)測(cè)精度;樣本熵法可以合并相似分量,大大降低計(jì)算規(guī)模,提高預(yù)測(cè)速度。 (2) 鑒于MFO 算法存在收斂速度慢,易陷入局部最優(yōu)的問(wèn)題,通過(guò)加入混沌映射和柯西變異、慣性權(quán)重對(duì)MFO 算法進(jìn)行改進(jìn),顯著提高了算法的收斂能力,并且可以克服局部最優(yōu)的缺點(diǎn),最后通過(guò)和傳統(tǒng)算法進(jìn)行對(duì)比論證了該算法的優(yōu)越性。 (3) 將Attention 機(jī)制用于計(jì)算LSTM 神經(jīng)網(wǎng)絡(luò)的隱層狀態(tài)的不同權(quán)重,Attention-LSTM 模型中,結(jié)合注意力權(quán)重和LSTM 神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)超短期風(fēng)電功率預(yù)測(cè)。 (4) 本文方法較單一的 LSSVM、LSTM、Attention-LSTM、MFO-Attention-LSTM 算法具有更高的預(yù)測(cè)精度,具有一定的理論研究和工程實(shí)踐意義。3 Attention-LSTM 和改進(jìn)MFO 算法
3.1 LSTM 神經(jīng)網(wǎng)絡(luò)
3.2 Attention 機(jī)制
3.3 標(biāo)準(zhǔn)飛蛾撲火算法(MFO)
3.4 改進(jìn)MFO 算法
3.5 算法性能測(cè)試
4 基于改進(jìn) MFO 優(yōu)化 Attention-LSTM 的模型建立
5 實(shí)例仿真分析
5.1 模型的評(píng)價(jià)標(biāo)準(zhǔn)
5.2 數(shù)據(jù)選擇與處理
5.3 改進(jìn)MFO-Attention-LSTM 模型超參數(shù)優(yōu)化結(jié)果
5.4 預(yù)測(cè)結(jié)果分析
6 結(jié)論