李先鵬 吳若男 王義洋 王會(huì)宇 劉妙男 王 魏
(1.大連海洋大學(xué)信息工程學(xué)院 大連 116023)(2.遼寧科技學(xué)院中美雙百學(xué)院 本溪 117004)(3.華能?chē)?guó)際電力股份有限公司大連電廠 大連 116100)
電弧爐[1]煉鋼及其后續(xù)工藝LF 精煉爐的熱源均來(lái)自于電能[2],其耗電占鋼鐵企業(yè)用電的比例非常大,通常電爐變壓器設(shè)計(jì)的富裕容量大,在煉鋼尖峰負(fù)荷很大,并且不可控,所以企業(yè)都選擇按照變壓器裝機(jī)容量來(lái)滿(mǎn)足工作需要,造成工業(yè)成本增加。負(fù)荷預(yù)測(cè)模型,在電弧爐煉鋼負(fù)荷預(yù)測(cè)與控制系統(tǒng)中占據(jù)決定性作用,預(yù)測(cè)到負(fù)荷尖峰時(shí),可及時(shí)對(duì)電極調(diào)節(jié)器[3]進(jìn)行調(diào)節(jié),能夠準(zhǔn)確地控制電弧爐的最大需量,提高電弧爐電能的利用率,減少工業(yè)用電成本。
國(guó)內(nèi)外負(fù)荷預(yù)測(cè)模型主要采用的是數(shù)學(xué)模型和統(tǒng)計(jì)學(xué)模型,如灰色預(yù)測(cè)模型[4~5],自回歸模型,隨著傳統(tǒng)的數(shù)學(xué)模型不能滿(mǎn)足實(shí)際的精度要求,模糊表達(dá)式和模糊計(jì)算[6]也融入模型中。近幾年,隨著工業(yè)和計(jì)算機(jī)的發(fā)展,人工智能模型[7]正在逐步替代數(shù)學(xué)模型和統(tǒng)計(jì)學(xué)模型。常見(jiàn)的有K 近鄰(K—Nearest Neighbor,KNN),隨機(jī)森林(Random Forest,RF),支持向量機(jī)(Support Vector Regres?sion,SVR),BP 神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)(Convolu?tional Neural Networks,CNN)循環(huán)神經(jīng)網(wǎng)絡(luò)(Recur?rent Neural Network,RNN)。例如,文獻(xiàn)[8]使用KNN 和RF 的結(jié)合模型對(duì)供熱機(jī)組的熱負(fù)荷進(jìn)行預(yù)測(cè)。文獻(xiàn)[9]糊均值聚類(lèi)和改進(jìn)烏鴉搜索算法優(yōu)化支持向量回歸機(jī)對(duì)低壓臺(tái)區(qū)負(fù)荷進(jìn)行預(yù)測(cè)。如文獻(xiàn)[10]用小波變化加權(quán)雙支持向量回歸的方式靜態(tài)對(duì)電弧爐能耗進(jìn)行預(yù)測(cè)如文獻(xiàn)[11]和文獻(xiàn)[12]均采用不同的優(yōu)化算法,對(duì)BP 神經(jīng)網(wǎng)絡(luò)進(jìn)行優(yōu)化建模,完成熱負(fù)荷和電負(fù)荷的預(yù)測(cè)。文獻(xiàn)[13]用變分模態(tài)分解、長(zhǎng)短期記憶網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)建立短期負(fù)荷預(yù)測(cè)模型對(duì)建筑負(fù)荷進(jìn)行預(yù)測(cè)。文獻(xiàn)[14]通過(guò)長(zhǎng)短期記憶網(wǎng)絡(luò)和自適應(yīng)增強(qiáng)算法建立負(fù)荷預(yù)測(cè)模型對(duì)城市住宅區(qū)負(fù)荷進(jìn)行預(yù)測(cè)。
由于煉鋼過(guò)程中電弧爐負(fù)荷變化具有隨機(jī)性和突變性,導(dǎo)致序列的時(shí)序性降低,故本文未選取處理時(shí)序性強(qiáng)的循環(huán)神經(jīng)網(wǎng)絡(luò)模型,而是采用滑動(dòng)窗口技術(shù)來(lái)聯(lián)系負(fù)荷的時(shí)序性。在結(jié)合上述模型的特點(diǎn)和數(shù)據(jù)特征后,選取了網(wǎng)絡(luò)穩(wěn)定性高和數(shù)據(jù)容錯(cuò)性強(qiáng)的神經(jīng)網(wǎng)絡(luò)多層感知機(jī),最后通過(guò)Ada?Boost 算法對(duì)其進(jìn)行提升,來(lái)建立混合模型提高模型的魯棒性[15]。同時(shí),MLP的穩(wěn)定性和容錯(cuò)性能更好地彌補(bǔ)AdaBoost 算法迭代帶來(lái)的誤差累積的缺陷。本文先利用滑動(dòng)窗口方法構(gòu)建數(shù)據(jù)集,再利用MLP_AdaBoodt 模型對(duì)電弧爐負(fù)荷進(jìn)行實(shí)時(shí)預(yù)測(cè),將將神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)算法結(jié)合,為解決預(yù)測(cè)魯棒性低穩(wěn)定性差提供了新的思路,同時(shí)針對(duì)工程和社會(huì)生產(chǎn)的實(shí)際問(wèn)題建立模型,為不同數(shù)據(jù)類(lèi)型的預(yù)測(cè)建模提供可能。
針對(duì)煉鋼電力負(fù)荷的調(diào)控包括預(yù)測(cè)和控制兩部分,預(yù)測(cè)是控制的基礎(chǔ),是近年來(lái)的研究熱點(diǎn),如何精準(zhǔn)預(yù)測(cè)工業(yè)用電負(fù)荷是預(yù)測(cè)控制的關(guān)鍵一步。本文采用了具有較強(qiáng)的穩(wěn)定性的MLP 神經(jīng)網(wǎng)絡(luò),同時(shí)運(yùn)用Adaboost集成學(xué)習(xí)算法能夠針對(duì)預(yù)測(cè)效果差的數(shù)據(jù)進(jìn)行權(quán)重分配的特點(diǎn),使得預(yù)測(cè)更有針對(duì)性。
圖1 工業(yè)用電閉環(huán)回路
該系統(tǒng)包括負(fù)荷預(yù)測(cè)模型和負(fù)荷控制模型兩部分。圖中S(N)為控制對(duì)象第N 時(shí)間段爐況,含電壓、電流、檔位等;P(N)為第N 時(shí)間段的控制量;P(N+1)為15min 預(yù)測(cè)均值;PS 為負(fù)荷設(shè)定值。由于電弧爐煉鋼生產(chǎn)過(guò)程中負(fù)荷變化具有很多不確定性,因此僅僅靠傳統(tǒng)的方法建立的數(shù)學(xué)模型很難滿(mǎn)足實(shí)際使用的精度要求,本文在使用了Adaboost算法解決傳統(tǒng)算法的魯棒性和穩(wěn)定性差的問(wèn)題,來(lái)提高預(yù)測(cè)的精度。由負(fù)荷預(yù)測(cè)模型計(jì)算出的下一個(gè)15min 的負(fù)荷預(yù)測(cè)均值,與負(fù)荷設(shè)定值進(jìn)行比較,負(fù)荷控制模型則根據(jù)差值,計(jì)算負(fù)荷控制的輸出值,從而到達(dá)調(diào)控用電負(fù)荷節(jié)約成本的作用。
MLP 分別有輸入層、輸出層和隱藏層構(gòu)成,每層由同種類(lèi)型的神經(jīng)元構(gòu)成且每層之間使用全連接的方式,其中輸入層和輸出層是可視的,可以看成輸入到輸出的一種映射[16]。其結(jié)構(gòu)如圖2所示。
圖2 MLP原理圖
其中LayerL1表示輸入層,用于輸入特征向量,LayerL2表示隱藏層,用于提取數(shù)據(jù)特征,LayerL3表示輸出層用來(lái)輸出結(jié)果。MLP 中每個(gè)神經(jīng)元都有一個(gè)非線性的激活函數(shù)Sigmoid,通過(guò)每個(gè)神經(jīng)元的激活函數(shù)和層與層連接關(guān)系,其在處理非線性問(wèn)題有好的效果。MLP層節(jié)點(diǎn)公式為
MLP由相同的神經(jīng)元組成,雖然單個(gè)的神經(jīng)元功能和結(jié)構(gòu)簡(jiǎn)單,但是其網(wǎng)絡(luò)中的每層神經(jīng)元并行運(yùn)行,大大提高運(yùn)算能力和對(duì)信息處理能力。每個(gè)神經(jīng)元受上一層所有神經(jīng)元影響,通過(guò)非線性輸入輸出的關(guān)系,來(lái)影響下一層神經(jīng)元。該模型將大量數(shù)據(jù)特征儲(chǔ)存在每層不同的神經(jīng)元權(quán)值中,采用這種分布式的特點(diǎn)提高了模型的容錯(cuò)性,對(duì)數(shù)據(jù)處理具有更高的穩(wěn)定性。
自適應(yīng)增強(qiáng)算法(Adaptive Boosting,Ada?Boost),是一種提升集成機(jī)器學(xué)習(xí)算法,通過(guò)對(duì)模型中樣本的權(quán)重進(jìn)行迭代再分配來(lái)完成的[17]。Ad?aBoost 結(jié)合了決策樹(shù)樁的短一級(jí)決策樹(shù)的預(yù)測(cè),AdaBoost 算法試圖使用許多弱模型并通過(guò)添加額外的弱模型來(lái)糾正它們的預(yù)測(cè),故也可以用于其他算法中本文將AdaBoost 與MLP 結(jié)合。Boosting 算法思想圖,如圖3所示。
圖3 Boosting算法原理圖
圖3 為Boosting 類(lèi)算法圖,弱學(xué)習(xí)模型會(huì)對(duì)數(shù)據(jù)進(jìn)行帶權(quán)訓(xùn)練,通過(guò)數(shù)據(jù)的誤差率得到新的權(quán)重系數(shù)并更新數(shù)據(jù)權(quán)重,重復(fù)這一過(guò)程得到多個(gè)弱學(xué)習(xí)模型。將多個(gè)弱學(xué)習(xí)模型組合得到強(qiáng)學(xué)習(xí)模型。
本文將AdaBoost 與MLP 相結(jié)合,利用MLP 具有高容錯(cuò)性和穩(wěn)定性,將其作為弱學(xué)習(xí)模型,使用AdaBoost 集成學(xué)習(xí)算法對(duì)MLP 弱學(xué)習(xí)進(jìn)行迭代提升。
MLP-AdaBoost算法計(jì)算步驟:
給每個(gè)訓(xùn)練樣本一個(gè)權(quán)重:
式中,WT(i)表示算法對(duì)MLP 弱學(xué)習(xí)模型迭代T 次時(shí)的樣本權(quán)重,N表示實(shí)驗(yàn)總樣本數(shù)。
2)采用MLP 建立弱學(xué)習(xí)模型MT(x),對(duì)含權(quán)重WT(i)的樣本數(shù)據(jù)進(jìn)行訓(xùn)練得到弱學(xué)習(xí)模型,得到預(yù)測(cè)結(jié)果y。
3)通過(guò)預(yù)測(cè)結(jié)果y重新計(jì)算樣本數(shù)據(jù)權(quán)重,對(duì)預(yù)測(cè)誤差率大的數(shù)據(jù)放大其權(quán)重,經(jīng)過(guò)弱學(xué)習(xí)模型迭代訓(xùn)練。
式中:emax表示最大誤差,eT表示T 次迭代時(shí)弱學(xué)習(xí)模型的誤差率。
4)重復(fù)迭代T次結(jié)束。
5)將弱學(xué)習(xí)器按照性能,線性組合,通過(guò)每個(gè)弱學(xué)習(xí)模型的性能判斷其在強(qiáng)學(xué)習(xí)模型中的比重:
式中,?T表示第T 個(gè)弱學(xué)習(xí)模型占強(qiáng)學(xué)習(xí)模型的比重。
6)每一次訓(xùn)練后,通過(guò)數(shù)據(jù)誤差率和模型占比可以來(lái)更新訓(xùn)練數(shù)據(jù)權(quán)重:
式中,ZT表示歸一化因子,為了將迭代后數(shù)據(jù)權(quán)值歸一化。
7)通過(guò)最終權(quán)值和模型的組合得到強(qiáng)學(xué)習(xí)模型。
式中H(x)最終強(qiáng)學(xué)習(xí)模型的輸出結(jié)果。
煉鋼負(fù)荷預(yù)測(cè)模型流程圖如圖4所示。
圖4 滑動(dòng)窗口的MLP-AdaBoost煉鋼負(fù)荷預(yù)測(cè)模型流程圖
MLP-AdaBoost 煉鋼負(fù)荷預(yù)測(cè)模型針對(duì)煉鋼廠有功功率進(jìn)行建模,通過(guò)計(jì)算得到負(fù)荷,對(duì)數(shù)據(jù)預(yù)處理后,通過(guò)重構(gòu)數(shù)據(jù)并賦予其初始權(quán)重,通過(guò)MLP 弱學(xué)習(xí)模型完成第一次預(yù)測(cè),然后經(jīng)過(guò)Ada?Boost集成學(xué)習(xí)算法對(duì)模型進(jìn)行提升得到多個(gè)弱學(xué)習(xí)模型,最后這些模型線性組合得到強(qiáng)學(xué)習(xí)模型。最終通過(guò)強(qiáng)學(xué)習(xí)模型完成煉鋼過(guò)程中的負(fù)荷預(yù)測(cè)。
在實(shí)際的數(shù)據(jù)測(cè)量過(guò)程中有功功率是通過(guò)現(xiàn)場(chǎng)傳感器實(shí)測(cè)的值,所以?xún)x器測(cè)量頻率、故障,記錄或傳輸異常等諸多因素會(huì)影響采集的數(shù)據(jù)。這樣會(huì)造成數(shù)據(jù)的重復(fù)、缺失和誤差過(guò)大等情況,由于AdaBoost 算法在權(quán)值分配的時(shí)候會(huì)將誤差數(shù)據(jù)放大,從而增加模型的誤差率,故對(duì)數(shù)據(jù)的預(yù)處理非常重要。
根據(jù)負(fù)荷數(shù)據(jù)的時(shí)序性,針對(duì)重復(fù)和冗余的數(shù)據(jù)選擇直接刪除;針對(duì)離群數(shù)據(jù)采用標(biāo)準(zhǔn)差法進(jìn)行篩選;針對(duì)缺失值的采用插值法對(duì)缺失值進(jìn)行填充。
式中:xi表示當(dāng)前時(shí)刻的值,xi-1表示前一時(shí)刻的值,若當(dāng)前時(shí)刻值為空時(shí)則使用前一時(shí)刻的值來(lái)補(bǔ)充數(shù)據(jù)。
式中:xmean表示數(shù)據(jù)的均值,xstd表示數(shù)據(jù)的標(biāo)準(zhǔn)差,把異常值識(shí)別為與均值相差超過(guò)3 個(gè)標(biāo)準(zhǔn)差的臨界值。
本文采用的是單輸入模型,但采用了滑動(dòng)窗口來(lái)劃分?jǐn)?shù)據(jù)集使模型參數(shù)復(fù)雜,故為了縮小取值范圍,避免數(shù)值過(guò)大,保留所有特征的同時(shí)減少參數(shù)的大小,本文采用0均值標(biāo)準(zhǔn)化。
其中,x為原始數(shù)據(jù),xmean為原始數(shù)據(jù)的均值,xstd為原始數(shù)據(jù)的標(biāo)準(zhǔn)差,xscale表示歸一化結(jié)果。
采用滑動(dòng)窗口方法對(duì)數(shù)據(jù)進(jìn)行處理,選取窗口大小為N,利用X-N 至X 個(gè)實(shí)測(cè)有功功率預(yù)測(cè)未來(lái)X+1 的有功功率。通過(guò)滑動(dòng)窗口的移動(dòng),更久時(shí)刻的數(shù)據(jù)逐漸去除,新數(shù)據(jù)隨著窗口移動(dòng)不斷增加,來(lái)實(shí)現(xiàn)數(shù)據(jù)的更替,通過(guò)滑動(dòng)窗口來(lái)考慮數(shù)據(jù)的時(shí)序性。
基于滑動(dòng)窗口MLP-AdaBoost煉鋼負(fù)荷預(yù)測(cè)模型是單變量預(yù)測(cè)模型,本實(shí)驗(yàn)采用TensorFlow 框架實(shí)現(xiàn)。采用MLP 網(wǎng)絡(luò)構(gòu)建模型,其中輸入層包含神經(jīng)元150個(gè),隱藏層神經(jīng)元150個(gè),輸出層神經(jīng)元1個(gè),且在輸入層和隱藏層中間加入了Dropout來(lái)防止過(guò)擬合。優(yōu)化器Optimizer 選取ADAM 算法來(lái)優(yōu)化,損失函數(shù)Loss 選取均方誤差MAE(Mean Abso?lute Error,MAE)來(lái)計(jì)算。
本文實(shí)驗(yàn)數(shù)據(jù)來(lái)自某企業(yè)2018 年1 月11 日線路1 每秒由現(xiàn)場(chǎng)傳感器實(shí)測(cè)的企業(yè)煉鋼負(fù)荷數(shù)據(jù)。部分?jǐn)?shù)據(jù)見(jiàn)表1。
表1 2018年1月11日部分煉鋼負(fù)荷數(shù)據(jù)
本數(shù)據(jù)包括煉鋼廠基礎(chǔ)負(fù)荷和煉鋼工作時(shí)的負(fù)荷,該模型需要預(yù)測(cè)在煉鋼過(guò)程中的負(fù)荷變化進(jìn)行下一步調(diào)控,來(lái)節(jié)約資源減少成本,其中負(fù)荷是根據(jù)有功功率計(jì)算得到的,故本文只取數(shù)據(jù)中煉鋼過(guò)程中的有功功率變化數(shù)據(jù)作為實(shí)驗(yàn)研究對(duì)象。
數(shù)據(jù)經(jīng)異常值處理和歸一化處理后,數(shù)據(jù)預(yù)處理結(jié)果如圖5所示。
圖5 數(shù)據(jù)預(yù)處理結(jié)果圖
數(shù)據(jù)集包括時(shí)間、需量和有功功率。其中需量為電路當(dāng)前時(shí)刻負(fù)荷最大值,負(fù)荷是根據(jù)有功功率計(jì)算得到的,故預(yù)測(cè)有功功率即可計(jì)算負(fù)荷。所以本文將有功功率作為預(yù)測(cè)對(duì)象完成建模,并通過(guò)預(yù)測(cè)的有功功率計(jì)算煉鋼負(fù)荷。在對(duì)數(shù)據(jù)進(jìn)行建模前,采用滑動(dòng)窗口方法對(duì)數(shù)據(jù)進(jìn)行處理。在將數(shù)據(jù)進(jìn)行窗口化處理后,選取其中80%作為訓(xùn)練集,20%作為測(cè)試集。
實(shí)驗(yàn)中將經(jīng)過(guò)預(yù)處理和窗口化的訓(xùn)練樣本加入模型進(jìn)行訓(xùn)練,本文經(jīng)過(guò)多次試驗(yàn)最終選取窗口大小N=10,AdaBoost 迭代次數(shù)T=2 次。為了展示預(yù)測(cè)結(jié)果,選取部分點(diǎn)觀察預(yù)測(cè)結(jié)果,如圖6所示。
由圖6 可見(jiàn),MLP-AdaBoost 預(yù)測(cè)模型相較其他模型預(yù)測(cè)效果更好。統(tǒng)計(jì)學(xué)算法ARIMA、CNN和LSTM 預(yù)測(cè)模型在面對(duì)這類(lèi)高隨機(jī)性、強(qiáng)突變性和低時(shí)序性的數(shù)據(jù)時(shí)預(yù)測(cè)效果差。LSTM采用Ada?boost 算法提升效果不顯著,相反MLP 模型有高容錯(cuò)性和穩(wěn)定性,故在處理這類(lèi)問(wèn)題有更好的效果??梢钥闯鯩LP-AdaBoost 預(yù)測(cè)模型的變化趨勢(shì)與MLP十分相近,但其在部分細(xì)節(jié)處的結(jié)果相比MLP更好且更穩(wěn)定。
圖6 煉鋼負(fù)荷預(yù)測(cè)結(jié)果圖
本文選取迭代次數(shù)T=2,則會(huì)有3個(gè)子模型,每個(gè)子模型處理不同權(quán)重的數(shù)據(jù),為了便于觀察選取部分樣本點(diǎn)展示,3個(gè)子模型預(yù)測(cè)結(jié)果,如圖7所示。
圖7(a)為第一次迭代后產(chǎn)生的弱學(xué)習(xí)模型1,可以看出在點(diǎn)5 和10 點(diǎn)的變化趨勢(shì)不明顯且誤差較大。在得到第一個(gè)弱模型后,會(huì)根據(jù)預(yù)測(cè)結(jié)果對(duì)數(shù)據(jù)權(quán)重再分配。
圖7(b)為第二次迭代后產(chǎn)生的弱學(xué)習(xí)模型2,在模型1 預(yù)測(cè)結(jié)果基礎(chǔ)上對(duì)預(yù)測(cè)效果差的數(shù)據(jù)權(quán)重放大,使模型在處理5和10這類(lèi)效果不好的點(diǎn)時(shí)更準(zhǔn)確,同時(shí)由于其他點(diǎn)的權(quán)重縮小,故圖像有所下移整體預(yù)測(cè)結(jié)果較弱模型1差。
圖7 3個(gè)子模型預(yù)測(cè)結(jié)果
圖7 (a)為第三次迭代后產(chǎn)生的弱學(xué)習(xí)模型3,該模型建立在前兩次的基礎(chǔ)上,針對(duì)預(yù)測(cè)結(jié)果差的數(shù)據(jù)再放大??梢钥吹饺跄P? 在處理5 和10 這類(lèi)點(diǎn)的效果優(yōu)于弱模型1、2。
圖7 分別為三次迭代中的子模型,弱模型2、3的整體預(yù)測(cè)結(jié)果較差,因?yàn)槭菣?quán)重再分配的結(jié)果。最終的強(qiáng)學(xué)習(xí)模型經(jīng)過(guò)式(8)的一個(gè)非線性疊加,根據(jù)每個(gè)點(diǎn)的權(quán)重分配和預(yù)測(cè)結(jié)果,組成強(qiáng)學(xué)習(xí)模型。最終的強(qiáng)學(xué)習(xí)模型集成了所有弱學(xué)習(xí)模型在處理不同點(diǎn)的優(yōu)勢(shì)。
滑動(dòng)窗口的MLP-AdaBoost煉鋼負(fù)荷預(yù)測(cè)模型的準(zhǔn)確性采用均方根誤差(Root Mean Square Er?ror,RMSE)平均絕對(duì)誤差(Mean Absolute Error,MAE)平均絕對(duì)百分比誤差(Mean Absolute Percent?age Error,MAPE),公式如下:
式中,n表示樣本數(shù)量;yi為真實(shí)值,這里為煉鋼有功功率;yi為預(yù)測(cè)值。本文采用的突變性和隨機(jī)性高的煉鋼負(fù)荷其數(shù)值相對(duì)較大。RMSE、MAE、MAPE 三個(gè)指標(biāo)根據(jù)數(shù)據(jù)特點(diǎn)大小有所不同。本實(shí)驗(yàn)采用這三個(gè)指標(biāo)來(lái)評(píng)價(jià)模型的精確度。結(jié)果見(jiàn)表2。
表2 中實(shí)驗(yàn)結(jié)果為10 次實(shí)驗(yàn)的平均值??梢钥闯鯩LP 處理這類(lèi)時(shí)序性低,突變性強(qiáng)的數(shù)據(jù)時(shí)相較其他模型具有一定的優(yōu)勢(shì)。通過(guò)三個(gè)指標(biāo)可以直觀的反映MLP-AdaBoost預(yù)測(cè)模型的各項(xiàng)指標(biāo)比其他數(shù)學(xué)模型和人工智能模型有顯著的降低。
表2 模型評(píng)價(jià)指標(biāo)
本文取實(shí)驗(yàn)結(jié)果中處理時(shí)序性序列效果好的LSTM 預(yù)測(cè)模型、未進(jìn)行AdaBoost 提升的MLP 預(yù)測(cè)模型和MLP-AdaBoost 預(yù)測(cè)模型比較10 次結(jié)果RMSE、MAE、MAPE的變化情況,如圖8所示。
圖8 RMSE、MAE、MAPE三指標(biāo)對(duì)比圖
由圖8 可以看出在多次實(shí)驗(yàn)時(shí)MLP-AdaBoost煉鋼預(yù)測(cè)模型的三大指標(biāo)變化相較比LSTM 和MLP 模型更平穩(wěn),說(shuō)明MLP-AdaBoost 預(yù)測(cè)模型更穩(wěn)定。AdaBoost 算法能夠有效地解決傳統(tǒng)預(yù)測(cè)模型單次預(yù)測(cè)魯棒性差和穩(wěn)定性低問(wèn)題。
迭代次數(shù)T 取不同次數(shù)時(shí)MLP-AdaBoost 煉鋼預(yù)測(cè)模型RMSE、MAE、MAPE見(jiàn)表3。
表3 MLP-AdaBoost不同迭代次數(shù)結(jié)果
表3 中實(shí)驗(yàn)結(jié)果為10 次實(shí)驗(yàn)的平均結(jié)果??梢钥闯?,AdaBoost在對(duì)模型進(jìn)行提升時(shí)隨著迭代次數(shù)增大,模型的預(yù)測(cè)效果在兩次迭代后達(dá)到最優(yōu),繼續(xù)迭代模型預(yù)測(cè)精度開(kāi)始下降。因?yàn)锳daBoost迭代次數(shù)達(dá)到一定時(shí)弱學(xué)習(xí)模型對(duì)部分?jǐn)?shù)據(jù)預(yù)測(cè)結(jié)果已經(jīng)達(dá)到最優(yōu),增加迭代次數(shù)只會(huì)放大誤差數(shù)據(jù)權(quán)重,增大模型的誤差率。
為了有效調(diào)控?zé)掍摴I(yè)用電負(fù)荷,為下一步控制提出依據(jù)。提出MLP-AdaBoost 算法,該算法通過(guò)組合弱學(xué)習(xí)模型有效地解決了以往算法單次預(yù)測(cè)魯棒性和穩(wěn)定性差的問(wèn)題。同時(shí),該算法對(duì)工業(yè)煉鋼過(guò)程數(shù)據(jù)進(jìn)行建模,證明了針對(duì)這類(lèi)高隨機(jī)性、強(qiáng)突變性和低時(shí)序性的數(shù)據(jù)預(yù)測(cè)效果更好?;瑒?dòng)窗口MLP-AdaBoostl 煉鋼預(yù)測(cè)模型能夠有效的為工作過(guò)程中控制電弧爐的需量,做出有力的依據(jù),同時(shí)該算法可以根據(jù)數(shù)據(jù)特征選取不同的弱學(xué)習(xí)模型來(lái)應(yīng)用于冶金、水泥、汽車(chē)、重型機(jī)械、賓館,水產(chǎn)養(yǎng)殖等場(chǎng)景。