摘要:文章聚焦于電站鍋爐燃燒熱效率建模問題,構建了融合改進型灰狼優(yōu)化算法(TGWO)與極限學習機(ELM)的TGWO-ELM模型。首先,通過引入Tent 混沌映射函數(shù)、反向學習策略、非線性收斂因子及動態(tài)權重策略,對灰狼優(yōu)化算法進行改進,提升了算法的收斂精度和全局搜索能力。其次,構建TGWO-ELM模型,并利用10個UCI(加州大學歐文分校)數(shù)據(jù)集樣本驗證模型的有效性。實驗結果顯示,融合TGWO算法后,ELM模型的泛化能力和穩(wěn)定性均得到了提升。最后,將該模型應用于電站鍋爐燃燒熱效率的建模中,實驗結果表明,TGWO-ELM模型的精度可達到10-2,滿足實際工程應用需求,為后續(xù)鍋爐工況的優(yōu)化奠定了基礎。
關鍵詞:灰狼算法;極限學習機;鍋爐熱效率;建模
中圖分類號:TK17 " " " 文獻標識碼:A " " "文章編號:1674-0688(2024)10-0078-05
0 引言
在我國電力市場“廠網(wǎng)分開、競價上網(wǎng)”的激烈競爭環(huán)境下,火力發(fā)電企業(yè)面臨前所未有的挑戰(zhàn)。降低生產(chǎn)成本并增強市場競爭力,減少鍋爐煤耗成為當前的關鍵任務。因此,構建鍋爐熱效率模型并深入分析其與燃燒參數(shù)之間的關系,成為火力發(fā)電企業(yè)亟須解決的核心問題。國內(nèi)外的研究人員[1-4]基于現(xiàn)場試驗數(shù)據(jù),利用人工神經(jīng)網(wǎng)絡及多種變型支持向量機算法,構建了鍋爐熱效率預測模型,取得了良好的預測效果,并對后續(xù)鍋爐燃燒優(yōu)化研究產(chǎn)生了重要影響。趙敏華等[5]采用量子遺傳算法優(yōu)化了基于最小二乘支持向量機的鍋爐熱效率模型,進一步提升了模型的精度和泛化能力。張文廣等[6]為提高CFBB(循環(huán)流化床鍋爐)的熱效率并降低污染氣體排放量,采用自適應模糊推理辨識方法構建了熱效率、NOx和SO2排放濃度模型,分析了鍋爐運行參數(shù)之間的關聯(lián)性。本文聚焦于鍋爐燃燒熱效率建模問題,構建了融合極限學習機(Extreme Learning Machine,ELM)[7]與改進型灰狼優(yōu)化算法(Grey Wolf Optimizer, TGWO)[8]的模型框架。 ELM作為一種單隱層前饋神經(jīng)網(wǎng)絡,具有學習速度快、泛化能力強等優(yōu)勢;而GWO作為一種受灰狼狩獵行為啟發(fā)的群智能優(yōu)化算法,雖然全局搜索能力強且收斂性能好,但是存在陷入局部最優(yōu)解的風險。為提升GWO的性能,段冰冰等[9]提出了一種改進型灰狼優(yōu)化算法(TGWO),增強了原始算法的搜索能力及跳出局部最優(yōu)解的能力。本文以某電站330 MW循環(huán)流化床鍋爐為例,采集了750條包含鍋爐負荷、給煤量、一次風風量、二次風風量、煙氣含氧量及飛灰含碳量等26個影響鍋爐熱效率參數(shù)的鍋爐運行數(shù)據(jù)。對數(shù)據(jù)進行歸一化處理后,應用TGWO-ELM建立了鍋爐熱效率模型,為后續(xù)提升鍋爐燃燒熱效率奠定了基礎。
1 改進型灰狼優(yōu)化算法
灰狼優(yōu)化算法是Mirjalili等學者從灰狼覓食行為中受到啟發(fā)而設計的一種群智能優(yōu)化算法,具有算法原理易懂、參數(shù)較少、全局尋優(yōu)能力強等特點,已成功應用于車間調(diào)度、參數(shù)優(yōu)化、圖像分類等領域。本文重點介紹改進型灰狼優(yōu)化算法。
1.1 種群初始化
混沌映射函數(shù)具有遍歷性和隨機性特征,適用于生成混沌序列,可以作為種群個體的初始位置,從而提高初始解的均勻遍歷性。TGWO 算法采用Tent混沌映射函數(shù)和反向學習策略初始化種群個體的位置。Tent混沌映射函數(shù)的表達式為
[xt+1=2xi " " " " " 0≤xi≤0.52(1-xi) " 0.5≤xi≤1]。 " " " " "(1)
混沌映射函數(shù)產(chǎn)生初始解后,將其映射到待優(yōu)化目標函數(shù)的解空間中。然后利用反向學習策略產(chǎn)生2N個種群個體。反向學習策略的數(shù)學表達式為
[Xt+1=rand(0,1)×(max(X)+min(X)-X)], " (2)
其中,[max(X)]和[min(X)]分別表示解空間的上下限值。
計算種群個體的適應度,根據(jù)該值進行升序(或降序)排列,選取適應度最優(yōu)的前N個個體作為TGWO算法的初始種群。
1.2 非線性收斂因子策略
在原始灰狼優(yōu)化算法中,收斂因子[α]隨迭代次數(shù)線性遞減,導致系數(shù)[A]也隨之線性減小,影響了算法的全局搜索能力和局部開發(fā)能力。為平衡這兩種能力,本文引入非線性收斂因子([α]),具體表達式如下:
[α=sin1×πtmax+π2+1], " " " " " " " (3)
其中,[tmax]為最大迭代次數(shù)。由公式(3)可知,[α]在算法迭代初期的變化較小,使[A]長時間保持較大值,有利于增強全局搜索效率;在算法迭代后期,[α]減小速度較快,使[A]長時間保持較小值,提高了局部搜索能力。
1.3 動態(tài)權重策略
原始灰狼優(yōu)化算法通過計算3個最優(yōu)灰狼位置的平均值更新其他灰狼的位置,但未區(qū)分這3頭灰狼在狩獵活動中的重要程度。若這些所謂的最優(yōu)灰狼實際上是局部最優(yōu)解,則可能導致其他灰狼同樣陷入局部最優(yōu)。為解決這一問題,在原始灰狼優(yōu)化算法中引入了基于適應度值的動態(tài)權重策略,具體公式如下:
[Wα=fαfα+fβ+fδWβ=fβfα+fβ+fδWδ=fδfα+fβ+fδ] , " " " " " " " " " " " " "(4)
[Xt+1=X1×Wα+X2×Wβ+X3×WδWα+Wβ+Wδ], " " " "(5)
其中:[Wα、Wβ、Wδ]分別表示[α、β、δ]灰狼所占的權重,[fα、fβ、fδ]表示[α、β、δ]灰狼的適應度值。通過適應度值計算3頭灰狼所占的權重,使[α]具有較大的權重,[δ]具有較小的權重。
研究文獻[10]已證明TGWO在解決數(shù)學函數(shù)優(yōu)化問題上具有良好的收斂精度和收斂速度。本文將TGWO用于解決鍋爐燃燒熱效率的建模問題。
2 TGWO-ELM模型架構
2.1 TGWO-ELM簡介
TGWO-ELM模型架構的工作原理基于利用TGWO算法優(yōu)化ELM的輸入權值和隱藏層閾值,從而找到最優(yōu)模型參數(shù),以最小化模型預測輸出與真實值之間的誤差。由于ELM的輸入權值和隱藏層閾值是隨機給定且保持不變的,這些參數(shù)可能并不適應所有輸入數(shù)據(jù),也非最優(yōu)模型參數(shù),從而限制了ELM的泛化能力和回歸能力。針對此問題,本文構建了TGWO-ELM模型框架。首先,設置ELM的參數(shù),包括輸入層節(jié)點個數(shù)(取決于輸入數(shù)據(jù)的維度)、隱藏層節(jié)點個數(shù)及隱藏層激活函數(shù)。其次,設置TGWO算法的參數(shù),如種群個體數(shù)、最大迭代次數(shù)及相關系數(shù)等。最后,確定適應度函數(shù),用以指導優(yōu)化流程。TGWO-ELM模型框架流程圖見圖1。
2.2 TGWO-ELM性能測試
為驗證TGWO-ELM模型的性能,本文選取了10個UCI數(shù)據(jù)集中的數(shù)據(jù)樣本(表1),并采用均方根誤差(RMSE)、標準差(STD)、平均絕對百分比誤差(MAPE)和決定系數(shù)[R2]共4項性能指標評估其回歸能力、泛化能力及穩(wěn)定性,評價指標公式如下:
[RMSE=1Ni=1N(yi?yi)2] , " " " " " "(6)
[STD=1Ni=1Nyi-μ2] , " " " " " "(7)
[MAPE=1Ni=1Nyi-yiyi×100%] , " " " " (8)
[R2=1-i=1Nyi-yi2i=1Nyi-y2] ", " " " " " " " (9)
其中:[yi]為目標值,[yi]為模型輸出值,[y]為目標值的平均值,N為樣本數(shù)。對于訓練樣本,RMSE和MAPE的值越小,[R2]的值越接近1,表明算法的回歸能力越強;對于測試樣本,RMSE和MAPE的值越小且[R2]的值越接近1,則算法的泛化能力越好。STD越小,說明算法的穩(wěn)定性越高。
本節(jié)所有實驗均在配置為Microsoft Windows 10操作系統(tǒng)、11代Intel Core i5-1135G7處理器(2.40 GHz,2419 Mhz,4核8 線程)、16 GB運行內(nèi)存的計算機上完成,采用的仿真軟件為MATLAB 2021a。
算法參數(shù)設置如下:TGWO-ELM、GWO-ELM和ELM的數(shù)據(jù)集隱藏層節(jié)點數(shù)設置見表2,輸入節(jié)點數(shù)由數(shù)據(jù)集的輸入特征確定,輸出節(jié)點數(shù)則由數(shù)據(jù)集的輸出目標數(shù)量確定。TGWO-ELM、GWO-ELM和ELM隱藏層的激活函數(shù)均設置為sigmoid函數(shù)。此外,TGWO-ELM和GWO-ELM的最大迭代次數(shù)設定為150次。
表3記錄了ELM、GWO-ELM和TGWO-ELM 3種算法在訓練集上的RMSE和STD。數(shù)據(jù)顯示,GWO-ELM算法在7個數(shù)據(jù)集(D2、D3、D4、D5、D6、D7、D10)上獲得了最佳的RMSE均值,而TGWO-ELM算法在其余3個數(shù)據(jù)集上表現(xiàn)最優(yōu)。在穩(wěn)定性方面,GWO-ELM算法在4個數(shù)據(jù)集(D3、D4、D5、D9)上表現(xiàn)最佳,TGWO-ELM在3個數(shù)據(jù)集(D1、D7、D8)上表現(xiàn)最佳,兩者在數(shù)據(jù)集D2上的穩(wěn)定性相當。
表4記錄了3種算法在測試集上的RMSE和標準差STD。ELM算法在數(shù)據(jù)集(D1、D8)上取得了最佳的RMSE均值,GWO-ELM在D3、D5上表現(xiàn)最優(yōu),而TGWO-ELM算法在3個數(shù)據(jù)集(D4、D7、D10)上獲得了最佳的RMSE均值。在穩(wěn)定性方面,ELM、GWO-ELM和TGWO-ELM算法分別在3個、2個和3個數(shù)據(jù)集上表現(xiàn)最佳。
表5記錄了3種算法在訓練集上的MAPE和[R2]。GWO-ELM算法在6個數(shù)據(jù)集(D1、D2、D3、D4、D7、D10)上獲得了最小的MAPE,同時在6個數(shù)據(jù)集(D2、D3、D4、D6、D7、D10)上的[R2]最接近1。TGWO-ELM算法在數(shù)據(jù)集D9上取得了最小的MAPE,并在4個數(shù)據(jù)集(D1、D5、D8、D9)上的[R2]最接近1。值得注意的是,在數(shù)據(jù)集D5和D6上,GWO-ELM和TGWO-ELM算法的MAPE均達到最小。
表6記錄了3種算法在測試集上的MAPE和[R2]。其中,ELM算法在數(shù)據(jù)集D3上取得了最小的MAPE,在數(shù)據(jù)集D3和D8上的[R2]最接近1。GWO-ELM算法在數(shù)據(jù)集D4上獲得了最小的MAPE。TGWO-ELM算法在6個數(shù)據(jù)集(D1、D5、D6、D8、D9、D10)上取得了最小的MAPE,并在5個數(shù)據(jù)集(D5、D6、D7、D9、D10)上的[R2]最接近1。
3 鍋爐熱效率建模
本文選用的電站鍋爐為330 MW循環(huán)流化床類型,其運行數(shù)據(jù)源自文獻[10],包含750條記錄。鑒于數(shù)據(jù)量綱的不一致性可能影響建模效果,采用最大最小法對數(shù)據(jù)進行了歸一化處理,并將處理后的數(shù)據(jù)按照7∶3的比例隨機劃分為訓練數(shù)據(jù)和測試數(shù)據(jù)。模型參數(shù)設置如下:ELM、GWO-ELM 和 TGWO-ELM 的隱藏層節(jié)點數(shù)均為 41,輸入層節(jié)點數(shù)為 26,輸出層節(jié)點數(shù)為 1,隱藏層激活函數(shù)統(tǒng)一采用 sigmoid函數(shù)。GWO和TGWO的最大迭代次數(shù)設置為150次,3種算法模型均獨立運行20次,確保結果的可靠性。待優(yōu)化的參數(shù)取值范圍界定為[-1,1],目標函數(shù)定義為[min f(x)=ymodel?yreal],其中[ymodel]代表模型輸出值,[yreal]代表鍋爐的真實值。模型性能的評價指標為RMSE、STD、MAPE和R2。3種算法在訓練數(shù)據(jù)上的性能對比見表7,RMSE、STD、MAPE的數(shù)值越小,表示模型的精度和穩(wěn)定性越高;R2越接近1則表明模型的回歸能力和泛化能力越強。
在訓練數(shù)據(jù)上,表7中的數(shù)據(jù)顯示TGWO-ELM和GWO-ELM的性能近乎一致,并且均優(yōu)于原始ELM的性能,這證實了優(yōu)化后的ELM具備良好的回歸能力。在測試數(shù)據(jù)上,實驗結果顯示TGWO-ELM和GWO-ELM的模型在精度和穩(wěn)定性方面均優(yōu)于ELM,進一步證明了優(yōu)化后的ELM具有較好的泛化能力?;赥GWO-ELM的鍋爐熱效率模型仿真曲線如圖2所示。從圖2中可以看出,TGWO-ELM的輸出值能夠緊密貼近熱效率的真實值。
4 結論
本文設計了一種TGWO-ELM數(shù)據(jù)驅動模型,融合了改進型灰狼優(yōu)化算法和極限學習機,旨在解決復雜系統(tǒng)的建模難題。為了驗證模型的有效性,在10個UCI數(shù)據(jù)集上進行了驗證,實驗結果表明,相較于原始的ELM模型,TGWO-ELM的精度、泛化能力和算法穩(wěn)定性均得到提升。應用在電站鍋爐燃燒熱效率的建模中,TGWO-ELM在訓練數(shù)據(jù)和測試數(shù)據(jù)上的RMSE均達到了10-2量級,并且優(yōu)于原始的ELM,這一結果表明TGWO-ELM的回歸能力和泛化能力得到了顯著提升。此外,在其他3項性能指標STD、MAPE、R2上,TGWO-ELM也均優(yōu)于ELM。因此,TGWO-ELM被證明是一種有效的數(shù)據(jù)建??蚣堋N磥?,將對TGWO-ELM的在線學習能力、算法可解釋性、計算復雜度降低等方面進行深入研究,并探索其在更多數(shù)據(jù)驅動建模場景中的應用潛力。
5 參考文獻
[1]周昊,朱洪波,岑可法.基于人工神經(jīng)網(wǎng)絡和遺傳算法的火電廠鍋爐實時燃燒優(yōu)化系統(tǒng)[J].動力工程,2003,23(5):2665-2669.
[2]WU F, ZHOU H, REN T, et al. Combining support vector regression and cellular genetic algorithm for multi-objective optimization of coal-fired utility boilers[J]. Fuel,2009,88(10):1864-1870.
[3]ZHOU H, ZHAO J P, ZHENG L G, et al. Modeling NOx emissions from coal-fired utility boilers using support vector regression with ant colony optimization[J]. Engineering Applications of Artificial Intelligence,2012,25(1):147-158.
[4]ZHOU H, CEN K.Combustion Optimization Based on Computational Intelligence[M]. Springer Singapore,2018:171-237.
[5]趙敏華,胡毅,李金,等.使用博弈差分算法的電站鍋爐高效低污染燃燒均衡優(yōu)化[J].化工學報,2017,8(6):2455-2464.
[6]張文廣,孫亞洲,劉吉臻,等.基于自適應模糊推理辨識方法和果蠅優(yōu)化算法的CFB鍋爐燃燒優(yōu)化[J].動力工程學報,2016,36(2):84-90.
[7]HUANG G B,ZHU Q Y,SIEW C K.Extreme learning machine: a new learning scheme of feedforward neural networks[C] //2004 IEEE International Joint Conference on Neural Networks(IJCNN2004).IEEE,2004,2:985-990.
[8]MIRJALILI S, MIRJALILI S M, LEWIS A. Grey Wolf Optimizer[J].Advances in Engineering Software,2014,69:46-61.
[9]段冰冰,馬云鵬,劉津平,等.基于混沌映射與反向學習機制的非線性灰狼優(yōu)化算法[J].軟件工程,2023,26(5):36-40.
[10]馬云鵬.極端學習機和教與學優(yōu)化算法改進及其在鍋爐燃燒優(yōu)化中的應用研究[D],秦皇島:燕山大學,2018.