陳 晨
山東兗礦技師學院,山東 鄒城 273500
傳統(tǒng)的火電廠過熱氣溫控制系統(tǒng)通常使用經(jīng)驗規(guī)則或PID控制器進行調(diào)節(jié),這些方法在應(yīng)對復雜的非線性系統(tǒng)和快速變化的工況下存在一定的局限性。隨著深度學習技術(shù)的不斷發(fā)展,特別是長短時記憶(long short term memory,LSTM)算法的出現(xiàn),為優(yōu)化火電廠過熱氣溫控制系統(tǒng)提供了新的可能性。LSTM算法是一種遞歸神經(jīng)網(wǎng)絡(luò),能夠處理時間序列數(shù)據(jù),具備捕捉長期依賴關(guān)系的能力。這種算法在語音識別、自然語言處理和時間序列預測等領(lǐng)域已經(jīng)取得顯著成功。因此,將LSTM算法應(yīng)用于火電廠過熱氣溫控制系統(tǒng)的優(yōu)化,可以實現(xiàn)更智能化的溫度預測和控制,以應(yīng)對復雜的工況以及溫度的實時變化。
(1)
(2)
1)在向前傳播階段,將訓練數(shù)據(jù)輸入到RNN中,系統(tǒng)按照不同的時間節(jié)點和步驟計算隱藏狀態(tài)和輸出,并生成模型的預測結(jié)果。
2)明確使用預測結(jié)果和真實標簽(或目標值)之間的差異,計算損失函數(shù)(通常是均方誤差、交叉熵等)。損失函數(shù)能夠展示模型的性能。
3)從最后1個時間步驟開始,通過反向傳播,計算損失函數(shù)對于每個時間步驟的隱藏狀態(tài)和輸出的梯度,該梯度數(shù)據(jù)通過鏈式法則來實現(xiàn)。梯度會被反向傳播到各個時間步驟,然后再傳遞到權(quán)重和偏置。這是RNN訓練的關(guān)鍵部分。梯度傳遞通常使用LSTM或門控循環(huán)單元(GRU)等改進型RNN來解決梯度消失問題。
4)得到關(guān)于損失函數(shù)的梯度后,系統(tǒng)可以使用梯度下降算法的一種變種(如隨機梯度下降、Adam、RMSprop等)來更新RNN的權(quán)重和偏置。更新規(guī)則如下。①從梯度計算中獲得權(quán)重和偏置的梯度[2]。②將梯度與學習率相乘,以確定更新的步長。③使用更新步長來調(diào)整每個權(quán)重和偏置。本次研究中,相關(guān)研究人員引入反向傳播算法,通過這種方式令梯令LSTM神經(jīng)網(wǎng)絡(luò)變得具有“記憶性”,其公式為:
(3)
5)在每個訓練樣本上重復執(zhí)行上述步驟,直到訓練樣本趨于收斂狀態(tài),即損失函數(shù)不再顯著減小,或者訓練次數(shù)達到預定值。
在每個訓練迭代中,系統(tǒng)會根據(jù)損失函數(shù)的梯度對RNN的參數(shù)進行微調(diào),以逐漸提高模型的性能。在迭代工過程中,設(shè)計人員需要謹慎選擇學習率、損失函數(shù)和正則化方法,以確保模型能夠有效地學習和泛化。
LSTM接受輸入序列中每個時間步驟都有1個輸入,并生成相應(yīng)的輸出序列。序列是LSTM內(nèi)部的記憶單元,用于存儲和傳遞信息。為創(chuàng)新LSTM中可以引入輸入門、遺忘門和輸出門3個門控機制。其中,遺忘門輸出計算公式為:
it=δ(wixt+Uiht-1+Vict-1+bi)
(4)
式中:c為細胞計算方式;U為輸入層;V為輸出層;ct-1代表t-1時刻下的細胞計算方式;ht-1代表t-1時刻下計算單元輸出;b代表偏置項。輸入門決定哪些信息將被寫入細胞狀態(tài);遺忘門則決定哪些信息將被從細胞狀態(tài)中刪除;輸出門則控制哪些信息將被輸出到輸出序列。這些門控機制通過激活函數(shù)來調(diào)整細胞狀態(tài),根據(jù)當前輸入數(shù)據(jù)和前一個時間步的隱藏狀態(tài)來決定信息的流動。
在每個時間步驟,LSTM接收輸入數(shù)據(jù)并使用門控機制來更新細胞狀態(tài)和隱藏狀態(tài)。在細胞下數(shù)據(jù)之間存在長期依賴關(guān)系,而隱藏狀態(tài)下數(shù)據(jù)包含當前時間步的信息,將在下一個時間步驟傳遞。通過這種方式,LSTM可以有效地捕捉序列中的信息,記住關(guān)鍵內(nèi)容,然后生成適當?shù)妮敵觥?/p>
LSTM因其門控機制的巧妙設(shè)計而成為處理自然語言處理、時間序列預測和其他序列數(shù)據(jù)任務(wù)的有力工具。其內(nèi)部結(jié)構(gòu)和機制允許模型在處理各種序列數(shù)據(jù)時更好地處理長期依賴關(guān)系,從而提高了模型的性能。
本次研究中,相關(guān)工作人員將被調(diào)量時間序列設(shè)為y(t),并將其視為一個近似于p階次的回歸模型,其計算公式為:
y(t)=f(y(t-1),y(t-2),…,y(t-p))+ε(t)
(5)
式中:f代表非線性方程;ε(t)代表誤差方程。
研究人員基于LSTM算法進行時序預測過程中,p個歷史時刻的數(shù)學表達式為{y(t-1),y(t-2),…,y(t-p)},則該時序預測的t時刻輸出值可以表示為:
y(t)=f(y(t-1),y(t-2),…,y(t-p))+e(t)
(6)
研究人員對收集到的時序數(shù)據(jù)進行預處理,其目的在于對數(shù)據(jù)進行平穩(wěn)化、歸一化運算,將其轉(zhuǎn)化為滑動窗口序列。在此基礎(chǔ)上,研究人員構(gòu)建LSTM模型,該模型包含多個LSTM層,以及全連接層進行模型輸出。在訓練階段,模型將利用歷史數(shù)據(jù)學習數(shù)據(jù)中的模式和關(guān)系,通常通過優(yōu)化損失函數(shù)來調(diào)整模型的權(quán)重和偏置[3]。研究人員可以使用驗證集評估模型進行科學調(diào)整,以確保模型不會過擬合。研究人員通過測試集進行實際的時間預測,并根據(jù)預測結(jié)果進行模型的反饋和優(yōu)化,進而調(diào)整模型架構(gòu)、超參數(shù)等。
本次研究中,工作人員共收集了1 000項數(shù)據(jù),時間跨度為100 min,這些數(shù)據(jù)中的90%被用于訓練數(shù)據(jù),剩余10%數(shù)據(jù)被用于測試。研究人員將數(shù)據(jù)預測時間步長設(shè)為20 min,對數(shù)據(jù)進行平穩(wěn)化與歸一化運算,得到初始參數(shù)(見表1)。
表1 預測模型相關(guān)參數(shù)
研究人員將初始學習率設(shè)定為0.01,在經(jīng)過50輪學習訓練后得到該模型學習率。此外,為防止訓練過程中出現(xiàn)梯度爆炸問題,研究人員將梯度閾值調(diào)整為1,本次模型訓練時長共計10 min。研究人員輸入時間序列x(t)(t=1,2,…)以及輸出預測時間序列y(t)(t=1,2,…),同時得到2個序列的矩陣為:
(7)
(8)
實際進行模型訓練過程中,為了提高預測結(jié)果與真實結(jié)果的貼合度,研究人員引入均方根誤差(RMSE)指標,篩除預測過程中出現(xiàn)的極小、極大誤差,進一步提高預測準確性,誤差計算公式為:
(9)
式中:i為神經(jīng)元序號;n為數(shù)量;ypredict代表一級減溫器出口的預測溫度;ytest代表一級減溫器出口的真實溫度;n代表測試次數(shù)。預測值與真實值偏差如圖1所示。
圖1 LSTM與RNN預測誤差
分析圖1可以發(fā)現(xiàn),基于LSTM算法的預測模型,其RMSE為0.453 62,基于RNN算法的預測RMSE為0.500 32。由此可以看出,基于LSTM神經(jīng)網(wǎng)絡(luò)的溫度預測模型預測精度更高[4]。
1)定義優(yōu)化目標。明確參數(shù)優(yōu)化的目標,LSTM神經(jīng)網(wǎng)絡(luò)中的某個具體性能指標,例如損失函數(shù)(如均方誤差),或者其他你所關(guān)心的性能指標,例如準確度或召回率。
2)建立初始LSTM模型。開始時,創(chuàng)建一個初始的LSTM模型作為基準。這個基準模型可以具有默認的網(wǎng)絡(luò)架構(gòu)和參數(shù)設(shè)置,作為加密算法(message digest簡稱α-MD)優(yōu)化的起始點。
3)選擇α-MD算法。在與LSTM結(jié)合的過程中,選擇合適的α-MD算法。這可能包括基于模型的貝葉斯優(yōu)化、遺傳算法、模擬退火等,不同的算法適用于不同類型的參數(shù)搜索和優(yōu)化任務(wù)。
4)定義參數(shù)搜索空間。明確定義需要進行優(yōu)化的參數(shù)空間,例如LSTM的層數(shù)、每層的神經(jīng)元數(shù)量、學習率、批次大小等,這些參數(shù)是α-MD算法將要搜索和調(diào)整的參數(shù)。
5)設(shè)置優(yōu)化目標函數(shù)。為α-MD算法制定一個明確的優(yōu)化目標函數(shù),該函數(shù)將評估LSTM模型性能。通常情況下,目標函數(shù)將基于模型在驗證集上的性能。
6)運行α-MD優(yōu)化。啟動α-MD算法在定義參數(shù)空間中搜索,以找到最佳的參數(shù)組合。在每次迭代中,算法將根據(jù)目標函數(shù)的輸出逐漸優(yōu)化參數(shù)。
7)驗證和評估。在每次迭代中,驗證經(jīng)過α-MD優(yōu)化后的LSTM模型的性能。確保性能不僅在改善,而且不會發(fā)生顯著的下降,以避免陷入局部最優(yōu)解。
8)停止條件。明確定義停止α-MD優(yōu)化的條件[5]。這可以達到最大迭代次數(shù),性能不再顯著提高等。
9)應(yīng)用最優(yōu)參數(shù)。一旦α-MD優(yōu)化完成,將找到的最佳參數(shù)組合應(yīng)用于LSTM模型中,取代初始設(shè)置。
10)進一步優(yōu)化。在獲得最優(yōu)參數(shù)后,可以考慮進行更細致的微調(diào),例如調(diào)整學習率、正則化項或丟棄率,以進一步提高LSTM模型的性能。
由于過熱蒸汽控制系統(tǒng)在實際運行過程中,可能出現(xiàn)滯后問題,研究人員為了減少數(shù)據(jù)波動,使用在Simulink環(huán)境下搭建的第三級噴水式減溫控制模型,并將負荷調(diào)整至37%,初始溫度設(shè)定為542 ℃,溫度升高值設(shè)定為5 ℃,通過仿真模擬得到導前區(qū)以及惰性區(qū)氣溫變化輸出數(shù)據(jù)。得到氣溫變化數(shù)據(jù)后,研究人員基于LSTM網(wǎng)絡(luò)計算該系統(tǒng)α-MD指數(shù),最終得到結(jié)果為1.027 8。根據(jù)性能等級劃分表,該數(shù)據(jù)的性能表現(xiàn)仍為“良”級別,優(yōu)化效果不明顯。因此,研究人員再次增加比例增益(Kp)以及增益時間(TI),經(jīng)過調(diào)整后重新建α-MD指數(shù)(見表2)。
表2 優(yōu)化調(diào)節(jié)過程
分析表2可以發(fā)現(xiàn),調(diào)整控制器參數(shù)后,該系統(tǒng)超調(diào)量降低,調(diào)節(jié)時間縮短,性能等級由“良”變?yōu)椤皟?yōu)”,證明該優(yōu)化措施有效。
本次研究中,研究人員結(jié)合LSTM深度學習技術(shù)以及參數(shù)優(yōu)化方法,更為高效地調(diào)整過熱氣溫控制系統(tǒng)的參數(shù),以提高系統(tǒng)的性能、效率和穩(wěn)定性。這項研究的結(jié)果為火電廠運營商和工程師提供了有效的工具,使他們能夠更好地適應(yīng)不斷變化的運營條件和需求。在未來,研究人員可以進一步擴展這項研究,以涵蓋更廣泛的控制系統(tǒng)應(yīng)用,包括不同類型的能源生產(chǎn)設(shè)施。此外,還可以考慮引入更多的智能控制策略,進一步提高系統(tǒng)的自適應(yīng)性和魯棒性。本研究為能源行業(yè)的可持續(xù)性發(fā)展,以及生產(chǎn)效率的提升提供了技術(shù)支持,有望在減少資源浪費和環(huán)境影響方面產(chǎn)生積極影響。