• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于長短時記憶算法的火電廠過熱氣溫控制系統(tǒng)參數(shù)優(yōu)化方法研究

      2024-05-09 00:51:28
      技術(shù)與市場 2024年4期
      關(guān)鍵詞:梯度神經(jīng)網(wǎng)絡(luò)預測

      陳 晨

      山東兗礦技師學院,山東 鄒城 273500

      0 引言

      傳統(tǒng)的火電廠過熱氣溫控制系統(tǒng)通常使用經(jīng)驗規(guī)則或PID控制器進行調(diào)節(jié),這些方法在應(yīng)對復雜的非線性系統(tǒng)和快速變化的工況下存在一定的局限性。隨著深度學習技術(shù)的不斷發(fā)展,特別是長短時記憶(long short term memory,LSTM)算法的出現(xiàn),為優(yōu)化火電廠過熱氣溫控制系統(tǒng)提供了新的可能性。LSTM算法是一種遞歸神經(jīng)網(wǎng)絡(luò),能夠處理時間序列數(shù)據(jù),具備捕捉長期依賴關(guān)系的能力。這種算法在語音識別、自然語言處理和時間序列預測等領(lǐng)域已經(jīng)取得顯著成功。因此,將LSTM算法應(yīng)用于火電廠過熱氣溫控制系統(tǒng)的優(yōu)化,可以實現(xiàn)更智能化的溫度預測和控制,以應(yīng)對復雜的工況以及溫度的實時變化。

      1 遞歸神經(jīng)網(wǎng)絡(luò)在過熱氣溫控制系統(tǒng)中的應(yīng)用

      1.1 遞歸神經(jīng)網(wǎng)絡(luò)的前向推算

      (1)

      (2)

      1.2 遞歸神經(jīng)網(wǎng)絡(luò)的參數(shù)更新

      1)在向前傳播階段,將訓練數(shù)據(jù)輸入到RNN中,系統(tǒng)按照不同的時間節(jié)點和步驟計算隱藏狀態(tài)和輸出,并生成模型的預測結(jié)果。

      2)明確使用預測結(jié)果和真實標簽(或目標值)之間的差異,計算損失函數(shù)(通常是均方誤差、交叉熵等)。損失函數(shù)能夠展示模型的性能。

      3)從最后1個時間步驟開始,通過反向傳播,計算損失函數(shù)對于每個時間步驟的隱藏狀態(tài)和輸出的梯度,該梯度數(shù)據(jù)通過鏈式法則來實現(xiàn)。梯度會被反向傳播到各個時間步驟,然后再傳遞到權(quán)重和偏置。這是RNN訓練的關(guān)鍵部分。梯度傳遞通常使用LSTM或門控循環(huán)單元(GRU)等改進型RNN來解決梯度消失問題。

      4)得到關(guān)于損失函數(shù)的梯度后,系統(tǒng)可以使用梯度下降算法的一種變種(如隨機梯度下降、Adam、RMSprop等)來更新RNN的權(quán)重和偏置。更新規(guī)則如下。①從梯度計算中獲得權(quán)重和偏置的梯度[2]。②將梯度與學習率相乘,以確定更新的步長。③使用更新步長來調(diào)整每個權(quán)重和偏置。本次研究中,相關(guān)研究人員引入反向傳播算法,通過這種方式令梯令LSTM神經(jīng)網(wǎng)絡(luò)變得具有“記憶性”,其公式為:

      (3)

      5)在每個訓練樣本上重復執(zhí)行上述步驟,直到訓練樣本趨于收斂狀態(tài),即損失函數(shù)不再顯著減小,或者訓練次數(shù)達到預定值。

      在每個訓練迭代中,系統(tǒng)會根據(jù)損失函數(shù)的梯度對RNN的參數(shù)進行微調(diào),以逐漸提高模型的性能。在迭代工過程中,設(shè)計人員需要謹慎選擇學習率、損失函數(shù)和正則化方法,以確保模型能夠有效地學習和泛化。

      2 長短時記憶神經(jīng)網(wǎng)絡(luò)過熱氣溫控制系統(tǒng)中的應(yīng)用

      LSTM接受輸入序列中每個時間步驟都有1個輸入,并生成相應(yīng)的輸出序列。序列是LSTM內(nèi)部的記憶單元,用于存儲和傳遞信息。為創(chuàng)新LSTM中可以引入輸入門、遺忘門和輸出門3個門控機制。其中,遺忘門輸出計算公式為:

      it=δ(wixt+Uiht-1+Vict-1+bi)

      (4)

      式中:c為細胞計算方式;U為輸入層;V為輸出層;ct-1代表t-1時刻下的細胞計算方式;ht-1代表t-1時刻下計算單元輸出;b代表偏置項。輸入門決定哪些信息將被寫入細胞狀態(tài);遺忘門則決定哪些信息將被從細胞狀態(tài)中刪除;輸出門則控制哪些信息將被輸出到輸出序列。這些門控機制通過激活函數(shù)來調(diào)整細胞狀態(tài),根據(jù)當前輸入數(shù)據(jù)和前一個時間步的隱藏狀態(tài)來決定信息的流動。

      在每個時間步驟,LSTM接收輸入數(shù)據(jù)并使用門控機制來更新細胞狀態(tài)和隱藏狀態(tài)。在細胞下數(shù)據(jù)之間存在長期依賴關(guān)系,而隱藏狀態(tài)下數(shù)據(jù)包含當前時間步的信息,將在下一個時間步驟傳遞。通過這種方式,LSTM可以有效地捕捉序列中的信息,記住關(guān)鍵內(nèi)容,然后生成適當?shù)妮敵觥?/p>

      LSTM因其門控機制的巧妙設(shè)計而成為處理自然語言處理、時間序列預測和其他序列數(shù)據(jù)任務(wù)的有力工具。其內(nèi)部結(jié)構(gòu)和機制允許模型在處理各種序列數(shù)據(jù)時更好地處理長期依賴關(guān)系,從而提高了模型的性能。

      本次研究中,相關(guān)工作人員將被調(diào)量時間序列設(shè)為y(t),并將其視為一個近似于p階次的回歸模型,其計算公式為:

      y(t)=f(y(t-1),y(t-2),…,y(t-p))+ε(t)

      (5)

      式中:f代表非線性方程;ε(t)代表誤差方程。

      研究人員基于LSTM算法進行時序預測過程中,p個歷史時刻的數(shù)學表達式為{y(t-1),y(t-2),…,y(t-p)},則該時序預測的t時刻輸出值可以表示為:

      y(t)=f(y(t-1),y(t-2),…,y(t-p))+e(t)

      (6)

      3 長短時記憶神經(jīng)網(wǎng)絡(luò)時間預測建模

      研究人員對收集到的時序數(shù)據(jù)進行預處理,其目的在于對數(shù)據(jù)進行平穩(wěn)化、歸一化運算,將其轉(zhuǎn)化為滑動窗口序列。在此基礎(chǔ)上,研究人員構(gòu)建LSTM模型,該模型包含多個LSTM層,以及全連接層進行模型輸出。在訓練階段,模型將利用歷史數(shù)據(jù)學習數(shù)據(jù)中的模式和關(guān)系,通常通過優(yōu)化損失函數(shù)來調(diào)整模型的權(quán)重和偏置[3]。研究人員可以使用驗證集評估模型進行科學調(diào)整,以確保模型不會過擬合。研究人員通過測試集進行實際的時間預測,并根據(jù)預測結(jié)果進行模型的反饋和優(yōu)化,進而調(diào)整模型架構(gòu)、超參數(shù)等。

      本次研究中,工作人員共收集了1 000項數(shù)據(jù),時間跨度為100 min,這些數(shù)據(jù)中的90%被用于訓練數(shù)據(jù),剩余10%數(shù)據(jù)被用于測試。研究人員將數(shù)據(jù)預測時間步長設(shè)為20 min,對數(shù)據(jù)進行平穩(wěn)化與歸一化運算,得到初始參數(shù)(見表1)。

      表1 預測模型相關(guān)參數(shù)

      研究人員將初始學習率設(shè)定為0.01,在經(jīng)過50輪學習訓練后得到該模型學習率。此外,為防止訓練過程中出現(xiàn)梯度爆炸問題,研究人員將梯度閾值調(diào)整為1,本次模型訓練時長共計10 min。研究人員輸入時間序列x(t)(t=1,2,…)以及輸出預測時間序列y(t)(t=1,2,…),同時得到2個序列的矩陣為:

      (7)

      (8)

      實際進行模型訓練過程中,為了提高預測結(jié)果與真實結(jié)果的貼合度,研究人員引入均方根誤差(RMSE)指標,篩除預測過程中出現(xiàn)的極小、極大誤差,進一步提高預測準確性,誤差計算公式為:

      (9)

      式中:i為神經(jīng)元序號;n為數(shù)量;ypredict代表一級減溫器出口的預測溫度;ytest代表一級減溫器出口的真實溫度;n代表測試次數(shù)。預測值與真實值偏差如圖1所示。

      圖1 LSTM與RNN預測誤差

      分析圖1可以發(fā)現(xiàn),基于LSTM算法的預測模型,其RMSE為0.453 62,基于RNN算法的預測RMSE為0.500 32。由此可以看出,基于LSTM神經(jīng)網(wǎng)絡(luò)的溫度預測模型預測精度更高[4]。

      4 神經(jīng)網(wǎng)絡(luò)與加密算法指標參數(shù)優(yōu)化

      4.1 基于LSTM和α-MD性能評估指標的參數(shù)優(yōu)化

      1)定義優(yōu)化目標。明確參數(shù)優(yōu)化的目標,LSTM神經(jīng)網(wǎng)絡(luò)中的某個具體性能指標,例如損失函數(shù)(如均方誤差),或者其他你所關(guān)心的性能指標,例如準確度或召回率。

      2)建立初始LSTM模型。開始時,創(chuàng)建一個初始的LSTM模型作為基準。這個基準模型可以具有默認的網(wǎng)絡(luò)架構(gòu)和參數(shù)設(shè)置,作為加密算法(message digest簡稱α-MD)優(yōu)化的起始點。

      3)選擇α-MD算法。在與LSTM結(jié)合的過程中,選擇合適的α-MD算法。這可能包括基于模型的貝葉斯優(yōu)化、遺傳算法、模擬退火等,不同的算法適用于不同類型的參數(shù)搜索和優(yōu)化任務(wù)。

      4)定義參數(shù)搜索空間。明確定義需要進行優(yōu)化的參數(shù)空間,例如LSTM的層數(shù)、每層的神經(jīng)元數(shù)量、學習率、批次大小等,這些參數(shù)是α-MD算法將要搜索和調(diào)整的參數(shù)。

      5)設(shè)置優(yōu)化目標函數(shù)。為α-MD算法制定一個明確的優(yōu)化目標函數(shù),該函數(shù)將評估LSTM模型性能。通常情況下,目標函數(shù)將基于模型在驗證集上的性能。

      6)運行α-MD優(yōu)化。啟動α-MD算法在定義參數(shù)空間中搜索,以找到最佳的參數(shù)組合。在每次迭代中,算法將根據(jù)目標函數(shù)的輸出逐漸優(yōu)化參數(shù)。

      7)驗證和評估。在每次迭代中,驗證經(jīng)過α-MD優(yōu)化后的LSTM模型的性能。確保性能不僅在改善,而且不會發(fā)生顯著的下降,以避免陷入局部最優(yōu)解。

      8)停止條件。明確定義停止α-MD優(yōu)化的條件[5]。這可以達到最大迭代次數(shù),性能不再顯著提高等。

      9)應(yīng)用最優(yōu)參數(shù)。一旦α-MD優(yōu)化完成,將找到的最佳參數(shù)組合應(yīng)用于LSTM模型中,取代初始設(shè)置。

      10)進一步優(yōu)化。在獲得最優(yōu)參數(shù)后,可以考慮進行更細致的微調(diào),例如調(diào)整學習率、正則化項或丟棄率,以進一步提高LSTM模型的性能。

      4.2 仿真驗證

      由于過熱蒸汽控制系統(tǒng)在實際運行過程中,可能出現(xiàn)滯后問題,研究人員為了減少數(shù)據(jù)波動,使用在Simulink環(huán)境下搭建的第三級噴水式減溫控制模型,并將負荷調(diào)整至37%,初始溫度設(shè)定為542 ℃,溫度升高值設(shè)定為5 ℃,通過仿真模擬得到導前區(qū)以及惰性區(qū)氣溫變化輸出數(shù)據(jù)。得到氣溫變化數(shù)據(jù)后,研究人員基于LSTM網(wǎng)絡(luò)計算該系統(tǒng)α-MD指數(shù),最終得到結(jié)果為1.027 8。根據(jù)性能等級劃分表,該數(shù)據(jù)的性能表現(xiàn)仍為“良”級別,優(yōu)化效果不明顯。因此,研究人員再次增加比例增益(Kp)以及增益時間(TI),經(jīng)過調(diào)整后重新建α-MD指數(shù)(見表2)。

      表2 優(yōu)化調(diào)節(jié)過程

      分析表2可以發(fā)現(xiàn),調(diào)整控制器參數(shù)后,該系統(tǒng)超調(diào)量降低,調(diào)節(jié)時間縮短,性能等級由“良”變?yōu)椤皟?yōu)”,證明該優(yōu)化措施有效。

      5 結(jié)束語

      本次研究中,研究人員結(jié)合LSTM深度學習技術(shù)以及參數(shù)優(yōu)化方法,更為高效地調(diào)整過熱氣溫控制系統(tǒng)的參數(shù),以提高系統(tǒng)的性能、效率和穩(wěn)定性。這項研究的結(jié)果為火電廠運營商和工程師提供了有效的工具,使他們能夠更好地適應(yīng)不斷變化的運營條件和需求。在未來,研究人員可以進一步擴展這項研究,以涵蓋更廣泛的控制系統(tǒng)應(yīng)用,包括不同類型的能源生產(chǎn)設(shè)施。此外,還可以考慮引入更多的智能控制策略,進一步提高系統(tǒng)的自適應(yīng)性和魯棒性。本研究為能源行業(yè)的可持續(xù)性發(fā)展,以及生產(chǎn)效率的提升提供了技術(shù)支持,有望在減少資源浪費和環(huán)境影響方面產(chǎn)生積極影響。

      猜你喜歡
      梯度神經(jīng)網(wǎng)絡(luò)預測
      無可預測
      黃河之聲(2022年10期)2022-09-27 13:59:46
      選修2-2期中考試預測卷(A卷)
      選修2-2期中考試預測卷(B卷)
      一個改進的WYL型三項共軛梯度法
      一種自適應(yīng)Dai-Liao共軛梯度法
      神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
      電子制作(2019年19期)2019-11-23 08:42:00
      一類扭積形式的梯度近Ricci孤立子
      不必預測未來,只需把握現(xiàn)在
      基于神經(jīng)網(wǎng)絡(luò)的拉矯機控制模型建立
      重型機械(2016年1期)2016-03-01 03:42:04
      復數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
      读书| 时尚| 昆山市| 抚州市| 通江县| 琼结县| 耿马| 祁连县| 任丘市| 遂昌县| 磐石市| 牡丹江市| 台湾省| 峨山| 时尚| 沅江市| 贵州省| 兴仁县| 潼南县| 远安县| 阿克苏市| 拉萨市| 化州市| 东安县| 郁南县| 江津市| 台南市| 宜宾市| 安庆市| 丰宁| 海口市| 嘉禾县| 胶南市| 中卫市| 濉溪县| 汤阴县| 宿松县| 南昌市| 射洪县| 怀柔区| 绍兴市|