中圖分類號:TP18 文獻(xiàn)標(biāo)志碼:A 文章編號:2095-2945(2025)13-0024-05
Abstract:With theadvancementof powersystem technologyandequipmentupgrades,theacumulationof poweroperation datahasbecomemoreandmoreregular.Duetothelimitationsoftradionalneuralnetworks,faultsamplescannotbeidetified well.Tothisnd,anintellgentidentificationmodelfordistrbutionnetworkfultsbasedoneeplaingisproposdistthe neuralnetworkarchitectureisdetermined;thenthemodelistrainedbycombiningthecorrspondingparameteroptimization algorithm;finally,thedeeplearningmodelfordistributionnetworkfaultidenificationcanbeobtained.Throughsimulation verification, the verification results prove the effectiveness of the proposed method.
Keyword:neuralnetwork;distributionnetwork;deeplearningmodel;parameteroptimizationalgorithm;inteligentfault identification
在配電網(wǎng)故障研究領(lǐng)域,研究內(nèi)容通常包括故障預(yù)測、故障檢測以及系統(tǒng)恢復(fù)與重構(gòu)等方面。在配電網(wǎng)的故障診斷過程中,關(guān)鍵是搜集檢測設(shè)備所提供的運行數(shù)據(jù),以便對線路及其組件的故障情況進(jìn)行監(jiān)控。此過程包括故障的定位與性質(zhì)判定-3]。故障檢測作為系統(tǒng)恢復(fù)與重構(gòu)的基礎(chǔ),對于保障配電網(wǎng)的穩(wěn)定與安全運行起到了決定性的作用。運用精確且高效的故障檢測技術(shù),可以大幅提高故障處理的效率,快速恢復(fù)用戶的正常用電,從而減少故障給社會帶來的不良影響4。鑒于此,研究快速且準(zhǔn)確的配電網(wǎng)故障檢測技術(shù)就顯得極為重要。
在智能電網(wǎng)概念興起之前,配電網(wǎng)的故障診斷主要依靠人工進(jìn)行現(xiàn)場檢查,尤其是在變電站區(qū)域。但是,這種檢測方式不僅效率不高,而且人力資源成本極高。隨著我國智能電網(wǎng)建設(shè)的推進(jìn),配電系統(tǒng)的自動化程度得到了顯著提升,實現(xiàn)了對配電網(wǎng)狀態(tài)的實時監(jiān)測,從而能夠迅速了解系統(tǒng)的運行狀況8-。然而,隨著配電網(wǎng)規(guī)模的不斷擴(kuò)展,傳統(tǒng)的故障檢測技術(shù)已無法高效應(yīng)對監(jiān)控系統(tǒng)中積累的大規(guī)模數(shù)據(jù),導(dǎo)致了定位精度不足和診斷速度遲緩等問題
基于以上研究,本文采用GRU神經(jīng)網(wǎng)絡(luò),構(gòu)建神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型,運用海量歷史樣本數(shù)據(jù)對基于GRU神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型進(jìn)行訓(xùn)練,并借助所累積的歷史數(shù)據(jù),持續(xù)地對模型進(jìn)行調(diào)整和優(yōu)化,得到需要的配電網(wǎng)故障辨識深度學(xué)習(xí)模型。
1配電網(wǎng)故障智能辨識深度學(xué)習(xí)模型整體架構(gòu)
電力系統(tǒng)領(lǐng)域的持續(xù)發(fā)展與設(shè)備的更新?lián)Q代,使得電力運行數(shù)據(jù)呈現(xiàn)出更加規(guī)律性的積累。同時,監(jiān)測設(shè)備,如PMU的成本持續(xù)下降,使其在配電網(wǎng)中得到廣泛部署,預(yù)示著配電網(wǎng)可獲取的數(shù)據(jù)量將日益增多,數(shù)據(jù)的有效性也會穩(wěn)步提升。
深度學(xué)習(xí)技術(shù)的關(guān)鍵在于自動特征提取與學(xué)習(xí)過程,它通過分層的網(wǎng)絡(luò)結(jié)構(gòu)來捕捉層次化的特征信息,有效克服了傳統(tǒng)方法中人工選取特征的需求[13]。
深度學(xué)習(xí)通過構(gòu)建深層神經(jīng)網(wǎng)絡(luò)來模擬大腦的運作。深層神經(jīng)網(wǎng)絡(luò)由一個輸入層、多個隱層和一個輸出層組成,每層包含多個神經(jīng)元,這些神經(jīng)元的連接有權(quán)重區(qū)分4。神經(jīng)元仿照人類的神經(jīng)細(xì)胞,而結(jié)點間的連接則模擬了神經(jīng)細(xì)胞間的連接。深度學(xué)習(xí)模型的基本結(jié)構(gòu)如圖1所示。
本文中深度學(xué)習(xí)模型的構(gòu)建主要分為3部分,首先確定神經(jīng)網(wǎng)絡(luò)架構(gòu),然后再結(jié)合參數(shù)優(yōu)化算法來進(jìn)行訓(xùn)練,最后得到配電網(wǎng)故障辨識深度學(xué)習(xí)模型。
深度學(xué)習(xí)模型的具體思路如圖2所示:該模型分為離線訓(xùn)練和在線決策2部分。在數(shù)據(jù)處理的初始階段,針對不同的類別進(jìn)行聚類預(yù)處理。緊接著,針對每批歷史數(shù)據(jù),設(shè)計并訓(xùn)練獨立的深度學(xué)習(xí)模型。在進(jìn)行決策時,首先確定輸人數(shù)據(jù)的類別,接著選擇與之匹配的模型進(jìn)行計算分析。
離線訓(xùn)練,也稱為批量學(xué)習(xí),即在一個封閉的數(shù)據(jù)集上對模型進(jìn)行迭代優(yōu)化。該過程包括對整個數(shù)據(jù)集的多次遍歷,直至模型性能達(dá)到預(yù)定的閾值,如較低的誤差率或較高的準(zhǔn)確度。此方法能夠充分利用現(xiàn)有數(shù)據(jù)集的全部信息,以訓(xùn)練出泛化能力較強的模型。然而,其核心缺陷在于無法實時響應(yīng)數(shù)據(jù)分布的變化,因此,當(dāng)遭遇數(shù)據(jù)漂移時,必須定期對模型進(jìn)行重新訓(xùn)練以維持其性能。
在線決策,也稱為在線學(xué)習(xí),允許模型在數(shù)據(jù)流持續(xù)到達(dá)時進(jìn)行連續(xù)的學(xué)習(xí)和更新。此方法的特點是模型根據(jù)新數(shù)據(jù)的即時反饋調(diào)整其參數(shù)和權(quán)重,從而實現(xiàn)快速適應(yīng)數(shù)據(jù)環(huán)境的變化。盡管在線決策具備高度的實時性和靈活性,但其對數(shù)據(jù)點的敏感性可能導(dǎo)致模型對噪聲或異常值過度反應(yīng),進(jìn)而引發(fā)偏差累積問題。
在深度學(xué)習(xí)實踐中,離線訓(xùn)練與在線決策的策略常常被聯(lián)合采用。具體而言,離線訓(xùn)練為模型提供了一個穩(wěn)固的知識基礎(chǔ),而在線決策則確保了模型能夠與動態(tài)變化的數(shù)據(jù)環(huán)境保持同步。這種混合方法既發(fā)揮了離線訓(xùn)練在模型泛化方面的優(yōu)勢,又利用了在線決策在實時適應(yīng)性上的長處,為深度學(xué)習(xí)模型在復(fù)雜多變的應(yīng)用場景中提供了強大的支撐。
2配電網(wǎng)故障診斷模型
2.1循環(huán)神經(jīng)網(wǎng)絡(luò)
循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurrentNeuralNetwork,RNN)作為一種深度學(xué)習(xí)模型,因其短期記憶功能而在眾多領(lǐng)域中得到了廣泛應(yīng)用。這種網(wǎng)絡(luò)架構(gòu)的獨特之處在于,其神經(jīng)元具備雙重接收能力:一方面,它可以接收來自其他神經(jīng)元的輸入信號;另一方面,它也能夠獲取并整合前一時刻自身的輸出信息。網(wǎng)絡(luò)中的信息流動呈現(xiàn)一種獨特的循環(huán)模式,這種模式構(gòu)建了網(wǎng)絡(luò)獨有的循環(huán)性結(jié)構(gòu)[,如圖3所示。
圖3中, δ ( ? ) 為激活函數(shù),通常激活函數(shù)采用tanh函數(shù),RNN神經(jīng)元不僅能從外部接收信號,還能從前一時刻的自身輸出中獲取信息,構(gòu)建了一個帶有循環(huán)連接的結(jié)構(gòu)。由圖3可知,RNN的設(shè)計允許它存儲并利用歷史信息。在RNN中,每個神經(jīng)元的當(dāng)前輸出是依賴于之前所有時刻的輸出的,即神經(jīng)元輸出 的計算
是基于歷史輸入的綜合考量,具體公式如下所示
式中: 和
分別代表2個輸入的權(quán)重參數(shù), b 代表偏置項,隱藏狀態(tài)
由
和
與上一時刻的隱藏狀態(tài)
共同決定,
為神經(jīng)元的輸出。
盡管循環(huán)神經(jīng)網(wǎng)絡(luò)在處理時間序列數(shù)據(jù)方面具有顯著優(yōu)勢,然而其固有的梯度消失問題嚴(yán)重制約了模型在長序列學(xué)習(xí)任務(wù)中的性能。針對這一問題,研究者們提出了一種引入門控機(jī)制的改進(jìn)型循環(huán)神經(jīng)網(wǎng)絡(luò),稱之為門控循環(huán)單元(GRU)。
2.2 GRU神經(jīng)網(wǎng)絡(luò)
GRU神經(jīng)網(wǎng)絡(luò)通過引入門控機(jī)制,有效地解決了RNN在處理長時間序列時遇到的梯度消失問題,從而顯著增強了其預(yù)測長期序列數(shù)據(jù)的能力。通過引入門控機(jī)制,GRU的循環(huán)單元可以選擇性地保留或遺忘信息,這樣在現(xiàn)有信息的基礎(chǔ)上進(jìn)行更新,能夠更有效地處理長序列的數(shù)據(jù)。
與傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)不同,GRU采用了門控循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來取代簡單的tanh等激活函數(shù),用于構(gòu)建鏈?zhǔn)侥P?。GRU網(wǎng)絡(luò)通過整合輸入門與遺忘門為單一的更新門,并將遺忘門重組為更新門和重置門,同時簡化了記憶單元的設(shè)計,使其能夠直接進(jìn)行計算并輸出結(jié)果。其結(jié)構(gòu)如圖4所示,GRU在結(jié)構(gòu)上進(jìn)行了簡化,在保證預(yù)測效果的基礎(chǔ)上,訓(xùn)練參數(shù)更少,并且在降低模型復(fù)雜程度的同時還具有較高的預(yù)測精度。
在圖4中, 和
分別象征著重置門和更新門。重置門用于確定前一時刻的狀態(tài)信息在當(dāng)前候選狀態(tài)中的權(quán)重,重置門的值越小,表示前一時刻的信息在當(dāng)前候選狀態(tài)中的寫入比例越低。另一方面,更新門用于決定前一時刻的狀態(tài)信息在當(dāng)前狀態(tài)中保留的比例,更新門的值越大,前一時刻的狀態(tài)信息在當(dāng)前狀態(tài)中保留得就越多。
依據(jù)所提供的GRU模型圖,網(wǎng)絡(luò)的前向傳播過程可以用以下公式來描述
式中: [ a , b 符號用于表示向量的連接,而 則表示矩陣的乘積。
從前向傳播公式可以看出,需要學(xué)習(xí)的參數(shù)包括
其中,前面3個參數(shù)是通過拼接得到的(輸入向量也由拼接得到),因此在訓(xùn)練過程中需要將它們分開進(jìn)行處理
輸出層的輸入
輸出層的輸出
在計算出輸出層的輸出后,便能夠確定網(wǎng)絡(luò)中的傳播損失。具體而言,某一時刻單個樣本的損失可計算如下
則單個樣本在所有時刻的損失之和為
采用后向誤差傳播算法來學(xué)習(xí)網(wǎng)絡(luò),首先需計算損失函數(shù)對各參數(shù)的偏導(dǎo)7
式中:各中間參數(shù)為
在求得所有參數(shù)的偏導(dǎo)數(shù)之后,便可以對它們進(jìn)行更新。通過連續(xù)迭代此過程,直至損失值達(dá)到收斂狀態(tài)。
總體而言,GRU通過不同的門函數(shù)來保留重要特征,從而確保在傳播過程中不會丟失關(guān)鍵信息。
3配電網(wǎng)故障智能辨識深度學(xué)習(xí)模型的訓(xùn)練策略
在電網(wǎng)故障預(yù)測模型中,所使用的輸入數(shù)據(jù)集包括在多個時間點記錄的電氣量以及系統(tǒng)運行狀態(tài)的相關(guān)數(shù)據(jù),這些輸入數(shù)據(jù)構(gòu)成了一個序列,可以用公式(27)來描述
該模型中, ,輸人變量考慮了電壓、電流、有功功率等電氣量數(shù)據(jù),以及雷雨天氣的指示因素,其中雷雨天氣狀況則是通過獨熱編碼(One-HotEncod-ing)進(jìn)行表征。
該模型的輸出結(jié)果為電網(wǎng)出現(xiàn)故障的概率預(yù)測,而其輸入序列數(shù)據(jù)由式(28)所描述
圖5展示了GRU網(wǎng)絡(luò)的訓(xùn)練流程。依據(jù)既有的故障數(shù)據(jù),比較模型預(yù)測值與實際故障結(jié)果之間的偏差,并通過本文應(yīng)用的隨機(jī)梯度下降算法1對GRU網(wǎng)絡(luò)的權(quán)重進(jìn)行迭代更新。
本文的故障智能識別深度學(xué)習(xí)模型訓(xùn)練過程包括將故障數(shù)據(jù)和類型樣本輸入神經(jīng)網(wǎng)絡(luò)進(jìn)行監(jiān)督學(xué)習(xí)。使用反向傳播算法作為權(quán)重更新策略,從輸出權(quán)重開始,反向更新網(wǎng)絡(luò)的所有權(quán)重,以擬合故障數(shù)據(jù)和故障類型輸入輸出之間的映射關(guān)系,減小預(yù)測輸出與實際輸出之間的差異,直到達(dá)到精度要求。
均方誤差(MSE)可以用來評價數(shù)據(jù)的變化程度,MSE值越小,表明預(yù)測模型對實驗數(shù)據(jù)的描述更精確19
研究表明,均方誤差作為訓(xùn)練目標(biāo)函數(shù)能夠有效提高深度學(xué)習(xí)模型的收斂性。
本文將均方誤差作為深度學(xué)習(xí)模型的目標(biāo)函數(shù),旨在訓(xùn)練模型,即
式中 ∴ X 表示真實值; 表示模型決策值; R 表示樣本總個
數(shù): ?r 表示第 r 個樣本。
平均絕對誤差(MAE)衡量的是預(yù)測值與實際值之間絕對誤差的平均水平,它提供了預(yù)測精度的一個更直接、更精確的指標(biāo)。使用MAE作為深度學(xué)習(xí)模型的評估指標(biāo),可以有效評估模型的決策精度,即
4系統(tǒng)仿真設(shè)計
4.1 仿真實驗設(shè)計
為評估所設(shè)計的故障智能識別深度學(xué)習(xí)模型的性能,本文采用了隨州電網(wǎng)公司的故障分析報告。實驗數(shù)據(jù)包括電壓、電流及有功功率等多種電氣參數(shù),有較強的代表性。在參數(shù)更新過程中,采用Adam算法,使參數(shù)更新更穩(wěn)定,使GRU模型的收斂速度和預(yù)測精度方面有了顯著提升。同時,為了降低過擬合風(fēng)險,將500維電力時序數(shù)據(jù)以合適的步長與步數(shù)進(jìn)行分割,并將時序步數(shù)范圍[10,20,30,40,50,60,70,80,90]與時間步長范圍[5,10,15,20,25,30,45,50]進(jìn)行配對,并對每組超參數(shù)訓(xùn)練的模型進(jìn)行性能評估并得到最優(yōu)解。
經(jīng)測試所得的組合最優(yōu)解網(wǎng)絡(luò)參數(shù)見表1。
圖6展示了GRU模型在訓(xùn)練過程中的損失變化曲線。當(dāng)訓(xùn)練迭代次數(shù)超過10次后,訓(xùn)練集與驗證集的誤差趨于一致,這表明模型未出現(xiàn)過度擬合,并且訓(xùn)練已達(dá)到最優(yōu)狀態(tài)。
后將文中結(jié)果與其他主流電力數(shù)據(jù)診斷模型進(jìn)行比較,如:支持向量機(jī)分類模型(SVM)反向傳播網(wǎng)絡(luò)(BPNN)、深度信念網(wǎng)絡(luò)(DBN)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),與GRU采用相同訓(xùn)練集與同樣的K-Fold驗證方法,通過檢測準(zhǔn)確率來驗證了模型的優(yōu)越性與實用性。
4.2 實驗結(jié)果與討論
實驗結(jié)果表明,GRU模型的故障檢測性能與傳統(tǒng)方法進(jìn)行對比,由圖7與表2可以看出,GRU模型的預(yù)測準(zhǔn)確率明顯優(yōu)于其他方法,達(dá)到了 9 1 . 9 % ,大大提高了模型的準(zhǔn)確性。
明顯可以看出,SVM、DBN與BPNN在預(yù)測準(zhǔn)確率方面有明顯不足。為提高預(yù)測準(zhǔn)確率,捕捉電氣數(shù)據(jù)的時序特性至關(guān)重要。相比之下,GRU模型建立了當(dāng)前時刻與前一時刻狀態(tài)間的線性依賴關(guān)系,有效緩解了梯度消失對預(yù)測精度的影響,與其他模型相比,準(zhǔn)確性有了顯著提高。此外,基于門控循環(huán)單元網(wǎng)絡(luò)的電網(wǎng)故障診斷模型在訓(xùn)練過程中需承擔(dān)顯著的計算負(fù)擔(dān)。因此,在將模型應(yīng)用于新電網(wǎng)區(qū)域時,建議考慮遷移學(xué)習(xí)策略。可以利用在其他電網(wǎng)區(qū)域預(yù)先訓(xùn)練好的網(wǎng)絡(luò)權(quán)重作為新模型初始化的參數(shù),這樣做有助于加速訓(xùn)練過程并提升數(shù)據(jù)利用的效率。這樣可以有效減少訓(xùn)練時間,并提升模型在新環(huán)境下的適應(yīng)能力。
5結(jié)論
本文提出了一種基于深度學(xué)習(xí)的配電網(wǎng)故障智能辨識模型。仿真結(jié)果表明,使用方法可以顯著提高故障的檢測率,有效降低配電網(wǎng)故障發(fā)生頻率,為配電網(wǎng)的安全運行提供了可靠的技術(shù)支撐。
參考文獻(xiàn):
[1]陽浩,趙歡,薛榮,等.基于邊緣計算的配電網(wǎng)故障檢測方法[J].電測與儀表,2022(60):1-9.
[2]吳璐子,繆希仁,莊勝斌,等.含分布式電源配電網(wǎng)故障檢測與定位研究綜述[J].福州大學(xué)學(xué)報(自然科學(xué)版),2022,50(6):751-759.
[3]洪翠,連淑婷,黃晟,等.基于改進(jìn)經(jīng)驗小波變換和改進(jìn)多視角深度矩陣分解的直流配電網(wǎng)故障檢測方案[J].電力自動化設(shè)備,2022,42(6):8-15,29.
[4] 曾宇,劉友波,高紅均,等.基于模型預(yù)測控制的高壓配電網(wǎng)負(fù)荷轉(zhuǎn)供與儲能電站協(xié)同運行[J].電網(wǎng)技術(shù),2021,45(5):1902-1911.
[5] JAMALI S,BAHMANYARA,RANJBAR S.Hybrid classifierforfaultlocationin activedis-tribution networks[J].Protectionand Control of Modern Power Systems,2020(5):1-9.
[6]詹惠瑜,劉科研,盛萬興,等.有源配電網(wǎng)故障診斷與定位方法綜述及展望[J].高電壓技術(shù),2022,49(2):660-671.
[7]李永彪,羅清,李春明.配電網(wǎng)線路故障實時監(jiān)測技術(shù)研究[J].電子世界,2020(20):170-171.
[8]馬藝瑋,嚴(yán)冬,鄒密,等.新工科背景下電氣類專業(yè)的智能電網(wǎng)課程群建設(shè)改革[J].科技與創(chuàng)新,2022(2):7-10.
[9]LIU X,CAI Z,F(xiàn)AN H,et al. Experimental studies onthe rtEthernet-based centralized fault management systemfor smart grids[J].Electric Power Systems Research,2020(181):106163.
[10]吳建輝,劉偉,楊素梅,等.基于大數(shù)據(jù)的智能電網(wǎng)狀態(tài)遠(yuǎn)程監(jiān)測方法[J].自動化與儀器儀表,2020(3):209-211.
[11]陳林凱.基于改進(jìn)圖卷積網(wǎng)絡(luò)的配電網(wǎng)故障檢測研究[D].福州:福建工程學(xué)院,2023.
[12]葉迪.基于深度學(xué)習(xí)的 SCUC 決策方法研究[D].宜昌:三峽大學(xué),2019.
[13]程梓.基于心電信號CNN及雙向GRU深度特征的集成學(xué)習(xí)情緒識別框架研究[D].廣州:華南理工大學(xué),2019.
[14]李建偉,魏偉,陳沛然,等.農(nóng)田有效灌溉面積的預(yù)測方法及應(yīng)用[J].湖北農(nóng)業(yè)科學(xué),2013,52(9):2157-2160.
[15] DE B T,VERBERT K,BABUSKA R.Railway Track CircuitFault Diagnosis Using Recurrent Neural Net -works [J].IEEETransactionsonNeuralNetworksamp;LearningSystems,2016,28(3):523-533.
[16]楊熙,趙婧,朱峰.GRU神經(jīng)網(wǎng)絡(luò)下電力輔助決策模型疑點數(shù)據(jù)檢測[J].電子設(shè)計工程,2024,32(19):164-168.
[17]宋厚巖,王漢軍.基于GRU和 PCNN的電力知識抽取[J].計算機(jī)系統(tǒng)應(yīng)用,2021,30(9):200-205.
[18]鄭鵬程.基于GRU網(wǎng)絡(luò)的電網(wǎng)故障診斷方法研究[J].自動化技術(shù)與應(yīng)用,2021,40(2):11-15.
[19]周俊,馬建林,胡中波.杭長客專浙江段沉降預(yù)測精確度評價建議模式[J].安全與環(huán)境學(xué)報,2016.169(4):38-42.