虞 躍
(國(guó)網(wǎng)冀北電力有限公司秦皇島供電公司,秦皇島066000)
在電力市場(chǎng)下,隨著電網(wǎng)技術(shù)日益迅速地發(fā)展和應(yīng)用,其網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)變得愈加錯(cuò)綜復(fù)雜、交織多變,設(shè)置在智能電網(wǎng)中的電力設(shè)備在運(yùn)行過(guò)程中往往受到電網(wǎng)運(yùn)行環(huán)境的各種影響,比如電網(wǎng)中諧波、磁場(chǎng)、溫度、濕度、紋波、雜波信息干擾等因素,導(dǎo)致電力設(shè)備偏離工作標(biāo)準(zhǔn),嚴(yán)重時(shí),甚至發(fā)生意外事故。電網(wǎng)維護(hù)工作人員往往在觀察到設(shè)備無(wú)法正常運(yùn)行,或者出現(xiàn)故障后才獲得電力設(shè)備的情況。在電力設(shè)備正常運(yùn)行過(guò)程中,很難通過(guò)運(yùn)行數(shù)據(jù)、宏觀的數(shù)據(jù)特征獲取更為本質(zhì)的信息。這就使隱藏在宏觀數(shù)據(jù)的信息特征無(wú)法被挖掘出來(lái),電力設(shè)備在工作過(guò)程中將存在諸多隱患,影響電力市場(chǎng)的健康、穩(wěn)定、安全發(fā)展[1]。故在此以深度學(xué)習(xí)為基礎(chǔ),融入新發(fā)展的人工智能技術(shù),將電力設(shè)備的運(yùn)行、監(jiān)控、維護(hù)等緊密結(jié)合在一起,通過(guò)日常運(yùn)行數(shù)據(jù),挖掘、訓(xùn)練、學(xué)習(xí)各個(gè)數(shù)據(jù)之間的關(guān)系,及時(shí)排除運(yùn)行風(fēng)險(xiǎn),并實(shí)現(xiàn)故障的快速發(fā)現(xiàn)和處理[2]。
研究中所構(gòu)建的新型智能運(yùn)行方式體系架構(gòu)如圖1 所示,包括設(shè)備層、數(shù)據(jù)采集層、深度學(xué)習(xí)層、計(jì)算機(jī)管理層和應(yīng)用層。
圖1 智能運(yùn)行方式體系架構(gòu)Fig.1 Architecture of intelligent operation mode
智能電網(wǎng)以及設(shè)置在其內(nèi)的電力設(shè)備、傳感器均屬于設(shè)備層。數(shù)據(jù)采集層采集電力設(shè)備運(yùn)行的各種數(shù)據(jù),這些數(shù)據(jù)信息包括電力電路網(wǎng)絡(luò)故障、變壓器故障、電源供電故障、母線故障等信息。電力信息多樣,還存在導(dǎo)致電力設(shè)備故障或者無(wú)法正常運(yùn)行的電網(wǎng)數(shù)據(jù)集合,如:電網(wǎng)中出現(xiàn)的同頻、異頻信號(hào),電力設(shè)備運(yùn)行中出現(xiàn)的電流無(wú)功功率、電壓無(wú)功功率、雜散波諧波信息、異常電壓、諧波電流、電壓不平衡值、電流不平衡值、電壓/電流閃變/瞬變、電網(wǎng)雜波干擾、振動(dòng)、溫濕度、諧波干擾、異常事件等多項(xiàng)指標(biāo)。這些數(shù)據(jù)大都比較分散,數(shù)據(jù)之間的規(guī)律難以掌控[3]。
在深度學(xué)習(xí)層,已有多種方式的深度學(xué)習(xí)算法,較常見的深度學(xué)習(xí)模型與架構(gòu)包括CNN,DBN,RNN,RNTN,GAN,以及自動(dòng)編碼器、大數(shù)據(jù)挖掘算法模型,比如K-Means 算法模型、支持向量機(jī)模型、Apriori 算法模型、最大期望(EM)算法模型、Adaboost 迭代算法模型、關(guān)聯(lián)算法模型、故障診斷模型、隨機(jī)矩陣算法模型等多種計(jì)算模型。這些算法的一個(gè)共同特點(diǎn),就是能夠?qū)⒉杉降暮暧^數(shù)據(jù)轉(zhuǎn)換為直觀識(shí)別的信息數(shù)據(jù),用戶通過(guò)將宏觀數(shù)據(jù)輸入至相關(guān)的大數(shù)據(jù)分析模型,能夠得出相應(yīng)的數(shù)據(jù)管理,從而有利于用戶管理、監(jiān)控或維護(hù)電力設(shè)備。在此,僅闡述有代表性的深度學(xué)習(xí)算法,由此體現(xiàn)研究的技術(shù)特征[4]。
對(duì)電力設(shè)備運(yùn)行情況的監(jiān)督往往采用故障診斷模型,傳統(tǒng)人工方法的診斷能力就顯得非常有限。在此采用了BP 神經(jīng)網(wǎng)絡(luò)算法模型(back-propagation network),能夠?qū)Σ杉降碾娏υO(shè)備故障信號(hào)進(jìn)一步地進(jìn)行映射、處理,有效地處理電力設(shè)備較為復(fù)雜的故障信息非線性關(guān)系,并通過(guò)數(shù)學(xué)模型表現(xiàn)出來(lái)[5]。該模型如圖2 所示。
圖2 BP 神經(jīng)網(wǎng)絡(luò)算法模型Fig.2 BP neural network algorithm model
由圖可見,該算法模型包含了輸入層(可以作為電網(wǎng)信息輸入層)、蘊(yùn)含層(可以作為故障信息定位層)、輸出層(可以作為故障信息訓(xùn)練、學(xué)習(xí)層)。通過(guò)信息輸入層輸入上述影響電力設(shè)備的多種類型故障數(shù)據(jù)信息。為達(dá)到一定的調(diào)節(jié)效果,通常設(shè)置不同的權(quán)值或者閾值,能夠逐步逼近BP 神經(jīng)網(wǎng)絡(luò)算法模型輸出的結(jié)果,從而提高訓(xùn)練精度,減少計(jì)算誤差。
在此介紹應(yīng)用上述計(jì)算模型所引入的公式。要使BP 神經(jīng)網(wǎng)絡(luò)算法模型能夠正常運(yùn)行,需要調(diào)整其輸出層權(quán)系數(shù),即
式中:Δωki為BP 神經(jīng)網(wǎng)絡(luò)算法模型的輸出層權(quán)系數(shù);為BP 神經(jīng)網(wǎng)絡(luò)算法模型的的信息期望輸出值;為BP 神經(jīng)網(wǎng)絡(luò)算法模型進(jìn)行計(jì)算的輸出;η為常數(shù)。
同時(shí),也需要對(duì)BP 神經(jīng)網(wǎng)絡(luò)算法模型的隱含層權(quán)系數(shù)進(jìn)行調(diào)整,即
在采集到的大量電力設(shè)備故障數(shù)據(jù)信息庫(kù)中,由于數(shù)據(jù)信息形式不一,如圖片、文本、聲音、音頻等,信息特征是非線性較強(qiáng)。如果每種數(shù)據(jù)形式采用一種方式,就會(huì)出現(xiàn)多種計(jì)算模型,計(jì)算起來(lái)極為不便[6]。故在此采用二次型準(zhǔn)確函數(shù)模型,即
對(duì)于N 個(gè)電力網(wǎng)絡(luò)中的故障設(shè)備信息樣本,總準(zhǔn)確函數(shù)為
在評(píng)價(jià)電網(wǎng)信號(hào)中電力設(shè)備故障類型信息時(shí),為進(jìn)一步提高學(xué)習(xí)精度,需要對(duì)接收到的數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理。比如,在輸入層輸入電力設(shè)備故障信息時(shí),假設(shè)有m 種不同的故障類型(如變壓器故障、電源供電故障、母線故障等),這些數(shù)據(jù)共有N 種,對(duì)輸入的故障數(shù)據(jù)xij實(shí)施標(biāo)準(zhǔn)化處理的公式[7]為
其中
為適應(yīng)多種情況下的計(jì)算,對(duì)Zij進(jìn)行標(biāo)準(zhǔn)化計(jì)算,即
式中:yi為輸出電力設(shè)備運(yùn)行故障數(shù)據(jù)樣本;yi′為標(biāo)準(zhǔn)化后的電力設(shè)備運(yùn)行故障數(shù)據(jù)樣本信息;ymax為輸出電力設(shè)備運(yùn)行故障信息數(shù)據(jù)樣本中的極大值;ymin為輸出電力設(shè)備運(yùn)行故障信息數(shù)據(jù)樣本中的極小值。
在式(1)~式(8)的應(yīng)用過(guò)程中,數(shù)據(jù)輸出的精度情況取決于網(wǎng)絡(luò)的層數(shù)、 隱層神經(jīng)元的個(gè)數(shù)、初始權(quán)值(一般選擇(-2,2))的選取,以及學(xué)習(xí)速率(一般選擇0.02~0.7)和期望誤差的選取。利用上述參數(shù)則可以構(gòu)建BP 神經(jīng)網(wǎng)絡(luò)數(shù)學(xué)模型[8],進(jìn)而實(shí)現(xiàn)多種運(yùn)算。
隨機(jī)矩陣?yán)碚摂?shù)學(xué)模型在處理復(fù)雜配電網(wǎng)系統(tǒng)輸出的能譜和本征態(tài)具有突出的優(yōu)勢(shì),通過(guò)構(gòu)建出的數(shù)學(xué)模型揭示宏觀數(shù)據(jù)中整體關(guān)聯(lián)的行為微觀特征,有利于把握更為本質(zhì)的數(shù)據(jù)信息。
矩陣模型為
其中
式(9)表示D1與D2在(M+N)×T 下的關(guān)聯(lián)性。式中:T 為獲取數(shù)據(jù)樣本的測(cè)量次數(shù);M 為假設(shè)待研究的電力設(shè)備運(yùn)行的數(shù)據(jù)類型數(shù),該M 種數(shù)據(jù)用數(shù)據(jù)集合記為{P1,P2,P3,…,PM};D2為電力設(shè)備在運(yùn)行過(guò)程中產(chǎn)生的數(shù)據(jù)類型,如電流、電壓、功率、負(fù)荷等,此類數(shù)據(jù)以集合的形式記為{Q1,Q2,Q3,…,QN};N 為電力設(shè)備在運(yùn)行過(guò)程中產(chǎn)生的數(shù)據(jù)種類。
假設(shè),n 個(gè)電能數(shù)據(jù)變量構(gòu)成的向量集合為
數(shù)據(jù)變量的量測(cè)數(shù)據(jù)可以構(gòu)成一個(gè)列向量,按時(shí)間順序?qū)λ鶞y(cè)的電力設(shè)備數(shù)據(jù)進(jìn)行排序,可得矩陣為
式中:Ω 為電力設(shè)備產(chǎn)生數(shù)據(jù)的數(shù)據(jù)庫(kù);ω1,ω2,…,ωM+N分別為矩陣D1和D2中單個(gè)元素的集合[9];Dstd的值表示數(shù)據(jù)集合D1與數(shù)據(jù)集合D2間的關(guān)聯(lián)性。
在一種深度學(xué)習(xí)算法中,采用決策樹算法,再以ID3(iterative dichotomiser 3)算法作為示例加以說(shuō)明。對(duì)數(shù)據(jù)分類時(shí),要先設(shè)計(jì)出分類器,分類器在數(shù)據(jù)樣本中經(jīng)過(guò)學(xué)習(xí)、訓(xùn)練可以自動(dòng)生成。其模型如圖3 所示。
圖3 分類器訓(xùn)練Fig.3 Classifier training
利用強(qiáng)分類器能夠提高數(shù)據(jù)輸出的精確度,在屬性分類上顯得更加強(qiáng)悍。確定了分類器以后,就要確定分類器的節(jié)點(diǎn)情況。節(jié)點(diǎn)分為算法模型的總節(jié)點(diǎn)和分支節(jié)點(diǎn),先確定總節(jié)點(diǎn)再構(gòu)建分支節(jié)點(diǎn),這樣就可以構(gòu)建決策樹模型[10]。所需的一個(gè)數(shù)據(jù)參數(shù)——經(jīng)驗(yàn)熵H(D)為
經(jīng)驗(yàn)條件熵H(D/A)為選擇的數(shù)據(jù)樣本的特征A 在數(shù)據(jù)集D 中的信息增益,有
由式(13)(14),可以計(jì)算出分類數(shù)學(xué)模型中決策樹的根節(jié)點(diǎn)。然后,將信息增益度值較大的屬性(作為根節(jié)點(diǎn)設(shè)置)設(shè)置在決策樹的頂層,次之的信息增益度值放置在根節(jié)點(diǎn)的下端,最后將最小的信息增益度值的屬性作為決策樹算法模型中的分支節(jié)點(diǎn)。在確定好根節(jié)點(diǎn)和分支節(jié)點(diǎn)的屬性以后,就建立起分類模型。
對(duì)以上深度學(xué)習(xí)的效果驗(yàn)證,由于篇幅所限,在此僅對(duì)BP 神經(jīng)網(wǎng)絡(luò)算法模型、 隨機(jī)矩陣?yán)碚摂?shù)學(xué)模型和決策樹算法進(jìn)行驗(yàn)證,通過(guò)代表性示例說(shuō)明深度學(xué)習(xí)算法在電力設(shè)備智能運(yùn)行方式中的效果。
硬件——計(jì)算機(jī)系統(tǒng);
軟件的操作系統(tǒng)——Windows 2015;
應(yīng)用軟件——C#,Tensorflow,Python,NumPy,SciPy,iPython,等。
驗(yàn)證試驗(yàn)在合肥學(xué)院人工智能與大數(shù)據(jù)學(xué)院實(shí)驗(yàn)室計(jì)算機(jī)機(jī)房?jī)?nèi)進(jìn)行,選用1 臺(tái)計(jì)算機(jī),調(diào)取數(shù)據(jù)庫(kù)信息,對(duì)收集到的數(shù)據(jù)信息清洗、過(guò)濾,其組件如圖4 所示。采用不同的數(shù)學(xué)模型進(jìn)行試驗(yàn),通過(guò)計(jì)算機(jī)進(jìn)行仿真、計(jì)算。
圖4 試驗(yàn)架構(gòu)模型Fig.4 Experimental architecture model
3.3.1 BP 神經(jīng)網(wǎng)絡(luò)模型仿真驗(yàn)證
對(duì)BP 神經(jīng)網(wǎng)絡(luò)算法模型仿真驗(yàn)證時(shí),啟動(dòng)MatLab軟件環(huán)境,隨機(jī)從數(shù)據(jù)庫(kù)中調(diào)取電力設(shè)備運(yùn)行效率,然后進(jìn)行智能仿真。仿真過(guò)程中采用以下公式:
準(zhǔn)確率計(jì)算公式為
召回率計(jì)算公式為
最終得出FI 值:
在進(jìn)行數(shù)據(jù)驗(yàn)證時(shí),分別選擇電壓、電流、紋波、負(fù)荷、諧波等數(shù)據(jù)信息5×104個(gè),得出的數(shù)據(jù)樣本見表1。得到的仿真曲線如圖5 所示。
表1 BP 神經(jīng)網(wǎng)絡(luò)模型試驗(yàn)數(shù)據(jù)Tab.1 Test data of BP neural network model
圖5 BP 神經(jīng)網(wǎng)絡(luò)模型仿真試驗(yàn)Fig.5 Simulation test of BP neural network model
由表可知,在測(cè)量時(shí)間20 s 內(nèi),利用BP 神經(jīng)網(wǎng)絡(luò)模型計(jì)算后的結(jié)果,反應(yīng)時(shí)間為6.5,7.2,6.3,7.1,7.5 s,獲得相應(yīng)的召回率和正確率,誤差比較小。
3.3.2 隨機(jī)矩陣算法驗(yàn)證
試驗(yàn)時(shí)假設(shè)矩陣D1為80×150,D2為400×500,然后根據(jù)式(12)求值。隨機(jī)矩陣算法驗(yàn)證試驗(yàn)數(shù)據(jù)見表2。
表2 隨機(jī)矩陣算法試驗(yàn)數(shù)據(jù)Tab.2 Test data of random matrix algorithm
將表2 數(shù)據(jù)代入式(9),可得
最后可得表2 中的Dstd計(jì)算值??梢杂们€圖來(lái)表示不同參數(shù)之間的相關(guān)性,如圖6 所示。
圖6 隨機(jī)矩陣算法仿真試驗(yàn)Fig.6 Simulation test of random matrix algorithm
圖中,Dstd值表明電力設(shè)備輸出的電流、電壓、功率等參數(shù)與電網(wǎng)中存在的干擾信息(磁場(chǎng)、諧波和負(fù)荷)有著密切的關(guān)系:Dstd值越大,磁場(chǎng)、諧波和負(fù)荷等干擾因素影響程度就越大。由圖可見在電力設(shè)備運(yùn)行過(guò)程中磁場(chǎng)、諧波和負(fù)荷與電力設(shè)備運(yùn)行數(shù)據(jù)之間所存在的關(guān)系。
3.3.3 分類算法驗(yàn)證
假設(shè)該算法模型輸出數(shù)據(jù)特征A1,A2,A3,A4,A5對(duì)數(shù)據(jù)集合D 的信息增益,樣本庫(kù)見表3。
表3 數(shù)據(jù)庫(kù)樣本庫(kù)Tab.3 Database sample library
根據(jù)式(13)(14)求值,可得
結(jié)果可得出,A5的信息增益為最大。然后選擇A5為根節(jié)點(diǎn),針對(duì)A5再進(jìn)一步劃分,可得
將這些數(shù)據(jù)集合劃分為子節(jié)點(diǎn),直至輸出用戶滿意的數(shù)據(jù)為止,一種示例性劃分如圖7 所示。
圖7 決策樹示意圖Fig.7 Diagrammatic sketch of decision tree
通過(guò)這種數(shù)據(jù)模型,能夠使用戶快速?gòu)碾娏υO(shè)備數(shù)據(jù)庫(kù)中查到諧波干擾數(shù)據(jù),大大提高了數(shù)據(jù)檢索的效率,增強(qiáng)了大數(shù)據(jù)的分類能力。
通過(guò)研究將各種深度學(xué)習(xí)算法應(yīng)用到電力市場(chǎng)中,提高了數(shù)據(jù)的運(yùn)算能力,可以使用戶快速獲取、計(jì)算、分析電力網(wǎng)數(shù)據(jù),解決了目前手工安排運(yùn)行方式工作量大、效率低的問(wèn)題。然而仍存在一系列問(wèn)題,如:數(shù)學(xué)計(jì)算的精度有待考究,且需要充足的數(shù)學(xué)理論來(lái)支撐,雖然在一些理論上可行,但是在具體應(yīng)用過(guò)程中,可能存在計(jì)算模型滯后等現(xiàn)象;深度學(xué)習(xí)在建模時(shí),需對(duì)大量的數(shù)據(jù)反復(fù)計(jì)算以總結(jié)出算法模型的經(jīng)驗(yàn)值,如果數(shù)據(jù)量不夠大則可能影響精度;多種深度算法配合使用時(shí),容易出現(xiàn)數(shù)據(jù)交叉感染現(xiàn)象,數(shù)據(jù)存在串出的情況,為此尚需要反復(fù)訓(xùn)練,以總結(jié)運(yùn)行經(jīng)驗(yàn)。