孫廣慧
(安徽理工大學(xué)電氣與信息工程學(xué)院 安徽省淮南市 232063)
高壓輸電線上包含著大量的絕緣子串,絕緣子的正常穩(wěn)定狀態(tài)關(guān)系著供電能否安全運(yùn)行[1]。然而,絕緣子長(zhǎng)期暴露在室外,難免會(huì)遭受到不同程度的損壞。為了避免因絕緣子損壞導(dǎo)致的運(yùn)行風(fēng)險(xiǎn),必須及時(shí)對(duì)絕緣子狀態(tài)做出檢測(cè)判斷。傳統(tǒng)的檢測(cè)方法有:
(1)人工巡檢,雖然人眼觀察準(zhǔn)確率較高,但是存在著耗時(shí)耗力、效率低下等問(wèn)題。
(2)利用紅外熱成像進(jìn)行監(jiān)控,這種方法雖然可以實(shí)現(xiàn)遠(yuǎn)距離監(jiān)測(cè),但是紅外成像依賴于絕緣子的表面溫度[2]容易影響判別結(jié)果。
無(wú)人機(jī)具有靈活且成本低的優(yōu)勢(shì),因此使用無(wú)人機(jī)進(jìn)行電力巡檢成為更加常用的巡檢方式[3]。雖然這種方式可以節(jié)約人力,但是采集到的圖片會(huì)因惡劣天氣導(dǎo)致噪聲過(guò)多分辨率較低,或是圖像中絕緣子難以從背景復(fù)雜的室外環(huán)境中分割,這些因素都增加了準(zhǔn)確識(shí)別絕緣子狀態(tài)的難度。
為了更好的提取絕緣子豐富的圖像特征,秦瀛[4]將VGG16 做為特征提取網(wǎng)絡(luò)對(duì)絕緣子邊緣發(fā)生的缺陷做出改進(jìn),雖然VGG 模型結(jié)構(gòu)簡(jiǎn)單,但是識(shí)別精度不高。馮萬(wàn)興等人[5]使用一種以兩階段目標(biāo)檢測(cè) Faster-RCNN + FPN 為框架的深度學(xué)習(xí)缺陷檢測(cè)方法,提高了識(shí)別速度。在深度學(xué)習(xí)過(guò)程中,模型提取的特征信息會(huì)隨著網(wǎng)絡(luò)加深而變得豐富。但是CNN 在達(dá)到一定深度后精確度會(huì)達(dá)到飽和,且網(wǎng)絡(luò)會(huì)出現(xiàn)梯度彌散從而導(dǎo)致難以收斂。而2015年由何凱明提出的網(wǎng)絡(luò)模型ResNet[6]可以很好的解決這種問(wèn)題。
為了解決圖像難以從復(fù)雜背景中分割的問(wèn)題,采用ResNet50網(wǎng)絡(luò)來(lái)提取圖像特征,通過(guò)使用過(guò)參數(shù)卷積層(DO-Conv)替換網(wǎng)絡(luò)中常規(guī)卷積層可以提高網(wǎng)絡(luò)精度,并添加ECA 與改進(jìn)后的CBAM 這兩個(gè)注意力模塊優(yōu)化特征提取過(guò)程?;赗esNet50 及改造注意力模塊構(gòu)建一個(gè)能區(qū)別絕緣子正常與缺陷這兩種狀態(tài)的深度學(xué)習(xí)模型。絕緣子處于不同復(fù)雜背景環(huán)境下時(shí)仍能快速精確識(shí)別,為電網(wǎng)穩(wěn)定安全提供保障。
殘差神經(jīng)網(wǎng)絡(luò)是在傳統(tǒng)的深度卷積網(wǎng)絡(luò)中加入了殘差學(xué)習(xí),在一定程度上緩解了深層網(wǎng)絡(luò)中梯度彌散以及精度下降的問(wèn)題。ResNet50 網(wǎng)絡(luò)性能強(qiáng)大的同時(shí)減少了參數(shù)量,模型結(jié)構(gòu)也較為簡(jiǎn)單具有很強(qiáng)的操作性。在圖像處理時(shí)常作為核心的特征提取網(wǎng)絡(luò),結(jié)構(gòu)易于優(yōu)化具有一定的研究?jī)r(jià)值。因此選擇ResNet50 作為絕緣子狀態(tài)識(shí)別的基礎(chǔ)模型作進(jìn)一步探討研究。
E-ResNet50 使用ResNet50 作為特征提取網(wǎng)絡(luò)主干,為了加速網(wǎng)絡(luò)訓(xùn)練將Resnet50 的常規(guī)卷積層替換為Do-Conv 得到DOCnet50。在網(wǎng)絡(luò)的殘差內(nèi)部結(jié)構(gòu)中加入一個(gè)有效的輕量級(jí)通道注意力模塊——ECA 模塊。為了兼顧注意力的空間通道,在網(wǎng)絡(luò)卷積層的第一大層與最后一大層后加上改進(jìn)后的DO-CBAM 模塊,最后通過(guò)共享的全連接層來(lái)識(shí)別絕緣子的狀態(tài)。
眾所周知,卷積層作為卷積神經(jīng)網(wǎng)絡(luò)的核心,作用是對(duì)輸入數(shù)據(jù)進(jìn)行特征提取。通常情況下,為了提高網(wǎng)絡(luò)性能,可以通過(guò)附加的深度(Depthwise)卷積來(lái)增強(qiáng)常規(guī)卷積層,對(duì)其中每個(gè)輸入通道都使用不同的二維內(nèi)核進(jìn)行卷積。這種操作構(gòu)成了過(guò)度參數(shù)化(Over-paramaterized)卷積層,即DO-Conv[7]。過(guò)度參數(shù)化可以將過(guò)度參數(shù)化使用的多層復(fù)合線性運(yùn)算折疊為緊湊的單層表示形式,計(jì)算會(huì)與常規(guī)層完全等效,從而節(jié)約了計(jì)算量。因此使用DOConv 不僅能加快網(wǎng)絡(luò)訓(xùn)練速度,還能有效提升識(shí)別分類(lèi)的準(zhǔn)確性。鑒于Do-Conv 的高效性,在優(yōu)化模型時(shí)將此運(yùn)用到ResNet50 常規(guī)卷積層的改造中,將其替換網(wǎng)絡(luò)中所有的二維卷積層,構(gòu)建新模型DOCnet50。
圖1中M×N 為輸入向量的空間維度,Cin、Cout分別為輸入、輸出向量的通道數(shù),Dmul為卷積深度。深度卷積內(nèi)核D 和輸入特征P 通過(guò)深度卷積算子○生成變換得到特征P',此時(shí)將P'作為中間量與常規(guī)卷積內(nèi)核W 通過(guò)常規(guī)卷積運(yùn)算*可以變換得到新的特征O。經(jīng)由以上過(guò)程后最終可將輸出表示為:
圖1:深度過(guò)參數(shù)化卷積的計(jì)算過(guò)程
將通道注意力融入卷積塊中有利于模型的性能提升,代表方法之一是擠壓和激勵(lì)網(wǎng)絡(luò)(SENet[8]),它可以學(xué)習(xí)每個(gè)卷積塊的通道注意,從而為各種深層CNN 架構(gòu)帶來(lái)明顯的性能提升。但它在使用過(guò)程中會(huì)因?yàn)榭刂颇P蛷?fù)雜性而降低維度。
在DOCnet50 網(wǎng)絡(luò)的殘差塊中按即插即用的方式添加ECA 模塊,該模塊能在避免降維的情況下,依舊保證捕獲跨通道交互的高效性。ECA 通過(guò)每個(gè)通道及其相鄰的k 個(gè)鄰居來(lái)捕獲局部跨通道交互信息,避免降維有利于學(xué)習(xí)通道注意力,而適當(dāng)?shù)目缧诺澜换タ梢栽陲@著降低模型復(fù)雜度的同時(shí)保持性能,因此這種方法可以在高效率的同時(shí)保證有效性。過(guò)程可以用公式(2)所示:
式(2)中σ 為Sigmoid 函數(shù),C1D 為代表輸出信號(hào)的一維卷積。
CBAM 與只關(guān)注于通道間關(guān)系的ECA 不同,它是一種可以同時(shí)考慮通道維度與空間維度的注意力模塊,彌補(bǔ)了ECA 單維度注意力的不足。然而其在空間注意力模塊中,為了聚合更廣泛的空間上下文特征,使用了一個(gè)7×7 的大感受野卷積核來(lái)聚合空間特征,模塊參數(shù)量會(huì)隨感受野的增大而增大。為控制參數(shù)量的大小,本章將模塊的二維常規(guī)卷積層替換成DO-Conv,提出新的注意力模塊DO-CBAM。
3.2.1 通道注意力模塊
通道注意力關(guān)注于圖像的具體特征,將特征F 作為輸入,分別進(jìn)行局平均池化和最大池化得到兩個(gè)一維描述Fc
avg與Fcmax,將這兩個(gè)描述送入共享網(wǎng)絡(luò)層,特征相加之后經(jīng)過(guò)Sigmoid 激活函數(shù)得到權(quán)重函數(shù)Mc。
具體地,通道注意力計(jì)算過(guò)程可如下表示:
其中σ 代表激活函數(shù);MLP 為多層感知器。
3.2.2 空間注意力模塊
空間注意力模塊往往更關(guān)注特征的位置,將特征F'作為輸入,通過(guò)池化操作產(chǎn)生兩個(gè)二維描述Fcavg、Fc
max并按通道進(jìn)行拼接最后經(jīng)過(guò)卷積層,通過(guò)激活函數(shù)得到權(quán)重Ms。
改進(jìn)后的空間注意力計(jì)算過(guò)程可如下表示:
其中σ 代表激活函數(shù);f7×7為DO-Conv 卷積操作。
使用的數(shù)據(jù)來(lái)源于國(guó)家電網(wǎng)提供的開(kāi)源絕緣子數(shù)據(jù)集,數(shù)據(jù)集內(nèi)包括正常絕緣子600 張與缺陷絕緣子圖像247 張。由于圖片數(shù)目較少容易引起過(guò)擬合,通過(guò)翻轉(zhuǎn)、遮擋、增加噪聲等方式對(duì)數(shù)據(jù)進(jìn)行了擴(kuò)增,得到為原先八倍即為6784 張的數(shù)據(jù)集。按照的8:2 比例將處理過(guò)的數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集。最終訓(xùn)練集中有5427張圖片,測(cè)試集中有1357 張圖片。
實(shí)驗(yàn)基于深度學(xué)習(xí)框架Pytorch 來(lái)實(shí)現(xiàn)模型,編譯語(yǔ)言為Python。訓(xùn)練參數(shù)如下:優(yōu)化器為Adam;損失函數(shù)使用交叉熵?fù)p失函數(shù);Ir=0.005;epoch=500;batch size =32。
為評(píng)估各卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)絕緣子狀態(tài)識(shí)別的性能,從下幾方面展開(kāi)對(duì)比討論,準(zhǔn)確率(Accuracy)、精確率(Precision)與召回率(Recall):
為驗(yàn)證改進(jìn)后模型的有效性,選取了基于ResNet 優(yōu)化的不同模型進(jìn)行對(duì)比。模型均采用相同數(shù)據(jù)集與實(shí)驗(yàn)參數(shù)。文獻(xiàn)[9]是用SKNet 來(lái)改造的ResNet50 網(wǎng)絡(luò)卷積層來(lái)提取特征來(lái)實(shí)現(xiàn)絕緣子狀態(tài)識(shí)別。文獻(xiàn)[10]在ResNet 中嵌入SENet 與CBAM 兩個(gè)注意力機(jī)制模塊來(lái)提升絕緣子狀態(tài)識(shí)別的精確度。對(duì)比結(jié)果如表1 改進(jìn)后的E-ResNet50 網(wǎng)絡(luò)對(duì)絕緣子的狀態(tài)分類(lèi)結(jié)果具有較高準(zhǔn)確性。
表1:不同模型下絕緣子狀態(tài)識(shí)別的準(zhǔn)確度
針對(duì)目前絕緣子狀態(tài)識(shí)別存在著準(zhǔn)確率低和耗時(shí)長(zhǎng)的問(wèn)題。使用過(guò)度參數(shù)化卷積層替換常規(guī)卷積層的ResNet50,添加改進(jìn)后的注意力模塊后,準(zhǔn)確度達(dá)到99.87%。相比較其他模型在不增加模型計(jì)算量的同時(shí)提升了準(zhǔn)確度。雖然計(jì)算時(shí)間有所減少,但是在實(shí)現(xiàn)實(shí)時(shí)識(shí)別絕緣子狀態(tài)的道路上,仍有很大的研究空間。