辛忠良,葉梁勁,劉善露,付曉勇,廖曉輝
基于改進單階段目標檢測算法的換流站電氣設(shè)備目標檢測
辛忠良1,葉梁勁2,劉善露3,付曉勇1,廖曉輝2
(1.國網(wǎng)河南省電力公司 鄭州供電公司,河南 鄭州 450001;2.鄭州大學(xué) 電氣與信息工程學(xué)院,河南 鄭州 450001; 3.國網(wǎng)河南省電力公司 濮陽供電公司,河南 濮陽 457000)
針對換流站多種電氣設(shè)備檢測時背景復(fù)雜干擾性強而又需要快速準確檢測出故障的實際情況,提出基于改進YOLOv5(You Only Look Once)的檢測方法。首先,為提高算法的準確性和收斂速度,通過-means聚類算法對YOLOv5模型中的錨框預(yù)設(shè)進行改進,在數(shù)據(jù)集預(yù)處理階段得到更適用于換流站電氣設(shè)備的錨框,使其更加契合換流站電力設(shè)備數(shù)據(jù)集;然后,為提高算法檢測過程的識別速度,在特征提取網(wǎng)絡(luò)添加注意力機制模塊,篩選出重要的特征信息。將改進后的算法網(wǎng)絡(luò)識別效果與YOLOv5中的原始算法網(wǎng)絡(luò)檢測結(jié)果進行對比分析。結(jié)果表明,檢測平均識別精度均值由71.16%提高至92.51%,檢測速度由21幀/s提升至31幀/s;同時與R-CNN(Regions with convolutional neural networks)等算法相比,檢測精度與速度都有較大提升。添加可解釋性分析,將識別結(jié)果通過熱力圖的形式顯示,可以更好地應(yīng)對算法的潛在風(fēng)險。
特高壓輸電;換流站;電氣設(shè)備檢測;YOLOv5;聚類算法;注意力機制;可解釋性分析
換流站作為特高壓輸電的樞紐,其穩(wěn)定運行對整個電網(wǎng)的正常運轉(zhuǎn)有著重要意義。對換流站電氣設(shè)備進行目標檢測,及時準確地識別檢測換流站電氣設(shè)備的突發(fā)問題,可以提高安檢工作效率。對電氣設(shè)備的檢測精度與檢測速度是目標檢測非常重要的指標。為提高這些指標,基于深度學(xué)習(xí)的目標檢測與自動分析目前受到廣泛關(guān)注,且應(yīng)用前景良好。
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural networks,CNN)是一種深度學(xué)習(xí)技術(shù),可用于完成圖像分類、目標檢測、圖像分割等任務(wù)[1]。近年來,CNN技術(shù)發(fā)展迅速,目前已經(jīng)發(fā)展到第五代,其中包括AlexNet(Alex networks)、VGGNet(Visual geometry group networks)、GoogLeNet(Google networks)、ResNet(Residual networks)等[2]。這些技術(shù)在完成圖像分類、目標檢測、圖像分割等任務(wù)方面都取得了很好的效果,并且仍處于不斷改進和發(fā)展中。
目前,在基于CNN的目標檢測算法中最常用的算法包括R-CNN,F(xiàn)aster R-CNN[3]、YOLO[4]、SSD(Single shot multibox detector)等。文獻[5]用一種基于Cascade R-CNN的算法來檢測輸電線路的小目標缺陷。該方法提高了輸電線路中小目標缺陷的檢測精度。文獻[6]在Faster R-CNN算法結(jié)構(gòu)之外用-means聚類算法對數(shù)據(jù)集的錨點尺寸重新聚類,重新生成適用于車輛的錨點尺寸,發(fā)現(xiàn)模型訓(xùn)練收斂速度顯著提升。
R-CNN,F(xiàn)aster R-CNN屬于2階段檢測算法。雖然算法檢測速度也很快、精度也較高,但前者因需要生成候選框而占用了大量內(nèi)存,后者沒有辦法達到實時目標檢測的效果。
YOLO屬于單階段的目標檢測算法。經(jīng)過多個版本的迭代更新,其檢測性能不斷提升。這種算法特點是,具有較快的識別速度,占用內(nèi)存較小,能夠滿足實時性的要求。文獻[7]使用YOLOv5算法在無人機上進行電力巡檢快速圖像識別。目前,YOLOv5已經(jīng)成為目標檢測方面較為優(yōu)秀的神經(jīng)網(wǎng)絡(luò)模型[8]。
鑒于此,本文采用單階段的目標檢測算法,在YOLOv5模型的基礎(chǔ)上進行優(yōu)化與改進。檢測模型總體設(shè)計思路是在數(shù)據(jù)預(yù)處理階段,用-means聚類算法得到更適用于換流站電氣設(shè)備的錨框,使其更加契合換流站電力設(shè)備數(shù)據(jù)集,使模型的收斂速度與準確性得到提升。在特征提取網(wǎng)絡(luò)上添加注意力機制模塊,篩選出重要的特征信息,從而使電氣設(shè)備的檢測速度與精度達到最大化。
針對換流站的實際情況,以換流變壓器、站用變壓器、平波電抗器、絕緣子串、換流閥等6類電氣設(shè)備為例,分別采集這6類的圖形樣本通過各種優(yōu)化制作成數(shù)據(jù)集。
數(shù)據(jù)集中設(shè)備圖像由現(xiàn)場拍攝圖片和網(wǎng)上收集到的圖片組成。數(shù)據(jù)集為VOC格式,輸入圖片要求jpg格式,圖片標簽為xml格式。
由于采集方式的差異,所以收集到的圖片格式和分辨率并不一致。將得到的2 000張圖片按照0001.jpg~2000.jpg的順序依次重命名。所有圖像無需進行分辨率統(tǒng)一調(diào)節(jié),在訓(xùn)練前YOLOv5算法會自動將數(shù)據(jù)集分辨率調(diào)整為640×640×3的格式。
使用Labelimg軟件對所有圖片添加標簽,生成標簽文件。
將數(shù)據(jù)集中所有圖像按照比例8:2隨機劃分為訓(xùn)練集和測試集。
以經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)YOLOv5模型為基礎(chǔ),整個算法模型可以分為3個部分,分別是特征提取網(wǎng)絡(luò)CSPDarknet(Cross stage partial dark networks),加強特征提取網(wǎng)絡(luò)FPN(Feature pyramid networks)以及特征解釋器YOLO Head[9]。
對輸入的目標檢測圖片首先用CSPDarknet主干網(wǎng)絡(luò)進行特征提取,所提取出的富含語義信息特征集合即特征層。在提取到3個特征層后,再利用FPN整合不同尺度特征信息。YOLO Head是分類器和回歸器的組合。利用CSPDarknet和FPN獲得3個強化的特征層。每個特征層都有寬度、高度和通道數(shù),可以視為特征點的集合;每一個特征點都有通道數(shù)個特征。YOLO Head的任務(wù)是判斷特征點是否與物體相對應(yīng)。因此,YOLOv5網(wǎng)絡(luò)的整體流程是先進行特征提取,然后加強特征,最后預(yù)測特征點對應(yīng)的物體情況。
聚類算法通常使用距離度量來識別相似的數(shù)據(jù)點,并將其分到同一個簇中。用此算法可以將數(shù)據(jù)集中的數(shù)據(jù)點分組,分析數(shù)據(jù)集中的模式,發(fā)現(xiàn)數(shù)據(jù)集中的隱藏結(jié)構(gòu),以便更好地理解數(shù)據(jù)集的結(jié)構(gòu)。-means是個簡單實用的聚類算法,能夠快速收斂得到較為理想的聚類效果,能夠直觀地從聚類結(jié)果中分析數(shù)據(jù)集的特點。-means算法存在容易收斂到局部最優(yōu)解的問題,因此需要優(yōu)化初始質(zhì)心的選擇。
-means++是一種-means算法的初始化方法。該方法在選擇初始質(zhì)心時考慮了數(shù)據(jù)點之間的距離,可以更好地初始化質(zhì)心,避免質(zhì)心過于集中或過于分散的情況發(fā)生,進而提高算法的準確性和收斂速度。
在目標檢測算法中,邊界框用于標識物體的位置;預(yù)測框是由目標檢測模型輸出的框;先驗框或錨框是根據(jù)數(shù)據(jù)集對象位置聚類得到的,是用于計算預(yù)測框的參考。為加速收斂,需用-means++算法對數(shù)據(jù)集的邊界框?qū)捀哌M行聚類,得到6個先驗框。先驗框聚類流程見圖1。
圖1 YOLOv5先驗框聚類流程
根據(jù)圖1,對數(shù)據(jù)集中2 000張圖片的4 863個邊界框的寬高數(shù)據(jù)進行聚類,得到適合該數(shù)據(jù)集的6個新的先驗框模板,使其更符合于實際電氣設(shè)備圖像的標注框,以期能改進算法模型的識別速度與精度。聚類結(jié)果如圖2所示。
圖2 先驗框聚類結(jié)果
由圖2可知,6類檢測目標基本各有特點。由于在訓(xùn)練開始之前對所有圖像數(shù)據(jù)的尺寸都統(tǒng)一調(diào)整為640×640,因此,其所占圖像總像素面積的比例也不能與正常情況相比,但目標的比例是基本不變的。
重新設(shè)定錨框尺寸參數(shù):第一個錨框的尺寸為480×480;第二個為250×380;第三個為360×180;第四個為200×600;第五個為150×600;第六個為80×400。這樣得到的6類先驗框的尺寸更加契合本文中的電氣設(shè)備數(shù)據(jù)集。算法在新的先驗框基礎(chǔ)上生成預(yù)測框后,僅需要在這個錨框的基礎(chǔ)上進行微調(diào),即可使算法收斂得更快、檢測效果更好。
注意力機制是深度學(xué)習(xí)中至關(guān)重要的一個技術(shù),可以幫助網(wǎng)絡(luò)實現(xiàn)有效的特征選擇和分類。在深度學(xué)習(xí)中,常用的注意力機制實現(xiàn)方式主要有SENet(Squeeze-and-excitation networks)[10],CBAM(Convolutional block attention module)[11],ECA(Efficient channel attention)[12]。
SENet是一種基于通道注意力機制的神經(jīng)網(wǎng)絡(luò)架構(gòu),其通過引入一個特殊的通道注意模塊SE-block來改進傳統(tǒng)的卷積網(wǎng)絡(luò),提高了模型的準確性[13]。ECA是一種在SENet基礎(chǔ)上改進的通道注意力機制[14]。SENet經(jīng)過全連接層進行降維,破壞了通道與注意力之間的直接對應(yīng)關(guān)系,而且捕獲所有通道的依賴關(guān)系是沒有必要的。ECA模塊去除了原來SE模塊中的全連接層,直接在全局平均池化之后的特征上通過一個快速一維卷積進行學(xué)習(xí)。
注意力模塊SE與ECA結(jié)構(gòu)如圖3所示。圖中,左邊是常規(guī)的SE模塊[15],右邊是ECA模塊[16]。ECA模塊用快速一維卷積替換2次全連接。
圖3 注意力模塊SE與ECA結(jié)構(gòu)
文中,在YOLOv5主干網(wǎng)絡(luò)提取出的2個有效特征層后面添加ECA注意力模塊。對上采樣后的結(jié)果也進行同樣操作。添加注意力機制的YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。
圖4 YOLOv5網(wǎng)絡(luò)添加注意力機制結(jié)構(gòu)
注意力機制實現(xiàn)過程:
1)經(jīng)過全局平均池化,輸入特征矩陣從[80,80,256]變?yōu)閇1,1,256]。
2)計算得到自適應(yīng)一維卷積核大小為5。
3)根據(jù)卷積核大小,在一維卷積中,得到特征圖的每個通道的權(quán)重。
4)將歸一化權(quán)重和原輸入特征圖逐通道相乘,生成加權(quán)后的特征圖。給輸入的各個部分對應(yīng)分配不同的權(quán)重。
5)調(diào)用ECA注意力模塊,生成ECA.py文件,并添加到Y(jié)OLOv5算法模型的文件夾中,進行訓(xùn)練。
通過上述注意力機制的添加,模型能夠從大量的復(fù)雜特征信息中較為精準地篩選出重要的特征點信息;同時,算法檢測過程的識別速度得到提高,識別準確度得到增強。
模型訓(xùn)練環(huán)境配置為:Windows10系統(tǒng)、R5-5600H處理器、GTX1650顯卡、16G內(nèi)存、Python3.7.3、CUDA11.3。
在進行改進算法實驗前,考慮到目標檢測算法對訓(xùn)練數(shù)據(jù)的需求量很大,因此,先對數(shù)據(jù)集進行混和數(shù)據(jù)增強。基本策略是:隨機獲取數(shù)據(jù)集中的2張圖片;然后分別對圖片進行翻轉(zhuǎn)、變化色域、縮放等操作;最后將2張圖片疊合到一起。
然后,對數(shù)據(jù)集進行Mosaic數(shù)據(jù)增強,目的是優(yōu)化豐富待檢測目標的背景,以在有利于小目標檢測的同時,豐富數(shù)據(jù)集的組成、減小GPU的占用。基本策略是:隨機獲取數(shù)據(jù)集中的4張圖片,分別對其進行隨機裁剪、排布、縮放等操作;再將4張圖片拼接為1張圖片。
模型改進策略:首先對YOLOv5模型中的先驗框預(yù)設(shè)進行改進,利用-means聚類算法得到適用于換流站6類電氣設(shè)備的6個新的先驗框;然后對2個特征層和上采樣后的結(jié)果都加入注意力機制模塊以增加特征提取效果、加速模型收斂、提升識別檢測的準確度。
訓(xùn)練結(jié)果的損失曲線如圖5所示。
圖5 損失曲線圖
從圖5可以看出,前50個時段因采用凍結(jié)訓(xùn)練,主干網(wǎng)絡(luò)參數(shù)保持不變,函數(shù)下降較慢;后50個時段解凍訓(xùn)練,損失函數(shù)曲線立刻下降,在第80個時段時基本趨于穩(wěn)定。
所采用的模型的評估指標包括精確率(Precision)、平均精度均值(mAP)。
對改進后的YOLOv5模型進行測試,并將其與原始網(wǎng)絡(luò)進行對比分析。共進行3次實驗。
實驗I:基于YOLOv5原始模型進行識別。
實驗II:用-means聚類算法得到新的先驗框,再進行識別。
實驗III:在實驗II的基礎(chǔ)上添加注意力機制模塊,再進行識別。
測試對象:油枕AP1、換流變壓器AP2、普通變壓器AP3、絕緣子串AP4、平波電抗器AP5、換流閥AP6。
消融實驗結(jié)果如表1所示。
由表1可知,目標檢測模型網(wǎng)絡(luò)經(jīng)過聚類與注意力機制的優(yōu)化改進后,更加契合換流站電氣設(shè)備數(shù)據(jù)集。每一類目標檢測效果都有所提升,平均識別精度均值由71.16%提升至92.51%,識別準確率大幅提升;檢測速度由每秒21幀提升至每秒31幀。
為了更加直觀地顯示改進后算法網(wǎng)絡(luò)的有效性,挑選檢測圖像進行算法改進前后檢測效果對比,結(jié)果如圖6所示。
表1 消融實驗結(jié)果
(a)原模型檢測效果
(b)改進模型檢測效果
圖6 檢測圖像對比圖
Fig. 6 Comparison diagram of detecting images
與圖6(a)相比,圖6(b)中的mAP明顯更高。
為了進一步驗證本方法的優(yōu)越性,將本文改進后模型與2種目前性能優(yōu)異的目標檢測算法、原始YOLOv5算法進行對比,結(jié)果如表2所示。
表2 不同檢測算法性能指標對比
從表2可看出,本文目標檢測算法最優(yōu)。
可解釋性分析可以幫助用戶理解深度神經(jīng)網(wǎng)絡(luò)的決策過程。該方法使用權(quán)重信息來計算每個特征圖的重要性,從而可視化模型的決策過程。此外,通過可解釋性分析還可以更好地理解算法的局限性,可以更好地應(yīng)對算法的潛在風(fēng)險。
本文通過Grad-CAM繪制識別結(jié)果熱力圖,以反映在對應(yīng)的檢測過程中,網(wǎng)絡(luò)比較關(guān)注圖片的哪些區(qū)域。具體流程如圖7所示。
圖7 YOLOv5結(jié)果可視化流程
在Yolo.py文件中,創(chuàng)建好模型并且載入預(yù)訓(xùn)練權(quán)重后,需要指定捕獲哪一個特征層A。一般默認都是捕獲最后一個卷積層的輸出;但是經(jīng)過測試,發(fā)現(xiàn)倒數(shù)第二個特征層的效果更好。
在進行檢測結(jié)果可視化之前,要設(shè)置好參數(shù)。權(quán)重文件是經(jīng)過訓(xùn)練換流站電力設(shè)備數(shù)據(jù)集后生成的最優(yōu)權(quán)重文件。由于不同數(shù)據(jù)集可視化效果不盡相同,因此,選取3種可視化的方式,對比后最終采用可視化效果最好的方法。
選擇YOLOv5的倒數(shù)第二層特征層進行可視化。對于圖7中的反向傳播求梯度,考慮類別梯度設(shè)置適合類別數(shù)為“十類以內(nèi)”較少的數(shù)據(jù),而置信度梯度設(shè)置適合類別數(shù)為“幾百類”較多的數(shù)據(jù);因此,選擇類別梯度。其中,重要參數(shù)致信度閾值(conf-threshold)為0.6,置信度排序(ratio)為[0.02,0.1]。
對電力設(shè)備識別結(jié)果的可視化熱力圖如圖8所示。
圖8 識別結(jié)果可視化熱力圖
由圖8可以明顯看出網(wǎng)絡(luò)所關(guān)注的熱力分布。
本文對目標檢測算法YOLOv5進行優(yōu)化并獲得較好的識別檢測效果。主要結(jié)論如下:
1)通過聚類算法對先驗框尺寸比例重新設(shè)定,使其更加契合換流站電力設(shè)備數(shù)據(jù)集。對特征提取網(wǎng)絡(luò)添加注意力機制模塊,篩選出重要的特征信息,提高了算法檢測過程的識別速度。
與原始算法網(wǎng)絡(luò)相比,改進后的算法檢測精度與速度都有較大提升。
2)添加可解釋性分析,將識別結(jié)果通過熱力圖的形式顯示出來,可以更好地理解目標檢測算法的決策過程。
[1] IOFFE S, SZEGEDY C. Batch normalization: accelerating deep network training by reducing internal covariate shift[C]//International Conference on Machine Learning. Lille, France: PMLR, 2015: 448-456.
[2] HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Vegas, NV, USA: IEEE, 2016: 770-778.
[3] REN S, HE K, GIRSHICK R, et al. Faster RCNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137-1149.
[4] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Vegas, NV, USA: IEEE, 2016: 779-788.
[5] 哈敏捷, 陳夢玲. Faster R-CNN在車輛視頻目標檢測的應(yīng)用[J]. 汽車實用技術(shù), 2022, 47(7): 16-18. HA MINJIE, CHEN MENGLING. Application of faster R-CNN in vehicle video target detection[J]. Automobile Technology, 2022, 47(7): 16-18(in Chinese).
[6] 吳軍, 白梁軍, 董曉虎, 等. 基于Cascade R-CNN算法的輸電線路小目標缺陷檢測方法[J]. 電網(wǎng)與清潔能源, 2022, 38(4): 19-27. WU JUN, BAI LIANGJUN, DONG XIAOHU, et al. Transmission line small target defect detection method based on cascade R-CNN algorithm[J].Advances of Power System & Hydroelectric Engineering, 2022, 38(4): 19-27(in Chinese).
[7] 蘇凱第, 趙巧娥. 基于YOLOv5算法的無人機電力巡檢快速圖像識別[J]. 電力科學(xué)與工程, 2022, 38(4): 43-48. SU KAIDI, ZHAO QIAOE. Fast image recognition of UAV power inspection based on YOLOv5 algorithm[J]. Electric Power Science and Engineering, 2022, 38(4): 43-48(in Chinese).
[8] 王曉玉. 基于復(fù)雜場景下抗干擾網(wǎng)絡(luò)的小目標檢測的研究[D]. 天津: 天津大學(xué), 2023. WANG XIAOYU. Research on small target detection based on anti-jamming network in complex scenes[D]. Tianjin: Tianjin University, 2023(in Chinese).
[9] 陳志琳. 基于面部特征的疲勞駕駛檢測系統(tǒng)設(shè)計與實現(xiàn)[D]. 西安: 西安工業(yè)大學(xué), 2023. CHEN ZHILIN. Design and implementation of fatigue driving detection system based on facial features[D]. Xi’an: Xi’an Technological University, 2023(in Chinese).
[10] FU J, LIU J, TIAN H, et al. Dual attention network for scene segmentation[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Beach, CA, USA: IEEE, 2019: 3146-3154.
[11] HU J, SHEN L, ALBANIE S, et al. Squeeze-and-excitation networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 42(8): 2011-2023.
[12] ELSKEN T, METZEN J H, HUTTER F. Efficient multi-objective neural architecture search via lamarckian evolution[DB/OL].(2019-02-26) [2023-07-27]. https://arxiv. org/abs/1804.09081.
[13] 程敏. 基于視頻的人群多目標跟蹤關(guān)鍵技術(shù)研究[D].重慶: 重慶理工大學(xué), 2023. CHENG MIN. Research on key technologies of video-based crowd multi-object tracking[D]. Chongqing: Chongqing University of Technology, 2023(in Chinese).
[14] WANG Q, WU B, ZHU P, et al. ECA-Net: efficient channel attention for deep convolutional neural networks[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle, WA, USA: IEEE, 2020: 11534-11542.
[15] 何國立, 齊冬蓮, 閆云鳳. 一種基于關(guān)鍵點檢測和注意力機制的違規(guī)著裝識別算法及其應(yīng)用[J]. 中國電機工程學(xué)報, 2022, 42(5): 1826-1837. HE GUOLI, QI DONGLIAN, YAN YUNFENG. An illegal dress recognition algorithm based on key-point detection and attention mechanism and its application[J]. Proceedings of the CSEE, 2022, 42(5): 1826-1837(in Chinese).
[16] 王瑞紳, 宋公飛, 王明. 引入ECA注意力機制的U-Net語義分割[J]. 電光與控制, 2023, 30(1): 92-96. WANG RUISHEN, SONG GONGFEI, WANG MING. U-Net semantic segmentation with ECA attention mechanism[J]. Electronics Optics & Control, 2023, 30(1): 92-96(in Chinese).
Target Detection of Electrical Equipment in Converter Station Based on Improved Single-stage Object Detection Algorithm
XIN Zhongliang1, YE Liangjin2, LIUShanlu3, FU Xiaoyong1, LIAO Xiaohui2
(1.State Grid Henan Electric Power Company Zhengzhou Power Supply Company, Zhengzhou 450001, China; 2.School of Electrical and Information Engineering, Zhengzhou University, Zhengzhou 450001, China; 3.State Grid Henan Electric Power Company Puyang Power Supply Company, Puyang 457000, China)
In view of the fact that the background complex interference is strong and the fault needs to be detected quickly and accurately when detecting various electrical equipment in converter station, a detection method based on improved YOLOv5 is proposed. Firstly, in order to improve the accuracy and convergence speed of the algorithm, the anchor frame of YOLOv5 model is improved by-means clustering algorithm, and the more suitable anchor frame for electrical equipment in converter station is obtained in the data set preprocessing stage to make it adapt to electrical equipment data set of converter stations. Then, in order to improve the recognition speed of the algorithm detection process, the attention mechanism module is added to the feature extraction network to filter out the important feature information. The improved algorithm network recognition effect is compared with the original algorithm network detection result in YOLOv5. The results show that the average detection accuracy is increased from 71.16% to 92.51%, and the detection speed is increased from 21 frames/s to 31 frames/s; at the same time, compared with regions with convolutional neural networks, the detection accuracy and speed are greatly improved. By adding interpretability analysis and displaying the identified results in the form of thermodynamic diagram, the potential risks of the algorithm can be better dealt with.
UHV transmission; converter station; electrical equipment detection; improved YOLOv5; clustering algorithm; attention mechanism; interpretability analysis
10.3969/j.ISSN.1672-0792.2024.02.005
TP391.4;TM755
A
1672-0792(2024)02-0042-08
河南省自然科學(xué)基金資助項目(232300421198);國網(wǎng)鄭州供電公司科技項目(B7171023K080)。
2023-10-27
辛忠良(1970—),男,高級工程師,研究方向為電力系統(tǒng)運維;
葉梁勁(1997—),男,碩士生,研究方向為電力系統(tǒng)檢測與控制;
劉善露(1997—),男,工程師,研究方向為電力系統(tǒng)檢測與控制;
付曉勇(1986—),男,高級工程師,研究方向為電力系統(tǒng)運維;
廖曉輝(1972—),女,副教授,研究方向為電力系統(tǒng)檢測與控制。
葉梁勁