• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      無人機(jī)巡檢圖像電力小部件識(shí)別技術(shù)研究

      2019-10-20 15:46:04張鷗徐強(qiáng)勝劉靖波劉瑞史哲彭丹青賈高毅
      科技創(chuàng)新導(dǎo)報(bào) 2019年14期
      關(guān)鍵詞:部件卷積特征

      張鷗 徐強(qiáng)勝 劉靖波 劉瑞 史哲 彭丹青 賈高毅

      摘? ?要:隨著無人機(jī)(UAV)在電巡線作業(yè)中的應(yīng)用推廣,對(duì)無人機(jī)巡檢圖像的目標(biāo)識(shí)別需求也越來越強(qiáng)烈。傳統(tǒng)的電力部件識(shí)別流程常使用經(jīng)典的機(jī)器學(xué)習(xí)算法,如支持向量機(jī)(SVM)、隨機(jī)森林或adaboost,結(jié)合梯度、顏色或紋理等淺層特征來對(duì)電力部件進(jìn)行識(shí)別,難以達(dá)到較高的準(zhǔn)確率。隨著卷積神經(jīng)網(wǎng)絡(luò)(CNN)在目標(biāo)識(shí)別中的興起,基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)(RCNN)通過使用CNN從圖像中提取可能含有目標(biāo)的區(qū)域來檢測并識(shí)別目標(biāo)。Fast R-CNN和Faster R-CNN利用CNN網(wǎng)絡(luò)提取圖像特征,后接一個(gè)區(qū)域提議層,優(yōu)化了提取可能含有目標(biāo)區(qū)域的方式并改進(jìn)識(shí)別目標(biāo)的分類器,使得目標(biāo)的檢測和識(shí)別幾乎實(shí)時(shí)。本文詳細(xì)描述了Faster R-CNN算法流程,并分析了幾個(gè)關(guān)鍵參數(shù),如dropout比例、nms、批處理尺寸對(duì)識(shí)別結(jié)果的影響,給出了一些針對(duì)Faster R-CNN算法的建設(shè)性調(diào)優(yōu)建議。最后利用實(shí)際采集的電力小部件巡檢數(shù)據(jù)構(gòu)建的數(shù)據(jù)集對(duì)Faster R-CNN算法進(jìn)行測試驗(yàn)證。實(shí)驗(yàn)結(jié)果表明,基于深度學(xué)習(xí)的識(shí)別方法實(shí)現(xiàn)電力小部件的識(shí)別是可行的,而且利用Faster R-CNN進(jìn)行多種類別的電力小部件識(shí)別定位可以達(dá)到每張近80ms的識(shí)別速度和92.7%的準(zhǔn)確率。這些結(jié)果也表明Faster R-CNN算法的優(yōu)勢(shì)。

      關(guān)鍵詞:無人機(jī)巡檢圖像? 電力部件識(shí)別

      中圖分類號(hào):TM755? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A? ? ? ? ? ? ? ? ? ? ? ?文章編號(hào):1674-098X(2019)05(b)-0110-04

      近幾年隨著無人機(jī)(Unmanned Aerial Vehicle,UAV)在各行業(yè)應(yīng)用的逐漸普及,電力巡線無人機(jī)受到各大電網(wǎng)公司的廣泛關(guān)注。一方面,無人機(jī)巡線具有野外作業(yè)風(fēng)險(xiǎn)低、成本低以及作業(yè)靈活的特點(diǎn);另一方面,產(chǎn)生的海量數(shù)據(jù)需要經(jīng)過人工判讀才能得到最終的巡檢報(bào)告,因此采用圖像識(shí)別的方法對(duì)這些數(shù)據(jù)進(jìn)行部件檢測識(shí)別具有十分重要的意義。

      無人機(jī)巡檢得到的圖像背景復(fù)雜、小部件與背景對(duì)比度低、不同地區(qū)不同季節(jié)背景差異較大、存在大量干擾。傳統(tǒng)的電力部件識(shí)別算法主要采用SIFT(Scale-invariant feature transform)、邊緣檢測符、HOG(Histogram of Oriented Gridients)等,并不很好的適用于電力部件,采用的分割算法主要基于部件外圍輪廓骨架、自適應(yīng)閾值等進(jìn)行圖像分割。這些方法缺少對(duì)低層特征進(jìn)行綜合利用進(jìn)而達(dá)到全局最優(yōu)識(shí)別的目的。Malik團(tuán)隊(duì)的輪廓檢測及層次圖像分割方法和多尺度組合聚合(Multiscale Combinatorial Grouping, MCG)方法以及J. Uijlings和Kvan de Sande等人提出的基于選擇性搜索(Selective Search)的目標(biāo)識(shí)別方法給出了將多種低層次特征進(jìn)行全局優(yōu)化并構(gòu)建層次結(jié)構(gòu)模型的范式,提高了準(zhǔn)確率。本文研究了深度學(xué)習(xí)在電力部件識(shí)別中的應(yīng)用,以及采用優(yōu)化算法對(duì)參數(shù)進(jìn)行調(diào)優(yōu),針對(duì)電力小部件識(shí)別問題分析了Faster R-CNN算法的效果和性能。

      1? 基于區(qū)域提議的卷積神經(jīng)網(wǎng)絡(luò)RCNN

      電力部件識(shí)別主要有目標(biāo)位置的確定與目標(biāo)類別的判定。

      對(duì)于目標(biāo)位置的確定,主要有滑動(dòng)窗和區(qū)域提議的方式。其中區(qū)域提議方式識(shí)別的典型算法是基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)RCNN。Ross等在2014年提出的基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)方法RCNN,成為基于區(qū)域提議方式進(jìn)行識(shí)別的典型方案。在檢測階段域。RCNN分為以下4個(gè)步驟:

      (1)使用視覺方法(如Selective Search)生成大量候選區(qū)。

      (2)對(duì)每個(gè)候選區(qū)域用CNN進(jìn)行特征提取,形成高維特征向量。

      (3)將這些特征量送入一個(gè)線性分類器計(jì)算屬于某個(gè)類別的概率,用于判斷所包含對(duì)象。

      (4)對(duì)目標(biāo)外圍框的位置和大小進(jìn)行一個(gè)精細(xì)的回歸。

      RCNN第一步的區(qū)域提議是選擇性搜索,使用得分最高的前2000個(gè)區(qū)域可以有效減少后面特征提取的計(jì)算量,能很好地應(yīng)對(duì)尺度問題;CNN在實(shí)現(xiàn)上采用GPU進(jìn)行并行計(jì)算,外圍框回歸使得對(duì)目標(biāo)定位的精確性進(jìn)一步提升。在訓(xùn)練階段,RCNN也有以下4個(gè)步驟:

      (1)首先,使用選擇性搜索集中生成每張圖片的候選區(qū)域,并對(duì)每個(gè)候選區(qū)域用CNN提取特征,這里CNN采用的是訓(xùn)練好的ImageNet網(wǎng)絡(luò)。

      (2)其次,利用候選區(qū)域和提取出的特征對(duì)ImageNet網(wǎng)絡(luò)進(jìn)行調(diào)優(yōu),調(diào)優(yōu)依據(jù)標(biāo)準(zhǔn)的反向傳播算法進(jìn)行,從特征層開始向后調(diào)整各層權(quán)重。

      (3)然后,以特征層輸出的高維特征向量和目標(biāo)類別標(biāo)簽為輸入,訓(xùn)練支持向量機(jī)。

      (4)最后,訓(xùn)練對(duì)目標(biāo)外圍框位置和大小進(jìn)行精細(xì)回歸的回歸器。

      2014年和2015年,Ross和微軟亞洲研究院的研究者陸續(xù)提出了改進(jìn)的RCNN方法,包括首次引入空間金字塔池化層從而放寬了對(duì)輸入圖片尺寸限制并提高準(zhǔn)確率的SPPnet;采用自適應(yīng)尺度池化能夠?qū)φ麄€(gè)網(wǎng)絡(luò)進(jìn)行調(diào)優(yōu)從而提高深層網(wǎng)絡(luò)識(shí)別的準(zhǔn)確率的Fast R-CNN;最后是Faster R-CNN,通過構(gòu)建精巧的區(qū)域提議網(wǎng)絡(luò)來代替時(shí)間開銷大的選擇性搜索方法,從而打破計(jì)算區(qū)域提議時(shí)間開銷大的瓶頸問題,使實(shí)時(shí)識(shí)別成為可能。本文主要研究了利用Faster R-CNN方法對(duì)電力部件進(jìn)行識(shí)別。

      2? 基于Faster R-CNN方法的電力部件識(shí)別定位

      2.1 電力部件識(shí)別的網(wǎng)絡(luò)訓(xùn)練

      Faster-RCNN方法包含兩個(gè)CNN網(wǎng)絡(luò):區(qū)域提議網(wǎng)絡(luò)RPN(Regional Proposal Network)和Fast R-CNN檢測網(wǎng)絡(luò)。訓(xùn)練階段的主要步驟如圖1所示。

      (1)預(yù)訓(xùn)練CNN模型。

      RPN網(wǎng)絡(luò)和檢測網(wǎng)絡(luò)都需要預(yù)訓(xùn)練的ImageNet網(wǎng)絡(luò)進(jìn)行初始化,通常采用的網(wǎng)絡(luò)主要有ZFnet網(wǎng)絡(luò)和VGG16網(wǎng)絡(luò)。因本文數(shù)據(jù)集規(guī)模較小,故選用ZFnet網(wǎng)絡(luò)。利用ILSVRC2012圖像分類任務(wù)中的訓(xùn)練數(shù)據(jù)(120萬張圖像,1000類)對(duì)ZFnet模型進(jìn)行預(yù)訓(xùn)練。區(qū)域提議網(wǎng)絡(luò)和檢測網(wǎng)絡(luò)都是在ZFnet輸出后添加特定的層得到的。這些特定層可以對(duì)輸入圖片提取出可能含有目標(biāo)的區(qū)域,并計(jì)算出該區(qū)域?yàn)槟繕?biāo)的概率。

      (2)RPN網(wǎng)絡(luò)訓(xùn)練。

      用電力部件圖像構(gòu)建圖像訓(xùn)練集,但電力部件圖像集與預(yù)訓(xùn)練圖像集無論是類別數(shù)量還是圖像樣式都存在很大的差別。在用電力部件圖像集訓(xùn)練RPN網(wǎng)絡(luò)時(shí),直接用上一步預(yù)訓(xùn)練的ZFnet模型初始化RPN,使用反向傳播算法對(duì)區(qū)域提議網(wǎng)絡(luò)進(jìn)行調(diào)優(yōu)。

      RPN網(wǎng)絡(luò)輸入為任意大小圖像,輸出為可能包含目標(biāo)的區(qū)域框。如圖3所示,在ZFnet的CONV5后面添加一個(gè)小的卷積層,對(duì)于特征圖上的每一個(gè)位置(對(duì)應(yīng)原始圖像上一個(gè)位置),由小卷積層進(jìn)行卷積運(yùn)算,即在此位置開一個(gè)小窗口進(jìn)行卷積運(yùn)算,得到同一個(gè)位置對(duì)應(yīng)的256維向量(由于有256個(gè)通道),該向量反映了該位置小窗口(對(duì)應(yīng)原始圖像上某一窗口)內(nèi)的深層特征。由這個(gè)256維的特征向量可以預(yù)測:(1)該位置小窗口屬于目標(biāo)/背景的概率值,即得分;(2)該位置附近包含目標(biāo)的窗口相對(duì)于該位置小窗口的偏差,用4個(gè)參數(shù)表示,2個(gè)平移,2個(gè)放縮。

      采用3種不同尺寸和3種不同比例(1:1,1:2,2:1)組合成的9種基準(zhǔn)小窗口對(duì)包含目標(biāo)的窗口的位置進(jìn)行預(yù)測,可以使區(qū)域提議更加準(zhǔn)確。

      (3)Fast R-CNN檢測網(wǎng)絡(luò)訓(xùn)練。

      根據(jù)上一步生成的區(qū)域提議結(jié)果是基于Fast-RCNN方法訓(xùn)練獨(dú)立的檢測網(wǎng)絡(luò),檢測網(wǎng)絡(luò)也利用ZFnet預(yù)訓(xùn)練模型初始化。

      對(duì)輸入圖像進(jìn)行5層卷積網(wǎng)絡(luò)的特征提取,第5層特征圖(CONV5)是一個(gè)256×256的特征圖,取出CONV5上對(duì)應(yīng)的深度特征,將256個(gè)通道內(nèi)的全部特征串聯(lián)成一個(gè)高維(4096維)特征向量,稱為FC6特征層,后面添加另一個(gè)4096維的特征層,形成FC7,F(xiàn)C6和FC7之間采用完全連接。由FC7特征層可預(yù)測:①候選區(qū)域框?qū)儆诿總€(gè)類別的概率,即得分;②目標(biāo)對(duì)象外圍框的更合適的位置,用它相對(duì)于候選區(qū)域框的2個(gè)平移和2個(gè)放縮共4個(gè)參數(shù)表示。通過預(yù)先標(biāo)記的信息利用反向傳播算法對(duì)該檢測網(wǎng)絡(luò)進(jìn)行微調(diào)。

      (4)兩個(gè)網(wǎng)絡(luò)的CNN共享和聯(lián)合調(diào)優(yōu)。

      將兩個(gè)網(wǎng)絡(luò)單獨(dú)訓(xùn)練并未實(shí)現(xiàn)卷積網(wǎng)絡(luò)的參數(shù)進(jìn)行共享。利用第三步訓(xùn)練的檢測網(wǎng)絡(luò)來初始化RPN網(wǎng)絡(luò),并固定共享的深度卷積層(如圖2),對(duì)RPN網(wǎng)絡(luò)的特殊部分進(jìn)行調(diào)優(yōu),為了與檢測網(wǎng)絡(luò)對(duì)應(yīng),稱此部分為RPN網(wǎng)絡(luò)的FC層,這樣兩個(gè)網(wǎng)絡(luò)就共享了深度卷積層。

      最后,固定共享的卷積層,對(duì)Fast R-CNN的FC層進(jìn)行調(diào)優(yōu)。這樣兩個(gè)網(wǎng)絡(luò)就共享了卷積層并形成了一個(gè)聯(lián)合的網(wǎng)絡(luò)。

      2.2 檢測識(shí)別過程

      由上可知,RPN網(wǎng)絡(luò)和Fast R-CNN網(wǎng)絡(luò)最終共用同一個(gè)5層的卷積神經(jīng)網(wǎng)絡(luò),使得整個(gè)檢測過程只需完成一系列卷積運(yùn)算即可完成檢測識(shí)別過程,徹底解決了原來區(qū)域提議步驟時(shí)間開銷大的瓶頸問題。

      檢測識(shí)別的過程如圖2所示,其實(shí)現(xiàn)步驟為:

      (1)對(duì)整個(gè)圖像進(jìn)行系列卷積運(yùn)算,得到特征圖CONV5;

      (2)由區(qū)域提議網(wǎng)絡(luò)在特征圖上生成大量候選區(qū)域框;

      (3)對(duì)候選區(qū)域框按照得分排序后,進(jìn)行非最大值抑制,保留得分較高的前300個(gè)框;

      (4)取出特征圖上候選區(qū)域框內(nèi)的特征形成高維特征向量,由檢測網(wǎng)絡(luò)計(jì)算類別得分,并預(yù)測更合適的目標(biāo)外圍框位置。

      3? 實(shí)驗(yàn)結(jié)果對(duì)比

      無人機(jī)拍攝影像具有分辨率較高、目標(biāo)較小的特點(diǎn),拍攝影像的角度具有多樣性和隨機(jī)性。本文識(shí)別3類小型電力部件—間隔棒、防震錘和均壓環(huán)。

      3.1 訓(xùn)練樣本處理

      本文構(gòu)建的數(shù)據(jù)集為多旋翼無人機(jī)和直升機(jī)巡檢圖像從時(shí)間上覆蓋了春、夏、秋、冬四個(gè)季節(jié)。原始影像像素大小為5184×3456(如圖3(a)),截取以目標(biāo)為主體的正方形小塊圖像,統(tǒng)一放縮至500×500(如圖3(b)),作為訓(xùn)練樣本。

      3.2 訓(xùn)練集和測試集構(gòu)建

      本次試驗(yàn),對(duì)于間隔棒、均壓環(huán)和防震錘的每一類部件,訓(xùn)練樣本分別為1500張,三類目標(biāo)共4500張,測試樣本分別為500張,三類目標(biāo)共1500張。對(duì)訓(xùn)練集中每張圖片里完整出現(xiàn)的沒有被遮擋的小型電力部件標(biāo)記其外圍框(訓(xùn)練集圖片中不完整或被遮擋的電力部件不標(biāo)記);而對(duì)測試集,要標(biāo)出每張圖片里出現(xiàn)的所有電力部件,包括不完整的和被遮擋的。

      測試時(shí),識(shí)別出的外圍框與標(biāo)記的外圍框重疊面積達(dá)到標(biāo)記外圍框的90%以上時(shí)就視為一次成功識(shí)別。本次試驗(yàn)中,評(píng)價(jià)指標(biāo)為正確率和召回率,其中正確率為目標(biāo)類別標(biāo)記正確的外圍框個(gè)數(shù)與所有標(biāo)記出的外圍框個(gè)數(shù)的比值;召回率為目標(biāo)類別標(biāo)記正確的外圍框個(gè)數(shù)與所有標(biāo)準(zhǔn)的外圍框個(gè)數(shù)的比值。由于本次試驗(yàn)識(shí)別的類別僅有三種類型,因此分別對(duì)每一類電力部件識(shí)別的正確率和召回率做統(tǒng)計(jì)。

      3.3 實(shí)驗(yàn)結(jié)果

      本文使用Caffe框架實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)模型。根據(jù)mAP最大時(shí)對(duì)應(yīng)的參數(shù),對(duì)測試集使用Faster-RCNN進(jìn)行部件識(shí)別,F(xiàn)aster R-CNN方法識(shí)別的準(zhǔn)確率較高。這主要是由于區(qū)域提議網(wǎng)絡(luò)可以產(chǎn)生更精準(zhǔn)的候選框,并且Faster R-CNN在網(wǎng)絡(luò)訓(xùn)練的第2步對(duì)全部特征層和卷積層的權(quán)重進(jìn)行了調(diào)優(yōu)。并且Faster R-CNN采用的區(qū)域提議網(wǎng)絡(luò)和檢測網(wǎng)絡(luò)具有很好的泛化能力,對(duì)各種不同方向的部件都可正確識(shí)別。圖4是利用Faster RCNN方法對(duì)同一張圖片進(jìn)行間隔棒識(shí)別的結(jié)果,并按照順時(shí)針方向?yàn)閳D中3個(gè)間隔棒標(biāo)號(hào),表1表示Faster RCNN方法將間隔棒識(shí)別為間隔棒的概率。

      本文所有試驗(yàn)均基于同一臺(tái)服務(wù)器而進(jìn)行測試,測試集圖片大小為5184×3456,F(xiàn)aster R-CNN方法使用Nivdia Titan Black GPU(6G顯存)進(jìn)行卷積計(jì)算,識(shí)別過程耗用3G顯存,非最大值抑制采用GPU實(shí)現(xiàn)。從表2可以看出,F(xiàn)aster R-CNN中,由于卷積特征的共用(區(qū)域提議網(wǎng)絡(luò)和檢測網(wǎng)絡(luò)的特殊層都添加在共用的特征圖CONV5的后面),使得區(qū)域提議時(shí)間幾乎可以忽略不計(jì),檢測時(shí)間可以在近80ms內(nèi)即可完成。

      4? 結(jié)語

      本文驗(yàn)證了利用Faster R-CNN算法對(duì)電力小部件識(shí)別的準(zhǔn)確性和效率,并分析了不同參數(shù)對(duì)檢測結(jié)果的影響。實(shí)驗(yàn)表明利用經(jīng)過GPU加速可以近實(shí)時(shí)目標(biāo)檢測和識(shí)別,可為后期無人機(jī)巡檢圖像的智能化處理及巡檢無人機(jī)的精確拍攝奠定良好的基礎(chǔ)。

      此外,根據(jù)深度學(xué)習(xí)的特點(diǎn),構(gòu)建更大的樣本庫可能進(jìn)一步提高準(zhǔn)確率。下一步的工作是構(gòu)建更加精細(xì)的識(shí)別類別,甚至將某些部件的缺陷圖像都可視為一種類型,這樣不但可以實(shí)現(xiàn)目標(biāo)部件的分類,還可實(shí)現(xiàn)部件的缺陷識(shí)別。

      參考文獻(xiàn)

      [1] 苑津莎, 崔克彬,李寶樹.基于ASIFT算法的絕緣子視頻圖像的識(shí)別與定位[J].電測與儀表,2015(7):106-112.

      [2] 吳慶崗.復(fù)雜背景輸電線圖像中部件邊緣提取算法研究[D].大連海事大學(xué),2012.

      [3] 金立軍,胡娟,閆書佳.基于圖像的高壓輸電線間隔棒故障診斷方法[J].高電壓技術(shù),2013,39(5):1040-1045.

      [4] 曹婧.航拍輸電線路圖像中絕緣子部件的提取[D].大連海事大學(xué),2012.

      猜你喜歡
      部件卷積特征
      基于時(shí)域全卷積網(wǎng)絡(luò)的語音增強(qiáng)
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      如何表達(dá)“特征”
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      不忠誠的四個(gè)特征
      基于Siemens NX和Sinumerik的銑頭部件再制造
      抓住特征巧觀察
      部件拆分與對(duì)外漢字部件教學(xué)
      水輪機(jī)過流部件改造與節(jié)能增效
      一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法
      南宫市| 呈贡县| 清远市| 武川县| 丰城市| 进贤县| 康定县| 大姚县| 凤翔县| 吉隆县| 伽师县| 临沧市| 江安县| 邓州市| 萨嘎县| 扶绥县| 五家渠市| 喀什市| 台中县| 乌鲁木齐市| 酉阳| 宕昌县| 儋州市| 洪雅县| 乌拉特后旗| 商水县| 泸溪县| 罗田县| 彭州市| 华安县| 民和| 津市市| 郯城县| 巨野县| 周宁县| 宜兰市| 遂平县| 无棣县| 本溪市| 旬邑县| 定边县|