• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于Faster R-CNN的旋轉(zhuǎn)機(jī)械紅外檢測(cè)與識(shí)別

      2020-12-14 09:10:56洋,楊
      紅外技術(shù) 2020年11期
      關(guān)鍵詞:部件紅外機(jī)械

      王 洋,楊 立

      基于Faster R-CNN的旋轉(zhuǎn)機(jī)械紅外檢測(cè)與識(shí)別

      王 洋,楊 立

      (海軍工程大學(xué) 動(dòng)力工程學(xué)院,湖北 武漢 430033)

      旋轉(zhuǎn)機(jī)械是機(jī)械設(shè)備的核心部件,一旦發(fā)生故障會(huì)造成不可估量的損失,因此旋轉(zhuǎn)機(jī)械的實(shí)時(shí)監(jiān)測(cè)診斷顯得尤為必要。無(wú)人值守的紅外智能監(jiān)測(cè)診斷將是故障診斷新的發(fā)展方向,要實(shí)現(xiàn)紅外智能監(jiān)測(cè)診斷首先要準(zhǔn)確識(shí)別旋轉(zhuǎn)機(jī)械部件。本文利用紅外熱像儀監(jiān)測(cè)旋轉(zhuǎn)機(jī)械的運(yùn)行狀態(tài),獲得了電動(dòng)機(jī)、聯(lián)軸器、軸承座、齒輪箱等設(shè)備的紅外熱圖;采用Faster R-CNN算法對(duì)測(cè)量得到的旋轉(zhuǎn)機(jī)械紅外圖像進(jìn)行了學(xué)習(xí)訓(xùn)練和目標(biāo)識(shí)別,結(jié)果表明該算法能夠準(zhǔn)確識(shí)別旋轉(zhuǎn)機(jī)械部件;研究了單角度和旋轉(zhuǎn)角度紅外監(jiān)測(cè)的識(shí)別效果,發(fā)現(xiàn)在相同角度下使用紅外灰度圖像進(jìn)行訓(xùn)練的檢測(cè)效果比使用紅外偽彩色圖像訓(xùn)練的檢測(cè)效果更佳;對(duì)比了4種預(yù)訓(xùn)練網(wǎng)絡(luò)對(duì)于紅外目標(biāo)識(shí)別的影響,采用Resnet50預(yù)訓(xùn)練網(wǎng)絡(luò)的平均檢測(cè)精度為0.9345,識(shí)別精度更高。

      旋轉(zhuǎn)機(jī)械;紅外檢測(cè);目標(biāo)識(shí)別;Faster R-CNN

      0 引言

      旋轉(zhuǎn)機(jī)械是指那些主要功能是由旋轉(zhuǎn)運(yùn)動(dòng)來(lái)完成的機(jī)械設(shè)備[1],如電動(dòng)機(jī)、發(fā)電機(jī)、柴油機(jī)、燃?xì)廨啓C(jī)、蒸汽輪機(jī)、滾動(dòng)軸承以及各種齒輪傳動(dòng)裝置等機(jī)械設(shè)備。旋轉(zhuǎn)機(jī)械在各行各業(yè)應(yīng)用廣泛、數(shù)量眾多,通常是機(jī)械設(shè)備中的重要組成部件,旋轉(zhuǎn)機(jī)械一旦發(fā)生故障將會(huì)造成不可估量的損失和影響,因此對(duì)于旋轉(zhuǎn)機(jī)械的狀態(tài)監(jiān)測(cè)與故障診斷十分重要。

      常用的監(jiān)測(cè)與診斷技術(shù)主要有[2]:振動(dòng)信號(hào)監(jiān)測(cè)診斷技術(shù)、聲信號(hào)監(jiān)測(cè)診斷技術(shù)、溫度信號(hào)監(jiān)測(cè)診斷技術(shù)、潤(rùn)滑油的分析診斷技術(shù)、其他無(wú)損檢測(cè)診斷技術(shù)。紅外監(jiān)測(cè)診斷技術(shù)是一種溫度信號(hào)監(jiān)測(cè)診斷技術(shù),是利用紅外技術(shù)了解和掌握設(shè)備的工作狀態(tài),早期發(fā)現(xiàn)故障并能預(yù)報(bào)故障發(fā)展趨勢(shì)的監(jiān)測(cè)診斷技術(shù)[3]。其優(yōu)點(diǎn)在于成像評(píng)估、圖像直觀;非接觸式、測(cè)溫范圍廣;無(wú)需停機(jī)、高效評(píng)估;靈敏度、高分辨率[4],因此引起了國(guó)內(nèi)外研究者的廣泛興趣。Tran等[5]利用紅外熱像儀采集旋轉(zhuǎn)機(jī)械紅外圖像,通過(guò)二維經(jīng)驗(yàn)?zāi)B(tài)分解進(jìn)行聚類分析,可以準(zhǔn)確地區(qū)分各種故障類型。孫富成等[6]利用紅外熱像儀采集變速箱兩端軸承的紅外熱圖像,通過(guò)二維經(jīng)驗(yàn)?zāi)B(tài)分解與主成分分析法相結(jié)合進(jìn)行圖像融合,準(zhǔn)確地診斷出軸承故障。

      上述方法通過(guò)紅外圖像采集與分析來(lái)進(jìn)行故障診斷,但未能實(shí)現(xiàn)智能化監(jiān)測(cè)診斷。要實(shí)現(xiàn)智能化的旋轉(zhuǎn)機(jī)械紅外狀態(tài)監(jiān)測(cè)與故障診斷,第一步要準(zhǔn)確識(shí)別紅外圖像中的各個(gè)旋轉(zhuǎn)機(jī)械部件,分別對(duì)每個(gè)部件進(jìn)行狀態(tài)分析與故障診斷。而要智能識(shí)別旋轉(zhuǎn)機(jī)械部件目標(biāo),則可以通過(guò)基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法來(lái)進(jìn)行訓(xùn)練檢測(cè)。

      近幾年,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法迅猛發(fā)展,成為人工智能領(lǐng)域的研究熱點(diǎn)之一。自2012 年Krizhevsky等提出的深度卷積神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Neural Networks,DCNN)AlexNet[7]在大規(guī)模視覺(jué)識(shí)別挑戰(zhàn)賽(ImageNet Large Scale Visual Recognition Challenge,ILSVRC)[8]上實(shí)現(xiàn)了創(chuàng)紀(jì)錄的圖像分類準(zhǔn)確度之后,許多計(jì)算機(jī)視覺(jué)應(yīng)用領(lǐng)域都將研究重心放在了深度學(xué)習(xí)方法上,涌現(xiàn)了許多基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法,其中具有代表性的主要有R-CNN(Regions with Convolutional Neural Networks features)[9]、Fast R-CNN[10]、Faster R-CNN[11]、YOLO(You Only Look Once)v1[12]、SSD(Single Shot MultiBox Detector)[13]、YOLO v2[14]、Mask R-CNN[15]、YOLO v3[16]等,這些算法在機(jī)器人視覺(jué)、消費(fèi)電子產(chǎn)品、安保、自動(dòng)駕駛、人機(jī)交互、基于內(nèi)容的圖像檢索、智能視頻監(jiān)控和增強(qiáng)現(xiàn)實(shí)[17-22]等領(lǐng)域都有廣泛的應(yīng)用,取得了較好的檢測(cè)效果。

      由于Faster R-CNN算法具有廣泛的應(yīng)用和較好的效果,本文將通過(guò)基于深度學(xué)習(xí)的Faster R-CNN目標(biāo)檢測(cè)算法對(duì)紅外圖像進(jìn)行學(xué)習(xí)訓(xùn)練,使用訓(xùn)練完成的探測(cè)器來(lái)實(shí)現(xiàn)旋轉(zhuǎn)機(jī)械紅外圖像部件智能識(shí)別,為旋轉(zhuǎn)機(jī)械狀態(tài)監(jiān)測(cè)與故障診斷提供基礎(chǔ)。

      1 Faster R-CNN目標(biāo)檢測(cè)算法

      Faster R-CNN是由Ross Girshick等人繼2014年推出R-CNN,2015年推出Fast R-CNN之后推出的更快、更準(zhǔn)的目標(biāo)檢測(cè)網(wǎng)絡(luò),其結(jié)構(gòu)框架如圖1所示,包含4個(gè)關(guān)鍵模塊,即Feature Extraction(特征提取網(wǎng)絡(luò))、Region Proposal Network(區(qū)域建議網(wǎng)絡(luò),簡(jiǎn)稱RPN)、Classification(區(qū)域分類)、Regression(區(qū)域回歸)。用一個(gè)神經(jīng)網(wǎng)絡(luò)將這4個(gè)模塊結(jié)合起來(lái),訓(xùn)練了一個(gè)端到端的網(wǎng)絡(luò)。

      圖1 Faster-RCNN結(jié)構(gòu)圖

      圖片輸入Faster R-CNN網(wǎng)絡(luò)后,首先由特征提取網(wǎng)絡(luò)(常用一些預(yù)訓(xùn)練好的網(wǎng)絡(luò)Alexnet[7]、Googlenet[23]、VGG[24]、Resnet[25]等)來(lái)提取特征圖,然后在特征圖上的每一個(gè)錨點(diǎn)上取多個(gè)候選的區(qū)域,并根據(jù)相應(yīng)的比例將其映射到原始圖像中;接著將這些候選的區(qū)域輸入到區(qū)域建議網(wǎng)絡(luò)(RPN)中,RPN網(wǎng)絡(luò)對(duì)這些區(qū)域進(jìn)行分類,確定這些區(qū)域是前景還是背景,同時(shí)對(duì)其進(jìn)行初步回歸,計(jì)算這些前景區(qū)域與真實(shí)目標(biāo)之間的偏差值,然后做非極大值抑制,即根據(jù)分類的得分對(duì)這些區(qū)域進(jìn)行排序;接著對(duì)這些不同大小的區(qū)域進(jìn)行RoI pooling(區(qū)域池化)操作,輸出固定大小的特征圖;最后將其輸入簡(jiǎn)單的檢測(cè)網(wǎng)絡(luò)中,然后利用卷積進(jìn)行區(qū)域分類,同時(shí)進(jìn)行區(qū)域回歸,精確調(diào)整區(qū)域,從而輸出最優(yōu)目標(biāo)區(qū)域及區(qū)域得分。

      2 實(shí)驗(yàn)分析

      對(duì)于旋轉(zhuǎn)機(jī)械的紅外監(jiān)測(cè)可以采用視頻監(jiān)控的模式,本文通過(guò)搭建一套由電動(dòng)機(jī)、滾動(dòng)軸承、聯(lián)軸器、軸承座、齒輪箱、發(fā)電機(jī)組成的旋轉(zhuǎn)機(jī)械實(shí)驗(yàn)臺(tái)來(lái)進(jìn)行研究分析,實(shí)驗(yàn)臺(tái)結(jié)構(gòu)如圖2所示。

      在準(zhǔn)確設(shè)置熱像儀參數(shù)的條件下,采用筆記本電腦連接FLIR T650sc熱像儀采集各個(gè)不同角度下旋轉(zhuǎn)機(jī)械運(yùn)行5~15min的紅外視頻,采集不同角度下紅外圖像60張,以供深度學(xué)習(xí)算法進(jìn)行學(xué)習(xí)訓(xùn)練和檢測(cè)評(píng)估,部分圖像數(shù)據(jù)如圖3所示。

      2.1 單角度下旋轉(zhuǎn)機(jī)械紅外灰度圖像目標(biāo)識(shí)別

      視頻監(jiān)控主要通過(guò)固定角度和自動(dòng)旋轉(zhuǎn)角度兩種方式,首先我們選取一段10min的單角度紅外視頻進(jìn)行分析研究,分別間隔1s、2s、4s、8s從視頻提取紅外灰度圖像600張、300張、150張、75張,圖片尺寸均為640像素×480像素,使用Matlab中ImageLabel對(duì)圖像中的各個(gè)旋轉(zhuǎn)機(jī)械部件進(jìn)行標(biāo)記并生成標(biāo)準(zhǔn)數(shù)據(jù)集,然后使用目標(biāo)探測(cè)網(wǎng)絡(luò)Faster R-CNN進(jìn)行學(xué)習(xí)訓(xùn)練,數(shù)據(jù)集中前80%的數(shù)據(jù)用于訓(xùn)練,后20%的數(shù)據(jù)為測(cè)試集用于檢測(cè)評(píng)估。訓(xùn)練使用SUPERMICRO服務(wù)器,配置為Windows Server 2012系統(tǒng)、Intel(R)Xeon(R)CPU E5-2695 v4@2.10GHz處理器、512G內(nèi)存、NVIDIA Tesla K80顯卡。在相同訓(xùn)練參數(shù)設(shè)置下,4種不同數(shù)量數(shù)據(jù)集下訓(xùn)練完成的探測(cè)器對(duì)于單張測(cè)試圖片的檢測(cè)效果如圖4所示。

      圖2 實(shí)驗(yàn)平臺(tái)組成結(jié)構(gòu)圖

      圖3 部分不同角度下的圖像數(shù)據(jù)

      圖4 四種不同數(shù)量數(shù)據(jù)集訓(xùn)練的探測(cè)器對(duì)單張圖片檢測(cè)效果

      從圖4中可以看出4種探測(cè)器均能識(shí)別出旋轉(zhuǎn)機(jī)械部件,但是不同的探測(cè)器檢測(cè)出來(lái)的各部件的位置、大小稍微有一些差異。為了更準(zhǔn)確地評(píng)估訓(xùn)練檢測(cè)效果,使用召回率(Recall)、精確度(Precision)、平均精度(Average-Precision,AP)以及mAP(mean Average-Precision)、交并比(IoU,Intersection-over- Union)等指標(biāo)對(duì)探測(cè)進(jìn)行量化評(píng)估。

      召回率即目標(biāo)從包含目標(biāo)的圖像中被成功檢測(cè)出來(lái)的比例,計(jì)算公式為:

      式中:TP(True Positives)代表目標(biāo)識(shí)別正確的數(shù)量、FN(False Negatives)代表目標(biāo)識(shí)別錯(cuò)誤的數(shù)量。

      精確度即檢測(cè)到目標(biāo)的圖像中真正包含目標(biāo)的比例,計(jì)算公式為:

      式中:TP(True Positives)代表目標(biāo)識(shí)別正確的數(shù)量、FP(False Positives)代表其他目標(biāo)錯(cuò)誤的識(shí)別為此目標(biāo)的數(shù)量。

      平均精度(AP)為Precision-Recall曲線下面的面積,其大小在[0,1]區(qū)間,通常來(lái)說(shuō)AP值越高,分類器越好。mAP指多個(gè)類別AP的平均值,是目標(biāo)檢測(cè)算法中最重要的一個(gè)指標(biāo)。

      交并比(IoU)指系統(tǒng)預(yù)測(cè)出來(lái)的目標(biāo)區(qū)域與原來(lái)圖片中標(biāo)記的目標(biāo)區(qū)域的重合程度,計(jì)算公式為:

      式中:Area()表示原圖中標(biāo)記的目標(biāo)區(qū)域;Area ()表示探測(cè)器檢測(cè)出來(lái)的目標(biāo)區(qū)域。

      使用測(cè)試集數(shù)據(jù)對(duì)4種探測(cè)器進(jìn)行檢驗(yàn)評(píng)估,可以得到不同數(shù)量數(shù)據(jù)集下網(wǎng)絡(luò)訓(xùn)練及檢測(cè)情況如表1所示。

      表1 四種不同數(shù)量數(shù)據(jù)集下網(wǎng)絡(luò)訓(xùn)練檢測(cè)情況

      由表1可以看出,訓(xùn)練集越大,訓(xùn)練時(shí)間越長(zhǎng);平均精度都為1,說(shuō)明4種探測(cè)器均能準(zhǔn)確識(shí)別旋轉(zhuǎn)機(jī)械部件,但是識(shí)別的范圍不盡相同,從交并比數(shù)據(jù)上可以看出探測(cè)器識(shí)別出的范圍與真實(shí)目標(biāo)范圍的偏差程度,在提取300張數(shù)據(jù)集時(shí)檢測(cè)評(píng)估交并比最大,說(shuō)明該檢測(cè)更準(zhǔn)確,600張數(shù)據(jù)集的檢測(cè)效果較差,說(shuō)明相同數(shù)據(jù)量過(guò)大,反而出現(xiàn)過(guò)擬合現(xiàn)象。

      2.2 單角度下旋轉(zhuǎn)機(jī)械紅外偽彩色圖像目標(biāo)識(shí)別

      基于上面的分析,從10min視頻中提取300張圖像具有較好的訓(xùn)練檢測(cè)效果的圖像,為此從相同紅外視頻中間隔2s提取紅外偽彩色圖像300張、相同數(shù)據(jù)的紅外灰度圖像300張,圖片尺寸均為640像素×480像素,同樣使用Matlab中ImageLabel對(duì)圖像中的各個(gè)旋轉(zhuǎn)機(jī)械部件進(jìn)行相同的位置標(biāo)記并生成標(biāo)準(zhǔn)數(shù)據(jù)集,使用相同的目標(biāo)探測(cè)網(wǎng)絡(luò)Faster R-CNN進(jìn)行學(xué)習(xí)訓(xùn)練,同樣前80%的數(shù)據(jù)用于訓(xùn)練,后20%的數(shù)據(jù)用于檢測(cè)評(píng)估,訓(xùn)練完成的探測(cè)器對(duì)于單張圖片的檢測(cè)結(jié)果如圖5所示。

      圖5 不同圖像類型下訓(xùn)練的探測(cè)器對(duì)單張圖片檢測(cè)效果

      為了更準(zhǔn)確地評(píng)估不同圖像類型下的訓(xùn)練檢測(cè)效果,使用測(cè)試集數(shù)據(jù)進(jìn)行檢驗(yàn)評(píng)估,可以得到不同圖像類型下網(wǎng)絡(luò)訓(xùn)練檢測(cè)情況如表2所示。

      表2 不同圖像類型下網(wǎng)絡(luò)訓(xùn)練檢測(cè)情況

      由表2可以看出,兩種圖像的訓(xùn)練時(shí)間相差77s,檢測(cè)的平均精度一樣,此外,灰度圖像檢測(cè)的目標(biāo)區(qū)域交并比更高,檢測(cè)效果更好。

      2.3 多角度下旋轉(zhuǎn)機(jī)械紅外灰度圖像目標(biāo)識(shí)別

      對(duì)于自動(dòng)旋轉(zhuǎn)型監(jiān)控模式,可以通過(guò)不同角度下采集的紅外視頻和圖像進(jìn)行訓(xùn)練研究。由于灰度圖像具有較好檢測(cè)效果,因此本文從采集的多角度紅外視頻和圖像中提取灰度圖像1300張,選擇其中的1000張圖片作為訓(xùn)練集,剩余的300張圖片作為測(cè)試集,圖片尺寸均為640像素×480像素,同樣使用Matlab中ImageLabel對(duì)訓(xùn)練集和測(cè)試集圖片中的各個(gè)旋轉(zhuǎn)機(jī)械部件進(jìn)行標(biāo)記,一共6個(gè)部件類型標(biāo)簽,并生成標(biāo)準(zhǔn)數(shù)據(jù)集,然后使用目標(biāo)探測(cè)網(wǎng)絡(luò)Faster R-CNN進(jìn)行學(xué)習(xí)訓(xùn)練,在訓(xùn)練中選擇不同的預(yù)訓(xùn)練網(wǎng)絡(luò)Alexnet、VGG19、Googlenet、Resnet50等進(jìn)行特征提取。在相同訓(xùn)練集、測(cè)試集,相同的參數(shù)設(shè)置下,不同預(yù)訓(xùn)練網(wǎng)絡(luò)對(duì)于單張圖片的檢測(cè)效果如圖6所示。

      圖6 不同預(yù)訓(xùn)練網(wǎng)絡(luò)下的單張圖片檢測(cè)效果

      由圖6可以看出4種探測(cè)器均能識(shí)別旋轉(zhuǎn)機(jī)械部件,其中Alexnet預(yù)訓(xùn)練檢測(cè)結(jié)果中聯(lián)軸器(Coupling)的檢測(cè)位置有明顯偏差,其余基本能夠檢測(cè)出旋轉(zhuǎn)機(jī)械部件。為了更準(zhǔn)確地評(píng)估4種探測(cè)器的訓(xùn)練檢測(cè)效果,使用測(cè)試集數(shù)據(jù)進(jìn)行檢驗(yàn)評(píng)估,可以得到不同預(yù)訓(xùn)練網(wǎng)絡(luò)下的Precision- Recall曲線如圖7~圖10所示。

      圖7 Alexnet預(yù)訓(xùn)練網(wǎng)絡(luò)下6個(gè)目標(biāo)的PR曲線

      圖8 VGG19預(yù)訓(xùn)練網(wǎng)絡(luò)下6個(gè)目標(biāo)的PR曲線

      圖9 Googlenet預(yù)訓(xùn)練網(wǎng)絡(luò)下6個(gè)目標(biāo)的PR曲線

      圖10 Resnet50預(yù)訓(xùn)練網(wǎng)絡(luò)下6個(gè)目標(biāo)的PR曲線

      圖7中Alexnet預(yù)訓(xùn)練下6個(gè)目標(biāo)平均檢測(cè)精度(mAP)為0.9281,圖8中VGG19預(yù)訓(xùn)練下6個(gè)目標(biāo)平均檢測(cè)精度為0.9188,圖9中Googlenet預(yù)訓(xùn)練下6個(gè)目標(biāo)平均檢測(cè)精度為0.8735,圖10中Resnet50預(yù)訓(xùn)練下6個(gè)目標(biāo)平均檢測(cè)精度為0.9345,由mAP數(shù)據(jù)可以看出使用Resnet50作為預(yù)訓(xùn)練網(wǎng)絡(luò)具有最佳的檢測(cè)效果。

      3 結(jié)論

      本文采用Faster R-CNN算法對(duì)旋轉(zhuǎn)機(jī)械紅外圖像進(jìn)行了訓(xùn)練和檢測(cè),實(shí)驗(yàn)表明,該方法可以應(yīng)用于旋轉(zhuǎn)機(jī)械紅外目標(biāo)檢測(cè),能夠自動(dòng)識(shí)別旋轉(zhuǎn)機(jī)械部件。在單角度下通過(guò)不同間隔時(shí)間提取不同數(shù)量圖片進(jìn)行檢測(cè)評(píng)估,得出單角度下10min紅外視頻提取300張左右圖片訓(xùn)練檢測(cè)效果最佳。通過(guò)分析相同角度下紅外灰度圖像和紅外偽彩色圖像訓(xùn)練檢測(cè)結(jié)果得知,使用紅外灰度圖像進(jìn)行訓(xùn)練檢測(cè)效果更佳。通過(guò)對(duì)比不同預(yù)訓(xùn)練網(wǎng)絡(luò)下的目標(biāo)檢測(cè)效果得知,在Resnet50的預(yù)訓(xùn)練網(wǎng)絡(luò)下,紅外目標(biāo)檢測(cè)效果最佳。旋轉(zhuǎn)機(jī)械紅外目標(biāo)識(shí)別主要是為旋轉(zhuǎn)機(jī)械各部件智能故障診斷打下堅(jiān)實(shí)基礎(chǔ),下一步對(duì)各部件的故障類別和故障程度進(jìn)行智能判別,建立一套旋轉(zhuǎn)機(jī)械故障監(jiān)測(cè)診斷系統(tǒng)。

      [1] 孫穎. 旋轉(zhuǎn)機(jī)械故障的研究及常見故障[J]. 知識(shí)經(jīng)濟(jì), 2010(16): 117.

      SUN Ying.Research on common faults and faults of rotating machinery [J]., 2010(16): 117.

      [2] 沈慶根, 鄭水英. 設(shè)備故障診斷[M]. 北京: 化學(xué)工業(yè)出版社, 2005.

      SHEN Qinggen, ZHENG Yongying. Equipment fault diagnosis[M]. Beijing:, 2005.

      [3] 程玉蘭. 紅外診斷技術(shù)與應(yīng)用(一)[J]. 設(shè)備管理與維修, 2003(9): 41-43.

      CHENG Yulan. Infrared diagnosis technology and Application(1)[J]., 2003(9): 41-43.

      [4] Bagavathiappan S, Lahiri B B, Saravanan T, et al. Infrared thermography for condition monitoring – A review[J]., 2013, 60(5): 35-55.

      [5] Tran Van Tung, YANG Bo-Suk, GU Fengshou, et al. Thermal image enhancement using bi-dimensional empirical mode decomposition in combination with relevance vector machine for rotating machinery fault diagnosis[C]//, 2013, 38(2): 601-614.

      [6] 孫富成, 宋文淵, 滕紅智, 等. 基于紅外熱圖像的變速箱軸承狀態(tài)監(jiān)測(cè)與故障診斷[J]. 電光與控制, 2017, 24(7): 113-117.

      SUN Fucheng, SONG Wenyuan, TENG Hongzhi, et al.Infrared Thermal Image Based Condition Monitoring and Fault Diagnosis of Gearbox Bearings[J]., 2017, 24(7): 113-117.

      [7] Krizhevsky A, Sutskever I, Hinton G. ImageNet Classification with Deep Convolutional Neural Networks[J]., 2017, 60(6): 84-90.

      [8] Russakovsky O, Deng J, Su H, et al. Image Net Large Scale Visual Recognition Challenge[J]., 2015, 115(3): 211-252.

      [9] Girshick R, Donahue J, Darrell T, et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]//, 2014: 580-587.

      [10] Girshick R. Fast R-CNN[C]//, 2015: 1440-1448.

      [11] REN S, HE K, Girshick R , et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]., 2015, 39(6): 1137-1149.

      [12] Redmon J, Divvala S, Girshick R, et al. You Only Look Once: Unified, Real-Time Object Detection[C]//, 2016: 779-788.

      [13] LIU W, Anguelov D, Erhan D, et al. SSD: Single Shot MultiBox Detector[C]//, 2016: 21-37.

      [14] Redmon J, Farhadi A. YOLO9000: Better, Faster, Stronger[C]//, 2017: 6517-6525.

      [15] HE K, Gkioxari G, Dollar P, et al. Mask R-CNN[J]., 2017(99): 1.

      [16] Redmon J, Farhadi A. YOLOv3: An Incremental Improvement[J/OL]. 2018, https://arxiv.org/abs/1804.02767.

      [17] LIU L, OUYANG W, WANG X, et al. Deep Learning for Generic Object Detection: A Survey[J]., 2020, 128(2): 261-318.

      [18] 王林, 張鶴鶴. Faster R-CNN模型在車輛檢測(cè)中的應(yīng)用[J]. 計(jì)算機(jī)應(yīng)用, 2018, 38(3): 666-670.

      WANG Lin, ZHANG Hehe. Application of Faster R-CNN model in vehicle detection[J]., 2018, 38(3): 666-670.

      [19] 桑軍, 郭沛, 項(xiàng)志立, 等. Faster-RCNN的車型識(shí)別分析[J]. 重慶大學(xué)學(xué)報(bào),2017, 40(7): 32-36.

      SANG Jun, GUO Pei, XIANG Zhili, et al.Vehicle detection based on faster-RCNN[J].,2017, 40(7): 32-36.

      [20] 張匯, 杜煜, 寧淑榮, 等. 基于Faster RCNN的行人檢測(cè)方法[J]. 傳感器與微系統(tǒng), 2019, 38(2): 147-149, 153.

      ZHANG Hui, DU Yu, NING Shurong, et al. Pedestrian detection method based on Faster RCNN[J]., 2019, 38(2): 147-149, 153.

      [21] 史凱靜, 鮑泓, 徐冰心, 等. 基于Faster RCNN的智能車道路前方車輛檢測(cè)方法[J]. 計(jì)算機(jī)工程, 2018, 44(7): 36-41.

      SHI Kaijing, BAO Hong, XU Bingxin, et al. Forward Vehicle Detection Method of Intelligent Vehicle in Road Based on Faster RCNN[J]., 2018, 44(7): 36-41.

      [22] 朱虹, 翟超, 呂志, 等. 基于Faster-RCNN的智能家居行人檢測(cè)系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[J]. 工業(yè)控制計(jì)算機(jī), 2018, 31(4): 68-70.

      ZHU Hong, ZHAI Chao, LU Zhi, et al. Smart Home Pedestrian Detection System Based on Faster-RCNN[J]., 2018, 31(4): 68-70.

      [23] Szegedy C, Liu W, Jia Y, et al. Going Deeper with Convolutions[C]//, 2015: 1-9.

      [24] Simonyan K, Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition[J/OL]. 2014,https://arxiv.org/abs/1409. 1556.

      [25] HE K, ZHANG X, REN S , et al. Deep Residual Learning for Image Recognition[C]//, 2016: 770-778.

      Infrared Detection and Identification of Rotating Machinery Based on Faster R-CNN

      WANG Yang,YANG Li

      (College of Power Engineering, Naval University of Engineering, Wuhan 430033, China)

      Rotating machinery is the core component of mechanical equipment and canthus cause a significant loss ifit breaks down. Therefore, real-time monitoring and diagnosis of the rotating machinery is critical. Automatedinfrared intelligent monitoring and diagnosis is a recent development infault diagnosis. To realize infrared intelligent monitoring and diagnosis, it is necessary to accurately identify rotating machinery components. In this study, an infrared thermal camera was used to monitor the running state of the rotating machinery and infrared images of the motor, coupling, bearing seat, gearbox, and other equipment. The Faster R-CNN algorithm wasused to train the rotating-machinery infrared imagesand to identify the targets. The results showed that the algorithm can accurately identify rotating machinery components. The recognition effect of single-angle and rotating-angle infrared monitoring was studied. It was found that the detection effect of infrared gray images fortraining at the same angle is better than that of infrared pseudo-color images. The influence of four types of pre-training networks on infrared target recognition was compared. The average detection accuracy of the resnet50 pre-training network was 0.9345, and the recognition accuracy washigher.

      rotating machinery, infrared detection, object identification, Faster R-CNN

      TK38

      A

      1001-8891(2020)11-1053-08

      2020-03-07;

      2020-09-08.

      王洋(1986-),男,碩士研究生,主要研究方向?yàn)榧t外故障診斷。E-mail: 373647411@qq.com。

      猜你喜歡
      部件紅外機(jī)械
      網(wǎng)紅外賣
      閃亮的中國(guó)紅外『芯』
      金橋(2021年4期)2021-05-21 08:19:20
      調(diào)試機(jī)械臂
      TS系列紅外傳感器在嵌入式控制系統(tǒng)中的應(yīng)用
      電子制作(2019年7期)2019-04-25 13:17:14
      基于Siemens NX和Sinumerik的銑頭部件再制造
      簡(jiǎn)單機(jī)械
      部件拆分與對(duì)外漢字部件教學(xué)
      基于快速遞推模糊2-劃分熵圖割的紅外圖像分割
      機(jī)械班長(zhǎng)
      水輪機(jī)過(guò)流部件改造與節(jié)能增效
      红河县| 阿拉善右旗| 运城市| 云梦县| 出国| 高碑店市| 苏尼特右旗| 呼玛县| 南丹县| 吉首市| 镇远县| 宁强县| 南丹县| 肇源县| 海原县| 澄江县| 大荔县| 四川省| 石城县| 宁德市| 江陵县| 政和县| 星子县| 闸北区| 凉城县| 平谷区| 贡嘎县| 延津县| 桐乡市| 积石山| 长治市| 华池县| 连江县| 兖州市| 红桥区| 元阳县| 扶风县| 楚雄市| 泾阳县| 康乐县| 于都县|