• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    橋式起重機(jī)部件多任務(wù)學(xué)習(xí)Mask R-CNN分割與關(guān)鍵點(diǎn)識(shí)別方法*

    2021-04-23 08:07:04楊帆梁敏健楊寧祥彭曉軍
    自動(dòng)化與信息工程 2021年2期
    關(guān)鍵詞:多任務(wù)張量關(guān)鍵點(diǎn)

    楊帆 梁敏健 楊寧祥 彭曉軍

    學(xué)術(shù)研究

    橋式起重機(jī)部件多任務(wù)學(xué)習(xí)Mask R-CNN分割與關(guān)鍵點(diǎn)識(shí)別方法*

    楊帆1梁敏健2楊寧祥2彭曉軍2

    (1.華南理工大學(xué)機(jī)械與汽車(chē)工程學(xué)院,廣東 廣州 510640 2.廣東省特種設(shè)備檢測(cè)研究院珠海檢測(cè)院,廣東 珠海 519002)

    起重機(jī)運(yùn)行狀態(tài)實(shí)時(shí)檢測(cè)是工業(yè)安全生產(chǎn)的重要保障之一。針對(duì)起重機(jī)部件提出基于多任務(wù)學(xué)習(xí)Mask R-CNN的分割與關(guān)鍵點(diǎn)網(wǎng)絡(luò)結(jié)構(gòu),該結(jié)構(gòu)由Mask R-CNN定位框與區(qū)域語(yǔ)義分割網(wǎng)絡(luò)、DeepLabCut關(guān)鍵點(diǎn)檢測(cè)網(wǎng)絡(luò)構(gòu)成;在吊鉤橋式起重機(jī)中采集數(shù)據(jù)進(jìn)行測(cè)試,利用貪婪線性搜索算法與貝葉斯優(yōu)化算法,搜索得到此模型的最優(yōu)超參數(shù)組合為:學(xué)習(xí)率0.005,批數(shù)2,學(xué)習(xí)率策略為余弦衰減。該模型測(cè)試誤差為2.46個(gè)像素點(diǎn),測(cè)試AP可達(dá)95%,像素點(diǎn)誤差反映到實(shí)際誤差在5 cm以內(nèi),滿足實(shí)際檢測(cè)需求,可拓展應(yīng)用于無(wú)人化、自動(dòng)化起重機(jī)運(yùn)行狀態(tài)監(jiān)測(cè)。

    橋式起重機(jī);關(guān)鍵點(diǎn)識(shí)別;深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);多任務(wù)學(xué)習(xí);語(yǔ)義分割

    0 引言

    起重機(jī)是現(xiàn)代工業(yè)生產(chǎn)不可或缺的設(shè)備,其作業(yè)范圍廣、作業(yè)環(huán)境復(fù)雜、吊運(yùn)對(duì)象多樣,需要多機(jī)構(gòu)同時(shí)操作、多工種協(xié)同作業(yè)。起重機(jī)在作業(yè)過(guò)程中危險(xiǎn)因素較多,需實(shí)時(shí)監(jiān)測(cè)其關(guān)鍵部件的運(yùn)行狀態(tài),及時(shí)發(fā)現(xiàn)故障并發(fā)出預(yù)警信息。起重機(jī)關(guān)鍵部件監(jiān)測(cè)方法主要有基于多物理傳感器直接測(cè)量[1-3]、基于機(jī)器視覺(jué)傳感[4-6]兩大類(lèi),前者裝置拆裝不便,適應(yīng)性較差;后者拆裝方便,以高魯棒性圖像算法為基礎(chǔ),在滿足精度誤差范圍內(nèi)具備不同場(chǎng)景測(cè)量的高適應(yīng)性。基于機(jī)器視覺(jué)傳感的監(jiān)測(cè)方法是基于圖像傳感器及圖像處理算法,識(shí)別圖像中起重機(jī)關(guān)鍵部件位置,并結(jié)合圖像深度信息進(jìn)行定量測(cè)量。文獻(xiàn)[4]采用歸一化互相關(guān)圖匹配算法對(duì)起重機(jī)吊繩圖像進(jìn)行目標(biāo)對(duì)象定位框識(shí)別,并作為Mean Shift跟蹤的目標(biāo)區(qū)域進(jìn)行跟蹤。文獻(xiàn)[5]利用灰度化、二值化、邊緣檢測(cè)、霍夫變換等圖像處理算法識(shí)別吊繩邊緣,再根據(jù)相機(jī)小孔成像原理預(yù)測(cè)吊繩角度。上述研究均利用經(jīng)典圖像處理算法進(jìn)行起重機(jī)部件識(shí)別,無(wú)法抽取高層圖片信息,對(duì)場(chǎng)景變化及環(huán)境變化適應(yīng)性差。相比于經(jīng)典圖像處理算法,深度學(xué)習(xí)模型具有圖像高級(jí)語(yǔ)義特征理解力,對(duì)不同場(chǎng)景適應(yīng)能力更強(qiáng)。為此,文獻(xiàn)[6]利用深度學(xué)習(xí)檢測(cè)算法YOLO[7]實(shí)現(xiàn)不同角度起重機(jī)圖片吊鉤定位,適應(yīng)性較好,但算法僅適用于圖像定位框識(shí)別任務(wù),沒(méi)有對(duì)起重機(jī)運(yùn)行部件的關(guān)鍵點(diǎn)坐標(biāo)信息及部件區(qū)域分割信息進(jìn)行預(yù)測(cè)。

    為此,本文應(yīng)用Mask R-CNN結(jié)合多任務(wù)學(xué)習(xí)[8-9],接入多預(yù)測(cè)分支,構(gòu)建多任務(wù)識(shí)別深度學(xué)習(xí)網(wǎng)絡(luò),實(shí)現(xiàn)橋式起重機(jī)關(guān)鍵部件定位框、區(qū)域語(yǔ)義分割與關(guān)鍵點(diǎn)的同時(shí)識(shí)別。

    1 網(wǎng)絡(luò)設(shè)計(jì)

    橋式起重機(jī)關(guān)鍵部件定位與關(guān)鍵點(diǎn)識(shí)別方法框架包括Mask R-CNN定位框與區(qū)域語(yǔ)義分割網(wǎng)絡(luò)、DeepLabCut關(guān)鍵點(diǎn)檢測(cè)網(wǎng)絡(luò),如圖1所示。

    1.1 Mask R-CNN定位框與區(qū)域語(yǔ)義分割網(wǎng)絡(luò)

    Mask R-CNN架構(gòu)圖如圖2所示。輸入圖像經(jīng)過(guò)預(yù)訓(xùn)練的ResNet50-FPN結(jié)構(gòu),融合ResNet50各層不同尺度的特征張量,輸出特征圖為不同分辨率的融合特征圖(=1,…,4),即圖像語(yǔ)義特征。

    圖1 橋式起重機(jī)關(guān)鍵部件定位與關(guān)鍵點(diǎn)檢測(cè)方法框架圖

    圖2 Mask R-CNN整體架構(gòu)圖

    特征圖輸入感興趣目標(biāo)區(qū)域候選框生成網(wǎng)絡(luò)(region proposal network, RPN)后,獲得語(yǔ)義特征張量對(duì)應(yīng)候選框區(qū)域的局部特征張量(=1,…,)。設(shè)輸入圖像的寬和高分別為,,若RPN輸出某一RoI的寬與高分別為w,h,左上頂點(diǎn)的圖像像素坐標(biāo)為(x,y),且該RoI為特征張量通過(guò)RPN生成,則此圖像上的RoI對(duì)應(yīng)的局部特征張量

    每個(gè)局部特征張量輸入感興趣目標(biāo)區(qū)域?qū)R層,即RoIAlign層,首先,該層均勻地將分割成7×7 = 49個(gè)子區(qū)域;然后,利用雙線性插值法獲得每個(gè)區(qū)域中心位置的插值,得到插值后張量;接著,對(duì)插值后張量進(jìn)行最大值池化操作;最后,得到RoIAlign層的輸出,區(qū)域?qū)R后的張量(= 1,…,)。

    張量分別輸入部件分割模塊、部件定位模塊和分類(lèi)模塊,以完成每個(gè)已分類(lèi)的部件定位區(qū)域內(nèi)的分割任務(wù)。

    各預(yù)測(cè)模塊的內(nèi)部結(jié)構(gòu)如圖3所示。首先,部件定位模塊與分類(lèi)模塊共用多個(gè)全連接(fully connected, FC)層以提取張量的語(yǔ)義信息矢量;然后,部件定位分支將語(yǔ)義信息矢量輸入到4個(gè)神經(jīng)元的FC層,獲得第二次精煉的部件定位框回歸預(yù)測(cè)值,,,;分類(lèi)分支將矢量輸入到3個(gè)神經(jīng)元的FC層;接著,輸入Softmax層獲得小車(chē)、大車(chē)與吊具的預(yù)測(cè)概率p,pp;最后,部件分割分支利用3×3×256卷積層與1×1×3卷積層對(duì)提取語(yǔ)義張量信息,再輸入Sigmoid層,得到14×14×3掩碼張量,張量的每一維度代表一個(gè)類(lèi)別掩碼區(qū)域的預(yù)測(cè),張量的任意元素值表示該位置屬于目標(biāo)區(qū)域概率。

    圖3 預(yù)測(cè)模塊內(nèi)部結(jié)構(gòu)圖

    分類(lèi)分支、部件分割分支的輸出分別輸入交叉熵?fù)p失函數(shù)得到分類(lèi)損失cls與部件分割損失函數(shù)mask;部件定位分支輸出輸入最小二乘回歸損失函數(shù)得到定位框損失box,各損失之和即為Mask R-CNN總損失函數(shù)

    1.2 DeepLabCut關(guān)鍵點(diǎn)檢測(cè)網(wǎng)絡(luò)

    DeepLabCut關(guān)鍵點(diǎn)檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。設(shè)圖像中起重機(jī)關(guān)鍵點(diǎn)個(gè)數(shù)為,起重機(jī)圖像輸入ResNet網(wǎng)絡(luò)獲得特征圖后,分別輸入關(guān)鍵點(diǎn)空間概率分布預(yù)測(cè)分支、偏移量預(yù)測(cè)分支。

    圖4 DeepLabCut關(guān)鍵點(diǎn)檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu)

    1)輸入關(guān)鍵點(diǎn)空間概率分布預(yù)測(cè)分支,ResNet輸出經(jīng)尺度為3×3×的反卷積層,再通過(guò)Sigmoid層獲得特征圖×W×k,特征圖中第維第(,)個(gè)元素的值表示原圖第行,第列對(duì)應(yīng)區(qū)域出現(xiàn)第個(gè)關(guān)鍵點(diǎn)的概率。故由特征圖可初步得到每個(gè)關(guān)鍵點(diǎn)大致出現(xiàn)的區(qū)域:

    2)語(yǔ)義特征張量輸入偏移量預(yù)測(cè)分支,ResNet輸出經(jīng)3×3×2的反卷積層,輸出偏移量回歸張量×W×2k,則第個(gè)關(guān)鍵點(diǎn)(x,y)的預(yù)測(cè)輸出為

    DeepLabCut的損失函數(shù)kpt為交叉熵?fù)p失函數(shù),設(shè)out_n表示關(guān)鍵點(diǎn)分支通過(guò)Softmax層后的輸出;p表示標(biāo)簽真值;ap指一個(gè)批次的所有樣本量,則kpt表示為

    1.3 多任務(wù)深度網(wǎng)絡(luò)損失函數(shù)設(shè)計(jì)

    邊框預(yù)測(cè)、語(yǔ)義分割預(yù)測(cè)與關(guān)鍵點(diǎn)預(yù)測(cè)3類(lèi)子任務(wù)應(yīng)用于起重機(jī)實(shí)例對(duì)象的預(yù)測(cè)、識(shí)別。子任務(wù)之間具有同質(zhì)性,可提高特征提取器的泛化性,最終提升各子任務(wù)預(yù)測(cè)準(zhǔn)確性,并且通過(guò)公用骨干網(wǎng)絡(luò),減少算法時(shí)間復(fù)雜度與空間復(fù)雜度。

    Mask R-CNN總損失函數(shù)添加DeepLab關(guān)鍵點(diǎn)分支損失函數(shù)項(xiàng)kpt得到多任務(wù)深度網(wǎng)絡(luò)損失函數(shù)f=+kpt。最后利用Adam算法[11],最小化總損失函數(shù)f,訓(xùn)練獲得最優(yōu)網(wǎng)絡(luò)參數(shù)。

    2 實(shí)驗(yàn)與結(jié)果分析

    本實(shí)驗(yàn)對(duì)象為廣東省珠海市某廠房的通用式吊鉤橋式起重機(jī),選用MV-CA060-10GC、4 K分辨率工業(yè)相機(jī)為圖像采集傳感器;深度學(xué)習(xí)硬件設(shè)備為Nvidia 1080ti顯卡,CPU為i7 8700, 32 GB內(nèi)存。

    采集全天候起重機(jī)運(yùn)行視頻,并抽幀500張圖像作為訓(xùn)練集,利用貪婪線性搜索算法,獲得近似超參數(shù)最優(yōu)組合?;境瑓?shù)組合為:學(xué)習(xí)率0.00003,批數(shù)1,學(xué)習(xí)率策略為多步衰減。在此基本超參數(shù)組合上,依次改變單個(gè)超參數(shù)的取值,不同組合下的誤差結(jié)果如表1所示。

    將單步搜索最優(yōu)值對(duì)應(yīng)超參數(shù)取值進(jìn)行組合,得到近似最優(yōu)組合:學(xué)習(xí)率為0.00003,批數(shù)為3,學(xué)習(xí)率策略為多步衰減,對(duì)應(yīng)訓(xùn)練誤差為2.33,測(cè)試誤差為2.46。

    表1 超參數(shù)優(yōu)化效果

    利用樹(shù)狀結(jié)構(gòu)Parzen估計(jì)方法[14]獲取超參數(shù)最優(yōu)組合,這是一種貝葉斯優(yōu)化算法,與貪婪線性搜索算法不同,它依據(jù)歷史搜索結(jié)果,得出此次實(shí)驗(yàn)的超參數(shù)組合,從而提升搜索效率。搜索結(jié)果表明:最優(yōu)組中的最優(yōu)超參數(shù)組合為:學(xué)習(xí)率0.005,批數(shù)2,學(xué)習(xí)率策略為余弦衰減,對(duì)應(yīng)的測(cè)試誤差與訓(xùn)練誤差分別為2.29與2.10。綜合2種優(yōu)化算法,最終得到最優(yōu)超參數(shù)組合為:學(xué)習(xí)率0.005,批數(shù)2,學(xué)習(xí)率策略為余弦衰減,測(cè)試誤差2.46個(gè)像素點(diǎn),測(cè)試AP可達(dá)95%。最優(yōu)訓(xùn)練效果下多任務(wù)深度網(wǎng)絡(luò)語(yǔ)義分割與關(guān)鍵點(diǎn)識(shí)別效果如圖5所示。實(shí)際測(cè)試結(jié)果表明基于多任務(wù)學(xué)習(xí)Mask R-CNN分割與關(guān)鍵點(diǎn)識(shí)別網(wǎng)絡(luò)特征點(diǎn)檢測(cè)實(shí)際誤差在5 cm以內(nèi),滿足實(shí)際檢測(cè)需求。

    圖5 多任務(wù)深度網(wǎng)絡(luò)語(yǔ)義分割與關(guān)鍵點(diǎn)識(shí)別效果

    3 結(jié)語(yǔ)

    1)依據(jù)起重機(jī)日常運(yùn)行狀態(tài)檢測(cè)信息,提出面向起重機(jī)部件的多任務(wù)學(xué)習(xí)Mask R-CNN分割與關(guān)鍵點(diǎn)識(shí)別網(wǎng)絡(luò),包括Mask R-CNN關(guān)鍵部件定位框與區(qū)域語(yǔ)義分割網(wǎng)絡(luò)結(jié)構(gòu)、DeepLabCut關(guān)鍵點(diǎn)檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu);

    2)利用貪婪線性搜索算法與貝葉斯優(yōu)化算法,搜索此模型的最優(yōu)超參數(shù)組合,訓(xùn)練收斂后,得到用于起重機(jī)大車(chē)、小車(chē)與吊具的定位框識(shí)別、區(qū)域?qū)嵗指钆c關(guān)鍵點(diǎn)識(shí)別最佳深度學(xué)習(xí)檢測(cè)模型,測(cè)試誤差2.46個(gè)像素點(diǎn),測(cè)試AP可達(dá)95%,特征點(diǎn)實(shí)際檢測(cè)誤差在5 cm以內(nèi)。

    下一步可依據(jù)邊緣計(jì)算理論,將加速算法模型部署在橋式起重機(jī)現(xiàn)場(chǎng)邊緣端設(shè)備,構(gòu)成云邊端檢測(cè)系統(tǒng),實(shí)現(xiàn)起重機(jī)運(yùn)行狀態(tài)量實(shí)時(shí)測(cè)量。

    [1] 張昊.基于物聯(lián)網(wǎng)的門(mén)式起重機(jī)結(jié)構(gòu)健康監(jiān)測(cè)管理系統(tǒng)[D].南京:南京理工大學(xué),2018

    [2] 姜長(zhǎng)城.門(mén)式起重機(jī)遠(yuǎn)程監(jiān)測(cè)及診斷分析系統(tǒng)研發(fā)[D].南京:東南大學(xué),2018.

    [3] 羅偉.門(mén)式起重機(jī)管理中安全監(jiān)控管理系統(tǒng)的應(yīng)用[J].中國(guó)設(shè)備工程,2018(19):32-33.

    [4] 陳洪志. 大型起重機(jī)臂架旁彎圖像測(cè)量算法研究[D].廣州:廣東工業(yè)大學(xué),2015.

    [5] 李明聰.基于圖像的嵌入式吊繩狀態(tài)監(jiān)測(cè)系統(tǒng)設(shè)計(jì)[D].大連:大連海事大學(xué),2016.

    [6] 張銳. 基于機(jī)器視覺(jué)的塔式起重機(jī)控制策略研究[D].合肥:合肥工業(yè)大學(xué),2019.

    [7] Redmon Joseph, Divvala Santosh, Girshick Ross, et al. You only look once: unified, real-time object detection[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas, America: Computer Vision Foundation, 2016. 779-788.

    [8] He Kaiming, Gkioxari Georgia, Dollar Piotr, et al. Mask R-CNN[C]// IEEE international conference on computer vision. Venice, Italy: IEEE,2017.2961-2969.

    [9] CARUANA R. Multitask Learning[J]. Machine Learning, 1997, 28(1):41-75.

    [10] KINGMA D P, BA J. Adam: a method for stochastic optimization[J]. arXiv preprint arXiv:1412.6980, 2014.

    [11] MOCKUS J, TIESIS V, ZILINSKAS A. The application of Bayesian methods for seeking the extremum[J]. In L.C.W. Dixon and G.P. Szego, editors, Towards Global Optimization, North Holland, New York, 1978, 2:117–129.

    Multi-task Learning Mask R-CNN Segmentation and Key Point Recognition Method for Bridge Crane Components

    Yang Fan1Liang Minjian2Yang Ningxiang2Peng Xiaojun2

    (1.School of Mechanical and Automotive Engineering, South China University of Technology, Guangzhou 510640, China 2.Guangdong Institute of Special Equipment Inspection and Research Zhuhai Branch, Zhuhai 519002, China)

    Real time detection of crane operation status is one of the important guarantees for industrial safety production. A segmentation and key point network structure based on multi task learning mask R-CNN is proposed R-CNN crane key parts positioning frame and regional semantic segmentation network, crane key point detection network based on DeepLabCut; in a hook crane to collect data for testing, using greedy linear search algorithm and Bayesian optimization algorithm, the optimal super parameter combination of this model is: learning rate 0.005, batch size 2, learning rate strategy is cosine decay . The test error of the model is 2.46 pixels, and the test AP is up to 95%. The pixel error can be reflected within 5 cm of the actual error, which can meet the actual detection needs, and can be extended to the unmanned and automatic crane operation state monitoring.

    bridge crane; key point recognition; deep learning; convolutional neural networks; multi-task learning; semantic segmentation

    TN911.73

    A

    1674-2605(2021)02-0003-05

    10.3969/j.issn.1674-2605.2021.02.003

    廣東省特種設(shè)備檢測(cè)研究院2019年度科技項(xiàng)目(2020JD09)

    楊帆,男,1996年生,碩士研究生,主要研究方向:人工智能與精密檢測(cè)技術(shù)研究。E-mail:201820100566@mail.scut.edu.cn

    猜你喜歡
    多任務(wù)張量關(guān)鍵點(diǎn)
    聚焦金屬關(guān)鍵點(diǎn)
    肉兔育肥抓好七個(gè)關(guān)鍵點(diǎn)
    偶數(shù)階張量core逆的性質(zhì)和應(yīng)用
    四元數(shù)張量方程A*NX=B 的通解
    基于中心化自動(dòng)加權(quán)多任務(wù)學(xué)習(xí)的早期輕度認(rèn)知障礙診斷
    擴(kuò)散張量成像MRI 在CO中毒后遲發(fā)腦病中的應(yīng)用
    基于判別性局部聯(lián)合稀疏模型的多任務(wù)跟蹤
    電測(cè)與儀表(2016年5期)2016-04-22 01:13:46
    醫(yī)聯(lián)體要把握三個(gè)關(guān)鍵點(diǎn)
    鎖定兩個(gè)關(guān)鍵點(diǎn)——我這樣教《送考》
    东方市| 怀来县| 嘉义县| 沈阳市| 张家口市| 大庆市| 邯郸市| 杨浦区| 南平市| 米脂县| 阜平县| 麻城市| 永平县| 秦安县| 两当县| 咸阳市| 龙门县| 乌恰县| 潍坊市| 本溪市| 陵水| 璧山县| 东乡族自治县| 德令哈市| 水城县| 武冈市| 张北县| 巴塘县| 西乌珠穆沁旗| 吐鲁番市| 贺兰县| 公安县| 盘山县| 合山市| 广灵县| 竹溪县| 盖州市| 大竹县| 弋阳县| 阿巴嘎旗| 永康市|