• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于膨脹圖卷積與離群點(diǎn)過(guò)濾的殘缺點(diǎn)云配準(zhǔn)

      2022-11-20 13:58:50孫戰(zhàn)里張玉欣
      關(guān)鍵詞:離群密集類(lèi)別

      孫戰(zhàn)里,張玉欣,陳 霞

      1.安徽大學(xué) 人工智能學(xué)院,合肥 230601

      2.安徽大學(xué) 多模態(tài)認(rèn)知計(jì)算安徽省重點(diǎn)實(shí)驗(yàn)室,合肥 230601

      3.安徽大學(xué) 電氣工程與自動(dòng)化學(xué)院,合肥 230601

      4.安徽農(nóng)業(yè)大學(xué) 信息與計(jì)算機(jī)學(xué)院,合肥 230036

      點(diǎn)云配準(zhǔn)是一項(xiàng)通過(guò)計(jì)算剛性轉(zhuǎn)換參數(shù)將兩個(gè)點(diǎn)云進(jìn)行對(duì)齊的研究任務(wù)。在實(shí)際應(yīng)用中,由于掃描設(shè)備等一些原因,多數(shù)情況下所獲得的點(diǎn)云并不是完整的,或許會(huì)存在殘缺,對(duì)于殘缺點(diǎn)云進(jìn)行配準(zhǔn)的研究是必要的。與完整點(diǎn)云配準(zhǔn)相比,殘缺點(diǎn)云的配準(zhǔn)通過(guò)檢測(cè)源點(diǎn)云與目標(biāo)點(diǎn)云的稀疏關(guān)鍵點(diǎn)來(lái)計(jì)算兩個(gè)點(diǎn)云的對(duì)應(yīng)關(guān)系。殘缺點(diǎn)云配準(zhǔn)作為一項(xiàng)計(jì)算機(jī)視覺(jué)中的重要任務(wù),被廣泛應(yīng)用于許多應(yīng)用中,如自動(dòng)駕駛汽車(chē)[1]、醫(yī)學(xué)圖像[2]和3D圖形表示[3]等。

      近年來(lái),點(diǎn)云配準(zhǔn)任務(wù)的算法通過(guò)使用視覺(jué)、圖形和優(yōu)化機(jī)制得到了穩(wěn)步改進(jìn)。ICP(iterative closest point)[4]作為早期算法,由于其簡(jiǎn)單性以及計(jì)算復(fù)雜度較低等優(yōu)點(diǎn),成為配準(zhǔn)任務(wù)當(dāng)中最經(jīng)典的方法。然而,ICP可能會(huì)陷入局部最優(yōu),且遇到異常值時(shí)其配準(zhǔn)能力會(huì)顯著下降。為了緩解這些問(wèn)題,許多算法對(duì)ICP進(jìn)行了優(yōu)化。文獻(xiàn)[5-6]提出將概率的方法應(yīng)用到ICP當(dāng)中,處理配準(zhǔn)當(dāng)中的不確定性。文獻(xiàn)[7-8]提出全局配準(zhǔn)模型,緩解產(chǎn)生的局部最優(yōu)問(wèn)題。文獻(xiàn)[9]將Levenberg-Marquardt算法應(yīng)用到ICP目標(biāo)中,提高了模型的魯棒性。文獻(xiàn)[10]將DNT(normal distribution transform)與ICP相結(jié)合對(duì)點(diǎn)云位姿進(jìn)行精確的估計(jì)。然而,這些方法通常比經(jīng)典的ICP慢幾個(gè)數(shù)量級(jí),并且有些方法具有必須逐個(gè)調(diào)整的超參數(shù)。因此,這些傳統(tǒng)算法難以達(dá)到效率與效益的平衡,實(shí)用性不高。

      隨著深度學(xué)習(xí)的火熱與快速發(fā)展,基于卷積神經(jīng)網(wǎng)絡(luò)的配準(zhǔn)算法取得了突破性的進(jìn)步。這些算法顯示,即使在不同的數(shù)據(jù)集上,基于深度學(xué)習(xí)的配準(zhǔn)算法不論是速度還是魯棒性上都優(yōu)于傳統(tǒng)算法。文獻(xiàn)[11]提出了PointNetLK,該模型將PointNet[12]與Lucas & Kanade算法[13]整合到網(wǎng)絡(luò)中來(lái)處理完整的點(diǎn)云,提高了點(diǎn)云的置換不變性。但是由于點(diǎn)云存在無(wú)序性等問(wèn)題,對(duì)于點(diǎn)云特征的有效提取成為點(diǎn)云配準(zhǔn)當(dāng)中至關(guān)重要的一步。文獻(xiàn)[14]提出DCP(deep closest point)模型,代替PointNet,該模型采用動(dòng)態(tài)圖卷積網(wǎng)絡(luò)(dynamic graph convolutional neural network,DGCNN)[15]對(duì)點(diǎn)云進(jìn)行特征提取,這種提取方式將動(dòng)態(tài)邊緣卷積的思想應(yīng)用到點(diǎn)云中,很大程度緩解了輸入點(diǎn)云無(wú)序性的問(wèn)題。此外,使用奇異值分解[16]來(lái)獲取轉(zhuǎn)換參數(shù)。值得注意的是,PointNetLK與DCP只適用于處理完整的點(diǎn)云,并不適用于處理殘缺點(diǎn)云。因此,一些網(wǎng)絡(luò)被提出解決此問(wèn)題。PRNet[17]在DCP的基礎(chǔ)上,通過(guò)使用關(guān)鍵點(diǎn)檢測(cè)模塊與Gumbel-Softmax[18]處理點(diǎn)云配準(zhǔn)問(wèn)題。IDAM(iterative distance-aware similarity matrix convolution network)[19]通過(guò)融合幾何特征與點(diǎn)對(duì)之間的歐幾里德偏移學(xué)習(xí)匹配點(diǎn),克服了簡(jiǎn)單取特征向量?jī)?nèi)積進(jìn)行匹配的缺點(diǎn)。此外,F(xiàn)MR(feature-metric registration)[20]利用最小化源點(diǎn)云與目標(biāo)點(diǎn)云之間的對(duì)齊誤差(如倒角距離)來(lái)學(xué)習(xí)轉(zhuǎn)換參數(shù)進(jìn)行配準(zhǔn)。文獻(xiàn)[21]將修改后的LPDNet與注意力機(jī)制整合到一起解決殘缺點(diǎn)云配準(zhǔn)任務(wù)。然而,現(xiàn)存的基于學(xué)習(xí)的方法提取到的特征并不能細(xì)節(jié)地表示點(diǎn)云,而且離群點(diǎn)對(duì)于殘缺點(diǎn)云的影響也沒(méi)有被考慮到,這些對(duì)于提高點(diǎn)云配準(zhǔn)精度是至關(guān)重要的。

      為了解決上述問(wèn)題,本文設(shè)計(jì)了一個(gè)基于深度學(xué)習(xí)的殘缺點(diǎn)云配準(zhǔn)網(wǎng)絡(luò)。該網(wǎng)絡(luò)主要包含膨脹圖卷積塊、密集連接與離群點(diǎn)過(guò)濾模塊三部分。首先,借鑒膨脹卷積的思想,將其應(yīng)用到圖卷積中構(gòu)成膨脹圖卷積塊。該塊通過(guò)逐步增加膨脹率,使得網(wǎng)絡(luò)在不降低分辨率的同時(shí)逐漸增加對(duì)于點(diǎn)云的感受野,增強(qiáng)網(wǎng)絡(luò)學(xué)習(xí)點(diǎn)云幾何表示的能力。其次,對(duì)于膨脹圖卷積塊的輸出,使用密集連接形式對(duì)這些輸出執(zhí)行跳層連接,融合不同層輸出的特征,進(jìn)一步增強(qiáng)特征表示能力。將密集連接與膨脹圖卷積構(gòu)成的模塊稱(chēng)為密集膨脹圖卷積模塊。最后,構(gòu)造了一個(gè)基于深度網(wǎng)絡(luò)與標(biāo)準(zhǔn)化相結(jié)合的離群點(diǎn)過(guò)濾模塊。該模塊將點(diǎn)對(duì)應(yīng)關(guān)系看作一個(gè)分類(lèi)問(wèn)題,通過(guò)對(duì)點(diǎn)對(duì)進(jìn)行標(biāo)準(zhǔn)化進(jìn)而輸出對(duì)應(yīng)的權(quán)重來(lái)過(guò)濾掉不匹配的點(diǎn)對(duì)。此外,對(duì)于所獲得的權(quán)重,使用它來(lái)對(duì)配準(zhǔn)模型進(jìn)行加權(quán)增強(qiáng)模型的魯棒性。

      1 模型介紹

      本文將首先描述關(guān)于點(diǎn)云配準(zhǔn)問(wèn)題的預(yù)備知識(shí),然后再分別介紹密集膨脹圖卷積模塊、關(guān)鍵點(diǎn)檢測(cè)模塊、離群點(diǎn)過(guò)濾模塊和奇異值分解模塊,最后介紹網(wǎng)絡(luò)所使用的損失函數(shù)。

      1.1 點(diǎn)云配準(zhǔn)方法描述

      記源點(diǎn)云為X={xi∈?3|i=1,2,…,N},目標(biāo)點(diǎn)云為Y={yj∈?3|j=1,2,…,M},其中N與M分別代表X與Y的個(gè)數(shù),xi與yj分別代表X與Y中第i與第j個(gè)點(diǎn)的特征向量,?3代表原始點(diǎn)云的特征維度為3維。點(diǎn)云配準(zhǔn)的任務(wù)就是通過(guò)計(jì)算兩個(gè)點(diǎn)云之間的最優(yōu)轉(zhuǎn)換參數(shù)(旋轉(zhuǎn)矩陣R∈SO(3)與平移向量t∈?3)配準(zhǔn)兩個(gè)點(diǎn)云[17]:

      其中,ym(xi)是點(diǎn)xi在目標(biāo)點(diǎn)云Y中對(duì)應(yīng)的點(diǎn)。

      本文提出的整體網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。首先,對(duì)于X與Y,使用密集膨脹圖卷積模塊提取豐富的細(xì)粒度特征。然后,將X與Y的高維特征與原始三維特征分別輸入到關(guān)鍵點(diǎn)檢測(cè)模塊[17]中獲得P個(gè)關(guān)鍵點(diǎn)。之后,利用所獲得的X與Y各自的P個(gè)關(guān)鍵點(diǎn),使用離群點(diǎn)過(guò)濾模塊計(jì)算它們之間的對(duì)應(yīng)關(guān)系權(quán)重。最后,將權(quán)重輸入到奇異值分解模塊獲得所需要的轉(zhuǎn)換參數(shù)。至此,完成了一次迭代,獲得最優(yōu)轉(zhuǎn)換參數(shù)需要將圖1所示網(wǎng)絡(luò)進(jìn)行n次迭代。每次迭代轉(zhuǎn)換參數(shù)之間的關(guān)系可以用下列公式表示:

      每經(jīng)過(guò)一次迭代,源點(diǎn)云就會(huì)進(jìn)行一次位姿轉(zhuǎn)換:

      1.2 密集膨脹圖卷積模塊

      密集膨脹圖卷積模塊如圖2所示,其由4個(gè)膨脹圖卷積塊(dilated graph convolution block,DGCB)組成,并使用密集連接(DenseNet,DN)將DGCB得到的特征進(jìn)行跳層連接。

      1.2.1 膨脹圖卷積塊

      DGCB如圖3所示。源點(diǎn)云X與目標(biāo)點(diǎn)云Y都要經(jīng)過(guò)DGCB模塊進(jìn)行特征提取,因此以X為例介紹DGCB流程。對(duì)于每一個(gè)DGCB,首先對(duì)輸入點(diǎn)云利用膨脹KNN[22]構(gòu)建圖G={V,E},其中V表示N個(gè)頂點(diǎn)的特征集合,記為V={xi∈?din|i=1,2,…,N},din表示輸入維度,每層DGCB的輸入維度分別為3、64、64、64。E={Ei∈?k×din|i=1,2,…,N}表示邊特征集合,其中Ei={eij∈?din|j=1,2,…,k}代表每個(gè)點(diǎn)的邊特征集合,k代表選取的近鄰點(diǎn)的個(gè)數(shù)。每個(gè)點(diǎn)的第k個(gè)邊可以表示為:

      其中,xik為點(diǎn)xi利用歐氏距離尋找出的第k個(gè)近鄰點(diǎn)。與普通KNN不同,如果要使用頂點(diǎn)與k個(gè)近鄰點(diǎn)構(gòu)建圖的話,膨脹KNN要先找尋k×r個(gè)近鄰點(diǎn)(xi1,xi2,…,xi(k×r)),r為膨脹率。為了逐漸增加感受野,設(shè)置每層r的值分別為1、2、3、4。尋找k×r個(gè)近鄰點(diǎn)后,再每隔r個(gè)點(diǎn)選取一個(gè)構(gòu)圖所需要的點(diǎn),選取的點(diǎn)可以表示為(xi1,xi(1+r),…,xi(1+(k-1)×r))。

      圖4 可視化了膨脹KNN(r=2)與普通KNN的區(qū)別。經(jīng)過(guò)膨脹KNN后,點(diǎn)xi的局部鄰域圖特征ji可以用下列公式表示:

      其中Conv(·)代表1×1卷積層,maxpool(·)代表最大池化,gi的輸出維度為dout,每層DGCB的dout均為64。

      1.2.2 密集連接

      為了加強(qiáng)特征的傳遞,更有效地利用特征,使用了密集連接[23]對(duì)膨脹圖卷積的輸出進(jìn)行融合。l表示點(diǎn)xi經(jīng)過(guò)DGCB的層數(shù)(本文設(shè)置層數(shù)l為4),第l+1層的輸出可以表示為:

      其中,Gl代表經(jīng)過(guò)第l層的特征輸出,dl(·)代表第l層

      DGCB。

      最終,將每層DGCB的輸出進(jìn)行級(jí)聯(lián)操作并且經(jīng)過(guò)1×1卷積得到密集膨脹圖卷積模塊的輸出Gzong:

      其中,Gzong的維度為N×512。

      1.3 關(guān)鍵點(diǎn)檢測(cè)模塊

      為了將不同點(diǎn)數(shù)的兩個(gè)點(diǎn)云進(jìn)行配準(zhǔn),關(guān)鍵點(diǎn)檢測(cè)模塊被放置在密集膨脹圖卷積模塊后用于點(diǎn)云稀疏表示的獲得,該模塊通過(guò)觀察特征的L2規(guī)范表明一個(gè)點(diǎn)是否重要。使用XP與YP表示源點(diǎn)云與目標(biāo)點(diǎn)云通過(guò)關(guān)鍵點(diǎn)檢測(cè)模塊檢測(cè)的P個(gè)關(guān)鍵點(diǎn)的集合,表示為:

      其中,topP(·)表示選擇給定輸入的P個(gè)最大元素的索引,Gxzong與Gyzong表示源點(diǎn)云與目標(biāo)點(diǎn)云經(jīng)過(guò)密集膨脹圖卷積模塊的輸出,‖·‖2表示L2規(guī)范。

      1.4 離群點(diǎn)過(guò)濾模塊

      盡管關(guān)鍵點(diǎn)檢測(cè)模塊可以提取源點(diǎn)云X與目標(biāo)點(diǎn)云Y中更利于匹配的關(guān)鍵點(diǎn),但是在關(guān)鍵點(diǎn)集合XP與YP中仍然存在沒(méi)有對(duì)應(yīng)關(guān)系的點(diǎn),這些點(diǎn)稱(chēng)為離群點(diǎn)。為了防止這些離群點(diǎn)對(duì)于配準(zhǔn)的影響,本文使用了基于深度神經(jīng)網(wǎng)絡(luò)的離群點(diǎn)過(guò)濾模塊,該模塊是對(duì)于2D離群點(diǎn)過(guò)濾網(wǎng)絡(luò)的擴(kuò)展。模塊的輸入是假定的對(duì)應(yīng)關(guān)系,該對(duì)應(yīng)關(guān)系通過(guò)對(duì)關(guān)鍵點(diǎn)檢測(cè)模塊輸出的三維特征進(jìn)行級(jí)聯(lián)操作得到,記為Z={zi∈?6|i=1,2,…,P}。模塊的輸出為輸入點(diǎn)對(duì)所對(duì)應(yīng)的權(quán)值,記為w。為了增強(qiáng)配準(zhǔn)模型的魯棒性,將其加入式(1)中來(lái)獲得封閉形式的解:

      其中,wi的取值范圍為0~1,當(dāng)其值為0時(shí),xi與ym(xi)為離群點(diǎn),值越大點(diǎn)對(duì)匹配度越高。式(10)的求解過(guò)程將在奇異值分解模塊中詳細(xì)展開(kāi)。文獻(xiàn)[24]指出,利用適當(dāng)?shù)臉?biāo)準(zhǔn)化可以有效地過(guò)濾掉離群點(diǎn),因此對(duì)現(xiàn)存的標(biāo)準(zhǔn)化[24-25]進(jìn)行了擴(kuò)展,使其可以應(yīng)用到處理點(diǎn)云配準(zhǔn)任務(wù)當(dāng)中。所提出的離群點(diǎn)過(guò)濾模塊如圖5所示,該模塊由兩個(gè)殘差塊1與一個(gè)殘差塊2構(gòu)成。

      模塊將兩個(gè)點(diǎn)上下文標(biāo)準(zhǔn)化模塊(point context normalization,PCN)進(jìn)行串聯(lián),并執(zhí)行跳層連接融合底層特征來(lái)構(gòu)成殘差塊1。其中所使用的單例標(biāo)準(zhǔn)化(instance normalization,Instance Norm)[26]被用來(lái)編碼全局上下文信息,使用統(tǒng)計(jì)數(shù)據(jù)對(duì)每個(gè)點(diǎn)對(duì)進(jìn)行處理,并嵌入全局信息,可以很大程度上提高性能。批標(biāo)準(zhǔn)化(batch normalization,Batch Norm)[27]被用來(lái)加快網(wǎng)絡(luò)的收斂速度。其次,還使用1×1卷積將特征映射的分布標(biāo)準(zhǔn)化到所有的點(diǎn)對(duì)中。殘差塊1的輸出zr1i可以表示為:

      其中,PCN2(·)表示兩層PCN。

      與殘差塊1類(lèi)似,殘差塊2由兩個(gè)注意力上下文標(biāo)準(zhǔn)化(attentive context normalization,ACN)與一個(gè)跳層連接構(gòu)成。對(duì)于殘差塊1的輸出zr1i,分別利用局部與全局兩種注意力機(jī)制獲取clocali與cglobali:

      可以觀察到,式(12)中的局部注意力機(jī)制獨(dú)立的作用于zr1i,而式(13)中的全局注意力機(jī)制將zr1i與其他點(diǎn)云對(duì)進(jìn)行了集合。此外,為了同時(shí)考慮到多種注意力,將兩種權(quán)重進(jìn)行簡(jiǎn)單的結(jié)合得到點(diǎn)云對(duì)自身的自權(quán)重czongi:

      對(duì)于所獲得的czongi,使用μc(zr1i)和σc(zr1i)表示zr1i的加權(quán)平均值和標(biāo)準(zhǔn)差,注意力標(biāo)準(zhǔn)化(Attentive Norm)可用以下公式表示:

      使用ACN2(·)表示兩層ACN,則殘差塊2的輸出zr2i可以表示為:

      對(duì)于輸入點(diǎn)云對(duì),對(duì)應(yīng)的權(quán)值w可以通過(guò)以下公式得到:

      其中,tanh(·)表示雙曲正切激活函數(shù),ReLU(·)表示整流線性單元激活函數(shù)。

      1.5 奇異值分解模塊

      為了獲得最優(yōu)的旋轉(zhuǎn)參數(shù)與平移參數(shù),本文選擇使用奇異值分解模塊。奇異值分解模塊的輸入為關(guān)鍵點(diǎn)檢測(cè)模塊的輸出XP、YP與離群點(diǎn)過(guò)濾模塊的輸出w。首先,使用Gumbel-Softmax獲得點(diǎn)云YP中xi的對(duì)應(yīng)點(diǎn)ym(xi)。利用w,可以通過(guò)下列公式計(jì)算xi和ym(xi)的加權(quán)中心:

      加權(quán)協(xié)方差矩陣S為:

      其中,W=diag(w1,w2,…,wP)。在經(jīng)過(guò)奇異值分解后:

      可以得出轉(zhuǎn)換參數(shù)R與t,表示為:

      1.6 損失函數(shù)

      本文的損失函數(shù)共包含兩部分:周期一致性損失Lcn與全局特征對(duì)齊損失Lng。

      使用Rnxy、txn y表示從點(diǎn)云X到點(diǎn)云Y的轉(zhuǎn)換參數(shù),Rnyx、tyn x表示從點(diǎn)云Y到點(diǎn)云X的轉(zhuǎn)換參數(shù),則Lnc表示為:

      其中,Ψxn、Ψyn是對(duì)Gxzong與Gyzong進(jìn)行平均池化得到。由此,最終的損失函數(shù)可以表示為:

      在訓(xùn)練期間,將源點(diǎn)云與目標(biāo)點(diǎn)云輸入到所提出的配準(zhǔn)網(wǎng)絡(luò)n次,即進(jìn)行n次迭代。

      2 實(shí)驗(yàn)結(jié)果與分析

      2.1 實(shí)驗(yàn)數(shù)據(jù)與設(shè)置

      本文選用三個(gè)數(shù)據(jù)集評(píng)估本文所提出的DORNet(dilated graph convolution and outlier filtering for partial registration network)模型的性能,這三個(gè)數(shù)據(jù)集為ModelNet40[28]、ShapeNetCore[29]與Real Data[30]。首先,采樣含有1 024個(gè)點(diǎn)的源點(diǎn)云X。之后,沿著每個(gè)軸,使源點(diǎn)云隨機(jī)進(jìn)行剛性變換生成目標(biāo)點(diǎn)云Y,每個(gè)軸的旋轉(zhuǎn)范圍為[0,45],平移范圍為[-0.5,0.5]。之后,通過(guò)在X與Y中隨機(jī)選取一個(gè)點(diǎn)并獲取其最近點(diǎn)的768個(gè)點(diǎn)來(lái)模擬殘缺點(diǎn)云。

      本文將DORNet與ICP、Go-ICP、FGR(fast global registration)、PointNetLK、DCP、PRNet、FMR、IDAM與LPD-Pose-Iter進(jìn)行了比較。實(shí)驗(yàn)所使用的配置如表1所示。

      表1 實(shí)驗(yàn)配置Table 1 Experimental configuration

      對(duì)于ModelNet40數(shù)據(jù)集與ShapeNetCore數(shù)據(jù)集,本文設(shè)置初始學(xué)習(xí)率與epoch分別為0.001和100。在epoch分別為30、60、80時(shí),學(xué)習(xí)率除以10。對(duì)于Real Data數(shù)據(jù)集,由于模型較少,將學(xué)習(xí)率與epoch分別設(shè)置為0.000 1和50,學(xué)習(xí)率在epoch為30時(shí)除以10。在訓(xùn)練過(guò)程中取迭代次數(shù)n為3,即X和Y都會(huì)迭代地通過(guò)DORNet傳遞3次(X的位姿會(huì)更新3次,更新所需要的轉(zhuǎn)換參數(shù)見(jiàn)式(3))。

      為了便于比較性能,本文計(jì)算了旋轉(zhuǎn)參數(shù)R和平移參數(shù)t的真實(shí)值和估計(jì)值之間的均方誤差(mean square error,MSE)、均方根誤差(root mean square error,RMSE)、平均絕對(duì)誤差(mean absolute error,MAE)和擬合系數(shù)(coefficient of determination,R2)。對(duì)于擬合系數(shù)來(lái)說(shuō),數(shù)值越接近于1,模型擬合度越好。除了擬合系數(shù),其余指標(biāo)數(shù)值越低,代表模型配準(zhǔn)效果越好。

      2.2 對(duì)比實(shí)驗(yàn)

      2.2.1針對(duì)ModelNet40數(shù)據(jù)集的配準(zhǔn)實(shí)驗(yàn)

      ModelNet40數(shù)據(jù)集包含40個(gè)類(lèi)別,共計(jì)12 311個(gè)計(jì)算機(jī)輔助設(shè)計(jì)(computer aided design,CAD)模型。為了驗(yàn)證DORNet的有效性、廣泛性以及魯棒性,在ModelNet40數(shù)據(jù)集上分別進(jìn)行三種不同的實(shí)驗(yàn):模型類(lèi)別已知的配準(zhǔn)實(shí)驗(yàn)、模型類(lèi)別未知的配準(zhǔn)實(shí)驗(yàn)和添加高斯噪聲的配準(zhǔn)實(shí)驗(yàn)。

      2.2.1.1 模型類(lèi)別已知的配準(zhǔn)實(shí)驗(yàn)

      模型類(lèi)別已知是指訓(xùn)練使用的模型類(lèi)別與測(cè)試使用的模型類(lèi)別一致。在實(shí)驗(yàn)中,將ModelNet40數(shù)據(jù)集中9 843個(gè)模型用于訓(xùn)練,剩下的2 468個(gè)模型用作測(cè)試。實(shí)驗(yàn)結(jié)果如表2所示。指標(biāo)后加R代表使用旋轉(zhuǎn)參數(shù)的估計(jì)精度,指標(biāo)后加t代表使用平移參數(shù)的估計(jì)精度。↓代表計(jì)算所得數(shù)值越低效果最佳,反之使用↑。為了便于觀察模型的性能,將最佳結(jié)果使用加粗的形式來(lái)突出顯示。可以看出,本文的網(wǎng)絡(luò)無(wú)論是在旋轉(zhuǎn)參數(shù)R還是平移參數(shù)t上的誤差明顯低于其他模型。圖6顯示了經(jīng)過(guò)DORNet配準(zhǔn)的殘缺點(diǎn)云示例,紅色點(diǎn)為源點(diǎn)云,藍(lán)色點(diǎn)為目標(biāo)點(diǎn)云。第一行與第二行分別為配準(zhǔn)前與經(jīng)過(guò)DORNet配準(zhǔn)后的結(jié)果。可以清楚地看出,經(jīng)過(guò)DORNet配準(zhǔn)后的點(diǎn)云,多數(shù)點(diǎn)都可以正確匹配。

      2.2.1.2 模型類(lèi)別未知的配準(zhǔn)實(shí)驗(yàn)

      模型類(lèi)別未知是指訓(xùn)練使用的模型類(lèi)別與測(cè)試使用的模型類(lèi)別不一致。本文將ModelNet40數(shù)據(jù)劃分為兩部分,取其中的20個(gè)類(lèi)別作為訓(xùn)練,其余的20個(gè)類(lèi)別作為測(cè)試。表3列出了DORNet與其他模型比較的結(jié)果。從表3中可以看出,由于訓(xùn)練使用的模型與測(cè)試使用的模型屬于不同類(lèi)別,與模型類(lèi)型已知的結(jié)果相比,模型配準(zhǔn)性能有所下降。但所提出的算法的精度仍為最優(yōu)異的,這驗(yàn)證了所提出模型的泛化性。

      表2類(lèi)別已知的殘缺點(diǎn)云配準(zhǔn)實(shí)驗(yàn)結(jié)果Table 2 Experimental results of partial point cloud registration with known categories

      表3類(lèi)別未知的殘缺點(diǎn)云配準(zhǔn)實(shí)驗(yàn)結(jié)果Table 3 Experimental results of partial point cloud registration with unknown categories

      2.2.1.3 添加高斯噪聲的配準(zhǔn)實(shí)驗(yàn)

      在真實(shí)場(chǎng)景中,由于掃描設(shè)備的誤差,對(duì)所獲得模型有一定的影響。使用添加高斯噪聲的實(shí)驗(yàn)來(lái)模擬這一情況,所添加的高斯噪聲的均值為0,方差為0.01,縮放范圍為[-0.05,0.05]。模型添加高斯噪聲前后的對(duì)比如圖7所示。左邊為添加高斯噪聲前的可視化結(jié)果,右邊為添加高斯噪聲后的可視化結(jié)果。實(shí)驗(yàn)結(jié)果如表4所示,可以明顯地看出,各項(xiàng)性能指標(biāo)相比表2,所有模型的性能相較于沒(méi)有添加高斯噪聲的實(shí)驗(yàn)性能有所下降,但是本文模型的實(shí)驗(yàn)誤差仍然低于其他模型。這是由于所使用的離群點(diǎn)過(guò)濾模塊給予不匹配的點(diǎn)對(duì)低權(quán)重,降低它們?cè)谂錅?zhǔn)過(guò)程中的重要性,這使得DORNet在面對(duì)添加高斯噪聲的影響時(shí)更具有魯棒性。

      2.2.2 針對(duì)ShapeNetCore數(shù)據(jù)集的配準(zhǔn)實(shí)驗(yàn)

      為了進(jìn)一步驗(yàn)證模型的配準(zhǔn)能力,本文選擇了數(shù)據(jù)量大于ModelNet40的數(shù)據(jù)集ShapeNetCore來(lái)進(jìn)行實(shí)驗(yàn)。該數(shù)據(jù)集包含來(lái)自55個(gè)類(lèi)別的51 127個(gè)預(yù)對(duì)齊模型。本文使用35 708個(gè)模型用于訓(xùn)練,15 419個(gè)模型用于測(cè)試,將DORNet與在ModelNet40數(shù)據(jù)集上相較于其他模型表現(xiàn)較好的PRNet、IDAM與LPD-Pose-Iter進(jìn)行比對(duì)。表5顯示了配準(zhǔn)結(jié)果,可以明顯地看到,DORNet在每個(gè)指標(biāo)上的結(jié)果都優(yōu)于其他三種算法。

      表5 ShapeNetCore數(shù)據(jù)集的殘缺點(diǎn)云配準(zhǔn)結(jié)果Table 5 Experimental results of partial point cloud registration on ShapeNetCore dataset

      2.2.3 針對(duì)Real Data數(shù)據(jù)集的配準(zhǔn)實(shí)驗(yàn)

      本文還利用Real Data數(shù)據(jù)集中的Stanford Bunny(斯坦福兔子)對(duì)模型進(jìn)行了測(cè)試,該數(shù)據(jù)中僅包含由傳感器掃描得到的10個(gè)真實(shí)點(diǎn)云數(shù)據(jù)。與ModelNet40數(shù)據(jù)集與ShapeNetCore數(shù)據(jù)集中的點(diǎn)云數(shù)據(jù)相比,該數(shù)據(jù)集中的點(diǎn)云分布并不均勻,因此在Stanford Bunny上的配準(zhǔn)實(shí)驗(yàn)更具有挑戰(zhàn)性。圖8顯示了配準(zhǔn)結(jié)果。左邊為配準(zhǔn)前的點(diǎn)云,右邊為配準(zhǔn)后的點(diǎn)云。此外,值得一提的是,本文并未在Stanford Bunny上進(jìn)行訓(xùn)練,而是使用在ModelNet40數(shù)據(jù)集模型類(lèi)別已知配準(zhǔn)實(shí)驗(yàn)中所獲得的模型直接進(jìn)行測(cè)試,這進(jìn)一步說(shuō)明了DORNet的泛化能力。

      2.3 消融實(shí)驗(yàn)

      為了驗(yàn)證模型每個(gè)模塊的有效性,在ModelNet40模型類(lèi)別未知的數(shù)據(jù)集上進(jìn)行了有關(guān)殘缺點(diǎn)云配準(zhǔn)的消融實(shí)驗(yàn)。本文模型包含三個(gè)重要組成部分:膨脹圖卷積塊(DGCB)、密集連接(DN)與離群點(diǎn)過(guò)濾模塊(OFM)。將消融實(shí)驗(yàn)分為以下幾個(gè)部分:

      表4帶有高斯噪聲的殘缺點(diǎn)云配準(zhǔn)實(shí)驗(yàn)結(jié)果Table 4 Experimental results of partial point cloud registration with Gaussian noise

      (1)DORNet:網(wǎng)絡(luò)包含上述三個(gè)組成部分,即所提出的完整網(wǎng)絡(luò)。

      (2)DORNet w/o DN:在密集膨脹圖卷積中,不使用密集連接網(wǎng)絡(luò)來(lái)處理DGCB的輸出。使用完整的離群點(diǎn)過(guò)濾模塊過(guò)濾離群點(diǎn)。

      (3)DORNet w/o DN&DGCB:在密集膨脹圖卷積模塊中,使用簡(jiǎn)單的KNN生成圖特征,且不使用密集連接。使用完整的離群點(diǎn)過(guò)濾模塊過(guò)濾離群點(diǎn)。

      (4)DORNet w/o DN&DGCB&R1:在密集膨脹圖卷積模塊中,使用簡(jiǎn)單的KNN生成圖特征,且不使用密集連接。在離群點(diǎn)過(guò)濾模塊中,去除殘差塊1(R1),即僅使用殘差塊2(R2)過(guò)濾離群點(diǎn)。

      (5)DORNet w/o DN&DGCB&R2:在密集膨脹圖卷積模塊中,使用簡(jiǎn)單的KNN生成圖特征,且不使用密集連接。在離群點(diǎn)過(guò)濾模塊中,去除殘差塊2(R2),即僅使用殘差塊1(R1)過(guò)濾離群點(diǎn)。

      (6)DORNet w/o D&DGCB&OFM:在密集膨脹圖卷積模塊中,使用簡(jiǎn)單的KNN來(lái)生成圖特征,且不使用密集連接。不使用離群點(diǎn)過(guò)濾模塊過(guò)濾離群點(diǎn)。

      表6顯示了消融實(shí)驗(yàn)的結(jié)果。除了在對(duì)比實(shí)驗(yàn)中所用的4個(gè)指標(biāo),本文增加了一個(gè)衡量網(wǎng)絡(luò)效率的指標(biāo)Time??梢钥闯?,隨著模塊的減少實(shí)驗(yàn)精度不斷下降,說(shuō)明每個(gè)模塊都可以提高模型的配準(zhǔn)性能。此外,在DORNet w/o DN&DGCB中,即不使用密集膨脹圖卷積模塊時(shí),與完整的DORNet相比,網(wǎng)絡(luò)的配準(zhǔn)性能會(huì)大幅度下降。以旋轉(zhuǎn)參數(shù)相關(guān)指標(biāo)舉例,DORNet與DORNet w/o DN&DGCB相比,MSE、RMSE與MAE的誤差分別減小了230%、80%與90%,而速度僅下降了10%。這說(shuō)明所使用的密集膨脹圖卷積模塊對(duì)于網(wǎng)絡(luò)是具有正向意義的。此外,DORNet w/o DN的實(shí)驗(yàn)結(jié)果也表明對(duì)膨脹圖卷積的輸出進(jìn)行密集連接,在一定程度上提高了網(wǎng)絡(luò)配準(zhǔn)殘缺點(diǎn)云的精度。最后,為了驗(yàn)證離群點(diǎn)過(guò)濾模塊的合理性與有效性,提供了DORNet w/o DN&DGCB&R1、DORNet w/o DN&DGCB&R2與DORNet w/o DN&DGCB&OFM的實(shí)驗(yàn)結(jié)果??梢钥闯?,去掉殘差塊1或者殘差塊2的離群點(diǎn)模塊,相比DORNet w/o DN&DGCB(使用完整的離群點(diǎn)過(guò)濾模塊)配準(zhǔn)誤差均有所上升,且誤差均低于DORNet w/o DN&DGCB&OFM(不使用離群點(diǎn)過(guò)濾模塊),這驗(yàn)證了所提出離群點(diǎn)過(guò)濾模塊的合理性。其次,也提供了離群點(diǎn)過(guò)濾模塊過(guò)濾離群點(diǎn)的可視化結(jié)果,如圖9所示,綠色線連接的點(diǎn)對(duì)為過(guò)濾的離群點(diǎn)。從圖中可以看出,相比于去掉離群點(diǎn)過(guò)濾模塊中的殘差塊1(DFM w/o R1)與去掉離群點(diǎn)過(guò)濾模塊中的殘差塊2(OFM w/o R2),完整的離群點(diǎn)過(guò)濾模塊可以過(guò)濾掉更多的離群點(diǎn),這進(jìn)一步說(shuō)明了離群點(diǎn)過(guò)濾模塊的有效性。

      表6 類(lèi)別未知的殘缺點(diǎn)云配準(zhǔn)消融實(shí)驗(yàn)結(jié)果Table 6 Ablation experimental results of partial point cloud registration with unknown categories

      3 結(jié)束語(yǔ)

      針對(duì)殘缺點(diǎn)云配準(zhǔn),本文提出了DORNet網(wǎng)絡(luò)。一方面,利用密集連接與膨脹圖卷積塊構(gòu)成的密集膨脹圖卷積模塊有效地提取點(diǎn)云的細(xì)粒度特征。另一方面,利用基于深度網(wǎng)絡(luò)與標(biāo)準(zhǔn)化相結(jié)合的離群點(diǎn)過(guò)濾模塊,根據(jù)輸出點(diǎn)對(duì)不同的對(duì)應(yīng)權(quán)重過(guò)濾掉不匹配的點(diǎn)對(duì)。最后,將點(diǎn)對(duì)權(quán)重加入奇異值分解模塊獲得配準(zhǔn)殘缺點(diǎn)云所需要的轉(zhuǎn)換參數(shù)。在ModelNet40、ShapeNetCore以及Real Data數(shù)據(jù)集上進(jìn)行配準(zhǔn)實(shí)驗(yàn),結(jié)果表明了所提出的網(wǎng)絡(luò)不僅具有良好的魯棒性,也具有一定的泛化能力。

      猜你喜歡
      離群密集類(lèi)別
      耕地保護(hù)政策密集出臺(tái)
      密集恐懼癥
      離群數(shù)據(jù)挖掘在發(fā)現(xiàn)房產(chǎn)銷(xiāo)售潛在客戶(hù)中的應(yīng)用
      服務(wù)類(lèi)別
      離群的小雞
      歐盟等一大波家電新標(biāo)準(zhǔn)密集來(lái)襲
      論類(lèi)別股東會(huì)
      商事法論集(2014年1期)2014-06-27 01:20:42
      應(yīng)用相似度測(cè)量的圖離群點(diǎn)檢測(cè)方法
      中醫(yī)類(lèi)別全科醫(yī)師培養(yǎng)模式的探討
      一種基于核空間局部離群因子的離群點(diǎn)挖掘方法
      南城县| 铜鼓县| 民乐县| 湘潭县| 石台县| 景东| 万州区| 新源县| 皋兰县| 麻栗坡县| 华蓥市| 镇赉县| 乐山市| 隆回县| 班玛县| 瑞昌市| 宁晋县| 周宁县| 甘洛县| 蓬溪县| 木里| 彭水| 中阳县| 山东省| 西丰县| 雅安市| 和平区| 叶城县| 卢湾区| 滨海县| 和平县| 东城区| 筠连县| 新乡市| 大足县| 措勤县| 邻水| 德钦县| 尉犁县| 宝坻区| 宁波市|