惠 宇, 武君勝,魚 濱,張 琛,武 震
(1.西北工業(yè)大學(xué) 計(jì)算機(jī)學(xué)院,陜西 西安 710072;2.西北工業(yè)大學(xué) 軟件與微電子學(xué)院,陜西 西安 710072;3.西安電子科技大學(xué) 計(jì)算機(jī)學(xué)院,陜西 西安 710072)
?
利用曲率多特征融合改進(jìn)人體三維脊椎模型特征點(diǎn)的標(biāo)注方法
惠 宇1, 武君勝2,魚 濱3,張 琛3,武 震2
(1.西北工業(yè)大學(xué) 計(jì)算機(jī)學(xué)院,陜西 西安 710072;2.西北工業(yè)大學(xué) 軟件與微電子學(xué)院,陜西 西安 710072;3.西安電子科技大學(xué) 計(jì)算機(jī)學(xué)院,陜西 西安 710072)
由于脊椎生理結(jié)構(gòu)的精準(zhǔn)坐標(biāo)描述和準(zhǔn)確匹配尚未達(dá)到醫(yī)學(xué)精度的要求, 本文對如何精確描述脊柱腰骶段特征點(diǎn)的物理坐標(biāo)進(jìn)行研究。介紹了人體脊椎采樣特征點(diǎn)的定義和傳統(tǒng)標(biāo)記方法。針對手動(dòng)標(biāo)注特征點(diǎn)精確度不夠,易產(chǎn)生較大誤差等問題提出了一種基于曲率多特征融合的自適應(yīng)標(biāo)注特征點(diǎn)的方法。該方法首先找出某個(gè)特征點(diǎn)的高斯曲率和平均曲率流的定義值,得到該特征點(diǎn)的法曲率相對極大值,并計(jì)算在指定極小半徑r范圍內(nèi)的所有模型點(diǎn)的法曲率相對極大值。由于極大值曲率越大,三維模型表面在該點(diǎn)處的彎曲程度越大,該點(diǎn)就越能表現(xiàn)三維模型的大致輪廓,故以r范圍內(nèi)極大值最大的點(diǎn)作為特征點(diǎn)的曲率描述來替換手動(dòng)拾取的點(diǎn),從而準(zhǔn)確反映該點(diǎn)的特征變化情況。最后,對改進(jìn)結(jié)果進(jìn)行偏差驗(yàn)證分析。結(jié)果表明:改進(jìn)方法的準(zhǔn)確度比現(xiàn)有手動(dòng)標(biāo)注特征點(diǎn)方法的準(zhǔn)確度提高了約37%,驗(yàn)證了本文方法的有效性。
脊椎;三維模型;特征點(diǎn)標(biāo)注;曲率多特征融合;極大值曲率
由于人體脊椎生理結(jié)構(gòu)復(fù)雜,而且考慮外科手術(shù)的自身特點(diǎn),脊椎生理結(jié)構(gòu)的精準(zhǔn)坐標(biāo)描述和準(zhǔn)確匹配仍然達(dá)不到脊椎外科手術(shù)的要求。這主要是因?yàn)榧棺的P吞卣鼽c(diǎn)的物理標(biāo)記坐標(biāo)太不精確,無法給臨床診斷提供較為可靠的科學(xué)數(shù)據(jù)。由于脊椎結(jié)構(gòu)較為復(fù)雜,鏤空切面較多,三維脊椎模型的采樣點(diǎn)標(biāo)記一直是醫(yī)學(xué)影像研究領(lǐng)域的重點(diǎn)和難點(diǎn),而國內(nèi)外在該方面的研究相對較少[1-13]。李根[2]等提出了一種基于思維進(jìn)化算法的人臉特征點(diǎn)跟蹤方法,其是通過提取人臉跟蹤區(qū)域尺度不變特征變換獲得整體特征模板,并確定跟蹤特征點(diǎn)。李康[7]提出了一種基于深度圖像的人臉三維模型特征點(diǎn)標(biāo)定方法,該方法首先生成人臉三維模型的二維深度圖像,然后采用SUSAN算子在該圖像上標(biāo)定特征點(diǎn);翟鳳文[8]提出將置信傳播與特征點(diǎn)形狀特征相結(jié)合來去除 SIFT 特征點(diǎn)的誤匹配。謝易辰[9]提出了基于三維特征點(diǎn)空間關(guān)系的三維特征點(diǎn)匹配算法,這幾種算法都是三維SIFT特征匹配算法的改進(jìn); 王瀾[10]提出一種利用共線的標(biāo)定特征點(diǎn)確定線陣相機(jī)內(nèi)參的方法,需要通過數(shù)學(xué)建模得到線陣相機(jī)的成像模型,但上述方法均是基于模型配準(zhǔn)時(shí)的尺度不變特征變換匹配原則,如果模型數(shù)據(jù)較大,則計(jì)算量也隨之變大,根本滿足不了醫(yī)學(xué)研究領(lǐng)域?qū)?shí)時(shí)性的要求;韓霜[12]等提出了基于高斯曲率的模型標(biāo)注方法,但不能極大程度地近似表述模型幾何結(jié)構(gòu)的曲率,故不能準(zhǔn)確反映模型的局部幾何特征,即方法不具備一定的自適應(yīng)力。
為了彌補(bǔ)上述方法的不足,本文提出了一種基于曲率多特征融合的自適應(yīng)標(biāo)注特征點(diǎn)的方法,該方法可以動(dòng)態(tài)調(diào)整拾取點(diǎn)曲率,因此最大程度地保證了特征點(diǎn)拾取的精確性。該方法通過高斯曲率和平均曲率流等多曲率特征,得到法曲率相對極大值,從而共同確定了曲面在某點(diǎn)的相對極大鄰域結(jié)構(gòu)特征,并通過尋找某個(gè)極小半徑區(qū)域范圍內(nèi)曲率的相對極大值點(diǎn)作為該區(qū)域的特征點(diǎn)。
脊椎模型特征點(diǎn)標(biāo)注改進(jìn)方法
2.1 特征點(diǎn)標(biāo)定
在三維圖像學(xué)中,特征點(diǎn)是指在三維模型中,用來表征局部鄰域關(guān)系及特性的,具有一定幾何意義的關(guān)鍵三維坐標(biāo)點(diǎn),特征點(diǎn)矩陣可用來存儲(chǔ)或者表示三維模型的幾何輪廓、生理特征等屬性信息。
本文根據(jù)Cootes[13]提出的標(biāo)記點(diǎn)分類定義,并借鑒在國際上得到廣泛認(rèn)同的顱腦特征點(diǎn)標(biāo)注標(biāo)準(zhǔn)MPEG-4[14](Moving Picture Experts Group)的人臉定義參數(shù)(FDP)和人體生理學(xué)脊椎特征,標(biāo)記出脊椎三維特征點(diǎn)。圖1和圖2分別是在骨骼解剖學(xué)中的脊椎腰骶段的右側(cè)面觀和上面觀特征點(diǎn)示意圖[15]。
圖1 脊椎腰骶段的右側(cè)面觀特征點(diǎn)標(biāo)記圖
Fig.1 Labeled graph of feature points in right lateral view of lumbosacral segment
圖2 脊椎腰骶段的上面觀特征點(diǎn)標(biāo)記圖
Fig.2 Labeled graph of feature points in superior aspect of lumbosacral segment
2.2 基于曲率多特征融合的特征點(diǎn)標(biāo)注改進(jìn)方法
脊椎特征點(diǎn)一般特指三維模型曲面上那些曲率較大的點(diǎn)。對于曲率較大的點(diǎn),三維模型表面在這些點(diǎn)處的彎曲程度也較大,這些點(diǎn)就能最大程度地表現(xiàn)三維模型的大致輪廓和局部模型變化,從而準(zhǔn)確反映該點(diǎn)的特征變化情況。本文首先找出某個(gè)特征點(diǎn)的高斯曲率和平均曲率流的定義值,從而得到該特征點(diǎn)的法曲率相對極大值,并計(jì)算出在指定極小半徑R范圍內(nèi)的所有模型點(diǎn)的法曲率相對最大值,并以此極大值作為特征點(diǎn)的曲率描述來替換手動(dòng)拾取的點(diǎn),采用多曲率特征融合的方法,可以最大程度地保證對該點(diǎn)的特征變化情況的描述準(zhǔn)確性。
2.2.1 三角網(wǎng)格表面的極大值曲率計(jì)算
在計(jì)算機(jī)三維圖像處理中,物體的曲面結(jié)構(gòu)都是由一簇網(wǎng)格的線性逼近值所組成的。因此,可以考慮將三角面片網(wǎng)格的每個(gè)頂點(diǎn)的度量性質(zhì)看做是此點(diǎn)局部鄰域的平均度量。
如計(jì)算圖3中點(diǎn)xi鄰域的極大曲率值,用馮洛諾伊圖(Voronoi Diagram)[16]內(nèi)有且僅含有一個(gè)的離散點(diǎn)極大值曲率來替換。
圖3 馮洛諾伊圖
假設(shè)kmax和kmin分別為曲面上一點(diǎn)處法曲率的最大值和最小值,則根據(jù)曲率定義,有:
(1)
kG=kmax·kmin.
(2)
聯(lián)立式(1)和式(2),則可以求得:
(3)
(4)
其中:kG為高斯曲率值,kH為平均曲率值。
2.2.2 三角網(wǎng)格表面的曲率偏差參數(shù)的建立
手動(dòng)標(biāo)記脊椎三維模型的相同特征點(diǎn)時(shí),由于人為的局限性,或多或少存有一定的拾取偏差,為了衡量這種偏差對標(biāo)注結(jié)果的影響,擬對拾取偏差建立偏差參數(shù)。
假設(shè)模型上的任一特征點(diǎn)的真實(shí)坐標(biāo)位置為P0(x0,y0,z0),手動(dòng)標(biāo)記該點(diǎn)3次,3次的坐標(biāo)依次記為P1(x1,y1,z1)、P2(x2,y2,z2)和P3(x3,y3,z3),P1、P2、P3均盡可能地逼近P0,由于P1、P2、P3處于相同球面上,根據(jù)定理“任意不共線的三點(diǎn)確定一個(gè)圓周”,則存在一個(gè)圓周,將P1、P2、P3這3點(diǎn)都涵蓋在內(nèi)。同時(shí),圓周直徑的大小決定著P1、P2、P3逼近P0的程度,直徑越小,逼近程度越高,反之,則越低。
因此,建立偏差參數(shù),可轉(zhuǎn)換為找出P1、P2、P3所確定的最小圓周直徑,也就是P1、P2、P3為頂點(diǎn)組成的三角形,其外接圓的直徑D。計(jì)算公式如下:
(5)
其中:e1、e2、e3為相對應(yīng)的邊長,再根據(jù)海倫公式[16]可得到三角形的面積為:
其中q=(e1+e2+e3)/2。
綜上所述,ΔP1P2P3的外接圓直徑為:
D=e1·e2·e3/2S.
(6)
當(dāng)三點(diǎn)共線時(shí),有式(7):
(7)
當(dāng)有兩點(diǎn)重合時(shí),不妨假設(shè)P1與P2重合,即e3=0,則有式(8):
D=e1=e2.
(8)
當(dāng)三點(diǎn)都重合時(shí)有式(9):
D=0.
(9)
外接圓直徑D作為一個(gè)高斯曲率偏差的參數(shù),其值決定了特征點(diǎn)的準(zhǔn)確度,值越小,表明方法拾取的點(diǎn)越集中,即更加趨近于真實(shí)特征點(diǎn),準(zhǔn)確度也越高。
2.2.3 基于曲率多特征融合的人體三維脊椎模型特征點(diǎn)標(biāo)注改進(jìn)方法描述
改進(jìn)方法以鼠標(biāo)拾取的點(diǎn)pi為圓心,計(jì)算半徑為r的圓周內(nèi)全部特征點(diǎn)的Gauss曲率值KG和平均曲率值KH,如圖3所示。再根據(jù)公式(3)得到點(diǎn)的法曲率相對極大值K。法曲率相對極大值能客觀凸顯曲面的局部幾何特征信息。一般情況下,曲率越大,曲線拐點(diǎn)信息越明確,幾何特征也越明顯,故以K所在的特征點(diǎn)替換點(diǎn)pi。
作為模型新的特征點(diǎn),利用偏差參數(shù)D來對方法優(yōu)劣進(jìn)行評價(jià)。
Step 1: 獲得脊椎三維圖像表面的結(jié)構(gòu)信息facets。
Step 2:定義各個(gè)變量的曲率KG、KH和領(lǐng)域面積AM,邊向量長度Length,角度向量Angle,并初始化。
Step 3:計(jì)算領(lǐng)域面積AM。通過遍歷,得到模型的每一個(gè)三角面片的坐標(biāo)點(diǎn)向量,從而可以計(jì)算出邊向量以及三角面片內(nèi)角度數(shù)和,調(diào)用數(shù)學(xué)計(jì)算庫函數(shù)對三角面片求積得到AM。
Step 4:遍歷計(jì)算模型上每個(gè)點(diǎn)的高斯曲率值KG。
Step 5:計(jì)算向量(e1,e2)、(e2,e0)和(e0,e1)的邊向量長度Length。
Step 6:計(jì)算三角面片Δv0v1v2的法向量n_f,及其鄰域三角面片的法向量n_n,依據(jù)點(diǎn)積公式cos=n_f*n_n,計(jì)算出n_f*n_n的點(diǎn)積cos,并且依據(jù)公式sin=(n_f*n_n)*ei=0,1,2,可得到sin值。調(diào)用atan2(sin,cos)函數(shù),獲得角度向量Angle。
Step 7:遍歷計(jì)算模型上每個(gè)點(diǎn)的平均曲率值KH。
Step 8:利用公式(3)計(jì)算得到模型上每個(gè)點(diǎn)的法曲率極大值K。
Step 9:建立頂點(diǎn)ID與其ID對應(yīng)的法曲率極大值map映射關(guān)系,計(jì)算r范圍內(nèi)的所有ID的法曲率極大值MaxK,并以此MaxK來代替鼠標(biāo)拾取的點(diǎn)pi。
Step 10:分別對每一組特征標(biāo)記點(diǎn)進(jìn)行多次標(biāo)記操作,提取每次標(biāo)記的位置屬性和相對應(yīng)的極大法曲率值K,并利用式(6)、式(7)、(8)和(9),計(jì)算每一組的偏差參數(shù),以便于后期的方法分析與評價(jià)。
驗(yàn)證實(shí)驗(yàn)在主頻為2.8 GHz的4 GB內(nèi)存雙核Intel主機(jī)上進(jìn)行,操作系統(tǒng)為Windows 7,采用MFC作為界面交互環(huán)境,需要使用第三方圖像顯示增強(qiáng)庫VTK進(jìn)行增強(qiáng)。利用以上提到的技術(shù),開發(fā)了專門的軟件用以驗(yàn)證該改進(jìn)方法。下文中的圖5、圖6和圖7及數(shù)據(jù)均來自于該軟件。
3.1 改進(jìn)方法的特征點(diǎn)標(biāo)記
對同一脊椎圖像樣本,運(yùn)用曲率多特征融合自適應(yīng)調(diào)整方法做標(biāo)記,其標(biāo)記效果如圖5所示。
圖5 高斯曲率特征點(diǎn)拾取截圖
拾取點(diǎn)為33號(hào)特征點(diǎn)。左下角顯示的數(shù)據(jù)里,前兩行為純手工選取的特征點(diǎn)坐標(biāo)及其曲率。后兩行為經(jīng)過本方法調(diào)整之后選取的特征點(diǎn)坐標(biāo)及其曲率。
3.2 改進(jìn)方法的效果評價(jià)
為證明方法的有效性和準(zhǔn)確性,做了一系列改進(jìn)前和改進(jìn)后的仿真對比試驗(yàn)。選取模型基準(zhǔn)點(diǎn)(No.1)、模型特征不凸出點(diǎn)6(No.6)、模型表面點(diǎn)(No.33)作為標(biāo)記樣本,在不同VTK繪制體面的條件下,進(jìn)行采樣標(biāo)注。結(jié)果如圖6所示。
(a)右側(cè)方位拾取
(b)左側(cè)方位拾取
(c)俯視圖方位拾取
圖6為3次實(shí)驗(yàn)的結(jié)果圖。圖中顯示的數(shù)據(jù)分別為對1號(hào)、6號(hào)和33號(hào)特征點(diǎn)進(jìn)行標(biāo)定的特征點(diǎn)坐標(biāo)及其曲率。
為了更好地進(jìn)行對比,利用改進(jìn)前方法,分別對No.1、6、33進(jìn)行鼠標(biāo)標(biāo)記,得到標(biāo)記的三維坐標(biāo)點(diǎn)和對應(yīng)的極大值曲率Kmax,再利用式(6)~式(9),可以得到偏差參數(shù),具體數(shù)值如表1所示。
表1 改進(jìn)前方法對特征點(diǎn)1、6、33的標(biāo)注情況
由數(shù)據(jù)可以看到,對位于模型表面上的基準(zhǔn)點(diǎn)(No.1),標(biāo)注誤差會(huì)偏小一些。相較不凸出的點(diǎn)(No.6),位于平滑曲面上的特征的標(biāo)注誤差則往往較大,拾取標(biāo)注偏差也較大。
為了更好地進(jìn)行對比,利用改進(jìn)后方法分別對No.1、6、33號(hào)特征點(diǎn)進(jìn)行標(biāo)記,得到標(biāo)記的三維坐標(biāo)點(diǎn)和對應(yīng)的極大值曲率Kmax,利用式(6)~式(9)可以得到偏差參數(shù),具體數(shù)值如表2所示。
運(yùn)用本文方法對相同標(biāo)記點(diǎn)在同等條件下進(jìn)行標(biāo)記,其結(jié)果如圖7所示。
(a)右側(cè)方位拾取
(b)左側(cè)方位拾取
(c)俯視圖方位拾取
圖7中顯示的數(shù)據(jù)為使用改進(jìn)后方法對模型1號(hào)、6號(hào)和33號(hào)特征點(diǎn)進(jìn)行特征修正后,標(biāo)注的特征點(diǎn)坐標(biāo)及曲率。標(biāo)記的具體參數(shù)如表2所示,利用文獻(xiàn)[12]的方法得到高斯曲率絕對值最大值KGmax,以方便對比分析。
表2 改進(jìn)后方法對特征點(diǎn)1、6、33的標(biāo)注情況
[1] 孟勃,韓廣良. 基于改進(jìn)的尺度不變特征變換特征點(diǎn)匹配的電子穩(wěn)像方法[J].計(jì)算機(jī)應(yīng)用,2012,32(10):2817-2820. MENG B,HAN G L. Electronic image stabilization method using improved scale invariant feature transform [J].JournalofComputerApplications, 2012,32(10):2817-2820.(in Chinese)
[2] 李根,李文輝. 基于思維進(jìn)化算法的人臉特征點(diǎn)跟蹤[J]. 吉林大學(xué)學(xué)報(bào)(工學(xué)版),2015,45(2):606-612. LI G,LI W H.Facial feature tracking based on mind evolutionary algorithm [J].JournalofJilinUniversity(EngineeringandTechnologyEdition), 2015,45(2):606-612.(in Chinese)
[3] 胡俊華,田錦會(huì).醫(yī)學(xué)圖像三維重建技術(shù)研究新進(jìn)展 [J].中國科技信息,2013(11):117-117. HU J H,TIAN J H. New research progress of medical image reconstruction technology [J].ChinaScienceandTechnologyInformation,2013(11):117-117.(in Chinese)
[4] BALLERINI L,CALISTI M,CORDON O.Auto-matic feature extraction from 3D range images of skulls [J].CompuationalForensics,2008,5158:58-69.
[5] BIAN Z, TONG R.Feature-preserving mesh denoising based on vertices classidication [J].ComputerAidedGeometricDesign, 2008, 28(1):50-64.
[6] 許婉露,李彬,田聯(lián)房.基于MC算法的高質(zhì)量脊柱CT圖像三維重建[J].計(jì)算機(jī)應(yīng)用與軟件,2013,30(6):79-92. XU W L,LI B,TIAN L F. High-quality 3D reconstruction of spine CT image based on MC algorithm [J].ComputerApplicationsandSoftware,2013,30(6):79-92.(in Chinese)
[7] 李康,尚鵬,耿國華. 基于深度圖像的人臉模型特征點(diǎn)自動(dòng)標(biāo)定[J].計(jì)算機(jī)科學(xué),2014,41(4):287-291. LI K,SHANG P, GENG G H.. Automatic location of feature points on three-dimensional facial model based on depth image [J].ComputerScience,2014,41(4):287-291.(in Chinese)
[8] 翟鳳文,黨建武,王陽萍,等.形狀特征和置信傳播在去除SIFT 特征點(diǎn)錯(cuò)誤匹配中的應(yīng)用[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2016,28(3).443-449. ZHAI F W,DANG J W, WANG Y P,etal.. Application of shape context and belief propagation in removing SIFT mismatches [J].JournalofComputer-AidedDesign&ComputerGraphics,2016,28(3):443-449.(in Chinese)
[9] 謝易辰,陳健,閆鑌,等. 三維特征點(diǎn)距離特征集合求交匹配方法[J]. 紅外與激光工程,2014,43(8):2728-2732. XIE Y CH,CHEN J, YAN B,etal..Distance feature set intersection for 3D feature matching [J].InfraredandLaserEngineering,2014,43(8):2728-2732.(in Chinese)
[10] 王瀾,孫博,隆昌宇,等. 一種基于共線特征點(diǎn)的線陣相機(jī)內(nèi)參標(biāo)定方法[J]. 紅外與激光工程,2015,44(6):1878-1883. WANG L,SUN B, LONG CH Y,etal..A novel method for calibrating intrinsic parameters of linear array cameras based on collinear feature points [J].InfraredandLaserEngineering, 2015,44(6):1878-1883.(in Chinese)
[11] WANG J, ZHANG X, YU Z.A cascaded approach for feature-preserving surface mesh denoising [J].Computer-AidedDesign, 2012, 44(7): 597-610.
[12] 韓霜. 三維脊椎模型特征點(diǎn)標(biāo)注的研究與實(shí)現(xiàn)[D].西安:西安電子科技大學(xué),2013. HAN SH.Researchandimplementationoftaggingthree-dimensionalmodelofthespinewithfeaturepoints[D].Xi’an:Xidian University,2013.(in Chinese)
[13] JING X,SIMON B,IAIN M,etal..Real-time combined 2D+3D active appearance model [J].Proceedingofthe2004IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition,2004,27(2):535-542.
[14] TEKALP A M, OSTERMANN J. “Face and 2-D Mesh animation in MPEG-4,”Tutorial Issue On The MPEG-4 Standard [J].ImageCommunicationJournal,Elsevier, 1999.
[15] 李瑞祥. 實(shí)用人體解剖彩色圖譜[M] 北京:人民衛(wèi)生出版社,2001:6. LI R X.ColorMapsofPracticalHumanAnatomical[M].Beijing:People’s Medical Publishing House,2001:6.(in Chinese)
[16] 陳維桓. 微分幾何[M]. 北京:北京大學(xué)出版社,2006. CHEN W H.DifferentialGeometry[M]. Beijing:Peking University Press,2006.(in Chinese)
惠 宇(1984-),男,陜西岐山人,博士研究生, 2009年于西安電子科技大學(xué)獲得碩士學(xué)位,主要從事醫(yī)學(xué)影像處理、軟件工程、有限元計(jì)算的研究。E-mail:289178013@qq.com
武君勝(1962-),男,陜西禮泉人,教授,博士生導(dǎo)師。1983年于西北大學(xué)獲得學(xué)士學(xué)位;1990年于中國航空計(jì)算技術(shù)研究所獲得碩士學(xué)位;1997年于西北工業(yè)大學(xué)獲得博士學(xué)位。主要從事計(jì)算方法、科學(xué)計(jì)算可視化、軟件工程研究。E-mail:wujunsheng@nwpu.edu.cn
(版權(quán)所有 未經(jīng)許可 不得轉(zhuǎn)載)
Improvement of feature point annotation for three-dimensional spine model based on curvature multiple feature fusion
HUI Yu1, WU Jun-sheng2, YU Bin3, ZHANG Chen3, WU Zhen2
(1. College of Computer Science, Northwestern Polytechnical University, Xi′an 710072, China;2.CollegeofSoftwareandMicroelectronics,NorthwesternPolytechnicalUniversity,Xi′an710072,China;3.CollegeofComputerScience,XidianUniversity,Xi′an710072,China)
Because the precise coordinate description and accurate matching of physiology of the lumber spine have not yet reached the accuracy requirement of the medicine, this paper researches how to describe the physical coordinates of lumber spine feature points precisely. The definition and traditional annotation method of human spine sample features were introduce. Then, an improved method to adaptively annotate the feature points was proposed based on curvature multiple feature fusing to solve the problem of weaker precision for the manual annotation of feature points. In this method, the definiting values of Gaussian curvature and average curvature of a certain feature point were found out firstly, and a relative maximum value of curvature of the feature point was obtained. Then, the relative maximum values of all the model points within a specified minimum radiusrwere obtained. Since the larger the curvature of maximum value was, the larger the crook degree of the 3-dimensioanl model surface on the point was, and the point can show the outline of the 3-dimensional model. Therefore, the maximum value was taken as the curvature description of the feature point to replace the manual pick up point, thus the feature variation of the point could be described precisely. Finally, the verification results were analyzed, and the results indicate that the improved method increases the accuracy by 37% as compared with that of traditional annotation methods. These results demonstrate that the new method is feasibility and effectiveness.
spine;3D model; feature point annotation; curvature multiple feature fusion; maximum value of the curvature
2016-07-14;
2016-09-04.
國家自然科學(xué)基金資助項(xiàng)目(No.61172147)
1004-924X(2016)11-2872-08
TP391.4
A
10.3788/OPE.20162411.2872
*Correspondingauthor,E-mail:289178013@qq.com