• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于最小點(diǎn)對(duì)成本的二維輪廓精確匹配與分析方法

    2020-12-16 02:18:12李向軍劉伯成
    計(jì)算機(jī)工程 2020年12期
    關(guān)鍵詞:識(shí)別率原型輪廓

    李向軍,周 勇,劉 韜,劉伯成,羅 銘

    (南昌大學(xué) a.信息工程學(xué)院; b.軟件學(xué)院,南昌 330031)

    0 概述

    人類通過視覺、觸覺和聽覺等多模態(tài)來識(shí)別物體,視覺是其中極為重要的一種模態(tài)。經(jīng)過億萬年的進(jìn)化,生物通過三維視覺進(jìn)行對(duì)象識(shí)別時(shí)獲得了極高的效率與較好的魯棒性,且與視點(diǎn)和對(duì)象取向無關(guān),即使是在復(fù)雜環(huán)境中也能輕松識(shí)別出目標(biāo)對(duì)象。在對(duì)物體進(jìn)行識(shí)別的過程中,人類使用了多種特征,如輪廓、紋理等,且輪廓相對(duì)紋理而言更加穩(wěn)定,原因是其不易受到光照變化和顏色變化的影響。文獻(xiàn)[1]對(duì)比了人類視覺和由深度神經(jīng)網(wǎng)絡(luò)驅(qū)動(dòng)的機(jī)器視覺系統(tǒng),發(fā)現(xiàn)兩者處理對(duì)象信息的方式存在顯著差異,人類在識(shí)別物體時(shí)傾向于輪廓,而由深度神經(jīng)網(wǎng)絡(luò)驅(qū)動(dòng)的機(jī)器視覺系統(tǒng)更傾向于紋理。雖然人類在識(shí)別圖像中的物體時(shí)是基于大量的先驗(yàn)知識(shí),如輪廓、紋理、顏色和上下文等[2],但是即使只給定輪廓,人類也能迅速識(shí)別出其類別,這說明輪廓在物體識(shí)別中起重要作用。物體的形狀識(shí)別作為物體識(shí)別的主要內(nèi)容,一直是計(jì)算機(jī)視覺領(lǐng)域的研究熱點(diǎn)之一,這類方法[3-4]一般通過輪廓匹配來實(shí)現(xiàn),可以將其統(tǒng)稱為基于輪廓的識(shí)別方法。二維輪廓匹配方法應(yīng)當(dāng)具有人類視覺所具備的平移不變性、旋轉(zhuǎn)不變性、尺度不變性以及鏡像不變性4個(gè)基本特性。

    自然界中的生物受到物理規(guī)律的約束,不同部位的尺寸大小與其整體重量存在一定的關(guān)系。在觀察物體時(shí),人類的眼睛會(huì)將三維世界投影為二維圖像,但大腦會(huì)根據(jù)環(huán)境而構(gòu)建出相應(yīng)的三維模型[5]。將三維世界物體轉(zhuǎn)換為二維輪廓圖像時(shí),不同部位的尺寸大小與其整體重量的關(guān)系就轉(zhuǎn)變?yōu)榫嚯x關(guān)系和面積關(guān)系。本文通過交互式分割法學(xué)習(xí)上述關(guān)系,分割出符合人類視覺特性的輪廓段,對(duì)輪廓進(jìn)行點(diǎn)對(duì)匹配以度量輪廓間的相似性,從而提取盡量多的輪廓全局特征和局部特征,減少信息丟失。

    1 相關(guān)工作

    文獻(xiàn)[6]總結(jié)了近年來相繼出現(xiàn)的二維形狀表示及匹配方法。早期的形狀描述符[7-9]主要是獲取輪廓的全局特征,如傅里葉描述符[7]、矩描述符[8-9],其通過計(jì)算特征向量之間的距離進(jìn)行物體識(shí)別,但是,類內(nèi)輪廓差異大的物體識(shí)別率不高且輪廓細(xì)節(jié)匹配能力弱。形狀上下文[10]是一種經(jīng)典的描述符,其實(shí)現(xiàn)了輪廓點(diǎn)的局部分布編碼,對(duì)識(shí)別率有較大的改善。形狀上下文以采樣點(diǎn)為極點(diǎn)構(gòu)建極坐標(biāo)系,將極角劃分為m份,極徑劃分為n份,得到m×n個(gè)區(qū)域,統(tǒng)計(jì)每個(gè)區(qū)域內(nèi)采樣點(diǎn)的出現(xiàn)次數(shù),構(gòu)建對(duì)應(yīng)的直方圖,該直方圖表示了其他采樣點(diǎn)相對(duì)于當(dāng)前點(diǎn)的局部分布。形狀上下文統(tǒng)計(jì)的是采樣點(diǎn)的分布,對(duì)噪聲數(shù)據(jù)不敏感,但是其也丟失了全局信息。文獻(xiàn)[4]將輪廓點(diǎn)順序作為全局形狀特征并與形狀上下文相結(jié)合,提高了描述符的全局特征編碼能力。文獻(xiàn)[3]分析部位及其結(jié)構(gòu)在計(jì)算機(jī)視覺和人類視覺中的重要性,采用內(nèi)距離來代替形狀上下文中的歐氏距離,提出內(nèi)距離形狀上下文IDSC(Inner-Distance Shape Context),其中,內(nèi)距離定義為輪廓上標(biāo)記點(diǎn)與其他采樣點(diǎn)在輪廓內(nèi)的最短路徑長(zhǎng)度。對(duì)于具有關(guān)節(jié)部位的輪廓,內(nèi)距離比歐氏距離能更有效地捕獲部位結(jié)構(gòu)從而建立更準(zhǔn)確的描述符。文獻(xiàn)[11]為了降低匹配的復(fù)雜度并提高檢索速度,提出輪廓點(diǎn)分布直方圖(Contours Points Distribution Histogram,CPDH)描述符,其基于極坐標(biāo)系下對(duì)象輪廓采樣點(diǎn)的分布而忽略了輪廓的局部特征。文獻(xiàn)[12]提出封閉曲線和開放曲線的相似性度量方法,其將輪廓作為一條封閉曲線,利用曲線采樣點(diǎn)的有序集合來表示輪廓,然后將該集合視為有限維矩陣?yán)钊旱脑?通過李代數(shù)的L2-范數(shù)在輪廓之間進(jìn)行相似性度量,該方法計(jì)算出的點(diǎn)對(duì)關(guān)系優(yōu)于形狀上下文。

    曲率尺度空間描述符[13]通過曲率變化來表示形狀,即尋找輪廓上的曲率過零點(diǎn)來構(gòu)建輪廓的曲率空間直方圖,其實(shí)質(zhì)是對(duì)關(guān)鍵局部信息進(jìn)行編碼,但是不同的輪廓可能會(huì)產(chǎn)生類似的曲率空間直方圖。文獻(xiàn)[14]利用離散曲率演化算法提取輪廓段作為局部信息,將其與從骨架中提取的全局信息相結(jié)合以表示形狀。BCF(Bag of Contour Fragments)[15]是受BoW(Bag of Words)模型啟發(fā)而被提出的新的形狀表示,其首先將形狀分解為輪廓片段,然后采用形狀上下文描述符對(duì)每個(gè)輪廓片段進(jìn)行處理并將其編碼為形狀代碼,最后利用輪廓片段的形狀代碼的統(tǒng)計(jì)直方圖來表示形狀。文獻(xiàn)[16]改進(jìn)BCF方法,將骨架信息也作為形狀特征,在BoF(Bag of Features)框架下引入適用于輸入形狀特征的可學(xué)習(xí)的池化函數(shù),該池化函數(shù)是最大池化和平均池化的加權(quán)和,權(quán)重可以使用形狀分類器通過梯度下降學(xué)習(xí)獲得,該方法在輪廓識(shí)別方面獲得了較高的識(shí)別率。文獻(xiàn)[17]提出一種基于三角形質(zhì)心距離(Triangular Centroid Distances,TCD)的形狀描述符TCDs,使用TCDs形狀描述符來解決部位之間的部分形狀匹配問題,該方法在整體匹配和部位匹配中均獲得了較好的效果。上述方法均能在一定程度上提高匹配效果,但是普遍存在的問題是提取到的輪廓段與人類視覺分割的輪廓段不一致。

    2 輪廓精確匹配與分析方法

    人類在利用輪廓識(shí)別物體時(shí),通常先識(shí)別出大致輪廓的類別,然后通過判斷其部位與該類別的部位是否相似來確定最終的輪廓類別。受此啟發(fā),本文提出一種基于最小點(diǎn)對(duì)成本的輪廓精確匹配與分析方法,該方法主要分3步實(shí)現(xiàn):首先通過交互式學(xué)習(xí)類別的輪廓原型、部位原型及其輪廓分析參數(shù);然后刪除輪廓中大于點(diǎn)對(duì)比率閾值的輪廓段以獲得該輪廓的主體輪廓,通過粗匹配獲得輪廓的候選類別;最后分割出輪廓的部位,將其與候選類別的部位輪廓進(jìn)行匹配找到相似度最高的候選類別,該類別即為最終的匹配類別。

    2.1 交互式學(xué)習(xí)

    本文通過交互式分割法學(xué)習(xí)不同類別的原型及輪廓分析參數(shù),該階段不僅學(xué)習(xí)類別整體輪廓原型,而且通過人工分割學(xué)習(xí)類別不同部位的輪廓原型,前者可用于類別輪廓的匹配,后者可用于類別部位的輪廓匹配。本文通過人工來選擇需要學(xué)習(xí)的原型,在交互式學(xué)習(xí)中采用的是閉合輪廓,交互式學(xué)習(xí)的其中一個(gè)目標(biāo)是學(xué)習(xí)類別及其部位在不同的主視角下的輪廓??紤]到基于最小點(diǎn)對(duì)成本的精確匹配方法需要使用輪廓圖像,形狀描述符就必須具有可恢復(fù)性,本文采用鏈碼[18]作為形狀描述符,其編碼方式如圖1所示,其中,P表示當(dāng)前像素點(diǎn),0~7用于編碼不同的方向。

    圖1 鏈碼的編碼規(guī)則Fig.1 Coding rule of chain codes

    交互式學(xué)習(xí)的另一個(gè)目標(biāo)是學(xué)習(xí)類別的輪廓分析參數(shù),主要包括點(diǎn)對(duì)曲率、點(diǎn)對(duì)面積距離比、部位端點(diǎn)最大距離、部位端點(diǎn)最小距離、部位最小面積比、部位最大面積比和部位類別名稱等,其中,點(diǎn)對(duì)曲率和點(diǎn)對(duì)面積距離比的定義分別如下:

    定義1(點(diǎn)對(duì)曲率) 令lp為輪廓上任意可連通2點(diǎn)之間的像素點(diǎn)數(shù)量,dp為2點(diǎn)之間的距離,則由這2點(diǎn)組成的點(diǎn)對(duì)曲率Cp可表示為:

    (1)

    定義2(點(diǎn)對(duì)面積距離比) 令p為輪廓上任意可連通2點(diǎn)之間的最短長(zhǎng)度線段的邊界點(diǎn)集,Ap為邊界點(diǎn)集所圍成的面積,dp為2點(diǎn)之間的距離,則由這2點(diǎn)組成的點(diǎn)對(duì)面積距離比Rp可表示為:

    (2)

    點(diǎn)對(duì)曲率、點(diǎn)對(duì)面積距離比、部位最小面積比和部位最大面積比本身就具有尺度不變性,而部位端點(diǎn)最大距離和部位端點(diǎn)最小距離與輪廓的尺寸相關(guān),本文針對(duì)輪廓中最長(zhǎng)的點(diǎn)對(duì)距離進(jìn)行歸一化處理,以獲得參數(shù)的尺度不變性。交互式學(xué)習(xí)過程主要分為3步:

    1)讀入選定的類別圖像,將其調(diào)整為固定尺寸的輪廓圖像。

    2)人工分割出輪廓中的不同部位。

    3)根據(jù)分割出的輪廓圖像學(xué)習(xí)類別的輪廓分析參數(shù),并將類別輪廓和部位輪廓存儲(chǔ)到知識(shí)庫(kù)中。

    圖2所示為通過人工分割獲得的類別部位分割效果。

    圖2 交互式工具獲得的類別組件分割效果Fig.2 Segmentation effect of category componentsobtained by interactive tool

    2.2 基于最小點(diǎn)對(duì)成本的精確匹配方法

    IDSC、BCF、CPDH和基于形狀上下文的匹配方法各有優(yōu)點(diǎn),但它們都不能實(shí)現(xiàn)精確匹配。本文提出一種基于最小點(diǎn)對(duì)成本的精確匹配方法,其通過計(jì)算2個(gè)邊界圖之間的最小成本對(duì)應(yīng)關(guān)系[19]來實(shí)現(xiàn)精確匹配?;谧钚↑c(diǎn)對(duì)成本的精確匹配方法將輪廓匹配轉(zhuǎn)換為點(diǎn)分配,輪廓邊界點(diǎn)集S1中任意一點(diǎn)與輪廓邊界點(diǎn)集S2中的點(diǎn)都有一條邊相連,邊的權(quán)重即為點(diǎn)與點(diǎn)之間的匹配成本,其距離度量公式可表示為:

    (3)

    其中,pi和qj分別表示輪廓邊界點(diǎn)集S1和S2中的像素點(diǎn),C(pi,qj)表示2個(gè)輪廓之間的點(diǎn)對(duì)成本,本文將點(diǎn)對(duì)之間的歐氏距離作為點(diǎn)對(duì)的匹配成本。

    為了滿足人類視覺所具有的基本特性,還需對(duì)基于最小點(diǎn)對(duì)成本的精確匹配方法進(jìn)行優(yōu)化。首先對(duì)匹配輪廓進(jìn)行歸一化和鏡像(無鏡像、X鏡像、Y鏡像)處理,然后以輪廓的質(zhì)心為旋轉(zhuǎn)中心,將360°劃分為n份,最后將每一次旋轉(zhuǎn)后的圖像與原型進(jìn)行匹配,找到與待匹配輪廓具有最小匹配成本的原型。通過以歸一化后的輪廓質(zhì)心為基準(zhǔn)進(jìn)行旋轉(zhuǎn)和鏡像處理,使得優(yōu)化后的最小點(diǎn)對(duì)成本匹配方法具備平移不變性、旋轉(zhuǎn)不變性、鏡像不變性和尺度不變性。

    雖然基于最小點(diǎn)對(duì)成本的精確匹配方法可實(shí)現(xiàn)像素級(jí)的匹配,但是其無編碼能力并且丟失了像素間的空間關(guān)系。人類在判斷2個(gè)輪廓之間的相似性時(shí)不僅依賴輪廓之間的點(diǎn)對(duì)距離,還與輪廓中點(diǎn)與點(diǎn)之間的空間關(guān)系有關(guān)?;谛螤钌舷挛牡钠ヅ浞椒苡行Р东@輪廓中點(diǎn)與點(diǎn)之間的空間關(guān)系,將形狀上下文匹配方法融合到最小點(diǎn)對(duì)成本匹配方法中,使其具有局部分布編碼能力。此時(shí),輪廓之間的相似性由2個(gè)輪廓之間的點(diǎn)對(duì)距離和形狀上下文成本表示,其距離度量公式可改寫為:

    Df=dmin+αdSC

    (4)

    其中,α表示形狀上下文的匹配成本權(quán)重。式(4)的距離度量公式體現(xiàn)出需要找到與待匹配輪廓具有最小點(diǎn)對(duì)距離、邊界點(diǎn)集分布最相似的輪廓原型。

    雖然基于最小點(diǎn)對(duì)成本的精確匹配方法在引入形狀上下文距離后獲得了局部分布編碼能力,但同時(shí)也導(dǎo)致異常點(diǎn)多時(shí)匹配效果差、對(duì)輪廓細(xì)節(jié)的變化較敏感等問題。為了解決異常點(diǎn)多時(shí)匹配效果差的問題,本文在進(jìn)行形狀上下文匹配時(shí)只選取在最小點(diǎn)對(duì)成本匹配中已配對(duì)的點(diǎn)集,這樣可以避免異常點(diǎn)對(duì)形狀上下文匹配的影響。與特征匹配方法相比,基于最小點(diǎn)對(duì)成本的精確匹配方法能以可視化的方式呈現(xiàn)出符合觀察習(xí)慣的匹配結(jié)果。

    2.3 輪廓精確匹配與分析

    人類在進(jìn)行輪廓匹配時(shí)通常不考慮相似度低的輪廓而主要關(guān)注大致相似的輪廓。受此啟發(fā),在實(shí)際的輪廓匹配處理中,往往采用預(yù)處理的方式找出大致相似的輪廓,然后再進(jìn)行輪廓精確匹配,這樣可以有效提升匹配速度。限于篇幅,本文主要討論輪廓精確匹配階段,預(yù)處理階段不做贅述。

    雖然基于最小點(diǎn)對(duì)成本的精確匹配方法已經(jīng)避免了異常點(diǎn)的影響,但對(duì)輪廓細(xì)節(jié)變化比較敏感的問題并未解決,如果直接對(duì)輪廓進(jìn)行匹配將達(dá)不到預(yù)期效果。受到人類識(shí)別物體的啟發(fā),本文在該方法中引入粗到精的二級(jí)匹配策略,該策略與文獻(xiàn)[14-15,20]中的匹配策略有相似之處,都是將輪廓分割為輪廓段,從而降低對(duì)輪廓細(xì)節(jié)變化的敏感性,但文獻(xiàn)[14-15,20]中的匹配策略提取的輪廓段往往與人類在進(jìn)行輪廓識(shí)別時(shí)分割出的輪廓段不一致。

    粗到精的二級(jí)匹配策略的第一級(jí)為粗匹配,第二級(jí)為精匹配。粗匹配主要實(shí)現(xiàn)類別主體輪廓的匹配,具體過程為:首先對(duì)輪廓進(jìn)行處理,刪除點(diǎn)對(duì)曲率大于閾值的輪廓段,獲得穩(wěn)定的主體輪廓;然后通過基于最小點(diǎn)對(duì)成本的精確匹配方法尋找相似的原型,將滿足閾值要求的輪廓原型的類別作為待匹配輪廓的候選類別。精匹配可以認(rèn)為是對(duì)粗匹配分析結(jié)果的進(jìn)一步優(yōu)化,其仍然采用基于最小點(diǎn)對(duì)成本的精確匹配方法,具體過程為:首先對(duì)每一種候選類別進(jìn)行輪廓分析獲得輪廓的部位;然后對(duì)其部位進(jìn)行匹配;最后將候選類別的部位匹配成本和粗匹配成本平均值作為該候選類別的匹配成本,將相似度最高的候選類別作為最終的匹配結(jié)果。無論是粗匹配階段的主體輪廓還是精匹配階段的部位輪廓,相比于整體輪廓而言已經(jīng)極大降低了輪廓復(fù)雜性,從而利于形狀上下文捕獲邊界點(diǎn)之間的空間關(guān)系。

    圖3所示為輪廓分析的處理過程,其中,第1行是待匹配的輪廓圖像,從左到右為原始輪廓、主體輪廓、輪廓分割圖像和輪廓分析結(jié)果,第2行是知識(shí)庫(kù)中的一些輪廓原型(鴨子、鳥類、牛、蝴蝶)的主體輪廓,最后一行是待匹配的主體輪廓和第2行中原型主體輪廓的點(diǎn)對(duì)匹配圖像,所有圖片來源于Animal數(shù)據(jù)集(http://cloud.eic.hust.edu.cn:8071/~xbai/softwares.html)。輪廓分析是指分割出輪廓中的部位并識(shí)別出輪廓類別及其部位類別。本文將原型知識(shí)庫(kù)和二級(jí)匹配策略的最小點(diǎn)對(duì)成本匹配方法應(yīng)用于輪廓分析,提出一種基于最小點(diǎn)對(duì)成本的輪廓精確匹配與分析算法,其偽代碼如算法1所示。首先通過粗匹配找到相似的原型,并將滿足閾值要求的輪廓原型的類別作為待匹配輪廓的候選類別;然后處理每一個(gè)候選類別,假定該候選類別即為輪廓類別,從原型知識(shí)庫(kù)中讀取該類別的輪廓分析參數(shù),隨后利用分析參數(shù)對(duì)輪廓進(jìn)行分割,找出符合要求的部位,如圖3第1行第3幅圖所示;最后將部位與原型庫(kù)中的該候選類別的部位輪廓原型進(jìn)行匹配,并將該候選類別的主體輪廓匹配成本和部位輪廓匹配成本的平均值作為候選類別的匹配成本。將候選類別中匹配成本最低的類別及其部位分割和識(shí)別結(jié)果作為最終的輪廓分析結(jié)果,如圖3第1行第4幅圖所示。

    圖3 基于最小點(diǎn)對(duì)成本的輪廓匹配與分析算法效果Fig.3 Contour matching and analysis algorithm effect based on minimum point-pair cost

    算法1基于最小點(diǎn)對(duì)成本的輪廓精確匹配與分析算法

    輸入圖像Iin,原型知識(shí)庫(kù)PK,點(diǎn)對(duì)曲率閾值h

    輸出輪廓類別Cc,組件類別Cp

    步驟1獲得輪廓圖像。

    步驟2從知識(shí)庫(kù)中讀取輪廓原型信息。

    步驟3刪除輪廓中點(diǎn)對(duì)曲率大于閾值h的輪廓線段,并將其余輪廓段作為輪廓主體。

    步驟4將主體輪廓與原型的主體輪廓進(jìn)行匹配,并使用符合要求的原型類別作為候選類別。

    步驟5處理每個(gè)候選類別并使用候選類別的分析參數(shù)分析輪廓。

    步驟6將分割出的組件與候選類別的組件原型進(jìn)行匹配以獲得匹配成本。

    步驟7將候選類別的主體匹配成本和組件匹配成本的平均成本作為候選類別的匹配成本。

    步驟8輪廓類別Cc為候選類別中匹配成本最低的類別,該候選類別對(duì)應(yīng)的組件匹配結(jié)果即為輪廓的組件類別Cp。

    3 實(shí)驗(yàn)結(jié)果與分析

    為了驗(yàn)證匹配方法的有效性,選取MPEG-7[21]數(shù)據(jù)集和Animal[14]數(shù)據(jù)集作為實(shí)驗(yàn)數(shù)據(jù)集。首先,在MPEG-7數(shù)據(jù)集上比較不同匹配方法對(duì)剛性物體的識(shí)別率;然后,在Animal數(shù)據(jù)集上比較不同匹配方法對(duì)非剛性物體的識(shí)別率。考慮到人類可能有額外的機(jī)制來處理遮擋和扭曲的情況,在對(duì)非剛性物體的識(shí)別任務(wù)中僅選用通過輪廓即可識(shí)別出其類別的圖像作為數(shù)據(jù)集,圖像全部選自Animal數(shù)據(jù)集。實(shí)驗(yàn)在微軟Windows 10(64位)操作系統(tǒng)、酷睿i7-6500U CPU 2.5 GHz頻率、內(nèi)存8 GB的計(jì)算機(jī)上完成,采用分類準(zhǔn)確率作為評(píng)價(jià)指標(biāo)。

    表1所示為MPEG-7數(shù)據(jù)集中的實(shí)驗(yàn)結(jié)果,從表1可以看出,對(duì)于剛性物體,本文匹配方法、SC[10]、BCF[15]、CSM[12]、TCDs[17]和BoSCP-LP[16]方法均有較高的識(shí)別率,這是由于剛性物體的類內(nèi)差異較小。

    表1 MPEG-7數(shù)據(jù)集上不同匹配方法的識(shí)別率對(duì)比Table 1 Comparison of recognition rates of differentmatching methods on MPEG-7 dataset

    圖4顯示了部分類別的部位識(shí)別結(jié)果,表2所示為Animal數(shù)據(jù)集中部分類別的粗匹配、精匹配、組件分割和組件識(shí)別的識(shí)別率。

    圖4 Animal數(shù)據(jù)集上部分類別的組件識(shí)別結(jié)果Fig.4 Component recognition results of some categories on Animal dataset

    表2 Animal數(shù)據(jù)集上部分類別的實(shí)驗(yàn)結(jié)果Table 2 Experimental results of some categories on Animal dataset

    從圖4和表2可以看出,精匹配的識(shí)別率相比粗匹配有一定提升,說明部位識(shí)別在一定程度上有利于整體輪廓的識(shí)別,鴨、蝴蝶、牛的類內(nèi)輪廓變化不大,而鳥、鱷魚有著較大的類內(nèi)輪廓差異,類內(nèi)差異小的類別有較高的識(shí)別率,其中,鳥的精匹配準(zhǔn)確率較高是由于其增加了部位的原型數(shù)量,而鱷魚在未增加部位原型數(shù)量的情況下識(shí)別率顯著降低。圖4中第1行最后一幅鳥類部位分割圖由于腳與尾巴相似而識(shí)別錯(cuò)誤,第4行最后一幅蝴蝶部位分割圖中尾巴曲率不滿足要求而沒有被分割出來,第5行鱷魚的嘴、尾、腳有時(shí)很相似導(dǎo)致識(shí)別時(shí)出錯(cuò)。上述實(shí)驗(yàn)結(jié)果表明各方法均有較高的部位分割與識(shí)別準(zhǔn)確率。

    表3所示為Animal數(shù)據(jù)集上本文粗匹配、精匹配、SC方法[10]、BCF方法[15]、CSM方法[12]、TCDs方法[17]和BoSCP-LP方法[16]的實(shí)驗(yàn)結(jié)果對(duì)比。從表3可以看出,對(duì)于類內(nèi)差異較大的鱷魚,所有匹配方法的識(shí)別率均較低,這表明輪廓細(xì)節(jié)的變化對(duì)匹配結(jié)果有較大影響。粗匹配的識(shí)別率與其他匹配方法相近,而精匹配具有較高的識(shí)別率,這說明粗到精的策略有利于輪廓識(shí)別?;谛螤钌舷挛牡钠ヅ浞椒m然可以對(duì)輪廓邊界點(diǎn)之間的關(guān)系進(jìn)行編碼以提高對(duì)輪廓的識(shí)別效果,但是鴨子脖子和鱷魚尾巴在整個(gè)輪廓中所占比例較大且相對(duì)于輪廓主體位置不固定,因此該方法對(duì)鴨子和鱷魚的識(shí)別率較低。TCDs形狀描述符本質(zhì)上仍然是傅里葉描述子,不能有效區(qū)分類間的差異,不同類別輪廓的傅里葉描述子可能極為相似,TCDs對(duì)于類內(nèi)形變較大的鱷魚識(shí)別率較低,該形狀描述符適用于開放輪廓段間的匹配。BCF、CSM和BoSCP-LP在不同類中均有較高的識(shí)別率,但是BCF、BoSCP-LP獲得的輪廓段并非人類視覺分割結(jié)果[15],BCF和CSM也未識(shí)別出類別的部位??傮w而言,輪廓中部位的位置變化不利于輪廓識(shí)別,本文提出的兩級(jí)匹配策略可有效降低部位的位置變化對(duì)輪廓識(shí)別結(jié)果的影響,并且能夠識(shí)別出其部位的類別。

    表3 Animal數(shù)據(jù)集上不同匹配方法的識(shí)別率對(duì)比Table 3 Comparison of recognition rates of different matching methods on Animal dataset

    4 結(jié)束語

    針對(duì)物體識(shí)別中輪廓精確匹配與部位識(shí)別問題,本文通過交互式分割法學(xué)習(xí)不同類別的輪廓原型數(shù)據(jù)和輪廓分析參數(shù),構(gòu)建類別輪廓原型知識(shí)庫(kù),提出一種可以實(shí)現(xiàn)精確匹配的最小點(diǎn)對(duì)成本匹配方法,其能有效地從輪廓原型知識(shí)庫(kù)中找到與待匹配輪廓具有最小點(diǎn)對(duì)距離、邊界點(diǎn)集分布最相似的輪廓原型。多數(shù)已有匹配方法對(duì)類內(nèi)輪廓的差異比較敏感,本文匹配方法引入粗到精的二級(jí)匹配策略,從而降低匹配方法對(duì)輪廓細(xì)節(jié)變化的敏感性。在此基礎(chǔ)上,結(jié)合類別輪廓原型知識(shí)庫(kù)和最小點(diǎn)對(duì)成本匹配方法,提出一種基于最小點(diǎn)對(duì)成本的輪廓精確匹配與分析方法,該方法可以識(shí)別出輪廓類別及其部位類別,具有平移不變性、旋轉(zhuǎn)不變性、尺度不變性和鏡像不變性等特點(diǎn)。實(shí)驗(yàn)結(jié)果表明,基于原型匹配的物體識(shí)別策略具有可行性,本文所提方法能實(shí)現(xiàn)精確匹配并在部位分割、輪廓識(shí)別和部位識(shí)別方面具有較高的準(zhǔn)確率。

    在二維空間采用基于原型匹配的物體識(shí)別方法時(shí)仍然存在一定不足,例如,由于視點(diǎn)的不同,三維物體的輪廓經(jīng)過投影變換后有無數(shù)種二維形狀,這不僅增加了二維輪廓的原型數(shù)量而且也提高了二維輪廓匹配的難度。此外,從二維輪廓中獲得的部位和整體關(guān)系與三維輪廓中的部位和整體關(guān)系存在差異,更好的基于原型匹配的物體識(shí)別策略是模擬人腦構(gòu)建出不同類別的三維原型知識(shí)庫(kù),然后通過三維輪廓匹配與分析方法來進(jìn)行物體識(shí)別。下一步將通過上述策略提高物體識(shí)別的效率和準(zhǔn)確率。

    猜你喜歡
    識(shí)別率原型輪廓
    包裹的一切
    OPENCV輪廓識(shí)別研究與實(shí)踐
    基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
    基于實(shí)時(shí)輪廓誤差估算的數(shù)控系統(tǒng)輪廓控制
    基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識(shí)別率的關(guān)系
    《哈姆雷特》的《圣經(jīng)》敘事原型考證
    提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
    論《西藏隱秘歲月》的原型復(fù)現(xiàn)
    高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
    原型理論分析“門”
    人間(2015年20期)2016-01-04 12:47:08
    商丘市| 长丰县| 龙口市| 曲水县| 门源| 镶黄旗| 淅川县| 铜川市| 铁岭市| 翼城县| 凤城市| 北流市| 城固县| SHOW| 如东县| 隆昌县| 康定县| 望谟县| 安多县| 青浦区| 芷江| 来宾市| 名山县| 鄂尔多斯市| 宕昌县| 罗甸县| 丹巴县| 阳城县| 专栏| 乃东县| 镇康县| 台山市| 莱阳市| 夏邑县| 营山县| 六盘水市| 达尔| 进贤县| 绥芬河市| 岚皋县| 娄底市|