房穩(wěn), 孫新柱, 范縣成, 劉夢(mèng)悅
(安徽工程大學(xué)電氣工程學(xué)院, 安徽蕪湖241000)
?
基于立體視覺(jué)系統(tǒng)的手勢(shì)分割算法研究
房穩(wěn), 孫新柱, 范縣成, 劉夢(mèng)悅
(安徽工程大學(xué)電氣工程學(xué)院, 安徽蕪湖241000)
手勢(shì)分割是保障人機(jī)交互過(guò)程得以準(zhǔn)確高效實(shí)現(xiàn)的重要步驟之一,但在分割的過(guò)程中,常常會(huì)受到類膚色背景等因素的外在干擾,使得分割操作出現(xiàn)欠分割的情況。針對(duì)此問(wèn)題,采用OptiTrackTMDPC640/30立體視覺(jué)系統(tǒng),引入深度圖像來(lái)指導(dǎo)分割,并針對(duì)原有的三維OTSU算法在進(jìn)行分割時(shí)存有大量冗雜的運(yùn)算,計(jì)算量過(guò)大的問(wèn)題,簡(jiǎn)化其主函數(shù)的運(yùn)算,即對(duì)其主變量w0和w1進(jìn)行遞推處理,使得每次計(jì)算離散度矩陣的跡時(shí)無(wú)需從起始位置開(kāi)始,只需從上一次遞推初始處開(kāi)始即可,有效地減少了三重循環(huán)的次數(shù)。實(shí)驗(yàn)結(jié)果表明,該算法比基于YCrCb顏色空間分割和Grabcut分割法在處理有類膚色背景干擾時(shí)更為有效,且與原有的OTSU算法相比,算法執(zhí)行效率得以提高。
手勢(shì);彩色圖像分割;深度圖像分割;三維OTSU算法
日常生活中,手勢(shì)往往扮演著重要的角色,它不僅可以表達(dá)豐富的信息量,而且還具有自然、高效、直觀等優(yōu)點(diǎn),是實(shí)現(xiàn)人機(jī)交互至關(guān)重要的途徑之一。近年來(lái),手勢(shì)已成為人機(jī)交互領(lǐng)域的研究熱點(diǎn)[1]。隨著科技的不斷進(jìn)步和發(fā)展,手勢(shì)的輸入和輸出設(shè)備也在快速地更新?lián)Q代,從開(kāi)始的數(shù)據(jù)手套、肌電信號(hào)傳感器、慣性傳感器,一直發(fā)展到如今的計(jì)算機(jī)視覺(jué),越來(lái)越便捷地為人們提供了研究手勢(shì)的新思路和新途徑。
為了在手勢(shì)研究中兼顧效率和效果,對(duì)于手勢(shì)目標(biāo)區(qū)域的提取和分割工作就變得尤為重要,精準(zhǔn)的分割將會(huì)為后續(xù)研究工作打下堅(jiān)實(shí)的基礎(chǔ),可以避免大量不必要的運(yùn)算和處理,極大地提高研究效率。但手勢(shì)分割也存在難點(diǎn),一是我們?nèi)粘K幁h(huán)境的復(fù)雜多樣性,手勢(shì)分割會(huì)受到光照、顏色、遮擋等無(wú)關(guān)信息的干擾;二是手勢(shì)姿態(tài)的靈活性,這會(huì)造成手的外部形狀特征多變。這些問(wèn)題都會(huì)給分割工作帶來(lái)困難[2]。
盡管?chē)?guó)內(nèi)外的眾多研究人員對(duì)相關(guān)內(nèi)容進(jìn)行了大量研究,但仍然存在尚需繼續(xù)完善和解決的問(wèn)題。例如,曹建秋等人[3]詳細(xì)對(duì)比了映射到Y(jié)CrCb和HSV顏色空間的優(yōu)缺點(diǎn),但未能提出具體的分割改進(jìn)措施;Boykov等人[4]首次將圖割理論(Graphcut)應(yīng)用于分割實(shí)踐領(lǐng)域,該算法基于馬爾科夫隨機(jī)場(chǎng)(MRF)最小化能量模型,綜合各類理論知識(shí)對(duì)全局進(jìn)行最優(yōu)求解,展現(xiàn)出獨(dú)特的優(yōu)越性,可以說(shuō)是開(kāi)創(chuàng)了圖像分割的一種新思路,但因其使用一次性的單一交互式分割,所得到的最終分割準(zhǔn)確性不太理想;徐秋平等人[5]使用了分水嶺和圖割聯(lián)合算法,分割效果比較穩(wěn)定,但是導(dǎo)致邊界過(guò)于粗糙;Rother等人[6]在Graphcut算法的基礎(chǔ)上進(jìn)行了改進(jìn)和擴(kuò)展,提出了Grabcut算法,使用高斯混合模型(GMM)取代灰度直方圖,同時(shí)使用迭代算法取代一次最小化估計(jì)來(lái)完成最小化能量的計(jì)算,最后通過(guò)非完全編號(hào)極大地降低了交互的復(fù)雜度。這些改進(jìn)使得Grabcut較前者能更好地提高分割精度和效率,是圖割理論應(yīng)用于分割實(shí)踐領(lǐng)域的成熟代表方法之一,但Grabcut仍存有不足,即對(duì)顏色背景變化較為敏感。雖然有研究者不斷地對(duì)其進(jìn)行研究改進(jìn),比如伊聰聰[7]等人提出了一種基于前景形態(tài)的聯(lián)合分水嶺(shed)和Grabcut多尺度圖割算法,可以大幅度提高迭代效率,周良芬等人[8]引入了熵懲罰因子,使得能量分割函數(shù)得以大幅優(yōu)化,有效地抑制了目標(biāo)信息的損失,但這些改進(jìn)仍未能解決其核心問(wèn)題,即對(duì)于手勢(shì)分割而言,無(wú)法消除有類膚色背景干擾時(shí)的誤分割,在處理此類問(wèn)題時(shí)略顯乏力,容易出現(xiàn)分割不到位,即欠分割的情況。因此,有必要結(jié)合場(chǎng)景深度信息來(lái)指導(dǎo)圖像分割,以便更好達(dá)到人們的分割預(yù)期。趙志平等人[9]嘗試通過(guò)計(jì)算混合概率密度求出最優(yōu)閾值,使用其在深度圖像中進(jìn)行分割,但只成功分離出了人體和背景;王艷等人[10]采用雙閾值法進(jìn)行深度圖像分割,但分割之后手掌邊緣鋸齒狀明顯,不便于后續(xù)應(yīng)用;徐鵬飛等人[11]對(duì)類間方差法進(jìn)行了研究,并對(duì)其應(yīng)用于圖像分割領(lǐng)域中的可行性進(jìn)行了探索。
本文針對(duì)立體視覺(jué)系統(tǒng)的特性,分別對(duì)其獲取的彩色和深度圖像進(jìn)行手勢(shì)分割研究,并綜合加以對(duì)比,在原有三維OTSU閾值手勢(shì)分割算法的基礎(chǔ)上加以改進(jìn)。改進(jìn)后的算法不僅可以克服類膚色的干擾,而且該算法引入了遞推思想,使其主變量w0和w1的每次求解運(yùn)算,不必從起始位置開(kāi)始,只需從上一次的終止位置開(kāi)始繼續(xù)進(jìn)行迭代即可,大幅度地減少了計(jì)算量,有效地提高了算法的運(yùn)算效率。
無(wú)論是基于YCrCb顏色空間的分割算法,還是在Graphcut基礎(chǔ)上加以改進(jìn)的Grabcut算法,都是圍繞彩圖分割所展開(kāi)的。對(duì)于彩圖,從其獲取原理上可知,是顯示在二維平面上的投影,注定會(huì)丟失深度信息,而人們對(duì)周?chē)母兄墙⒃谌S世界的基礎(chǔ)上,所以聯(lián)系實(shí)際,在研究圖像分割時(shí),引入圖像的深度信息有著極為重要的意義和價(jià)值。
1.1深度圖像獲取原理
DPC640/30系列是通過(guò)景深來(lái)獲取三維圖像信息的,基本原理為:通過(guò)紅外相機(jī)接收由紅外發(fā)射器所發(fā)出的紅外光照射到物體表面上的散斑點(diǎn)數(shù)據(jù),從而在底板上記錄相應(yīng)的成像點(diǎn),獲取深度圖像。原理示意圖如圖1所示。
圖1三角測(cè)距原理
由三角相似性可知:
聯(lián)立求解可得:
其中:Zk即為深度相機(jī)與目標(biāo)物體間的距離;Z0表示參考平面上障礙物與相機(jī)間的距離;f表示相機(jī)焦距;b表示紅外發(fā)射器與相機(jī)間的距離;d表示照射散斑與參考平面上散斑的成像距離。
1.2深度圖像預(yù)處理
OptiTrackTMDPC640/30立體視覺(jué)系統(tǒng),具有采集方便,便于應(yīng)用等特點(diǎn),但是在采集的過(guò)程中,由于設(shè)備本身特性、實(shí)驗(yàn)條件以及物體特性等諸多方面的原因,圖像中會(huì)含有很多黑洞和大量的噪聲,這對(duì)后期的圖像分割極為不利,所以首先需要對(duì)深度圖像進(jìn)行修復(fù)操作。本文采用的是一種基于形態(tài)學(xué)與中值濾波的算法對(duì)圖像進(jìn)行修復(fù)。主要步驟為:首先通過(guò)形態(tài)學(xué)濾波中的開(kāi)閉運(yùn)算,選取合適的圓盤(pán)形(disk)結(jié)構(gòu)元素,對(duì)深度圖像進(jìn)行第一次處理,可以修復(fù)絕大部分黑洞;其次再使用中值濾波,對(duì)圖像中仍存有的孤立黑洞和邊緣信息模糊等問(wèn)題進(jìn)行再一次地修復(fù),最終達(dá)到完全填充黑洞、平滑圖像邊緣以及去除噪聲的目的。
在形態(tài)學(xué)中,膨脹和腐蝕是其最基本的運(yùn)算,如圖2所示。除此之外,還有建立在兩者基礎(chǔ)上的二次運(yùn)算。根據(jù)運(yùn)算的先后順序不同,將其分為開(kāi)運(yùn)算和閉運(yùn)算[12]。兩者具有諸如對(duì)偶性、擴(kuò)展性、單調(diào)性、平移不變性和等冪性等極為重要的代數(shù)性質(zhì)。設(shè)圖像S對(duì)圖像X做運(yùn)算,先進(jìn)行腐蝕再進(jìn)行膨脹的稱為開(kāi)運(yùn)算,記為X°S,定義為X°S=(XΘS)⊕S;先進(jìn)行膨脹再進(jìn)行腐蝕的稱為閉運(yùn)算,記為X?S,定義為X?S=(X⊕S)ΘS,具體過(guò)程如圖2~圖4所示。
圖2膨脹和腐蝕
圖3開(kāi)運(yùn)算
圖4閉運(yùn)算
開(kāi)閉運(yùn)算都是單邊算子,若單獨(dú)對(duì)圖像進(jìn)行處理,則會(huì)由于各自獨(dú)有的性質(zhì),從而影響圖像的輸出結(jié)果。開(kāi)運(yùn)算對(duì)于信號(hào)上方的噪聲有很好的效果,但是對(duì)下方噪聲尖峰則無(wú)能為力,反之,閉運(yùn)算也與之類似,對(duì)上方尖峰處理效果不佳。一般情況下,常將兩者聯(lián)合起來(lái)共同構(gòu)成形態(tài)學(xué)濾波器,使用迭代運(yùn)算能夠有效地減弱這些影響,常見(jiàn)的有(X°S)?S或(X?S)°S等。本文是將兩者算法進(jìn)行均分后使用。具體可表示為:
中值濾波的算法原理為:先將選定好大小的模板放入圖像中,使其在圖中遍尋,當(dāng)發(fā)現(xiàn)目標(biāo)像素點(diǎn)時(shí),使其中心與像素點(diǎn)重合,然后開(kāi)始計(jì)算各對(duì)應(yīng)像素點(diǎn)的灰度值并且從小到大進(jìn)行排列,最后取其中間的灰度值代替原有像素點(diǎn)鄰域的灰度值。
中值濾波的這一特性,使其較形態(tài)學(xué)濾波能夠更好地保護(hù)圖像細(xì)節(jié)和邊緣,更適宜修復(fù)圖中孤立的噪聲。而且在與上述形態(tài)學(xué)濾波算法進(jìn)行聯(lián)合時(shí),定義中值濾波僅對(duì)于待修復(fù)區(qū)域采用,這樣可以極大地提高整體濾波的修復(fù)速度,同時(shí)也能夠最大限度地保持原有深度圖像像素點(diǎn)的深度值。
1.3改進(jìn)的三維OTSU閾值法
深度圖像的分割算法有很多種,比如有基于神經(jīng)網(wǎng)絡(luò)、小波變換、模糊理論、遺傳理論、粒度計(jì)算論、免疫理論等的分割算法。其中閾值法最為經(jīng)典,常見(jiàn)的閾值法有:人工確定法、自適應(yīng)閾值法和分水嶺算法。自適應(yīng)閾值法可細(xì)分為:迭代閾值法、OTSU法和最小誤差法。由于OTSU法具有簡(jiǎn)單、高效等優(yōu)點(diǎn),本文結(jié)合獲取景深數(shù)據(jù)的深度相機(jī),選取OTSU法對(duì)深度圖像進(jìn)行分割操作。首先假設(shè)手的深度數(shù)據(jù)最小,這一假設(shè)符合人們的客觀認(rèn)知,因?yàn)樵趯?shí)際中,手通常處于背景或人體的前方,那么只要選取合適的閾值,就足以把前景目標(biāo)(即手)與后置背景分開(kāi),從而繞過(guò)彩圖分割中所受到的類膚色干擾,達(dá)到精確分割手勢(shì)的目的。
OTSU閾值法又稱為最大類間方差法或大津法,是由日本學(xué)者大津展之所提出的一種自適應(yīng)閾值選取法,其基本原理是建立在最小二乘的基礎(chǔ)上,計(jì)算前景和后景的方差,當(dāng)前后方差達(dá)到最大時(shí),即以這個(gè)值作為閾值進(jìn)行分割。由于深度圖像引入了景深數(shù)據(jù),所以需要將OTSU引入三維空間中使用。
三維OTSU基本理論為:定義圖像景深值f(x,y),則領(lǐng)域均值g(x,y)為
領(lǐng)域加權(quán)中值h(x,y)為
k/2≤i≤k/2,-k/2≤j≤k/2}
(1)
u0=(u0i,u0j,u0k)T=
(2)
(3)
ut=(uTi,uTj,uTk)T=
(4)
為了判定閾值的合適度,引入總均值指標(biāo):
u1=(u1i,u1j,u1k)T=
(5)
所以,最優(yōu)閾值(s,t)滿足下列等式:
(6)
其中,離散度矩陣為:
(7)
由式(6)與式(7)可知,其類間方差為:
trSB=w0[(u0i-uTi)2+(u0j-uTj)2+(u0k-uTk)2]+
w1[(u1i-uTi)2+(u1j-uTj)2+(u1k-uTk)2]
(8)
在進(jìn)行計(jì)算時(shí),捕獲并嘗試所有(s,t,k)取值,使得離散度矩陣SB達(dá)到最大的值即為所求的最優(yōu)閾值。
雖然三維OTSU算法可以相當(dāng)精準(zhǔn)地求得最優(yōu)閾值,但是其計(jì)算量過(guò)大,任意閾值需從(0,0)一直累加到(s,t),存在大量不必要的運(yùn)算。受二維OTSU算法改進(jìn)方法的啟發(fā)[13],對(duì)式(1)~式(5)進(jìn)行綜合考量后,在此提出對(duì)主變量w0和w1進(jìn)行遞推處理的三維改進(jìn)算法,以減少其計(jì)算量。
w0(s-1,t,q)+w0(s,t-1,q)-
w0(s-1,t,q)+w0(s,t-1,q)-
w0(s-1,t-1,q)+Pstq+
w0(s,t,q-1)-w0(s,t-1,q-1)-
w0(s-1,t,q-1)+w0(s-1,t-1,q-1)=
w0(s-1,t,q)+w0(s,t-1,q)+
w0(s,t,q-1)-w0(s,t-1,q-1)-
w0(s-1,t,q-1)-w0(s-1,t-1,q)+
w0(s-1,t-1,q-1)+Pstq
w1(s+1,t,q)+
w1(s+1,t,q)+w1(s,t+1,q)-
w1(s+1,t,q)+w1(s,t+1,q)-
w1(s+1,t+1,q)+P(s+1)(t+1)(q+1)+
w1(s,t,q+1)-w1(s,t+1,q+1)-
w1(s+1,t,q+1)+w1(s+1,t+1,q+1)=
w1(s+1,t,q)+w1(s,t+1,q)+
w1(s,t,q+1)-w1(s,t+1,q+1)-
w1(s+1,t,q+1)-w1(s+1,t+1,q)+
w1(s+1,t+1,q+1)+P(s+1)(t+1)(q+1)
這樣,每次計(jì)算離散度矩陣的跡tr時(shí)就無(wú)需從起始位置開(kāi)始,只需從上一次遞推初始處開(kāi)始即可,減少了三重循環(huán)的次數(shù),使得算法效率得以提高。
本文采用OptiTrackTMDPC640/30立體視覺(jué)系統(tǒng)獲取圖像,該系統(tǒng)包含有3個(gè)鏡頭,分別為紅外投射鏡頭、RGB彩色鏡頭和紅外CMOS鏡頭,可同時(shí)采集到分辨率為640×480的彩色圖像和深度圖像。對(duì)于所獲取的圖像利用PC機(jī)上的Matlab軟件和結(jié)合OpenCV的Microsoft Visual Studio 2010開(kāi)發(fā)環(huán)境,對(duì)上述算法進(jìn)行驗(yàn)證。軟件運(yùn)行環(huán)境為:Windows 7 64位,Matlab R2015a,PC機(jī)配置為Intel(R)Core(TM)i3-3240 CPU @ 3.40 GHz,安裝內(nèi)存(RAM)為4.00 GB;立體視覺(jué)系統(tǒng)所安裝的PC版驅(qū)動(dòng)為:ZigJSOpenNI(v1.0.1)。實(shí)驗(yàn)情況如圖5~圖10所示。
圖5原始深度圖
圖6原始RGB圖
圖7YCrCb分割
圖8Grabcut分割
圖9未修復(fù)后分割
圖10本文改進(jìn)算法
圖5和圖6分別表示有類膚色背景(臉部)干擾時(shí)的原始手勢(shì)的深度圖像和RGB圖像;圖7表示將圖6轉(zhuǎn)換到Y(jié)CrCb顏色空間中的分割結(jié)果,僅能大致辨認(rèn)出手勢(shì)中3根手指的形狀;圖8表示對(duì)圖6使用Grabcut算法之后的分割情況,圖中綠色框表示便捷的人機(jī)交互區(qū)域,雖然分割效率很高(本次實(shí)驗(yàn)處理約1秒即可完成),且分割效果比前者要好,分割后手部信息保存較為完整,但仍未能準(zhǔn)確地分割出手勢(shì),只得到了臉與手的混合分割結(jié)果;圖9為獲取的深度圖像(即圖5)未經(jīng)預(yù)處理(修復(fù)步驟)直接采用三維OTSU算法進(jìn)行處理后的結(jié)果,表明了黑洞的存在會(huì)對(duì)分割工作產(chǎn)生影響,也證明了進(jìn)行分割操作前對(duì)圖像進(jìn)行預(yù)處理的必要性;圖10表示經(jīng)過(guò)本文改進(jìn)后的三維OTSU算法的分割效果,與圖7和圖8相比,消除了類膚色背景的干擾,使得手勢(shì)分割更為精準(zhǔn)。
為了進(jìn)一步凸顯改進(jìn)后的三維OTSU算法運(yùn)行效率更高,故選取多名實(shí)驗(yàn)者(10名)再次進(jìn)行對(duì)比測(cè)試,實(shí)驗(yàn)采用手勢(shì)“1”、“2”和“3”,每人每個(gè)手勢(shì)做10次,如圖11~圖13所示(圖中展示了其中1名實(shí)驗(yàn)者的3次手勢(shì)實(shí)驗(yàn))。
圖11手勢(shì)“1”
圖12手勢(shì)“2”
圖13手勢(shì)“3”
使用Matlab進(jìn)行處理時(shí),分別記錄下處理對(duì)應(yīng)手勢(shì)所用的時(shí)間,再分別取其平均值,定義改進(jìn)率δ=(原始-改進(jìn))/原始,以百分比形式表示,得到表1,進(jìn)行對(duì)比。表1的數(shù)據(jù)表明,改進(jìn)后的算法運(yùn)行效率普遍提高近20%左右,證實(shí)了改進(jìn)算法的有效性。
表1算法運(yùn)算時(shí)間對(duì)比
本文提出了一種改進(jìn)三維OTSU分割算法,通過(guò)立體視覺(jué)系統(tǒng)分別獲取彩色圖像和深度圖像,與其他方法進(jìn)行對(duì)比分析。實(shí)驗(yàn)結(jié)果表明,本文的改進(jìn)算法不僅能夠排除類膚色干擾精準(zhǔn)分割手勢(shì),而且比原始OTSU算法在計(jì)算上得以優(yōu)化,效率得以提高,為手勢(shì)的后續(xù)識(shí)別等應(yīng)用打下了堅(jiān)實(shí)的基礎(chǔ)。
[1] ZHU Y,YANG Z,YUAN B.Vision based hand gesture recognition[C]//Proceedings of the 2013 International Conference on Service Sciences(ICSS’13),Shenzhen,April 11-13,2013:260-265.
[2] 曹昕燕,趙繼印,李敏.基于膚色和運(yùn)動(dòng)檢測(cè)技術(shù)的單目視覺(jué)手勢(shì)分割[J].湖南大學(xué)學(xué)報(bào):自然科學(xué)版,2011,38(1):78-83.
[3] 曹建秋,王華清,藍(lán)章禮.基于改進(jìn)YCrCb顏色空間的膚色分割[J].重慶交通大學(xué)學(xué)報(bào):自然科學(xué)版,2010,29(3):488-492.
[4] BOYKOV Y,JOLLY M P.Interactive graph cuts for optimal boundary & region segmentation of objects in N-D images[C]//Proceeding of 8th IEEE International Conference on Computer Vision,Vancouver,BC,July 7-14,2001:105-112.
[5] 徐秋平,郭敏,王亞榮.基于分水嶺變換和圖割的彩色圖像快速分割[J].計(jì)算機(jī)工程,2009,35(19):210-212.
[6] ROTHER C,KOLMOGOROV V,BLAKE A.GrabCut:interactive foreground extraction using iterated graph cuts[J].ACM Transactions on Graphics,2004,23(3):309-314.
[7] 伊聰聰,吳斌,張紅英.一種改進(jìn)的Grabcut圖像分割方法[J].小型微型計(jì)算機(jī)系統(tǒng), 2014,35(5):1164-1168.
[8] 周良芬,何建農(nóng).基于Grabcut改進(jìn)的圖像分割算法[J].計(jì)算機(jī)應(yīng)用,2013,33(1):49-52.
[9] 趙志平,陳雷月.基于深度傳感器圖像分割技術(shù)的研究[J].信息技術(shù),2014(1):109-112.
[10] 王艷,張奇志.基于Kinect深度信息的手勢(shì)識(shí)別[J].北京信息科技大學(xué)學(xué)報(bào):自然科學(xué)版,2013,28(1):22-26.
[11] 徐鵬飛,張紅英.基于Kinect深度圖像信息的手勢(shì)分割和指尖檢測(cè)算法[J].西南科技大學(xué)學(xué)報(bào),2014,29(1):49-54.
[12] 彭誠(chéng),孫新柱.一種改進(jìn)的深度圖像修復(fù)算法研究[J].重慶工商大學(xué)學(xué)報(bào):自然科學(xué)版,2016,33(1):65-69.
[13] 張智豐,關(guān)坤,金文標(biāo),等.二維Otsu法的降維遞推綜合改進(jìn)算法[J].杭州電子科技大學(xué)學(xué)報(bào):自然科學(xué)版,2014,34(6):18-22.
Research of Hand Gesture Segmentation Algorithm Based on the Stereo Vision System
FANGWen,SUNXinzhu,FANXiancheng,LIUMengyue
(College of Electrical Engineering, Anhui Polytechnic University, Wuhu 241000, China)
The segmentation of the gesture is one of the important steps to achieve accurate and efficient human-computer interaction, but it is often effected by skin color background and other factors of the external disturbance in this procession, which make the segmentation operation incomplete. To solve this problem, the OptiTrackTMDPC640/30 stereo vision system with introducing the depth image to guide the gesture segmentation is used, and focusing on the large miscellaneous operations and computations of the original three-dimensional OTSU algorithm in segmentation, the operation of the main function is simplified, in which the main variables W0and W1were recurrence so that each trace of a scatter matrix calculation can start from the position of the last recurrence instead of the initial position to reduce the number of triplet loop effectively. The experimental results show that the proposed algorithm is more effective than YCrCb based color space segmentation and Grabcut segmentation method in dealing with the class of skin color background interference, and the algorithm execution efficiency can be improved compared with the original OTSU algorithm.
gesture; color image segmentation; depth image segmentation; three-dimensional OTSU algorithm
2016-04-27
安徽高校省級(jí)自然科學(xué)研究重大項(xiàng)目(KJ2014ZD04)
房 穩(wěn)(1992-),男,安徽蕪湖人,碩士生,主要從事手勢(shì)識(shí)別方面的研究,(E-mail)1508427763@qq.com
1673-1549(2016)04-0049-06
10.11863/j.suse.2016.04.11
TP391.41
A