王憲兵,袁盼盼
(湘潭大學(xué)信息工程學(xué)院,湖南 湘潭411100)
基于Kinect傳感器的教學(xué)手勢識別
王憲兵,袁盼盼
(湘潭大學(xué)信息工程學(xué)院,湖南 湘潭411100)
隨著多媒體技術(shù)的迅速發(fā)展,許多高校采用多媒體計(jì)算機(jī)系統(tǒng)輔助教學(xué)。為了增強(qiáng)課堂的趣味性以及教學(xué)的新穎性,將體感交互系統(tǒng)巧妙地應(yīng)用于多媒體教學(xué)。利用微軟公司設(shè)計(jì)的Kinect傳感器的骨骼跟蹤功能,建立骨骼跟蹤模型,通過手勢識別實(shí)現(xiàn)對PPT的播放控制。建立手勢識別庫并利用計(jì)算簡單、方便有效的兩點(diǎn)法進(jìn)行關(guān)節(jié)點(diǎn)之間的角度計(jì)算來實(shí)現(xiàn)手勢識別,將手勢反饋到系統(tǒng)并完成相應(yīng)的控制指令輸出,實(shí)現(xiàn)PPT的播放、翻頁等基本操作。實(shí)驗(yàn)表明,手勢控制PPT操作成功率高,能夠有效地控制PPT播放。
Kinect;多媒體教學(xué);骨骼跟蹤;手勢識別
近幾年,計(jì)算機(jī)技術(shù)和自然交互界面的興起,越來越多的用戶想與系統(tǒng)之間直接進(jìn)行交互,摒棄傳統(tǒng)的鼠標(biāo)、鍵盤等工具。隨著Kinect的出現(xiàn),人們利用其體感技術(shù),獲取人體深度信息,通過手勢識別,來理解操作者的意圖,從而對計(jì)算機(jī)進(jìn)行有效的操作[1]。將Kinect應(yīng)用到智能教學(xué)中,提高教學(xué)樂趣,增加教學(xué)的直觀性。許多研究人員對PPT控制進(jìn)行了相關(guān)的開發(fā)[2-5]。為了使用戶能夠更加自然、友好、人性化地以及無接觸地控制PPT,可以使用無線接收器激光筆或手勢來控制PPT。激光筆雖然在靈活性上比較突出,但是激光發(fā)出的光點(diǎn)會擾亂學(xué)生的視線。而手勢含有大量的交互信息,且提供了自然、直接的人際交互方式,同時(shí)也符合人類的行為習(xí)慣,因此許多學(xué)者對手勢識別[6-9]進(jìn)行了相關(guān)研究,文獻(xiàn)[6]提出了一種基于向量機(jī)的手勢識別方法,該方法只需框定手勢所在區(qū)域,無需精確地分割人手,但是容易受到光照條件以及復(fù)雜背景的干擾。文獻(xiàn)[7]利用Kinect進(jìn)行手勢深度圖采集,將深度圖轉(zhuǎn)換為三維點(diǎn)云,根據(jù)深度信息過濾來提取手勢數(shù)據(jù),對手勢數(shù)據(jù)進(jìn)行方向校正后統(tǒng)計(jì)手勢數(shù)據(jù)中深度信息的區(qū)間分布特征并輸入到支持向量機(jī)進(jìn)行訓(xùn)練,從而實(shí)現(xiàn)手勢識別。此方法雖然能解決二維手勢識別時(shí)光照條件以及復(fù)雜背景干擾問題但是對人手前后移動較為敏感,容易造成手勢識別錯誤。
綜上考慮,本文提出一種基于Kinect傳感器的手勢識別方法,利用Kinect的骨骼跟蹤功能獲取骨骼關(guān)節(jié)3D信息,根據(jù)節(jié)點(diǎn)3D信息確定節(jié)點(diǎn)之間的歐式距離,用兩點(diǎn)法確定角度進(jìn)行手勢識別。兩點(diǎn)法無需對手勢進(jìn)行分割,也不受光照以及復(fù)雜背景影響。兩點(diǎn)法計(jì)算量小,方便有效。最后將手勢識別的結(jié)果應(yīng)用于對PPT的控制播放,人站在Kinect前做出各種手勢與計(jì)算機(jī)進(jìn)行交互,不用接觸任何輸入設(shè)備,能營造體感教學(xué)的環(huán)境,提高教學(xué)的吸引力。
圖1 人體骨骼關(guān)節(jié)點(diǎn)分布圖Fig. 1The puture of human skeletal joints
Kinect傳感器的創(chuàng)新在于骨骼跟蹤。Kinect能夠跟蹤20個(gè)骨骼關(guān)節(jié)[10],如手,頭,肩等。骨骼追蹤技術(shù)通過處理深度數(shù)據(jù)來確定人體各個(gè)關(guān)節(jié)點(diǎn)的3維坐標(biāo)信息。圖1顯示了Kinect捕獲的人體骨骼關(guān)節(jié)點(diǎn)分布情況。
骨骼跟蹤的基本過程:首先通過Kinect傳感器獲取目標(biāo)深度數(shù)據(jù),提取目標(biāo)的形態(tài),得到深度圖像。接著在深度圖像中提取深度圖像特征,然后根據(jù)深度圖像特征利用隨機(jī)森林算法進(jìn)行人體部位識別推理出逐像素信息,將所有的像素信息匯聚形成3D骨骼關(guān)節(jié)位置的可靠預(yù)測做為最終輸出,最后Kinect對輸出的每一像素進(jìn)行評估并以此來確定關(guān)節(jié)點(diǎn)。
1.1 坐標(biāo)轉(zhuǎn)換
骨骼關(guān)節(jié)點(diǎn)坐標(biāo)系與Kinect坐標(biāo)系一致,Kinect坐標(biāo)系如圖2所示。坐標(biāo)系的原點(diǎn)處在Kinect的中心,Kinect左右延伸為軸,其正方向是向左,上下延伸為Y軸,正方向向上,前后延伸為軸,正方向與Kinect朝向一致。
Kinect原始坐標(biāo)的建立方式具有視角敏感性,即人體的位置信息受Kinect攝像頭位置擺放影響,需建立新的坐標(biāo)來消除視角敏感性。以臀部中心,脊柱,左臀和右臀四個(gè)關(guān)節(jié)點(diǎn)的位置建立新坐標(biāo)系,如圖3所示。新坐標(biāo)系原點(diǎn)O′與原坐標(biāo)原點(diǎn)O重合。以臀部中心為始端,脊柱關(guān)節(jié)點(diǎn)為末端,建立向量Z=(xz,yz,zz),并將該向量平移到起點(diǎn)與原點(diǎn)O重合,假設(shè)向量Z為Z軸方向。Z向量的法向量與原點(diǎn)O(0,0,0)都在平面XOY上,故 平面XOY可由公式(1)得到:
圖2 Kinect傳感器坐標(biāo)系Fig.2 Coordinate system of Kinect sensor
以右臀部關(guān)節(jié)到左臀部為向量X并且將起點(diǎn)移到原點(diǎn)O′,向量X為X′在XOY平面上的投影,向量X的方向?yàn)閄軸。Y軸可由右手螺旋定則確定。
新的骨骼坐標(biāo)系只跟人體關(guān)節(jié)位置相關(guān),與Kinect攝像頭相對于人體的位置無關(guān)。建立新的坐標(biāo)以后,假設(shè)原坐標(biāo)上一點(diǎn)A(x,y ,z ),通過轉(zhuǎn)換矩陣(XT,YT,ZT)可以得到新坐標(biāo)A'=(x',y',z'),如公式(2)所示:
1.2 深度圖像特征
常見的可見光圖像特征包括點(diǎn)特征和梯度特征[11]。點(diǎn)特征包括角點(diǎn)特征(Harris),尺度不變特征變換(SIFT)等。點(diǎn)特征雖然維數(shù)低,但在復(fù)雜背景下難以適應(yīng)人體變化的形態(tài)。梯度特征包括拉普拉斯高斯算子,方向梯度直方圖等。梯度特征雖然檢測效率高,但是容易受到噪聲的干擾,計(jì)算復(fù)雜。
在Kinect的深度圖像特征中融合點(diǎn)特征和梯度特征,并利用深度信息描繪像素點(diǎn)周圍局域空間的3D信息[12],即采用像素點(diǎn)鄰域兩點(diǎn)的深度差作為像素點(diǎn)的特征,并稱之為深度差分特征。該特征能夠區(qū)分表面凹凸不平的物體,比如頭部或手腕。該特征還具有3D平移不變的特性,即特征值不會隨像素點(diǎn)在空間的移動而變化。
深度圖像差分特征可由公式(3)提?。?/p>
圖3 新骨骼關(guān)節(jié)坐標(biāo)系Fig.3 The new bone joint coordinate system
公式(3)中,I為深度圖像,像素點(diǎn)x,為像素點(diǎn)x的深度值。參數(shù)θ描述兩個(gè)偏移向量u,v組成的向量對,即θ=(u,v)。偏移向量u,v同時(shí)除以像素x的深度值進(jìn)行歸一化處理,使得無論人與Kinect之間的距離為多少,都能夠保證準(zhǔn)確地捕捉到像素點(diǎn)x處的特征信息。
深度差分特征在人體深度圖像中的示意圖如圖4所示。
圖4 深度差分特征示意圖Fig.4 Depth difference feature
圖4(a)(b)表示了人體不同部位的兩個(gè)像素的特征。黃色交叉號表示被分類的像素x,紅色圓圈表示公式(3)中的參數(shù)θ。圖(a)中特征值f1θ對身體上部位置的像素會有個(gè)較大的響應(yīng)值,而在圖(b)中的響應(yīng)趨近于0。這是因?yàn)槠葡袼芈淙氡尘爸校尘吧疃戎当热梭w深度值大很多,故由公式(3)計(jì)算出的特征值大。若偏移像素都落在身體內(nèi)部,比如腹部平坦地區(qū),深度
值相差無幾,則特征值接近于0。特征值f1θ用來區(qū)分身體偏上部分。同理可知,特征值f2θ在圖(a)中很大,在圖(b)中很小。特征值f2θ有助于區(qū)分諸如手臂、手腕等容易發(fā)生曲直形態(tài)的部位。
1.3 骨骼跟蹤方法
本文骨骼跟蹤采用隨機(jī)森林方法。美國科學(xué)院院士Leo Breiman基于“bagging”理論提出了隨機(jī)森林的概念[13-14]。隨機(jī)森林是一個(gè)包含多棵決策樹的分類器,如圖5所示。每棵決策樹進(jìn)行獨(dú)立分類,并且能在GPU上并行計(jì)算。因此,隨機(jī)森林能夠快速有效地實(shí)現(xiàn)多任務(wù)。
在圖5中,紅色箭頭表示由樹的特別輸入引起的不同路徑。隨機(jī)森林中有T棵決策樹,每棵樹上有分裂節(jié)點(diǎn)(黑色圓圈)和葉子節(jié)點(diǎn)(紫色圓圈),每個(gè)分裂節(jié)點(diǎn)由特征fθ和一個(gè)閾值τ組成。決策樹t到達(dá)葉子節(jié)點(diǎn)時(shí)得到分類標(biāo)簽c的概率分布)。對所有樹的分布求平均并作為最終的分類,如公式(4)所示:
圖5 隨機(jī)森林Fig.5 Random Forests
隨機(jī)森林算法具體步驟:
(1)隨機(jī)選取一組候選分裂節(jié)點(diǎn),。
(2)通過將樣本集合Q={(I ,X )}劃分為兩個(gè)左右子集:
(3)利用樣本分組信息增益G()φ的最大值計(jì)算分裂節(jié)點(diǎn),即:
H(Q)表示樣本集合的香農(nóng)信息熵:
p(cj,Q)表示類別cj出現(xiàn)的頻率。
(4)對左右子樹分別采用Ql(φ?)和Qr(φ?)作為輸入子集Q,遞歸調(diào)用步驟2步驟4,確定φ?的所有閾值τ?,直到達(dá)到最大深度或者Q不可分,此時(shí)分類器訓(xùn)練完成。
根據(jù)Kinect深度圖像中的深度差分特征,利用隨機(jī)森林算法實(shí)現(xiàn)骨骼跟蹤,得到人體的20個(gè)關(guān)節(jié)點(diǎn)。將身體的各個(gè)關(guān)節(jié)點(diǎn)的位置定義為一個(gè)手勢(手部姿勢)。更具體地來說,是將某些關(guān)節(jié)點(diǎn)相對于其他關(guān)節(jié)點(diǎn)的位置定義了一個(gè)手勢,通過關(guān)節(jié)點(diǎn)之間的角度進(jìn)行手勢識別。
2.1 距離計(jì)算
求解人體關(guān)節(jié)點(diǎn)連線的角度之前需先計(jì)算出關(guān)節(jié)點(diǎn)的實(shí)際位置。文獻(xiàn)[15]利用獲取的深度值求出人到Kinect傳感器的實(shí)際距離,如公式(10)所示:
其中ddepth為Kinect提取的深度值,H=3.5×10-4rad,K=12.36cm,L=1.18rad,O=3.7cm。
文獻(xiàn)[16]提出深度圖像坐標(biāo)到實(shí)際坐標(biāo)的變換公式,如公式(11)所示。
公式(11)中,深度圖像坐標(biāo)為(xd,yd,zd),實(shí)際坐標(biāo),,,Kinect的分辨率。由(10)(11)可以計(jì)算出關(guān)節(jié)點(diǎn)的實(shí)際坐標(biāo),假設(shè)實(shí)際 空間坐標(biāo)的兩個(gè)點(diǎn)X(x1,y2,z3)和Y(x1,y2,z3),利用歐式距離公式得到兩點(diǎn)間的距離:
2.2 角度計(jì)算
任意三個(gè)不在同一直線上的點(diǎn)可以組成一個(gè)三角形,如圖6所示:
圖6中組成的節(jié)點(diǎn)三角形的關(guān)節(jié)點(diǎn)為肩膀,肘和手腕。利用公式(12)計(jì)算這三個(gè)節(jié)點(diǎn)之間的距離a,b,c,如公式(13)所示:
圖6 節(jié)點(diǎn)三角形Fig.6 Node triangular
公式(13)計(jì)算得到三角形的三邊距離,根據(jù)余弦定理計(jì)算任意兩邊的夾角,例如AB與BC之間的夾角,如公式(14)所示:
因此,手腕-肘-肩部構(gòu)造需要的角度,不論其他部位怎么變化,這三者構(gòu)成的三角形是不變的。三點(diǎn)法測量角度結(jié)果如圖7(a)所示。由于三點(diǎn)法在測量過程中不穩(wěn)定,我們選擇兩點(diǎn)法來確定角度。兩點(diǎn)法在人移動過程中基準(zhǔn)點(diǎn)和指定點(diǎn)都是相對穩(wěn)定的,能夠準(zhǔn)確地測量關(guān)節(jié)角度的大小。本文以肘部為基準(zhǔn)點(diǎn),將肘部作為整個(gè)坐標(biāo)的中心,再利用其他另外一個(gè)關(guān)節(jié)點(diǎn)比如手腕或肩,求出這一關(guān)節(jié)點(diǎn)與基準(zhǔn)點(diǎn)夾角的大小。兩點(diǎn)法的測量結(jié)果如圖7(b)所示。
2.3 建立手勢識別庫
圖7 角度測量結(jié)果Fig.7 Angle measurement
通過兩點(diǎn)法計(jì)算得到節(jié)點(diǎn)角度后,定義一個(gè)關(guān)節(jié)點(diǎn)的角度條件,如公式(15)所示:
其中P1為基準(zhǔn)節(jié)點(diǎn),為關(guān)節(jié)點(diǎn)P2與P1的夾角,τ為設(shè)定角度的閾值。設(shè)定θi(i=1,2,3,4)為關(guān)節(jié)點(diǎn)的角度。θ1=(左肩,左肘),θ2=(左肘,左腕),θ3=(右肩,右肘),θ4=(右肘,右腕),則手勢定義滿足的角度條件為ξ=(θ1,θ2,θ3,θ4,τ)。
舉起右手:ξR=(270,270,0,90,10)
舉起左手:ξL=(180,90,270,270,10)
雙手抱拳:ξO=(210,50,310,120,10)
右手揮動:ξR'=(270,270,340,40,10)
左手揮動:ξL'=(210,120,270,270,10)
2.4 手勢匹配
建立5個(gè)手勢識別庫以后,利用公式(16)進(jìn)行匹配:
其中為測量角度,為設(shè)定的期望角度,為閾值。
判斷四個(gè)角度是否滿足公式(16)規(guī)定的閾值范圍內(nèi),若在,手勢識別成功,若有一個(gè)角度不滿足,則識別失敗,重新識別。
本文采用的實(shí)驗(yàn)平臺:Windows 7 x86 + Microsoft Visual Studio 2010 + Microsoft.NET Framework 4.0 +Kinect for Windows SDK.
本文采用的實(shí)驗(yàn)設(shè)計(jì):
使用Kinect捕捉人體動作,然后根據(jù)識別出來的動作向系統(tǒng)發(fā)出點(diǎn)擊向前,向后按鍵等事件,從而實(shí)現(xiàn)PPT切換。本文將定義手勢如何是向前或向后切換PPT,如表1所示。
為了驗(yàn)證手勢控制PPT實(shí)驗(yàn)的有效性,采集5個(gè)實(shí)驗(yàn)者按照定義的手勢對PPT進(jìn)行多次操作,其實(shí)驗(yàn)結(jié)果如表2所示。
從表2可以看出,其中某實(shí)驗(yàn)者的成功率達(dá)到了100%,且每個(gè)手勢控制PPT操作成功率和實(shí)驗(yàn)者成功率都超過了96%。其中的翻頁操作個(gè)別失敗的原因是人揮手時(shí)過慢或過快后放回原處引起的。綜上所述,兩點(diǎn)法計(jì)算簡單,能有效地識別手勢,手勢控制PPT操作成功率高,能夠有效地對PPT進(jìn)行操控。
表1 PPT控制設(shè)計(jì)對應(yīng)表Tab.1 The design of PowerPoint operation
表2 PPT操作成功率表(其中m/n表示成功m次,失敗n次)Tab.2 The Success rate of PowerPoint operation (m/n shows m times succeeded,n failed)
本文基于Kinect的骨骼跟蹤功能,實(shí)現(xiàn)了手勢控制PPT播放等操作,實(shí)驗(yàn)部分驗(yàn)證了手勢控制PPT播放成功率高,可以將其應(yīng)用到教學(xué)系統(tǒng)中。
此外,Kinect能夠?qū)崿F(xiàn)對操作者聲音定位功能,考慮將Kinect的語言識別跟手勢識別結(jié)合起來應(yīng)用到PPT操作中。操作者通過語音便可進(jìn)行操控PPT,將大大提高PPT操作的交互性,教學(xué)的效果會更佳。
[1] 陳靜.基于Kinect的手勢識別技術(shù)及其在教學(xué)中的應(yīng)用[D].上海:上海交通大學(xué),2013.
CHEN Jing,Kinect-based Gesture Recognition and applying it in teaching[D],ShangHai:Shanghai Jiaotong University,2013.
[2] 毛雁明,章立亮. 基于Kinect骨架追蹤技術(shù)的PPT全自動控制方法研究[J].海南大學(xué)學(xué)報(bào) (自然科學(xué)版),2015 (2015年03):215-220.
MAO Yan-Ming,ZHANG Li-Liang. The research on automatic PPT control method based SSon Kinect skeleton tracking[J]. Journal of Hainan University (NATURAL SCIENCE EDITION),2015 (2015-03):215-220.
[3] 朱明茗,景紅.基于Kinect的PPT控制系統(tǒng)研究[J].中國教育信息化:高教職教,2014(5):80-81.
ZHU Ming-Ming,JING Hong,The PowerPoint control system based on Kinect[J]. Chinese education information:Higher Vocational Education,2014(5):80-81.
[4] 李健,路飛,田國會,等.基于Kinect的PPT全自動控制系統(tǒng)研究[J].計(jì)算機(jī)與工程應(yīng)用,201349(17).
LI Jian,LU Fei,TIAN Guo-hui,et al. The automatic system of PowerPoint control based on Kinect[J]. Computer engineering & application,,2013 49(17).
[5] 顧容,何益明,金麗燕.基于Kinect骨骼追蹤技術(shù)的智能教學(xué)控制系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[J].計(jì)算機(jī)應(yīng)用與軟件,2013,30(6):276-280.
GU Rong,HE Yi-Ming,JIN Li-yan. The design and implementation of intelligent teaching control system based on Kinect skeleton tracking technology[J]. Computer Applications and Software,2013,30(6):276-280.
[6] 張秋余,王道東,張墨逸,等.基于特征包支持向量機(jī)的手勢識別[J].計(jì)算機(jī)應(yīng)用,2012,32(12):3392-3396.
ZHANG Qiu-Yu,WANG Dao-Dong,ZHANG Mo-yi,et al. The gesture recognition Based on feature pack of SVM[J]. Computer Applicatio-ns.2012,32(12):3392-3396.
[7] 鄧瑞,周玲玲,應(yīng)忍冬,等.基于Kinect深度信息的手勢提取與識別研究[J].計(jì)算機(jī)應(yīng)用研究,2013,30(4):1263-1265.
DENG Rui,ZHOU Ling-ling,YING Ren-dong,et al. Research on hand gesture extraction and recognition based on Kinect depth information[J].Computer Application.2013,30(4):1263-1265.
[8] Ren Z,Yuan J,Meng J,et al. Robust past-based hand gesture recognition using Kinect senor[J]. IEEE transactions on multimedia 2013,15(5):1110-1120.
[9] 陶麗君,李翠華,張希婧,等.基于 Kinect 傳感器深度信息的動態(tài)手勢識別[J].2013.
TAO Li-Jun,LI Cui-hua,ZHANG Xi-qian,et al.The dynamic gesture recognition based on the depth information of Kinect sensor[J],2013.
[10] 藍(lán)箭,孫娟,楊裕炳,等.基于Kinect骨骼追蹤的控制方法的研究[J].儀表技術(shù),2014(8):20-22.
LAN Jian,SUN Juan,YANG Yu-Bing,et al. The control methods based on Kinect skeletal tracking[J]. Instrumentation Technology,2014(8):20-22.
[11] 林鵬,張超,李竹良,等.基于深度圖像學(xué)習(xí)的人體部位識別[J].計(jì)算機(jī)工程,2012,38(16):185-188.
LING-peng,ZHANG chao,Li Zu-liang,et al. The recognition of human body based on depth study[J]. Computer Engineering,2012,38(16):185-188.
[12] Shotton J,Sharp T,Kipman A,et al. Real-time human pose recognition in parts from single depth images[J]. Communications of the ACM,2013,56(1):116-124.
[13] 方匡南,吳見彬,朱建平,等.隨機(jī)森林方法研究綜述[J]. 2011.
FANG Kuang-nan,WU Jian-bing,ZHu Jian-ping,et al. Review of random forests method[J].2011.
[14] 雷震.隨機(jī)森林及其在遙感影像處理中應(yīng)用研究[D].上海:上海交通大學(xué),2012.
LEI Zhen. Random Forests and Its Application in Remote Sensing Image Processing[D]. Shanghai:Shanghai Jiaotong University,2012
[15] Raheja J L,Chaudhary A,SingalK.Tracking of fingertips and centers of palm using Kinect[C]//2011 Third International Conferenceon Comp-utational sIntelligence. Modelling & Simulation. IEEE. 2011:248-252.
[16] Satyavolu S,Bruder G,Willemsen P,et al. Analysis of IR-based virtual reality tracking using multiple Kinects[C]//2012 IEEE Virtual Reality Workshops(VRW).IEEE,2012:149-150.
Teaching Gesture Recognition Based on Kinect Sensor
WANG Xian-bing, YUAN Pan-pan
(College of Information Engineering, Xiangtan University, Xiangtan, Hunan, China, 411100)
With the rapid development of the multimedia technology, multimedia computers have been used in teaching systems in many colleges to provide some supplementary teaching. In order to enhance the interest and the novelty of class teaching, the somatosensory interactive has been applied to multimedia teaching system cleverly. The PowerPoint playback control was completed by using gesture recognition with the skeletal tracking of Kinect sensor. Firstly, the gesture recognition library should be established. Then the angle calculation was carried out by using two points method, thereby the gesture recognition is realized. Lastly, the gesture was fed back into the system to achieve the output of the corresponding control command and to complete the realization of the basic operation of PowerPoint such as PowerPoint playback and flip. Experiments show that the PowerPoint playback controlled by gestures operated successfully and effectively.
Kinect; Multimedia teaching; Skeletal tracking; Gesture recognition
10.19335/j.cnki.2095-6649.2016.09.005
WANG Xian-bing, YUAN Pan-pan. Teaching Gesture Recognition Based on Kinect Sensor[J]. The Journal of New Industrialization, 2016, 6(9): 28-34.
王憲兵,袁盼盼. 基于Kinect傳感器的教學(xué)手勢識別[J]. 新型工業(yè)化,2016,6(9):28-34.
國家自然科學(xué)基金(No.61100140)
王憲兵(1990-),男,研究生,主要研究領(lǐng)域?yàn)橹悄苄畔⑻幚?,圖像處理;袁盼盼(1993-),女,研究生,主要研究領(lǐng)域?yàn)闄C(jī)器視覺