• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于幀間距的運(yùn)動(dòng)關(guān)鍵幀提取

      2015-01-06 08:21:36李順意甘凌云
      計(jì)算機(jī)工程 2015年2期
      關(guān)鍵詞:關(guān)鍵幀重構(gòu)動(dòng)畫

      李順意,侯 進(jìn),2,甘凌云

      (1.西南交通大學(xué)信息科學(xué)與技術(shù)學(xué)院,成都610031;

      2.南京大學(xué)計(jì)算機(jī)軟件新技術(shù)國(guó)家重點(diǎn)實(shí)驗(yàn)室,南京210093)

      基于幀間距的運(yùn)動(dòng)關(guān)鍵幀提取

      李順意1,侯 進(jìn)1,2,甘凌云1

      (1.西南交通大學(xué)信息科學(xué)與技術(shù)學(xué)院,成都610031;

      2.南京大學(xué)計(jì)算機(jī)軟件新技術(shù)國(guó)家重點(diǎn)實(shí)驗(yàn)室,南京210093)

      運(yùn)動(dòng)捕獲數(shù)據(jù)中有大量的冗余數(shù)據(jù),不利于運(yùn)動(dòng)數(shù)據(jù)的壓縮、存儲(chǔ)、檢索以及進(jìn)一步重用。為此,提出一種基于幀間距的運(yùn)動(dòng)關(guān)鍵幀提取方法,提取代表運(yùn)動(dòng)捕獲數(shù)據(jù)內(nèi)容的關(guān)鍵姿勢(shì)。利用四元數(shù)之間的距離表示人體姿態(tài)差異,將人體各個(gè)關(guān)節(jié)上的總變化作為幀間距,以運(yùn)動(dòng)數(shù)據(jù)首幀作為第一個(gè)關(guān)鍵幀。通過(guò)不斷計(jì)算當(dāng)前幀同最后一個(gè)關(guān)鍵幀之間的差異,消除差異小于閾值的幀,差異超過(guò)閾值的幀被當(dāng)作為新關(guān)鍵幀。對(duì)提取關(guān)鍵幀集合采用四元數(shù)球面插值方法重構(gòu)。為表現(xiàn)人體運(yùn)動(dòng)特征,在重構(gòu)誤差中引入關(guān)節(jié)速度分量,用人體姿勢(shì)誤差位置與人體關(guān)節(jié)運(yùn)動(dòng)速率之和表示原始運(yùn)動(dòng)與重建運(yùn)動(dòng)序列之間的重構(gòu)誤差。實(shí)驗(yàn)結(jié)果表明,該方法對(duì)原始運(yùn)動(dòng)既有較高的壓縮率,又有較強(qiáng)的視覺(jué)概括效果。

      運(yùn)動(dòng)捕獲;關(guān)鍵幀提取;幀間距;球面線性插值;重構(gòu)誤差;視覺(jué)概括力

      1 概述

      在計(jì)算機(jī)動(dòng)畫中,人體角色動(dòng)畫是很重要的組成部分,但也因人體包含自由度多、維數(shù)高,創(chuàng)建一個(gè)真實(shí)的和逼真的運(yùn)動(dòng)模型是非常困難的,人體角色動(dòng)畫一直是計(jì)算機(jī)動(dòng)畫技術(shù)中的難點(diǎn)[1]。目前人體角色動(dòng)畫主要有基于關(guān)鍵幀的動(dòng)畫、基于運(yùn)動(dòng)學(xué)的動(dòng)畫、物理模擬動(dòng)畫與基于捕獲數(shù)據(jù)的人體動(dòng)畫技術(shù)。近年來(lái),隨著運(yùn)動(dòng)捕捉設(shè)備的廣泛應(yīng)用,運(yùn)動(dòng)捕獲驅(qū)動(dòng)的三維人體動(dòng)畫替代傳統(tǒng)關(guān)鍵幀動(dòng)畫[2]成為研究的熱點(diǎn)。運(yùn)動(dòng)捕獲驅(qū)動(dòng)方法是利用運(yùn)動(dòng)捕捉設(shè)備實(shí)時(shí)記錄表演者肢體在空間中的運(yùn)動(dòng),生成大量有真實(shí)感的人體運(yùn)動(dòng)數(shù)據(jù),然后將捕獲得到的真實(shí)感的角色運(yùn)動(dòng)數(shù)據(jù)映射到建立好的人體模型來(lái)生成動(dòng)畫序列。運(yùn)動(dòng)數(shù)據(jù)驅(qū)動(dòng)方法被廣泛地應(yīng)用到計(jì)算機(jī)交互游戲、電影廣告、體育訓(xùn)練以及醫(yī)學(xué)仿真等多個(gè)領(lǐng)域。

      本文利用四元數(shù)之間的距離表示人體姿態(tài)差異,將人體各個(gè)關(guān)節(jié)上的總變化作為幀間距,以運(yùn)動(dòng)數(shù)據(jù)首幀作為第一個(gè)關(guān)鍵幀,不斷計(jì)算當(dāng)前幀同最后一個(gè)關(guān)鍵幀之間的差異,消除差異小于設(shè)定閾值的幀,差異超過(guò)設(shè)定閾值被當(dāng)作為新關(guān)鍵幀。對(duì)關(guān)鍵幀集合使用四元數(shù)球面插值方法重構(gòu)出原始序列幀數(shù)相同的重建序列,將原始幀與重建幀的平均幀間距離表示為重構(gòu)誤差,并在重構(gòu)誤差中引入速度誤差。

      2 背景介紹

      運(yùn)動(dòng)捕獲數(shù)據(jù)是以較高的采樣頻率獲得,平均每秒鐘幾十幀甚至上百幀,每一幀又包含了十幾個(gè)甚至幾十個(gè)關(guān)節(jié)點(diǎn)的旋轉(zhuǎn)信息,得到的數(shù)據(jù)量龐大且有大量的數(shù)據(jù)冗余,非常不利于運(yùn)動(dòng)捕獲數(shù)據(jù)的壓縮、存儲(chǔ)、檢索以及進(jìn)一步重用,需提取出代表運(yùn)動(dòng)數(shù)據(jù)內(nèi)容的關(guān)鍵幀[3],關(guān)鍵幀提取技術(shù)被廣泛應(yīng)用于視頻分析與檢索領(lǐng)域[4]。運(yùn)動(dòng)關(guān)鍵幀提取主要有曲線簡(jiǎn)化方法、基于聚類方法和幀消減方法。曲線簡(jiǎn)化方法[5]將每一幀運(yùn)動(dòng)數(shù)據(jù)比作高維空間的一個(gè)點(diǎn),運(yùn)動(dòng)序列看成是空一條運(yùn)動(dòng)軌跡,選擇曲線上一些凹凸點(diǎn)作為關(guān)鍵幀。但是該方法采用歐式距離作為幀間的相似度,無(wú)法真實(shí)地反映人體運(yùn)動(dòng)姿態(tài)之間的差異。文獻(xiàn)[6]改進(jìn)了該算法,將人體的骨骼夾角作為運(yùn)動(dòng)特征表示,以此確定邊界姿態(tài)幀作為候選關(guān)鍵幀,然后采用分層曲線方法精選候選關(guān)鍵幀,最終獲得關(guān)鍵幀集合,該方法對(duì)邊界幀具有概括力。文獻(xiàn)[7]提出了基于聚類的關(guān)鍵幀提取方法,將相似運(yùn)動(dòng)數(shù)據(jù)聚類,每類選擇一個(gè)關(guān)鍵幀。該方法能夠提取表示原始數(shù)據(jù)內(nèi)容的關(guān)鍵幀,但是沒(méi)有考慮運(yùn)動(dòng)數(shù)據(jù)之間的時(shí)序相關(guān)性,容易導(dǎo)致對(duì)運(yùn)動(dòng)序列分析的失真問(wèn)題。文獻(xiàn)[8]通過(guò)消減不可能為關(guān)鍵幀的幀而獲得的關(guān)鍵幀序列,用幀消減的方法計(jì)算消減幀的重構(gòu)誤差,從而得到一條重構(gòu)誤差曲線,根據(jù)曲線判斷出具有最優(yōu)壓縮率的關(guān)鍵幀,但其無(wú)法保證具有最佳壓縮率下得到關(guān)鍵幀的同時(shí)具有最小重建誤差,并且未考慮關(guān)鍵幀的運(yùn)動(dòng)表示能力。文獻(xiàn)[9]提出了一種基于運(yùn)動(dòng)分割的關(guān)鍵幀提取方法,將段與段之間的分割點(diǎn)作為關(guān)鍵幀點(diǎn),其認(rèn)為分割點(diǎn)最能表示運(yùn)動(dòng)變化最劇烈的姿態(tài),但是該方法未考慮誤差問(wèn)題,不適合運(yùn)動(dòng)壓縮。文獻(xiàn)[10-12]提出一種基于混合遺傳算法的人體捕獲數(shù)據(jù)關(guān)鍵幀提取方法,將遺傳算法與單純行法相結(jié)合。文獻(xiàn)[13]提取一種預(yù)選策略與重建誤差優(yōu)化的運(yùn)動(dòng)關(guān)鍵幀提取方法,將關(guān)鍵幀提取分為幀預(yù)選和基于重建誤差優(yōu)化的2個(gè)階段。

      基于以上分析,如何根據(jù)用戶需求使提取運(yùn)動(dòng)關(guān)鍵幀既能夠滿足大規(guī)模實(shí)時(shí)壓縮需要,又對(duì)原始運(yùn)動(dòng)具有很好的視覺(jué)概括力是關(guān)鍵幀的追求目標(biāo)。

      3 人體結(jié)構(gòu)簡(jiǎn)化與運(yùn)動(dòng)表示

      人體有200多塊骨骼,600多個(gè)自由度,主要由骨架層、肌肉層和皮膚層組成,但為了降低人體運(yùn)動(dòng)復(fù)雜度,通常將關(guān)節(jié)運(yùn)動(dòng)簡(jiǎn)化。層架骨架模型是一種常用的人體模型,是支撐人體運(yùn)動(dòng)最核心的部分,決定了人體運(yùn)動(dòng)的各種姿態(tài)。兩段剛體關(guān)節(jié)之間稱為關(guān)節(jié),連接相鄰2個(gè)關(guān)節(jié)的剛體是骨骼段,人體關(guān)節(jié)點(diǎn)的數(shù)目決定了運(yùn)動(dòng)的豐富性,關(guān)節(jié)點(diǎn)過(guò)多則包含運(yùn)動(dòng)信息更豐富,但也加大了編輯和計(jì)算復(fù)雜度,反之人體模型太簡(jiǎn)單,則容易丟失重要運(yùn)動(dòng)細(xì)節(jié)信息,運(yùn)動(dòng)不夠細(xì)膩。本文將人體骨架模型簡(jiǎn)化為29個(gè)關(guān)節(jié)點(diǎn)(含根節(jié)點(diǎn),共計(jì)56個(gè)自由度)連接起來(lái)人體模型,人體樹形結(jié)構(gòu)拓?fù)淙鐖D1所示。

      圖1 人體樹形結(jié)構(gòu)拓?fù)?/p>

      3.1 人體運(yùn)動(dòng)的描述

      人體運(yùn)動(dòng)是由根節(jié)點(diǎn)的平移和其余各節(jié)點(diǎn)相對(duì)于其父節(jié)點(diǎn)的旋轉(zhuǎn)來(lái)實(shí)現(xiàn)的,根節(jié)點(diǎn)的平移決定了人體的運(yùn)動(dòng)軌跡,根節(jié)點(diǎn)的旋轉(zhuǎn)決定人體的運(yùn)動(dòng)方向。除根節(jié)點(diǎn)外,其他各節(jié)點(diǎn)的旋轉(zhuǎn)在以父節(jié)點(diǎn)為坐標(biāo)原點(diǎn)的局部坐標(biāo)系下進(jìn)行,其他節(jié)點(diǎn)旋轉(zhuǎn)決定了人體旋轉(zhuǎn)狀態(tài),通過(guò)每一段骨架的長(zhǎng)度和旋轉(zhuǎn)矩陣就能計(jì)算出各關(guān)節(jié)點(diǎn)在世界坐標(biāo)系中的位置,關(guān)節(jié)點(diǎn)Jm+1在世界坐標(biāo)系下的位置可由公式求出:

      3.2 四元數(shù)

      四元數(shù)q可以記為:

      其中,w,x,y,z為實(shí)數(shù),四元數(shù)可以寫成抽象形式:

      3.3 旋轉(zhuǎn)的表示

      表示將向量r繞向量v旋轉(zhuǎn)θ角。

      3.4 四元數(shù)球面線性插值與線性插值

      四元數(shù)球面插值是2個(gè)單位四元數(shù)在單位超球面上插值,假設(shè)有單位四元數(shù)q1和q2,從q1到q2的球面線性插值記為Slerp(q1,q2,t),則有:

      設(shè)相鄰2幀t1和t2根節(jié)點(diǎn)位置分別為P1和P2,t時(shí)刻跟關(guān)節(jié)所處的Pt(t1<t<t2),則兩者線性插值為:

      3.5 四元數(shù)之間的距離

      圖2 四元數(shù)距離

      若q1,q2為2個(gè)單位四元數(shù)且q2q-1=[ω,x,y,z],2個(gè)四元數(shù)之間的距離表示為:

      在四元數(shù)表示法中,人體可以表示為離散時(shí)間向量函數(shù):

      其中,p(t)∈R3表示根關(guān)節(jié)平移運(yùn)動(dòng);qi(i=1, 2,…,m)表示關(guān)節(jié)i旋轉(zhuǎn)運(yùn)動(dòng),在一個(gè)運(yùn)動(dòng)序列中不同時(shí)刻t1,t2上的2幀,它們之間的距離D(t1,t2)表示為:

      d(qi(t1),qi(t2))表示在t1,t2時(shí)刻關(guān)節(jié)i旋轉(zhuǎn)的四元數(shù)距離,wi(i=1,2,…,m)為各關(guān)節(jié)對(duì)運(yùn)動(dòng)姿勢(shì)影響程度大小。

      如果有不同的運(yùn)動(dòng)序列A與運(yùn)動(dòng)序列B,A的每一幀到B的每一幀之間的距離也可以用兩者之間四元數(shù)的距離表示:

      表1 各關(guān)節(jié)點(diǎn)對(duì)應(yīng)權(quán)值

      4 運(yùn)動(dòng)關(guān)鍵幀提取與運(yùn)動(dòng)重構(gòu)

      數(shù)組keynum[j]用來(lái)記錄提取的關(guān)鍵幀集合,lastkey表示當(dāng)前為止搜索到最后的關(guān)鍵幀,n為運(yùn)動(dòng)序列長(zhǎng)度,δ為事先設(shè)定的閾值,主要根據(jù)用戶針對(duì)不同運(yùn)動(dòng)對(duì)壓縮率需求確定,keynum為提取關(guān)鍵幀數(shù)目,算法步驟如下:

      Step 1將第一幀作為關(guān)鍵幀加入到keynum,并使lastkey=1,初始化循環(huán)變量t=2。

      Step 2若t≥n,則算法停止;否則計(jì)算幀間距離d=D(t,lastkey)。

      Step 3若d≥δ,第t幀作為關(guān)鍵幀被提取保存在keynum[j],并使lastkey=t。

      Step 4t=t+1,返回Step2;直到算法結(jié)束,keynum[j],j∈[1,2,…,keynum]記錄了所有關(guān)鍵幀。

      運(yùn)動(dòng)重構(gòu)是在提取關(guān)鍵集合后,對(duì)相鄰關(guān)鍵幀之間的非關(guān)鍵幀進(jìn)行插值重構(gòu),從而重構(gòu)出與原始序列相同幀數(shù),重建算法步驟如下:

      Step 1初始化循環(huán)變量j=0。

      Step 2若j≥keynum-1,則算法結(jié)束;否則取相鄰關(guān)鍵幀T1=keynum[j],T2=keynum[j+1]。

      Step 3對(duì)T1與T2之間的非關(guān)鍵幀進(jìn)行插值重建,根關(guān)節(jié)采用一般線性插值,其他關(guān)節(jié)采用四元數(shù)球面插值。

      Step 4j=j+1,返回Step2。

      真實(shí)的人體運(yùn)動(dòng)具有較強(qiáng)的真實(shí)感,為較好地捕捉人體動(dòng)態(tài)特征,考慮運(yùn)動(dòng)數(shù)據(jù)時(shí)序性與運(yùn)動(dòng)特性。用人體姿勢(shì)誤差位置與人體關(guān)節(jié)運(yùn)動(dòng)速率差來(lái)表示原始運(yùn)動(dòng)與重建運(yùn)動(dòng)序列之間的誤差(重構(gòu)誤差),重構(gòu)誤差用原始幀與重建幀的平均幀間距離表示。重構(gòu)誤差與關(guān)鍵幀提取數(shù)目、人體關(guān)節(jié)運(yùn)動(dòng)速率密切相關(guān),一般來(lái)說(shuō)往往越少關(guān)鍵幀提取,重構(gòu)誤差越大。

      設(shè)m1為原始運(yùn)動(dòng)序列,m2為關(guān)鍵幀集合插值重構(gòu)序列,長(zhǎng)度均為n,重構(gòu)誤差E(m1,m2)表示為:

      D表示人體姿勢(shì)加權(quán)距離,主要用以衡量人體姿勢(shì)的位置誤差,表示為:

      5 實(shí)驗(yàn)結(jié)果及分析

      5.1 實(shí)驗(yàn)結(jié)果

      本文在Windows7操縱系統(tǒng)下,選擇Microsoft Visual Studio 2010作為開(kāi)發(fā)平臺(tái),使用OpenGL和卡耐基梅隆大學(xué)運(yùn)動(dòng)捕獲數(shù)據(jù)庫(kù),以MFC框架搭建了虛擬人運(yùn)動(dòng)編輯平臺(tái),在該平臺(tái)上實(shí)現(xiàn)對(duì)運(yùn)動(dòng)捕獲數(shù)據(jù)關(guān)鍵幀的提取功能。選擇骨架文件是asf(acclaim skeleton file)格式,運(yùn)動(dòng)數(shù)據(jù)是amc(acclaim motion capture data)格式,實(shí)驗(yàn)在英特爾core i3M380, 2.53 GHCPU,2 GB內(nèi)存上的PC上進(jìn)行。

      實(shí)驗(yàn)選取行走、騰空跳躍、翻筋斗3種運(yùn)動(dòng)類型來(lái)測(cè)試本文算法的有效性,采樣頻率均為40 f/s。實(shí)驗(yàn)1對(duì)運(yùn)動(dòng)長(zhǎng)度為150 f的行走走路運(yùn)動(dòng)分別采用文獻(xiàn)[5]方法、文獻(xiàn)[7]方法、文獻(xiàn)[9]方法與本文方法進(jìn)行關(guān)鍵幀提取,關(guān)鍵幀提取效果如圖3~圖6所示。實(shí)驗(yàn)2對(duì)運(yùn)動(dòng)長(zhǎng)度為144幀的騰空跳躍運(yùn)動(dòng)分別采用文獻(xiàn)[5]方法、文獻(xiàn)[7]方法、文獻(xiàn)[9]方法與本文方法提取關(guān)鍵幀,關(guān)鍵幀提取效果如圖7~圖10所示。實(shí)驗(yàn)3對(duì)運(yùn)動(dòng)長(zhǎng)度為296幀的翻筋斗運(yùn)動(dòng)分別采用文獻(xiàn)[5]方法、文獻(xiàn)[7]方法、文獻(xiàn)[9]方法與本文方法提取關(guān)鍵幀,關(guān)鍵幀提取效果如圖11~圖14所示。

      圖3 文獻(xiàn)[5]方法提取的行走關(guān)鍵幀集合

      圖4 文獻(xiàn)[7]方法提取的行走關(guān)鍵幀集合

      圖5 文獻(xiàn)[9]方法提取的行走關(guān)鍵幀集合

      圖6 本文方法提取的行走關(guān)鍵幀集合

      圖7 文獻(xiàn)[5]方法提取的騰空跳躍關(guān)鍵幀集合

      圖8 文獻(xiàn)[7]方法提取的騰空跳躍關(guān)鍵幀集合

      圖9 文獻(xiàn)[9]方法提取的騰空跳躍關(guān)鍵幀集合

      圖10 本文方法提取的騰空跳躍關(guān)鍵幀集合

      圖11 文獻(xiàn)[5]方法提取的翻筋斗關(guān)鍵幀集合

      圖12 文獻(xiàn)[7]方法提取的翻筋斗關(guān)鍵幀集合

      圖13 文獻(xiàn)[7]方法提取的翻筋斗關(guān)鍵幀集合

      圖14 本文方法提取的翻筋斗關(guān)鍵幀集合

      5.2 實(shí)驗(yàn)分析結(jié)果

      從圖3~圖5提取關(guān)鍵幀集合視覺(jué)效果來(lái)看,本文方法較好地對(duì)行走運(yùn)動(dòng)進(jìn)行概括,而文獻(xiàn)[5]方法提取的關(guān)鍵幀無(wú)法反映運(yùn)動(dòng)幀之間的真實(shí)差異,文獻(xiàn)[7]方法與文獻(xiàn)[9]方法雖然也能概括行走運(yùn)動(dòng)序列,一些關(guān)鍵幀仍然丟失且可能導(dǎo)致運(yùn)動(dòng)序列分析的失真。

      從圖7~圖10提取關(guān)鍵幀視覺(jué)效果可以看出,本文提出的方法對(duì)騰空跳躍運(yùn)動(dòng)提取沒(méi)有丟失重要關(guān)鍵幀,文獻(xiàn)[5]方法提取幀數(shù)過(guò)少,無(wú)法概括運(yùn)動(dòng)內(nèi)容,文獻(xiàn)[7]方法與文獻(xiàn)[9]方法雖然也能概括行走運(yùn)動(dòng)序列,但是其一些關(guān)鍵幀仍然丟失且?guī)g距過(guò)大。

      從圖11~圖14提取關(guān)鍵幀視覺(jué)效果來(lái)看,本文方法提取關(guān)鍵幀集合能較好地對(duì)翻筋斗運(yùn)動(dòng)進(jìn)行概括,文獻(xiàn)[5]方法關(guān)鍵幀與文獻(xiàn)[7]方法無(wú)法反映運(yùn)動(dòng)幀之間的真實(shí)差異,丟失在關(guān)鍵時(shí)刻的過(guò)度幀,容易造成對(duì)運(yùn)動(dòng)序列內(nèi)容分析的失真,文獻(xiàn)[9]方法雖然也能概括行走運(yùn)動(dòng)序列,但視覺(jué)效果上不如本文方法。

      運(yùn)動(dòng)重建部分采用使用四元數(shù)球面插值方法進(jìn)行了重建,選用四元數(shù)插值算法原因是其能保證提取相鄰關(guān)鍵幀鍵幀姿態(tài)差異較大時(shí),也能插值生成較平滑的中間幀動(dòng)畫。重構(gòu)誤差大小與關(guān)鍵幀提取數(shù)目有關(guān),對(duì)150幀行走運(yùn)動(dòng)的重建誤差曲線如圖15所示。

      從圖15可以看出提取關(guān)鍵幀數(shù)目越少,重構(gòu)誤差越大。u為加權(quán)擬合參數(shù),主要調(diào)節(jié)速率差與位置差的加權(quán)比例。圖16繪制的是144幀騰空跳躍運(yùn)動(dòng)的重建誤差曲線,可以看出騰空跳躍運(yùn)動(dòng)特性更加明顯,當(dāng)然其加權(quán)擬合參數(shù)u越大,重構(gòu)誤差也比步行運(yùn)動(dòng)大。

      圖15 行走運(yùn)動(dòng)重建誤差曲線

      圖16 騰空跳躍重建誤差曲線

      6 結(jié)束語(yǔ)

      本文提出的方法在重構(gòu)誤差中引入速度分量,充分考慮了人體運(yùn)動(dòng)節(jié)奏性強(qiáng)的特點(diǎn),從視覺(jué)上看,提取關(guān)鍵幀對(duì)原始運(yùn)動(dòng)數(shù)據(jù)具有較好的視覺(jué)概括能力。針對(duì)不同運(yùn)動(dòng)類型都?jí)嚎s率較高(小于7%)且能代表運(yùn)動(dòng)內(nèi)容,滿足了大規(guī)模實(shí)時(shí)壓縮的需要,大大降低了運(yùn)動(dòng)編輯的復(fù)雜度。今后工作是研究一種自動(dòng)評(píng)價(jià)指標(biāo),甚至引入語(yǔ)義信息,從而更加精確地提取人體邊界姿勢(shì),更好地致力于大規(guī)模運(yùn)動(dòng)捕捉數(shù)據(jù)的合成、檢索與編輯。

      [1] 劉賢梅,張巧生.數(shù)據(jù)驅(qū)動(dòng)的人體動(dòng)畫合成研究綜述[J].計(jì)算機(jī)工程與設(shè)計(jì),2010,31(18):4054-4057.

      [2] 劉賢梅.數(shù)據(jù)驅(qū)動(dòng)的人體動(dòng)畫的關(guān)鍵幀技術(shù)研究綜述[J].計(jì)算機(jī)工程與設(shè)計(jì),2011,32(3):1006-1009.

      [3] 潘志庚,呂 培,徐明亮,等.低維人體運(yùn)動(dòng)數(shù)據(jù)驅(qū)動(dòng)的角色動(dòng)畫生成方法綜述[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2013,25(12):1775-1785.

      [4] 孫淑敏,張建明,孫春梅.基于改進(jìn)K-means算法的關(guān)鍵幀提取[J].計(jì)算機(jī)工程,2012,38(23):169-172.

      [5] 楊 濤,肖 俊,吳 飛,等.基于分層曲線簡(jiǎn)化的運(yùn)動(dòng)捕獲數(shù)據(jù)關(guān)鍵幀提取[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2006,18(11):1691-1697.

      [6] 潘 紅,肖 俊.基于關(guān)鍵幀的三維人體運(yùn)動(dòng)檢索[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2009,21(2):214-222.

      [7] Zhang Qiang,Yu Shaopei.An Efficient Method of Keyframe Extraction Based on a Cluster Algorithm[J]. Journal of Human Kinetics,2013,39(1):5-14.

      [8] 劉云根,劉金剛.重建誤差最優(yōu)化的運(yùn)動(dòng)捕獲數(shù)據(jù)關(guān)鍵幀提取[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2010, 22(4):670-675.

      [9] 朱登明,王兆其.基于運(yùn)動(dòng)序列分割的運(yùn)動(dòng)捕獲數(shù)據(jù)關(guān)鍵幀提取[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2008,20(6):787-792.

      [10] 劉賢梅,郝愛(ài)民,趙 丹.基于混合遺傳算法的人體運(yùn)動(dòng)捕獲數(shù)據(jù)關(guān)鍵幀提取[J].模式識(shí)別與人工智能, 2011,24(5):619-628.

      [11] Liu Xianmei,Hao Aimin,Zhao Dan.Optimization-based Key Frame ExtractionforMotionCaptureAnimation[J].The Visual Computer,2013,29(1):85-95.

      [12] 劉賢梅,趙 丹.四元數(shù)樣條插值的人體運(yùn)動(dòng)數(shù)據(jù)重構(gòu)[J].計(jì)算機(jī)工程與應(yīng)用,2012,47(36):151-154.

      [13] 蔡美玲,鄒北驥,辛國(guó)江.預(yù)選策略和重建誤差優(yōu)化的運(yùn)動(dòng)捕獲數(shù)據(jù)關(guān)鍵幀提取[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2012,24(11):1485-1492.

      編輯 顧逸斐

      Extraction of Motion Key-frame Based on Inter-frame Pitch

      LI Shunyi1,HOU Jin1,2,GAN Lingyun1
      (1.School of Information Science and Technology,Southwest Jiaotong University,Chengdu 610031,China;
      2.State Key Laboratory for Novel Software Technology,Nanjing University,Nanjing 210093,China)

      To solve the problem that the motion capture data has a large number of data redundancy,this paper proposes a key frame extraction method based on inter-frame pitch.In order to compress,storage,reconstruct and further reuse motion data,key-frame is needed to be extracted which represents the content of the motion.Quaternion is introduced to represent the difference between two rotations.The distance between two frames is defined by the total rotation differences and first frame is regarded as the first key frame.Then,calculate the difference between the current frame and the last key frame continuously.The frame is eliminated when the difference is smaller than the set threshold or the opposite is reserved for the new key frame.Spherical linear interpolation is used to reconstruct the sequence.To express the characteristics of human motion,the joint velocity is introduced.Reconstruction error is defined by the human body posture error of position and the motion speed error between the original frame and the reconstructed frame.Experimental result demonstrates that the original motion capture can be compressed in a high ratio and gives a good visual summary performance.

      motion capture;key-frame extraction;inter-frame gap;spherical linear interpolation;reconstruction error; visual summary performance

      李順意,侯 進(jìn),甘凌云.基于幀間距的運(yùn)動(dòng)關(guān)鍵幀提取[J].計(jì)算機(jī)工程,2015,41(2):242-247.

      英文引用格式:Li Shunyi,Hou Jin,Gan Lingyun.Extraction of Motion Key-frame Based on Inter-frame Pitch[J]. Computer Engineering,2015,41(2):242-247.

      1000-3428(2015)02-0242-06

      :A

      :TP391

      10.3969/j.issn.1000-3428.2015.02.046

      國(guó)家自然科學(xué)基金資助面上項(xiàng)目(61371165);浙江大學(xué)CAD&CG國(guó)家重點(diǎn)實(shí)驗(yàn)室開(kāi)放課題基金資助項(xiàng)目(A1416);計(jì)算機(jī)軟件新技術(shù)國(guó)家重點(diǎn)實(shí)驗(yàn)室開(kāi)放課題基金資助項(xiàng)目(KFKT2013B22);四川省動(dòng)漫研究中心2012年度科研基金資助項(xiàng)目(DM201204)。

      李順意(1988-),男,碩士研究生,主研方向:人體動(dòng)畫;侯 進(jìn)(通訊作者),副教授;甘凌云,碩士研究生。

      2014-03-24

      :2014-05-05E-mail:jhou@swjtu.edu.cn

      猜你喜歡
      關(guān)鍵幀重構(gòu)動(dòng)畫
      長(zhǎng)城敘事的重構(gòu)
      攝影世界(2022年1期)2022-01-21 10:50:14
      做個(gè)動(dòng)畫給你看
      動(dòng)畫發(fā)展史
      我的動(dòng)畫夢(mèng)
      文苑(2019年22期)2019-12-07 05:28:56
      北方大陸 重構(gòu)未來(lái)
      北京的重構(gòu)與再造
      商周刊(2017年6期)2017-08-22 03:42:36
      基于改進(jìn)關(guān)鍵幀選擇的RGB-D SLAM算法
      論中止行為及其對(duì)中止犯的重構(gòu)
      基于相關(guān)系數(shù)的道路監(jiān)控視頻關(guān)鍵幀提取算法
      我是動(dòng)畫迷
      微山县| 措勤县| 鄱阳县| 大新县| 河间市| 东至县| 镇雄县| 墨江| 临潭县| 敖汉旗| 汝州市| 崇左市| 定结县| 大兴区| 锡林郭勒盟| 新蔡县| 远安县| 嘉祥县| 伽师县| 林西县| 司法| 贵德县| 萨嘎县| 高唐县| 永康市| 闵行区| 漾濞| 监利县| 白山市| 汽车| 竹北市| 临夏县| 淅川县| 阜城县| 九龙县| 新田县| 永嘉县| 府谷县| 菏泽市| 皮山县| 隆回县|