?
基于柔性空間機構(gòu)的人眼表情動畫研究
吳堅堅,呂國云,樊養(yǎng)余,盧西盼
(西北工業(yè)大學(xué)電子信息學(xué)院,陜西西安710072)
摘要:逼真的眼部動畫對于人臉表情的描述具有非常重要的意義,該文引入柔性空間機構(gòu),提出了一種新穎的三維人眼表情動畫的實現(xiàn)方法。該方法融合了傳統(tǒng)的肌肉模型和柔性空間機構(gòu)模型的特點,采用柔性空間機構(gòu)模型實現(xiàn)眼睛的開合以及眼部邊界點的運動;對于非邊界點和額肌、皺眉肌等部位采用肌肉模型進行控制。實驗結(jié)果表明,該方法實現(xiàn)簡單、符合眼睛運動的物理特性,能獲得更自然和逼真的眼部表情動畫。
關(guān)鍵詞:柔性空間機構(gòu)模型,表情動畫,人眼建模,人臉幾何模型
人臉表情動畫是三維虛擬現(xiàn)實的重要研究內(nèi)容,在智能虛擬人中有著重要的應(yīng)用。而作為人類心靈窗戶的眼睛,能充分反映人的喜、怒、哀、樂等各種內(nèi)心活動,直接影響著人臉表情合成的效果,因此一直是三維人臉表情動畫的研究熱點[1],也是一個具備挑戰(zhàn)性的研究課題。
自從Parke首次用計算機建立虛擬人臉動畫以來[2],研究人員對人臉眼部模型進行了大量研究,取得了一系列的成果。Li等提出了一種基于特征點的人臉動畫實現(xiàn)方法,該方法可以在沒有復(fù)雜人工參與的情況下實現(xiàn)較好的面部動畫[3]。Yang等提出了一種基于GPU的3D變形目標(biāo)方法,可以實現(xiàn)實時的人臉表情動畫,得到的眼部表情較為真實[4]。Wei等將上下眼瞼邊緣近似為2條特定的曲線,通過幾何建模的方法實現(xiàn)了眼部動畫[5]。Deng等采用數(shù)據(jù)驅(qū)動紋理合成的方法,實現(xiàn)了逼真的眼部運動[6]。Zhang等采用網(wǎng)格模型,利用修改特征點位移來控制面部區(qū)域的運動[7]。Patel使用單張正面人臉照片進行人臉模型重建、表情合成、得到表情動畫,該方法不需要人工交互,可以實現(xiàn)自動化[8]。曾丹等根據(jù)解剖學(xué)原理,采用多達8條肌肉去控制人眼內(nèi)部和外部網(wǎng)格點運動,獲得了較好效果[9]。而文獻[10-11]提出采用肌肉模型和空間機構(gòu)學(xué)相結(jié)合的方法實現(xiàn)眼睛的運動,特別是首次采用空間桿機構(gòu)實現(xiàn)眼睛的開合,更符合眼部開合運動的物理特性。文獻[12]提出了一種情感人眼運動標(biāo)記語言(EEMML),獲得了不錯的效果。文獻[13]對眼睛的運動,尤其是當(dāng)人哭泣時眼部的運動做了詳細的研究。基于語音驅(qū)動的方法,文獻[14]給出了一種完全自動的生成人眼凝視、眼皮運動的實現(xiàn)方法。結(jié)合基于圖像和基于幾何模型的方法,文獻[15]提出了一種基于統(tǒng)計學(xué)習(xí)的面部動畫實現(xiàn)方法,能較好的實現(xiàn)眼睛閉合、挑眉等眼部動畫。
傳統(tǒng)方法主要采用肌肉模型或參數(shù)模型來實現(xiàn)眼部運動,控制參數(shù)的調(diào)整比較復(fù)雜,難以體現(xiàn)眼部運動的自然性和逼真性。文獻[10-11]采用了空間機構(gòu)學(xué)來控制眼皮的運動,通過構(gòu)建桿機構(gòu)模型,較為貼切地描述了眼睛的張合運動,但是其控制參數(shù)單一,并且將眼部運動看作是完全剛性的運動。而事實上人眼部運動是一個復(fù)雜的柔性變形,因此本文在文獻[10-11]的基礎(chǔ)上,擬引入柔性空間機構(gòu)學(xué)的理論[16],在剛性空間機構(gòu)思想的基礎(chǔ)上,加入柔性變形,同時融合傳統(tǒng)的肌肉模型,提出了一種新穎的人眼動畫實現(xiàn)方法,在考慮機構(gòu)的柔性變形的基礎(chǔ)上,以期能夠更好地描述眼睛運動的自然規(guī)律,獲得更逼真的眼部表情動畫。
由于人臉結(jié)構(gòu)的復(fù)雜性,人的眼部運動和表情是和眉毛、額頭、鼻子等的運動緊密相關(guān)的。人眼部運動由眼球轉(zhuǎn)動以及眼瞼開閉等運動組成,同時受到眉毛、額頭、鼻子等部位以及周圍皮膚的共同影響。
根據(jù)解剖學(xué)知識可知,人眼外部肌肉主要包括額肌、皺眉肌、鼻根肌、上瞼提肌、眼輪匝肌等肌肉,如圖1所示,這些肌肉共同作用引起眼外部皮膚的變形;而人眼內(nèi)部,即眼球的運動,主要受上直肌、下直肌、內(nèi)直肌、外直肌、上斜肌、下斜肌共6條肌肉的控制,如圖2所示,這些肌肉控制著眼球的上下、左右、內(nèi)外的旋轉(zhuǎn)運動。
圖1 人眼外部肌肉分布
圖2 眼外肌分布
人眼動畫的模擬主要通過操作眼部的三維網(wǎng)格模型實現(xiàn)。人眼的三維網(wǎng)格模型可以分為邊界點集和非邊界點集兩部分。邊界點集主要指上眼瞼邊緣處的邊界網(wǎng)格點,如圖3所示;非邊界點集則是指眼周除邊界點集外的其他網(wǎng)格點。
圖3 眼瞼邊界點集示意圖
根據(jù)空間機構(gòu)學(xué)原理,空間機構(gòu)能夠描述任意的復(fù)雜運動,本文采用柔性空間機構(gòu)模型來控制眼部邊界點的運動(即眨眼及周邊相關(guān)運動),從而實現(xiàn)眼睛的閉合與睜開時任意速度等復(fù)雜的運動;對于非邊界點集和眼球的運動,采用傳統(tǒng)肌肉模型進行控制。對于肌肉模型和柔性空間機構(gòu)模型交界處的皮膚變形,采用文獻[11]的徑向基插值方法進行平滑處理,這樣便可以實現(xiàn)逼真的眼部動畫。
圖4為文獻[11]采用的實現(xiàn)眼睛張合和眨眼動作的空間機構(gòu)模型,O'M為該機構(gòu)的曲柄,通過O'M帶動連桿OM的運動。該機構(gòu)以O(shè)M的旋轉(zhuǎn)角速度為控制參數(shù),并假定眼皮上任意一點N位于連桿OM上,通過計算OM轉(zhuǎn)過的角度θ得到眼皮邊界點在任意時刻的位置,從而實現(xiàn)對眼皮運動的控制。
圖4 空間機構(gòu)模型
可以看出,該機構(gòu)模型實現(xiàn)簡單,控制參數(shù)較少,但是僅僅模擬了眼皮的剛性的張和運動,不能實現(xiàn)對眼皮的靈活控制。由于眼部結(jié)構(gòu)的復(fù)雜性和肌肉自身的柔性特性,人眼部的運動既有剛性運動也有柔性變形,要想體現(xiàn)眼部的柔性變形、實現(xiàn)眼部的靈活控制,單純的空間機構(gòu)模型有一定的局限性,因此柔性空間機構(gòu)和更多控制參數(shù)的機構(gòu)被期望用來實現(xiàn)更好的眼部運動控制。
3.1柔性桿的定義
柔性桿是一個帶有柔性片段的剛性桿或者整個桿都為柔性的,它可以描述物體的柔性變形特性。
剛性桿可以實現(xiàn)物體的剛性運動,但是對于需要表現(xiàn)物體變形和柔性特性的運動來說,剛性桿有一定的局限性,而柔性桿由于自身的特性,可以較好地體現(xiàn)此類運動的變形和柔性特性。
圖5為一個柔性桿和剛性桿運動的比較。OA表示一個剛性桿,圖中實線表示其運動軌跡,OA'表示它的一個運動狀態(tài); OB表示一個帶有柔性片段(短臂柔鉸)的柔性桿件,圖中虛線表示其運動軌跡,OB'表示它的一個運動狀態(tài)。OA和OB在初始時處于同一位置。從圖中可以看出,相比與剛性桿而言,柔性桿件能體現(xiàn)物體的柔性特性和變形,具有較好的優(yōu)越性。
圖5 柔性桿和剛性桿比較
圖6 短臂柔鉸
圖6給出了本文所用的短臂柔鉸示意圖,在運動過程中其變形方程為
式中,δx和δy分別為x和y方向上的變形,因此柔性段的長度可以表示為
3.2面向眼部動畫的柔性空間機構(gòu)模型
由于人的眼球近似為球體,因此眼皮邊界的運動軌跡可以等效成一段圓弧;又由于真實人的眼皮運動是一個變角速度的運動,同時眼部運動本身屬于一個復(fù)雜的柔性變形過程,因此根據(jù)柔性空間機構(gòu)學(xué)原理,本文采用一個柔性空間四桿機構(gòu)來模擬眼瞼邊界點的運動和非線性變形。模擬眼皮運動的柔性機構(gòu)如圖7,為了方便對圖7的模型進行求解,根據(jù)文獻[16]得到其等效的偽剛體模型如圖8所示。
圖7 柔性空間機構(gòu)模型圖
圖8 等效偽剛體模型示意圖
圖7的空間機構(gòu)模型由機架、曲柄、連桿、搖桿四部分組成。機架4是機構(gòu)中的固定部分;曲柄由剛性桿1和短臂柔鉸1組成,為機構(gòu)中的原動件;剛性桿2為連桿;搖桿由剛性桿3和短臂柔鉸2組成,為機構(gòu)中的從動件。曲柄和連桿、連桿和搖桿分別通過連接點A、B相連接。根據(jù)柔性四桿機構(gòu)的理論知識,當(dāng)滿足四桿中最短桿長度與最長桿長度之和小于等于其余兩桿長度和的時候,曲柄能夠作整周的回轉(zhuǎn)運動,并通過連桿帶動搖桿做往復(fù)擺動。
根據(jù)眼部運動的實際情況,將眼皮邊界處任意一點看作是位于搖桿上的某點,根據(jù)需要設(shè)定曲柄的旋轉(zhuǎn)角速度為控制參數(shù),根據(jù)機架、曲柄、連桿、搖桿之間的位置關(guān)系和初始安裝位置,以及輸入的曲柄的旋轉(zhuǎn)角速度參數(shù),可以得到該點在任意時刻的空間位置或轉(zhuǎn)過的角度,從而驅(qū)動眼皮區(qū)域網(wǎng)格點的運動,實現(xiàn)眼睛的張合運動。
在圖8的模型中,O點模擬眼球中心點,并以O(shè)為坐標(biāo)原點建立相應(yīng)的復(fù)數(shù)向量坐標(biāo)系;短臂柔鉸1和短臂柔鉸2的長度分別為l1、l2,根據(jù)柔性機構(gòu)學(xué)原理,可將其分別用一個扭轉(zhuǎn)彈簧表示,在運動過程中其長度l'1、l'2可按公式(3)計算;剛性桿1的長度為L1; OO',即機架4的長度為L4; AB,即連桿2的長度為L2,與OO'的夾角為θ2;剛性桿3的長度為L3。因此,O'A的長度為L3+ l'1,在初始位置時與OO'的夾角為θ1; OB的長度為L3+ l'2,與OO'的夾角為θ4,與實軸的夾角為θ3。O'A繞O'點以角速度ω1做圓周運動,通過AB的連接,帶動OB以ω3作繞O點旋轉(zhuǎn)的圓周運動。假設(shè)眼皮邊緣上的任一控制點C位于OB上某固定點處,就可以通過該柔性機構(gòu)模型模擬邊界控制點的運動軌跡。通過調(diào)整機構(gòu)位置、改變輸入?yún)?shù)就可以實現(xiàn)靈活的眼部運動,2個短臂柔鉸用來體現(xiàn)眼睛的柔性運動,此處假設(shè)2個短臂柔鉸的長度l1= l2。通過數(shù)學(xué)模型對其進行分析:
柔性空間機構(gòu)的矢量封閉方程為:
展開后,得
令
可得
求解,并取θ3為銳角可得到
式中:θ1=ω1t,從而得到控制點的旋轉(zhuǎn)角度
在(4)式中,θ4=ω3×t。將(4)式兩邊對時間t求導(dǎo)數(shù),運用上邊的分析方法,可得
從而得到控制點的運動速度。
由以上分析可知,通過改變角速度ω1和各個桿的長度,就可以實現(xiàn)對眼睛閉合程度和速度的控制,從而實現(xiàn)眼部不同狀態(tài)下的運動情況。
以上方法采用柔性空間機構(gòu)來模擬眼皮邊緣的運動情況,不僅可以用同一個數(shù)學(xué)模型實現(xiàn)連續(xù)時間情況下眼睛閉合和張開這樣相反的運動,同時運用四桿機構(gòu),可以通過預(yù)先改變四桿機構(gòu)的位置和桿的長度實現(xiàn)更加靈活的眼部運動控制。同文獻[11]所述的方法相比,采用柔性機構(gòu)能描述眼部剛性運動時附加的復(fù)雜柔性變形,能更好地模擬真實的眼皮運動,體現(xiàn)了眼皮運動的柔性特性和非線性變形,描述更多的眼部運動細節(jié)。而且該機構(gòu)的數(shù)學(xué)模型簡單,物理意義明確,能達到較好的效果。
肌肉模型是指根據(jù)肌肉的物理特性,對面部的各個區(qū)域進行收縮和擴張控制,從而生成逼真的人臉動畫表情。Waters的研究將肌肉模型分為線性肌和括約?。?7],文獻[9]對Waters的肌肉模型進行了改進,將線性肌細分為窄線性肌和寬線性肌。
人眼部的運動是受多條肌肉共同控制的,其中人眼的外部受額肌、皺眉肌、鼻根肌、上瞼提肌、眼輪匝肌共5條肌肉的控制;人眼的內(nèi)部運動,主要是眼球的運動,受上直肌、下直肌、內(nèi)直肌、外直肌、上斜肌、下斜肌共6條肌肉的控制。根據(jù)文獻[9]的肌肉模型,可將這些肌肉分成3類,采用不同的肌肉模型分別進行控制:皺眉肌、鼻根肌采用窄線性肌模型;眼輪匝肌采用括約肌模型;額肌、上瞼提肌采用寬線性肌;并將人眼分為外部模型和內(nèi)部模型分別進行控制。
對于人眼外部模型的非邊界點集中的任意一點,如果給定肌肉的變化量Δl,那么在外部模型的5條肌肉的共同控制下,可以得到該點的運動位置點=+×,,δj其中為初始時該點位置為單條肌肉的改變位移,δj為相應(yīng)的單條肌肉的影響因子。這樣,在多條肌肉的控制下即可實現(xiàn)外部非邊界點的運動。
內(nèi)部模型的6條肌肉,直肌控制眼球的上下左右轉(zhuǎn)動,斜肌控制眼球的內(nèi)外旋轉(zhuǎn),從而實現(xiàn)眼球的運動。對于右眼,首先建立右眼坐標(biāo)系:以右眼眼球中心O為坐標(biāo)原點,取眼球球心向外方向為方向,右眼向前正視方向為Z方向,Y方向為過眼球中心且垂直于XOZ平面向上的方向,可以得到6條肌肉。的旋轉(zhuǎn)軸單位矢量取每條肌肉的影響因子為δi,每條肌肉的收縮量為Δli,那么在6條肌肉的共同影響下,可得到眼球的旋轉(zhuǎn)矢量為=δi×× Δli,從而可將眼球的運動看作繞X、Y、Z軸的旋轉(zhuǎn)運動,實現(xiàn)對眼球運動的控制。
5.1實驗框架
為了驗證上述方法的有效性,在PC機上進行了模擬,操作系統(tǒng)為WindowsXP,編程軟件為VS2005。實驗采用三維人頭臉網(wǎng)格模型作為幾何模型,而眼部動畫模型采用柔性空間機構(gòu)模型和肌肉模型相結(jié)合的方法來實現(xiàn)。
實驗中,先從一組錄制的視頻表情動畫中提取眼部運動的特征點參數(shù),采用特征點參數(shù)得到運動模型的驅(qū)動參數(shù),然后通過空間機構(gòu)模型和肌肉模型驅(qū)動給定的人眼動畫模型,驅(qū)動人眼網(wǎng)格點的運動,對模擬的三維人眼動畫和原始視頻進行主觀比較,驗證眼睛表情動畫的逼真性。
5.2人臉幾何模型
“臭婊子,騷婊子!”蘇菲一邊拳打腳踢,一邊罵道?,F(xiàn)在她是打到誰算誰。她要出的氣太多了,也出徐小愚讓她慪的那口惡氣。朝三暮四的徐小愚把一片癡心的蘇菲耍慘了,還是在性命攸關(guān)的時候耍的……“臭婊子……”蘇菲的惡罵被嗚咽和拳腳弄得斷斷續(xù)續(xù)。
本實驗采用的人臉網(wǎng)格模型中,整體頭部共有20 103個網(wǎng)格點,左眼4 873個網(wǎng)格點,右眼4 895個網(wǎng)格點。在導(dǎo)出的眼部整體模型上,眼球的幾何模型獨立生成。實驗中通過MeshView軟件讀取整體人臉模型中網(wǎng)格點標(biāo)號信息,根據(jù)MPEG-4標(biāo)準(zhǔn)選擇眼部區(qū)域的特征點作為控制點,帶動非特征點的運動,在左右上眼皮邊緣處共選取36個控制點,實現(xiàn)對眼皮的運動控制。
5.3肌肉參數(shù)和柔性機構(gòu)參數(shù)的確定
為了模擬特定的眼部表情,首先選取某種表情的某一視頻流,然后針對不同的模型選取不同的方法進行控制。
肌肉模型:首先在額肌、皺眉肌等肌肉處選擇特征點并標(biāo)定。在視頻流中對選擇的經(jīng)過標(biāo)定的各肌肉相對應(yīng)的特征點進行數(shù)據(jù)跟蹤,得到選定的5條肌肉的運動規(guī)律。然后將跟蹤得到的數(shù)據(jù)結(jié)果進行規(guī)律曲線擬合,得到各種表情下運動曲線方程的系數(shù)。根據(jù)曲線信息設(shè)置和調(diào)節(jié)肌肉參數(shù),依據(jù)曲線方程來驅(qū)動網(wǎng)格點的運動,從而得到眼部動畫。
柔性空間機構(gòu)模型:在給出的表情視頻流中,觀察某一特定表情下眼睛閉合與睜開的起止時間和次數(shù)。根據(jù)觀察的結(jié)果,得到特定表情時眼睛的張合速度以及在該表情下,不同時刻眼睛張開的角度。然后根據(jù)文中所述的柔性空間機構(gòu)模型,設(shè)置眼睛張合速度和張開角度參數(shù),并調(diào)節(jié)各個桿件的長度來控制眼皮邊界點,逼近眼睛張合的實際情況,從而得到較為真實的眼睛閉合與睜開運動。
以悲傷時眼部動畫為例:首先選擇悲傷時的視頻流,跟蹤視頻流中眼部標(biāo)定的5條肌肉對應(yīng)的特征點的運動,將得到的運動數(shù)據(jù)記錄并進行曲線擬合,得到悲傷時曲線方程的系數(shù)。以此為依據(jù)來設(shè)置和調(diào)整肌肉參數(shù),用曲線方程系數(shù)來驅(qū)動網(wǎng)格點的運動。對于眼睛的張合運動,首先觀察悲傷時視頻流中眼睛閉合與睜開的起止時間和次數(shù),由此可以得到在悲傷時眼睛的張合速度以及在不同時刻時眼睛張開的角度。根據(jù)得到的數(shù)據(jù),設(shè)置眼睛張合速度和張開角度參數(shù),并調(diào)節(jié)各個桿件的長度來控制眼皮邊界點的運動,逼近眼睛張合的實際情況。對于眼睛閉合對眼皮皮膚變形的影響,使用文獻[11]的徑向基插值方法進行平滑處理,由此可以得到更加逼真、自然的悲傷時眼部表情動畫。
5.4仿真結(jié)果
下面給出了一些實驗結(jié)果。圖9為采用柔性空間機構(gòu)得到眼部動畫,圖10和圖11分別為采用肌肉模型和空間機構(gòu)模型得到的人在大笑和悲傷時的眼部表情動畫。
圖9 柔性空間機構(gòu)模型實驗結(jié)果
圖10 肌肉模型實驗結(jié)果
圖11 空間機構(gòu)模型實驗結(jié)果
在圖9中,圖9a)描述了眼睛由自然睜開開始逐漸閉合直到完全閉合的過程,圖9b)描述了相反的過程,圖9c)為大笑時眼部的運動情況,眼睛由自然睜開到大笑時眼睛有較大的睜開,眉毛有一定的彎曲,圖9d)為人在悲傷時的眼部運動狀態(tài),眼睛由自然睜開,在悲傷的過程中眼皮慢慢向下運動,眉毛彎曲,到最后閉合。在圖10中,在大笑時上眼瞼幾乎沒有明顯的改變并且在悲傷時眼睛的內(nèi)眼角的變形也不合理。在圖11中,在大笑時上眼瞼有一定的運動,但是不夠明顯;在悲傷時眼瞼運動較好,但是眼角處的肌肉運動不夠自然。
5.5評價
主觀評價:和以往的方法相比,柔性空間機構(gòu)模型能獲得更加自然的眼部張合運動:在大笑時,通過觀察上眼瞼覆蓋眼球的程度可以看出,柔性空間機構(gòu)模型可以實現(xiàn)更加明顯的上眼瞼的運動;在悲傷時,柔性空間機構(gòu)模型的使用消除了內(nèi)眼角的不合理變形,使得眼部動畫更加逼真、自然。客觀評價: 圖12給出了MPEG-4定義的人右眼特征點。我們選取3.2和3.4之間的垂直距離作為評價參數(shù)。首先對距離進行歸一化。與圖9~圖11所示結(jié)果對應(yīng)的數(shù)據(jù)如表1所示。
表1 眼部動畫垂直歸一化距離
圖12 右眼特征點
從表中可以看出,柔性空間機構(gòu)模型更加貼近原始視頻數(shù)據(jù),有較好的優(yōu)越性。
本文把柔性空間機構(gòu)學(xué)引入人眼表情動畫,提出了一種融合柔性機構(gòu)學(xué)和肌肉模型的人眼動畫模型。該方法依據(jù)肌肉模型的原理,結(jié)合眼部運動的特性,采用柔性空間機構(gòu)模型控制眼皮邊界點的運動,對于非邊界點和額肌、皺眉肌等采用肌肉模型進行控制。仿真和實驗結(jié)果表明:該方法能更好的描述眼部運動的自然規(guī)律,體現(xiàn)眼部的剛性運動和柔性變形,從而能獲得更自然的眼睛的張開和閉合、以及各種逼真的眼部表情動畫。
參考文獻:
[1]Li L,Liu Y,Zhang H.A survey of computer facial animation techniques[C]∥Proceedings of 2012 International Conference on Computer Science and Electronics Engineering,Hangzhou,2012: 434-438
[2]Parke F I.Computer generated animation of faces[C]∥Proceedings of the ACM Annual Conference,New York,1972: 451-457
[3]Li B,Zhang Q,Zhou D,et al.Facial Animation Based on Feature Points[J].Telkomnika Indonesian Journal of Electrical Engineering,2013,11(3) : 1697-1706
[4]Yang M,Wang K,Zhang L.Realistic Real-Time Facial Expressions Animation via 3D Morphing Target[J].Journal of Software,2013,8(2) : 418-425
[5]Wei X,Zhu Z,Yin L,et al.A Real Time Face Tracking and Animation System[C]∥Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops,Washington,2004: 71-79
[6]Deng Z,Lewis J P,Neumann U.Automated Eye Motion Using Texture synthesis[J].IEEE Computer Graphics and Applications,2005,25(2) : 24-30
[7]Zhang Q,Liu Z,Quo G,et al.Geometry-Driven Photorealistic Facial Expression Synthesis[J].IEEE Trans on Visualization and Computer Graphics,2006,12(1) : 48-60
[8]Patel N,Zaveri M.3D Facial Model Reconstruction,Expressions Synthesis and Animation Using Single Frontal Face Image[J].Signal,Image and Video Processing,2013,7(5) : 889-897
[9]曾丹,程義民,葛仕明,等.人眼3D肌肉控制模型[J].計算機輔助設(shè)計與圖形學(xué)學(xué)報,2006,18(11) : 1710-1716 Zeng D,Cheng Y M,Ge S M,et al.3D Muscle-Controlled Eye Model[J].Journal of Computer-Aided Design&Computer Graphics,2006,18(11) : 1710-1716 (in Chinese)
[10]張抗,樊養(yǎng)余,呂國云,等.基于機構(gòu)學(xué)和肌肉模型的單視頻驅(qū)動人臉情感表達仿真[J].中國圖象圖形學(xué)報,2011,16 (3) : 449-453 Zhang K,F(xiàn)an Y Y,Lü G Y,et al.Drive Facial Animation by Using Single Video Based on the Mechanism Theory and Muscle Model[J].Journal of Image and Graphics,2011,16(3) : 449-453 (in Chinese)
[11]Huang Q,F(xiàn)an Y,Lei T.A Novel Approach of Eye Movement and Expression[J].Proceedings of 2010 2nd International Conference on Future Computer and Communication,2010
[12]Li Z,Mao X.EEMML: the Emotional Eye Movement Animation Toolkit[J].Multimedia Tools and Applications,2012,60(1) : 181-201
[13]Prasetyahadi M C,Ali I R,Basori A H,et al.Eye,Lip And Crying Expression for Virtual Human[J].International Journal of Interactive Digitl Media,2013,1(2) : 22-26
[14]Le B H,Ma X,Deng Z.Live Speech Driven Head-and-Eye Motion Generators[J].IEEE Trans on Visualization and Computer Graphics,2012,18(11) : 1902-1914
[15]Xu S,Ma G,Meng W,et al.Statistical Learning Based Facial Animation[J].Journal of Zhejiang University Science C,2013,14(7) : 542-550
[16]李姣,李瑞琴.平面柔順機構(gòu)偽剛體模型的動力學(xué)分析[J].建設(shè)機械技術(shù)與管理,2013 (12) : 127-130 Li J,Li R Q.Kinetic Analysis of the Pseudo-Rigid-Body Model of the Planar Compliant Mechanism[J].Construction Machinery Technology and Management,2013(12) : 127-130 (in Chinese)
[17]Waters K.A Muscle Model for Animation Three-Dimensional Facial Expression[J].ACM Siggraph Computer Graphics,1987,21(4) : 17-24
Researching Eye Expression Animation Using Compliant Spatial Mechanism Model
Wu Jianjian,Lü Guoyun,F(xiàn)an Yangyu,Lu Xipan
(Department of Electronics Engineering,Northwestern Polytechnical University,Xi'an 710072,China.)
Abstract:Realistic eye animation is very important for facial expressions.We proposed a novel 3D human eye animation model using compliant spatial mechanism model.This method integrates the features of the traditional muscle model with those of the compliant spatial mechanism model.In this method,compliant spatial mechanism model is used to describe eye opening and closing and the movements of the eye boundary points; the muscle model is used to control eye non-boundary points,the parts of frontalis,corrugator,and so on.Experimental results and their analysis show preliminarily that this method can describe the physical characteristics of eye movements and can obtain realistic and natural eye expression animation.
Key words:compliant spatial mechanism model,expression animation,eye modeling,human face geometry model
作者簡介:吳堅堅(1990—),西北工業(yè)大學(xué)碩士研究生,主要從事虛擬現(xiàn)實研究。
收稿日期:2014-09-28基金項目:西北工業(yè)大學(xué)研究生創(chuàng)業(yè)種子基金(Z2014136)資助
文章編號:1000-2758(2015) 02-0295-07
文獻標(biāo)志碼:A
中圖分類號:TP391.9