柯顯信,云亞文,邱本銳
(上海大學(xué) 機(jī)電工程與自動(dòng)化學(xué)院,上海 200072)
不同個(gè)性的情感機(jī)器人表情研究
柯顯信,云亞文,邱本銳
(上海大學(xué) 機(jī)電工程與自動(dòng)化學(xué)院,上海 200072)
在情感機(jī)器人研究中,不同個(gè)性的面部表情是情感機(jī)器人增強(qiáng)真實(shí)感的重要基礎(chǔ)。為實(shí)現(xiàn)情感機(jī)器人更加豐富細(xì)膩的表情,將人類的個(gè)性特征引入情感機(jī)器人,分析個(gè)性理論和情感模型理論,得知不同個(gè)性機(jī)器人的情感強(qiáng)度。結(jié)合面部動(dòng)作編碼系統(tǒng)中面部表情與機(jī)器人控制點(diǎn)之間的映射關(guān)系,得到情感機(jī)器人不同個(gè)性的基本表情實(shí)現(xiàn)方法。利用Solidworks建立情感機(jī)器人臉部模型,在ANSYS工程軟件中將SHFR-Ⅲ情感機(jī)器人臉部模型設(shè)置為彈性體,通過有限元仿真計(jì)算方法,對表情的有限元仿真方法進(jìn)行了探究,得到實(shí)現(xiàn)SHFR-Ⅲ不同個(gè)性基本表情的控制區(qū)域載荷大小和仿真結(jié)果。最后,根據(jù)仿真結(jié)果,進(jìn)行SHFR-Ⅲ情感機(jī)器人不同個(gè)性的表情動(dòng)作實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,有限元表情仿真可以指導(dǎo)SHFR-Ⅲ情感機(jī)器人實(shí)現(xiàn)近似人類的不同個(gè)性的基本面部表情。
情感機(jī)器人;面部表情;情感模型;個(gè)性;人臉模型;彈性皮膚;有限元仿真;控制區(qū)域
情感機(jī)器人是當(dāng)今機(jī)器人研究領(lǐng)域的熱點(diǎn)問題,隨著人類社會(huì)逐步進(jìn)入老齡化社會(huì),情感機(jī)器人研究的智能效率性、行動(dòng)靈活性和人際交往性等功能變得越來越有價(jià)值?,F(xiàn)如今,機(jī)器人已經(jīng)開始進(jìn)入人類的日常生活,它們在家政服務(wù)和醫(yī)療等方面已經(jīng)代替了人類的部分工作[1]。并且,越來越多的仿人情感機(jī)器人相繼問世,這些機(jī)器人不僅有人類的外表,還具有與人類相似的面部表情,幾乎可以像人一樣交流[2]。
2008年,英國布里斯托爾機(jī)器人學(xué)實(shí)驗(yàn)室研制出了仿人機(jī)器人Jules[3],該機(jī)器人擁有34個(gè)電動(dòng)機(jī),這些電動(dòng)機(jī)被軟性橡膠所覆蓋,可以實(shí)現(xiàn)人類面部表情和嘴唇運(yùn)動(dòng),模仿人類常見的10種面部表情。2011年,哈爾濱工業(yè)大學(xué)研制了一款能實(shí)現(xiàn)表情識(shí)別和表情再現(xiàn)的仿人機(jī)器人[4],該機(jī)器人具有眼球、眼瞼、下顎和表情機(jī)構(gòu)驅(qū)動(dòng)系統(tǒng),可以實(shí)現(xiàn)7種不同特征的面部表情。2014年,日本大阪大學(xué)機(jī)器人研究所所長石黑浩設(shè)計(jì)了女播音員機(jī)器人“Kodomoroid”[5-6],該機(jī)器人的皮膚采用的是硅樹脂材料,并且還配置了人工肌肉。該機(jī)器人在與人交流時(shí),嘴唇和眉毛都會(huì)動(dòng),還會(huì)眨眼、左顧右盼等。
雖然國內(nèi)外在仿人情感機(jī)器人方面取得了非??上驳某晒?,但是目前大多數(shù)表情機(jī)器人再現(xiàn)的人類表情,看起來還是十分簡單、粗糙,遠(yuǎn)沒有人類的面部表情豐富、細(xì)膩,很難跨越仿人情感機(jī)器人研究中的“恐怖谷”理論[7-8]。本研究希望通過讓機(jī)器人在情感交互過程中表現(xiàn)出個(gè)性特點(diǎn),增強(qiáng)表情動(dòng)作的真實(shí)感,幫助情感機(jī)器人跨越“恐怖谷”,提高人們對仿人表情機(jī)器人的接受度。
英國著名心理學(xué)家H.J.Eysenck[9]對人的個(gè)性做了深入研究,提出了個(gè)性維度理論。他指出,個(gè)性維度是一個(gè)連續(xù)的尺度,每個(gè)人的個(gè)性都是這些個(gè)性維度的組合。他曾提出5個(gè)個(gè)性維度:外內(nèi)向、神經(jīng)質(zhì)、精神質(zhì)、智力和守舊性,但最主要的個(gè)性維度是外內(nèi)向和神經(jīng)質(zhì)。
外內(nèi)向又可細(xì)分為外向型和內(nèi)向型。外向型的人個(gè)性上具體表現(xiàn)為情緒沖動(dòng)、好交際、愛發(fā)脾氣等;內(nèi)向型的人個(gè)性上具體表現(xiàn)為情緒穩(wěn)定、好靜、冷淡、極少發(fā)脾氣等。神經(jīng)質(zhì)又稱情緒性,情緒穩(wěn)定的人情感反應(yīng)緩慢而且輕微,情緒不穩(wěn)定的人通常表現(xiàn)出高焦慮,而且容易激動(dòng)。
Eysenck認(rèn)為外內(nèi)向和情緒性是兩個(gè)互相垂直的維度,以這兩種個(gè)性維度建立坐標(biāo)系,可以組成4種非常具有代表性的個(gè)性類型:多血質(zhì)(穩(wěn)定外向型)、黏液質(zhì)(穩(wěn)定內(nèi)向型)、膽汁質(zhì)(不穩(wěn)定外向型)和抑郁質(zhì)(不穩(wěn)定內(nèi)向型),表1列出了4種個(gè)性類型不同的性格表現(xiàn)。
表1 4種個(gè)性類型
OCC情感模型是人類情感研究過程中最完整的情感模型之一[10],它是用一致性的認(rèn)知導(dǎo)出條件來表達(dá)情感的,在該模型中,假設(shè)情感是對事件或?qū)ο螽a(chǎn)生的情勢傾向反應(yīng)[11]。首先設(shè)置一些函數(shù),設(shè)D(p,e,t)表示人物p在t時(shí)刻對事件e的期望值,正值表示結(jié)果符合人物的期望。設(shè)Ig(p,e,t)表示全局強(qiáng)度變量(例如現(xiàn)實(shí)、接近度)的一種組合,Pj(p,e,t)表示產(chǎn)生“高興”(以高興為例)的潛力。當(dāng)D(p,e,t)>0時(shí),設(shè)
式中:fj[·]表示將高興具體化的函數(shù)。
式(1)可以表示產(chǎn)生高興情緒的潛力,但不能用來表示產(chǎn)生“高興”情感的強(qiáng)度。所以定義:
當(dāng)Pj(p,e,t)>Tj(p,t),則有
否則
式中:Tj為閥值函數(shù),Ij為情感強(qiáng)度函數(shù)。
通過式(1)~(3)可知,當(dāng)外界刺激產(chǎn)生的“高興”狀態(tài)潛力超過閥值時(shí),人就產(chǎn)“高興”情緒,外界刺激越強(qiáng)烈,高興的強(qiáng)度就越大。剩余的5種基本表情計(jì)算規(guī)則與此相同,只需改變相應(yīng)的潛力函數(shù)P(·)即可。不同個(gè)性的人,其閥值函數(shù)自然就不同,比如內(nèi)向的人情緒穩(wěn)定,其情感閥值就大些。由此可知,不同個(gè)性的人對相同事件或?qū)ο螽a(chǎn)生的情感強(qiáng)度不同。
根據(jù)美國心理學(xué)家Ekman和Friesen提出的面部動(dòng)作編碼系統(tǒng)(facial action coding system, FACS)[12-14],人的面部表情主要由24個(gè)動(dòng)作單元(action unit, AU)控制生成,而實(shí)現(xiàn)人類的6種基本表情:喜、怒、哀、樂、驚、怕,只需要其中的14個(gè)AU單元。表2列出了FACS理論中的部分動(dòng)作單元,表3列出了6種基本表情與AU動(dòng)作單元之間的控制關(guān)系。
表2 FACS的動(dòng)作單元
表3 基本表情與AU的關(guān)系[15-16]
根據(jù)表2、3研究可以得出,只要能夠?qū)崿F(xiàn)表2中的14個(gè)AU單元,便可控制生成仿人機(jī)器人的面部表情。根據(jù)仿生學(xué)原理,在仿人機(jī)器人的面部添加多個(gè)控制點(diǎn),仿人機(jī)器人面部控制點(diǎn)將根據(jù)人類面部肌肉的特點(diǎn)來布置。眉毛上布置兩個(gè)控制點(diǎn),眼部的上眼瞼布置一個(gè)控制點(diǎn),嘴部的嘴角和上下嘴唇布置4個(gè)控制點(diǎn)。仿人機(jī)器人面部表情控制點(diǎn)的詳細(xì)分布情況如圖1所示[17]。
圖1 面部表情控制點(diǎn)分布Fig.1 Distribution of facial expression control points
本節(jié)通過建立人臉模型,賦予其類似人體皮膚的材料力學(xué)參數(shù),然后采用ANSYS有限元仿真分析的方法進(jìn)行不同個(gè)性的面部表情仿真,得到不同個(gè)性的面部表情仿真結(jié)果,并列出面部控制區(qū)域的載荷和位移。
3.1.1 面部彈性體模型的建立與設(shè)置
根據(jù)三維人臉建模技術(shù),按照與SHFR-Ⅲ 1:1的比例建立仿人機(jī)器人的人臉模型。由于人類面部特征曲面形狀非常復(fù)雜,建模難度大,這里采用Solidworks強(qiáng)大的曲面設(shè)計(jì)功能建立人臉模型。利用Solidworks曲面特征,結(jié)合3-D草圖功能首先繪制出人體面部的器官,如眉毛、眼睛、鼻子和嘴巴,然后再逐漸向邊界擴(kuò)展,直至拼接出一張完整的人臉曲面,最后將所有曲面縫合在一起,這樣就建立了人臉曲面模型。
通過ASNSYS與Solidworks軟件的自動(dòng)接口程序,將人臉曲面模型導(dǎo)入ANSYS[18]。為力求仿真結(jié)果真實(shí)可靠,在ANSYS中將人臉曲面模型設(shè)置為接近人體皮膚的厚度??紤]到材料不會(huì)發(fā)生大的應(yīng)變情況,這里將人臉模型簡化設(shè)置為普通線彈性模型。本研究中賦予人臉模型的材料屬性為:彈性模量為7 840 Pa,泊松比為0.475,密度為1 200 kg/m3,各向同性[19]。圖2為面部皮膚彈性體模型及其尺寸。
圖2 面部皮膚彈性體模型及尺寸Fig.2 Model and size of facial skin elasticity
3.1.2 仿真前處理
網(wǎng)格劃分是有限元分析中至關(guān)重要的一步,網(wǎng)格劃分質(zhì)量的好壞直接影響有限元分析結(jié)果是否收斂及仿真結(jié)果的正確與否。由于面部皮膚彈性體模型主要由復(fù)雜曲面縫合而成,這里采用四邊形為主導(dǎo)的網(wǎng)格劃分方式。為達(dá)到更加逼真的仿真效果,還需要對面部表情的主要控制區(qū)域進(jìn)行網(wǎng)格細(xì)化。通過研究人類的基本表情,得知人類的表情生成主要依靠眉毛、眼睛、嘴部器官。利用ANSYS中的曲面分割工具將人臉模型中的這些器官區(qū)域分割出來,然后進(jìn)行局部網(wǎng)格細(xì)化,完成人臉模型的網(wǎng)格劃分。圖3為人臉模型的網(wǎng)格劃分。
圖3 網(wǎng)格劃分Fig.3 Meshing
利用ANSYS中的曲面分割功能,在面部曲面模型中的眉毛、眼瞼、嘴部位置分割出表情的控制區(qū)域,基本表情控制區(qū)域如圖4中的A~J區(qū)域所示。
圖4 表情控制區(qū)域分布Fig.4 Distribution of expression control areas
約束和載荷是ANSYS仿真計(jì)算的邊界條件,根據(jù)面部解剖學(xué)理論本研究將面部皮膚與頭骨之間的連接部位作為固定約束條件,主要部位為面部皮膚邊界、太陽穴和上鼻骨,如圖5所示。然后在圖4中的表情控制區(qū)域添加不同的力載荷。
圖5 模型約束條件Fig.5 Model constraints
本節(jié)選擇特征鮮明且具有對比性的兩種基本表情:高興和憤怒來進(jìn)行仿真分析。
首先確定出各控制區(qū)域在各種基本表情中的運(yùn)動(dòng)范圍,然后根據(jù)第1節(jié)中不同個(gè)性的情感模型:人的個(gè)性不同,對相同的刺激產(chǎn)生的情感強(qiáng)度也不同,所以需要在各控制區(qū)域施加不同大小的力載荷,以獲得情感強(qiáng)度不同的基本表情仿真結(jié)果。
根據(jù)表1中4種個(gè)性類型的性格表現(xiàn),可以判斷出這4種個(gè)性類型在高興和憤怒時(shí)情感閥值Ti的大小,進(jìn)而可以判斷情感強(qiáng)度的強(qiáng)弱。當(dāng)基本表情為高興時(shí),4種個(gè)性類型的情感閥值Ti的大小為黏液質(zhì)>抑郁質(zhì)>多血質(zhì)>膽汁質(zhì),則情感強(qiáng)度的強(qiáng)弱為黏液質(zhì)<抑郁質(zhì)<多血質(zhì)<膽汁質(zhì);當(dāng)基本表情為憤怒時(shí),4種個(gè)性類型的情感閥值Ti的大小為黏液質(zhì)>多血質(zhì)>抑郁質(zhì)>膽汁質(zhì),則情感強(qiáng)度的強(qiáng)弱為黏液質(zhì)<多血質(zhì)<抑郁質(zhì)<膽汁質(zhì)。
表4 高興時(shí)面部控制區(qū)域力載荷Table 4 Force loads of face control areas when happy N
根據(jù)4種個(gè)性類型高興和憤怒表情的強(qiáng)弱大小,在人臉模型的控制區(qū)域的運(yùn)動(dòng)范圍內(nèi)由小到大逐點(diǎn)取值。通過反復(fù)試驗(yàn),得到仿真表情最接近人類表情的仿真結(jié)果和其對應(yīng)的面部控制區(qū)域的力載荷。表4為高興時(shí)4種個(gè)性類型各控制區(qū)域的力載荷,圖6為對應(yīng)的高興表情仿真結(jié)果;表5為憤怒時(shí)4種個(gè)性類型各控制區(qū)域的力載荷,圖7為對應(yīng)的憤怒表情仿真結(jié)果。
圖6 高興表情仿真結(jié)果Fig.6 Happy expression simulation results
Table 5 Force loads of face control areas when angry N
圖7 憤怒表情仿真結(jié)果Fig.7 Angry expression simulation results
為驗(yàn)證仿人機(jī)器人不同個(gè)性面部表情的仿真結(jié)果,以上海大學(xué)精密機(jī)械系的面部表情機(jī)器人SHFR-Ⅲ為實(shí)驗(yàn)平臺(tái)[20],該表情機(jī)器人的機(jī)械結(jié)構(gòu)采用模塊化設(shè)計(jì),分為眉毛機(jī)構(gòu)、眼部機(jī)構(gòu)和嘴部機(jī)構(gòu),各個(gè)機(jī)構(gòu)都添加了控制單元,如圖8所示,與圖4中的控制區(qū)域?qū)?yīng)。在機(jī)械結(jié)構(gòu)的基礎(chǔ)上,在SHFR-Ⅲ的面部添加皮膚,皮膚材料選擇接近人體皮膚性能的硅膠材料。將皮膚附在機(jī)器人面部“骨架”上,并將硅膠皮膚與控制單元聯(lián)接。SHFR-Ⅲ以FPGA控制板作為核心控制元件,通過上位機(jī)控制驅(qū)動(dòng)控制單元的舵機(jī),從而驅(qū)動(dòng)面部皮膚。
圖8 SHFR-Ⅲ實(shí)驗(yàn)平臺(tái)Fig.8 SHFR-Ⅲ experiment platform
首先對不同個(gè)性的高興表情進(jìn)行動(dòng)作實(shí)驗(yàn),通過上位機(jī)控制舵機(jī)轉(zhuǎn)動(dòng),牽引面部皮膚控制點(diǎn)運(yùn)動(dòng),實(shí)現(xiàn)不同個(gè)性的高興面部表情,實(shí)驗(yàn)結(jié)果如圖9所示。同樣,對不同個(gè)性的憤怒表情進(jìn)行動(dòng)作實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖10所示。
實(shí)驗(yàn)結(jié)果表明,該面部表情機(jī)器人可以實(shí)現(xiàn)不同個(gè)性的基本面部表情,驗(yàn)證了仿真結(jié)果。
圖9 不同個(gè)性高興表情實(shí)驗(yàn)Fig.9 Happy expression experiment of different personalities
圖10 不同個(gè)性憤怒表情實(shí)驗(yàn)Fig.10 Angry expression experiment of different personalities
通過對個(gè)性理論和情感模型的研究,得到了不同個(gè)性的基本表情實(shí)現(xiàn)方法。然后采用ANSYS有限元仿真計(jì)算的方法,通過對面部彈性體模型施加約束和載荷,求解出不同個(gè)性的高興和憤怒表情的近似于人類的仿真結(jié)果,并得到了實(shí)現(xiàn)不同個(gè)性的高興和憤怒表情的控制區(qū)域載荷大小。根據(jù)仿真結(jié)果中各控制區(qū)域的位移大小,進(jìn)行不同個(gè)性的表情動(dòng)作實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,表情機(jī)器人可以實(shí)現(xiàn)不同個(gè)性的高興和憤怒面部表情。由于受具體條件限制,表情機(jī)器人控制單元的位移不能與仿真模型中的控制區(qū)域完全相同,不同個(gè)性的基本表情不能更好的體現(xiàn),但為進(jìn)一步研究仿人表情機(jī)器人提供了較好的技術(shù)基礎(chǔ)。
[1]侯鵬. 智能機(jī)器人運(yùn)動(dòng)控制系統(tǒng)及算法研究[D]. 北京:北京交通大學(xué), 2013: 1-6.
HOU Peng. Research of intelligent robot’s motion control system and algorithm[D]. Beijing: Beijing Jiaotong University, 2013: 1-6.
[2]呂振, 解侖, 韓晶, 等. 基于情緒控制的仿人機(jī)器人表情研究[J]. 華中科技大學(xué)學(xué)報(bào):自然科學(xué)版, 2013, S1: 352-355.
LU Zhen, XIE Lun, HAN Jing,et al. Research on humanoid robot expressions based on mood control[J]. Journal of Huazhong university of science and technology, 2013, S1: 352-355.
[3]DELAUNAY F, DE GREEFF J, BELPAEME T. Towards retro-projected robot faces: an alternative to mechatronic and android faces[C]//The 18th IEEE International Symposium on Robot and Human Interactive Communication. Toyama, Japan, 2009: 306-311.
[4]李瑞峰, 孫中遠(yuǎn), 王珂,等. 具有面部表情識(shí)別與再現(xiàn)的機(jī)器人頭部系統(tǒng)的研制[J]. 機(jī)械設(shè)計(jì)與制造, 2011(7): 95-97.
LI Ruifeng, SUN Zhongyuan, WANG Ke, et al. Research of the robot head system with facial expression recognition and representation[J]. Machinery design and manufacture, 2011(7): 95-97.
[5]BECKER-ASANO C, ISHIGURO H. Evaluating facial displays of emotion for the android robot Geminoid F[C]//IEEE Workshop on Affective Computational Intelligence (WACI). 2014: 1-8.
[6]BECKER-ASANO C, ISHIGURO H. Evaluating facial displays of emotion for the android robot Geminoid F[C]//IEEE Workshop on Affective Computational Intelligence (WACI). 2011: 1-8.
[7]恐怖谷理論. [2016-07-24]. http://zh.wikipedia.org/zh-cn/恐怖谷理論.
[8]ISHIHARA H, YOSHIKAWA Y, ASADA M. Realistic child robot “Affetto” for understanding the caregiver-child attachment relationship that guides the child development[C]//2011 IEEE International Conference on Development and Learning (ICDL). Frankfurt am Main, Germany, 2011: 1-5.
[9]葉奕乾, 孔克勤, 楊秀君. 個(gè)性心理學(xué)[M]. 3版. 上海:華東師范大學(xué)出版社, 2010: 106-132.
[10]杜坤坤,劉欣,王志良,等. 情感機(jī)器人[M]. 北京:機(jī)械工業(yè)出版社, 2012: 171-199.
[11]王志良,祝長生. 人工情感[M]. 北京: 機(jī)械工業(yè)出版社, 2009: 178-273.
[12]AMINI R, LISETTI C. HapFACS: an open source api/software to generate facs-based expressions for ecas animation and for corpus generation[C]//2013 Humaine Association Conference on Affective Computing and Intelligent Interaction (ACII). Geneva, Switzerland. 2013: 270-275.
[13]EKMAN P, FRIESEN W V. Facial action coding system[M]. Consulting Psychologist Press, 1977:110-120.
[14]EKMAN P. ROSENBERG E L. What the face reveals: basic and applied studies of spontaneous expression using the facial action coding system (FACS)[M]. 2nd Edition, Stock: Oxford University Press, 2005:330-340.
[15]COHN J F, AMBADAR Z, EKMAN P. Observer-based measurement of facial expression with the facial action coding system[J]. The handbook of emotion elicitation and assessment, 2007: 203-221.
[16]KOBAYASHI H, HASHIMOTO T, SENDA M, et al. Realization of realistic and rich facial expressions by face robot[C]//Proceedings of 2003 IEEE/RSJ International Conference on Intelligent Robots and Systems, Tokyo, Japan, 2003: 1123-1128.
[17]KIHARA Y, DUAN Guifang. A dynamic facial expression database for quantitative analysis of facial paralysis[C]//International Conference on Computer Sciences and Convergence Information Technology. Seogwipo, South Korea, 2011: 949-952.
[18]許京荊. ANSYS 13.0 Workbench數(shù)值模擬技術(shù)[M]. 北京:中國水利水電出版社, 2012: 253-260.
[19]柯顯信,尚宇峰,盧孔筆.基于HyperWorks 仿人機(jī)器人面部表情仿真[J]. 制造業(yè)自動(dòng)化, 2015, 37(1):118-121.
KE Xianxin, SHANG Yufeng, LU Kongbi. Simulation of humanoid robot facial expression based on HyperWorks[J]. Manufacturing automation, 2015, 37( 1): 118-121.
[20]信繼忠,柯顯信,楊陽,等. 具有面部表情的仿人頭部機(jī)器人系統(tǒng)的研制[J]. 智能系統(tǒng)學(xué)報(bào), 2015, 10(8): 556-560.
XIN Jizhong, KE Xianxin, YANG Yang, et al. Development of the system of a humanoid robot head with facial expressions[J]. CAAI transactions on intelligent systems, 2015, 10(8): 556-560.
第四屆亞洲模式識(shí)別會(huì)議
The4thAsianConferenceonPatternRecognition(ACPR2017)
The 4th Asian Conference on Pattern Recognition (ACPR 2017) will be held on November 26-29, 2017, Nanjing, China. The conference aims at providing one major international forum for researchers in pattern recognition and related fields to share their new ideas and achievements. Submissions from other than the Asia‐Pacific regions are also highly encouraged.
Topics of interest include all aspects of pattern recognition including, but not limited to:
Computer Vision and Robot Vision
Pattern Recognition and Machine Learning
Signal Processing (signal, speech, image)
Media Processing and Interaction (video, document, medical applications, biometrics, HCI and VR)
Website: http://acpr2017.njust.edu.cn/.
ResearchonexpressionsoftheHumanoidrobotbasedonpersonalities
KE Xianxin, YUN Yawen, QIU Benrui
(School of Mechatronics Engineering and Automation, Shanghai University, Shanghai 200072, China)
In humanoid robot research, the facial expressions of different personalities are an important basis for enhancing the realism of humanoid robots. To achieve more vivid emotional expression by robots, in this paper, we introduce human personality characteristics into robots, based on the personality and emotional model theories, and determine the emotional intensity of robots with different personalities. By mapping the relationship between facial expressions and robot control points in the facial action coding system, we obtained a basic expression implementation method for humanoid robots with different personalities. We used Solidworks software to establish the facial model for the emotional robot and set the model as an elastomer in ANSYS. Using the finite element simulation calculation method, we explored its expression capabilities, and obtained the load sizes of the control regions that realize basic expressions in the humanoid robot SHFR-Ⅲ and simulation results. Based on these simulation results, we conducted expression experiments with the humanoid robot SHFR-Ⅲ for different personalities. Our experimental results show that these simulation results can guide the humanoid robot SHFR-Ⅲ to achieve basic humanlike facial expressions associated with different personalities.
humanoid robot; facial expressions; emotion model; personality; facial model; elastic skin; finite element simulation; control regions
2016-09-07.網(wǎng)絡(luò)出版日期2017-06-06.
國家自然科學(xué)基金項(xiàng)目(61273325).
柯顯信. E-mail: xxke@staff.shu.edu.cn.
10.11992/tis.201609005
http://kns.cnki.net/kcms/detail/23.1538.tp.20170606.0951.002.html
TP242
A
1673-4785(2017)04-0468-07
中文引用格式:柯顯信,云亞文,邱本銳.不同個(gè)性的情感機(jī)器人表情研究J.智能系統(tǒng)學(xué)報(bào), 2017, 12(4): 468-474.
英文引用格式:KEXianxin,YUNYawen,QIUBenrui.ResearchonexpressionsoftheHumanoidrobotbasedonpersonalitiesJ.CAAItransactionsonintelligentsystems, 2017, 12(4): 468-474.
柯顯信,男,1973年生,副教授,博士后,主要研究方向?yàn)榉氯藱C(jī)器人和人機(jī)情感交互。主持或參與國家“863”項(xiàng)目和上海市科委重點(diǎn)項(xiàng)目等科研項(xiàng)目10余項(xiàng)。獲國家發(fā)明專利授權(quán)10項(xiàng),發(fā)表學(xué)術(shù)論文30余篇。
云亞文,男,1991年生,碩士研究生,主要研究方向?yàn)榉氯藱C(jī)器人和人機(jī)情感交互。
邱本銳,男,1992年生,碩士研究生,主要研究方向?yàn)榉氯藱C(jī)器人和人機(jī)情感交互。