秦喜文 李洋 董小剛* 高中華
(1.長春工業(yè)大學(xué)基礎(chǔ)科學(xué)學(xué)院,吉林長春 130012;2.長春工業(yè)大學(xué)汽車工程研究院,吉林長春 130012)
基于C5.0算法的人臉表情識(shí)別研究
秦喜文1,2李洋1董小剛1*高中華1
(1.長春工業(yè)大學(xué)基礎(chǔ)科學(xué)學(xué)院,吉林長春130012;2.長春工業(yè)大學(xué)汽車工程研究院,吉林長春130012)
本文通過對(duì)人臉表情圖像進(jìn)行預(yù)處理,對(duì)預(yù)處理后的待測(cè)圖像進(jìn)行特征點(diǎn)標(biāo)定,統(tǒng)計(jì)出這些特征點(diǎn)之間的幾何特征,建立表情屬性表,構(gòu)建基于決策樹C5.0算法的人臉表情識(shí)別模型,獲取分類規(guī)則,得到較好的識(shí)別精度,為人臉表情識(shí)別提供了一條有效途徑。
表情識(shí)別ASM決策樹C5.0
現(xiàn)代社會(huì)計(jì)算機(jī)與我們生活聯(lián)系的越來越緊密,如何讓計(jì)算機(jī)理解人類的意圖,受到了人類的重視。人臉表情識(shí)別研究在心理學(xué)、智能機(jī)器人、智能監(jiān)控、虛擬現(xiàn)實(shí)等領(lǐng)域具有應(yīng)用價(jià)值。人臉表情識(shí)別中最重要的兩個(gè)部分就是人臉表情特征提取和人臉表情規(guī)則提取,本文通過ASM算法得到特征點(diǎn),并且根據(jù)這些特征點(diǎn)提取幾何特征屬性,建立表情特征屬性表,然后構(gòu)建基于決策樹C5.0算法的人臉表情識(shí)別模型,給出了人臉表情識(shí)別規(guī)則,得到較好的識(shí)別精度。人臉表情識(shí)別技術(shù)領(lǐng)域仍然存在人臉識(shí)別與人臉表情識(shí)別異同性,人臉表情特征提取的針對(duì)性與準(zhǔn)確性,人臉表情識(shí)別的可靠性、準(zhǔn)確率不高的問題等。為了解決其他方法存在的問題,本文提出了基于決策樹C5.0的人臉識(shí)別研究,豐富了人臉表情識(shí)別方法。
決策樹算法的基本思路是通過對(duì)給定數(shù)據(jù)集進(jìn)行訓(xùn)練來構(gòu)造一棵決策樹,從樹根到葉子的每一個(gè)路徑都是一條蘊(yùn)含在數(shù)據(jù)中的規(guī)則。
C5.0模型的工作原理是根據(jù)提供最大信息增益的字段分割樣本。然后通常會(huì)根據(jù)不同字段再次分割由第一次分割定義的每個(gè)子樣本,且此過程會(huì)重復(fù)下去直到無法繼續(xù)分割子樣本。最后,將重新檢查最底層分割,并刪除或修剪對(duì)模型值沒有顯著貢獻(xiàn)的分割。
C5.0具體步驟如下:
(1)設(shè)S是一個(gè)樣本集合,目標(biāo)變量C有k個(gè)分類,freq(iC,S)表示S中屬于iC類的樣本數(shù),|S|表示樣本集合S的樣本數(shù)。則集合S的信息熵定義為:
(2)如果某屬性變量T,有n個(gè)分類,則屬性變量T引入后的條件熵定義為:
通過計(jì)算不同T帶來的信息增益率,并選擇信息增益率最大的輸入變量T作為最佳分組變量,這樣得到的分組組內(nèi)取值趨同程度最高,對(duì)決策樹的分類具有顯著的指導(dǎo)意義。同時(shí),C5.0使用信息增益率作為決策標(biāo)準(zhǔn),能夠消除類別數(shù)量的不同對(duì)分類結(jié)果的影響。
本文通過C5.0來尋找一種精確、高效的基于人臉圖像提取特征的方法,從而構(gòu)建出一套完備的人臉表情識(shí)別模型。
表1 訓(xùn)練集與測(cè)試集的分類總體精度
2.1人臉表情圖像預(yù)處理與特征提取
本文采用表情庫是日本Kyushu大學(xué)ATR媒體信息科學(xué)實(shí)驗(yàn)室Lyons博士提供的JAFFE人臉庫。這個(gè)數(shù)據(jù)庫包含10名日本女性的213幅表情圖像,其中每人提供7種基本表情。分別為中性、高興、傷心、驚訝、生氣、厭惡和害怕。
電子設(shè)備對(duì)人臉進(jìn)行拍照時(shí),會(huì)受到各種條件限制和隨機(jī)干擾,這種人臉圖像不能直接用,需要對(duì)拍攝的原始表情圖像進(jìn)行尺度歸一化、灰度歸一化。然后要獲取圖像表情的特征點(diǎn),對(duì)特征點(diǎn)定位,這里將采用ASM的特征點(diǎn)定位方法,進(jìn)行asm特征點(diǎn)提取及幾何特征計(jì)算,得到表情特征屬性表,進(jìn)行規(guī)則提取,最后得到識(shí)別結(jié)果。
我們通過ASM算法得到了76個(gè)特征點(diǎn),并且根據(jù)這些特征點(diǎn)提取了嘴的高寬比,右眼寬高比,左眼寬高比等33個(gè)幾何特征屬性,建立表情特征屬性表,從而為下一步的表情識(shí)別規(guī)則提取提供了數(shù)據(jù)基礎(chǔ)。
2.2表情識(shí)別規(guī)則提取
決策樹分類模型及分類規(guī)則:通過上述模型構(gòu)建功能對(duì)數(shù)據(jù)進(jìn)行訓(xùn)練,就可以得到半速率門限值最優(yōu)化模型。該模型能夠以規(guī)則集或決策樹的形式展示模型內(nèi)容。表1給出了對(duì)表情分類結(jié)果的統(tǒng)計(jì),主要包括訓(xùn)練樣本和測(cè)試樣本的正確與錯(cuò)誤百分比。
從表1我們可以看出,訓(xùn)練集的總體精度高于測(cè)試集的分類精度,除分類規(guī)則的影響外,還包括測(cè)試集的樣本數(shù)偏少,導(dǎo)致總體精度不如訓(xùn)練集。不同表情測(cè)試圖像的識(shí)別率高低并不相同,在表情分類中,高興的識(shí)別率最高,其次是驚訝、憤怒表情,它們的識(shí)別率都超過85%,厭惡、害怕、悲傷和中性這幾種表情相對(duì)來說要低一些。這是因?yàn)轶@訝、憤怒和高興這些表情人臉特征區(qū)域的變化較大,表情的相關(guān)性比較小,從而比較容易識(shí)別。
本文對(duì)人臉表情識(shí)別方法分析,并對(duì)它們各自適用性、優(yōu)缺點(diǎn)進(jìn)行闡述。針對(duì)人臉表情圖像進(jìn)行人臉尺寸與灰度歸一化處理和特征點(diǎn)標(biāo)定等預(yù)處理,進(jìn)而提取出人臉表情的幾何特征,提出的方法實(shí)現(xiàn)表情特征屬性約簡(jiǎn),篩選出最優(yōu)特征組合,利用C5.0算法充分挖掘人臉表情識(shí)別規(guī)則,豐富人臉表情識(shí)別方法。本文算法方面還需要在廣泛性上繼續(xù)改進(jìn),提高對(duì)不同的人,難分辨表情,不同面部裝飾表情的識(shí)別率。在后續(xù)的工作中,將進(jìn)一步尋找人臉表情的特征,進(jìn)而提高表情識(shí)別精度,使其識(shí)別速度更快且具有較高的準(zhǔn)確性,建立一套完整、高效與精確的人臉表情識(shí)別。
[1]周曉旭,黃向生,徐斌,王陽生.基于Boost改進(jìn)的嵌入式隱馬爾可夫模型的實(shí)時(shí)表情識(shí)別[J].計(jì)算機(jī)科學(xué),2005.1 1.
[2]潘麗敏,謝爾曼,羅森林.基于Haar特征的Turbo-Boost表情識(shí)別算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2011.08.
董小剛(1961—),男,漢族,博士,教授,從事應(yīng)用統(tǒng)計(jì)的研究。吉教科合字2012(第119號(hào))。