• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于頭部姿態(tài)分析的攝像頭視線追蹤系統(tǒng)優(yōu)化

      2020-11-30 05:48:06趙昕晨
      計(jì)算機(jī)應(yīng)用 2020年11期
      關(guān)鍵詞:視線頭部標(biāo)定

      趙昕晨,楊 楠

      (中國(guó)人民大學(xué)信息學(xué)院,北京 100872)

      (?通信作者電子郵箱yangnan@ruc.edu.cn)

      0 引言

      近年來(lái)隨著人機(jī)交互技術(shù)的深入研究,多通道、更自然的交互方式吸引了越來(lái)越多的關(guān)注。視線追蹤技術(shù)主要研究如何獲取及利用人類的視覺(jué)信息,將其轉(zhuǎn)化為有效的交互輸入。在虛擬現(xiàn)實(shí)、車輛輔助駕駛、助殘、認(rèn)知障礙判斷等領(lǐng)域有廣泛的應(yīng)用。

      基于網(wǎng)絡(luò)攝像頭的視線追蹤技術(shù)是視線追蹤技術(shù)的一個(gè)分支,屬于非侵入式的追蹤系統(tǒng)。由于不需要專業(yè)的眼動(dòng)儀或頭部穿戴設(shè)備,該技術(shù)為視線追蹤技術(shù)的應(yīng)用提供了很大的便捷性和通用性。但基于網(wǎng)絡(luò)攝像頭的視線追蹤技術(shù)在準(zhǔn)確性的提升方面存在很大的瓶頸。

      已有的基于網(wǎng)絡(luò)攝像頭的視線追蹤技術(shù)的準(zhǔn)確性主要受以下因素限制:

      1)無(wú)法像眼動(dòng)儀設(shè)備一樣提供精確的眼球三維空間信息。用戶頭部姿態(tài)的變化會(huì)嚴(yán)重影響預(yù)測(cè)準(zhǔn)確性。

      2)需要在主設(shè)備處理器上進(jìn)行運(yùn)算,對(duì)于實(shí)時(shí)視線追蹤,必須考慮算法的計(jì)算成本。

      本文的主要貢獻(xiàn)如下:

      1)提出了一種利用網(wǎng)絡(luò)攝像頭視頻數(shù)據(jù)流,構(gòu)建頭部姿態(tài)特征并計(jì)算頭部姿態(tài)相似度的算法。該算法可以有效估算視頻流中兩幀之間頭部姿態(tài)的相似程度。

      2)基于提出的相似度算法,提出了對(duì)視線追蹤系統(tǒng)的優(yōu)化方法:在視線預(yù)測(cè)前對(duì)標(biāo)定數(shù)據(jù)進(jìn)行排序,選取與輸入幀頭部姿態(tài)接近的標(biāo)定點(diǎn)進(jìn)行預(yù)測(cè)。

      3)選取不同特征的人群進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明優(yōu)化算法可以有效提高視線追蹤系統(tǒng)的準(zhǔn)確度和穩(wěn)定性。

      4)優(yōu)化后的系統(tǒng)在標(biāo)定過(guò)程中不再要求頭部固定,用戶允許在一定范圍內(nèi)調(diào)整頭部姿態(tài)。

      5)優(yōu)化后的系統(tǒng)可以構(gòu)建可復(fù)用的個(gè)人標(biāo)定點(diǎn)庫(kù)。

      1 相關(guān)工作

      1.1 網(wǎng)絡(luò)攝像頭視線追蹤技術(shù)

      許多研究者對(duì)基于網(wǎng)絡(luò)攝像頭的視線追蹤技術(shù)進(jìn)行過(guò)一些嘗試。這種方法通常需要一個(gè)明確的標(biāo)定階段,而且與基于紅外跟蹤的眼動(dòng)儀相比準(zhǔn)確率極低[1]。

      一種基于圖像的方法是使用攝像頭獲得的視頻圖像訓(xùn)練神經(jīng)網(wǎng)絡(luò)[2]:Lu 等[3]引入了一種需要稀疏標(biāo)定的自適應(yīng)線性回歸模型,但對(duì)頭部姿態(tài)敏感;Lu 等[4]在2012 年提出的模型中克服了頭部姿態(tài)敏感的問(wèn)題,但需要更廣泛的標(biāo)定。

      一些研究希望通過(guò)圖像顯著性來(lái)估計(jì)用戶的注視位置進(jìn)行動(dòng)態(tài)校準(zhǔn),但該方法只能得到用戶注視位置的粗略估計(jì)[5]。在Alnajar 等[6]介紹的算法中,可以通過(guò)預(yù)先記錄的注視模式進(jìn)行自校準(zhǔn),但自校準(zhǔn)過(guò)程仍需要用戶參與。王向周等[7]提出了一種基于神經(jīng)網(wǎng)絡(luò)的動(dòng)態(tài)標(biāo)定算法。

      一些研究將用戶交互行為也作為視點(diǎn)預(yù)測(cè)依據(jù)。Lagun等[8]等的研究結(jié)果顯示,通過(guò)考慮光標(biāo)位置,可以大幅度增加視線追蹤系統(tǒng)的準(zhǔn)確性。

      基于攝像頭的視線追蹤技術(shù)已經(jīng)有許多商業(yè)化的嘗試:Pace[9]是一個(gè)桌面應(yīng)用程序,通過(guò)用戶交互進(jìn)行自動(dòng)標(biāo)定;Turkergaze[10]是一款基于網(wǎng)絡(luò)攝像頭的視線追蹤器,部署在Amazon Mechanical Turk上,可預(yù)測(cè)圖像的顯著性。

      1.2 WebGazer

      WebGazer[11]是一個(gè)Javascript 視線追蹤庫(kù)。它從攝像頭獲取的圖像中提取眼部圖像,標(biāo)準(zhǔn)化為6×10 尺寸,再通過(guò)灰度直方圖均衡化處理,轉(zhuǎn)化為120維向量,記作ve。

      在校準(zhǔn)結(jié)束后得到校準(zhǔn)數(shù)據(jù)集Sc:

      Di為校準(zhǔn)時(shí)視線的真實(shí)屏幕坐標(biāo)。使用嶺回歸[12]模型進(jìn)行視線預(yù)測(cè)。嶺回歸是一種專用于共線性數(shù)據(jù)分析的有偏估計(jì)的改良的最小二乘估計(jì)法,通過(guò)放棄最小二乘法的無(wú)偏性,以損失部分信息、降低精度為代價(jià)獲得更為符合實(shí)際、更可靠的回歸系數(shù)。以x 坐標(biāo)為例,f(ve) →Dx映射f(ve)=Φ(x)Τw,滿足:

      正則化項(xiàng)參數(shù)λ 為10-5。代價(jià)函數(shù)w 利用梯度等于零方式求解:

      其中:X為眼部特征的設(shè)計(jì)矩陣,Y為屏幕坐標(biāo)的響應(yīng)向量。

      考慮到頭部姿態(tài)變化對(duì)視線追蹤造成的影響,WebGazer利用用戶的鼠標(biāo)交互行為進(jìn)行自校準(zhǔn),向校準(zhǔn)集Sc追加新的數(shù)據(jù),使系統(tǒng)適應(yīng)頭部姿態(tài)的變化。但該方法存在一些問(wèn)題:

      1)在自校準(zhǔn)過(guò)程中,沒(méi)有一個(gè)有效的淘汰機(jī)制,雖然新數(shù)據(jù)的加入可以降低頭部姿態(tài)變化帶來(lái)的影響,但無(wú)法完全消除。

      2)自校準(zhǔn)機(jī)制依賴大量的用戶點(diǎn)擊行為,當(dāng)用戶使用過(guò)程中很少出現(xiàn)交互行為,或者頭部姿態(tài)變化相對(duì)頻繁時(shí),無(wú)法獲取足夠多當(dāng)前頭部姿態(tài)下的校準(zhǔn)數(shù)據(jù)。

      1.3 Clmtrackr

      Clmtrackr[13]是一個(gè)Javascript 庫(kù),實(shí)現(xiàn)了人臉特征點(diǎn)檢測(cè),可以在視頻或圖像數(shù)據(jù)中匹配人臉并將特征點(diǎn)坐標(biāo)輸出為一個(gè)數(shù)組。輸出結(jié)果包括眉毛、眼睛、鼻子、嘴唇等部位關(guān)鍵特征點(diǎn)及人臉輪廓,共71個(gè)特征點(diǎn),如圖1所示。

      Clmtrackr 人臉檢測(cè)算法使用Saragih 等[14]改進(jìn)后的有約束的局部模型(CLM fitted by regularized landmark mean-shift)。它克服了傳統(tǒng)的基于CLM 人臉點(diǎn)檢測(cè)算法的一些不足,使算法精度和速度都得到了提升。Clmtrackr的人臉建模訓(xùn)練集為MUCT[15]數(shù)據(jù)集。

      圖1 Clmtrackr輸出結(jié)果Fig.1 Output result of Clmtrackr

      2 算法描述

      本章主要介紹視線追蹤優(yōu)化算法和其所需要的頭部姿態(tài)特征數(shù)據(jù)模型。

      2.1 頭部姿態(tài)特征

      從人臉特征點(diǎn)檢測(cè)結(jié)果中提取頭部姿態(tài)特征時(shí),需要考慮以下幾個(gè)關(guān)鍵因素:1)選取的特征點(diǎn)必須體現(xiàn)頭部姿態(tài)在原始三維空間中的信息;2)選取的特征點(diǎn)必須與眼部特征相互獨(dú)立;3)選取的特征點(diǎn)不能受與頭部姿態(tài)變化無(wú)關(guān)的因素影響;4)構(gòu)建的頭部特征不能太過(guò)復(fù)雜,以控制相似度算法的計(jì)算成本。

      考慮因素1),臉部輪廓特征點(diǎn)不能有效地體現(xiàn)原始三維空間信息,因?yàn)檫@些輪廓特征點(diǎn)沒(méi)有附著在臉部部位上,而是位于視頻圖像的二維邊界。因素2)要求與眼部特征獨(dú)立的特征點(diǎn),眉毛和眼睛部分的特征點(diǎn)不符合要求。因素3)要求排除與頭部姿態(tài)變化無(wú)關(guān)的特征點(diǎn),唇部特征點(diǎn)不符合要求。

      經(jīng)過(guò)對(duì)人臉檢測(cè)結(jié)果的觀察發(fā)現(xiàn),鼻部特征點(diǎn)的滿足構(gòu)建頭部姿態(tài)特征的基本要求。在所有鼻部特征點(diǎn)中,特征點(diǎn)33、35、39 對(duì)頭部姿態(tài)變化的敏感度最高,而其他鼻部特征點(diǎn)與以上三個(gè)特征點(diǎn)在圖像坐標(biāo)系的坐標(biāo)有相對(duì)位置關(guān)系,所以只需要選取這三個(gè)點(diǎn)。

      原始標(biāo)定數(shù)據(jù)集的樣本由眼部圖像特征和對(duì)應(yīng)的標(biāo)定點(diǎn)坐標(biāo)組成,將選取的3個(gè)特征點(diǎn)在圖像坐標(biāo)系的坐標(biāo)作為頭部姿態(tài)上下文加入標(biāo)定樣本中。頭部姿態(tài)特征由6維向量表示:

      現(xiàn)在標(biāo)定數(shù)據(jù)集的樣本由頭部姿態(tài)特征、眼部特征圖像和校準(zhǔn)點(diǎn)屏幕坐標(biāo)組成。記作:

      2.2 頭部姿態(tài)相似度

      定義頭部姿態(tài)特征之后,需要一個(gè)指標(biāo)來(lái)衡量?jī)蓚€(gè)頭部姿態(tài)特征之間的相似度。定義的相似度要求對(duì)會(huì)造成預(yù)測(cè)結(jié)果準(zhǔn)確度變低的頭部姿態(tài)變化敏感,即當(dāng)輸入幀與某校準(zhǔn)樣本頭部姿態(tài)相似度越小,使用該校準(zhǔn)數(shù)據(jù)進(jìn)行預(yù)測(cè)得出的結(jié)果越不可靠。

      會(huì)顯著影響預(yù)測(cè)準(zhǔn)確度的頭部運(yùn)動(dòng)有:靠近或遠(yuǎn)離屏幕、平移、仰頭、低頭、側(cè)斜??紤]以上要求,對(duì)相似度的定義為:

      使用外接圓的交并比是為了解決頭部沿不同方向運(yùn)動(dòng)相似度變化速率不相等的問(wèn)題。當(dāng)特征向量完全相等時(shí),相似度為1;當(dāng)頭部靠近或遠(yuǎn)離屏幕、平移、仰頭或低頭、側(cè)斜時(shí),相似度都會(huì)降低。

      2.3 算法描述

      在視線追蹤過(guò)程中,每一個(gè)輸入幀的處理過(guò)程如下:

      2)計(jì)算輸入幀與標(biāo)定數(shù)據(jù)集中樣本的頭部姿態(tài)相似度Simin,1,2,…,N,并用其對(duì)標(biāo)定數(shù)據(jù)進(jìn)行排序。

      3)選取與輸入幀頭部姿態(tài)相似度較高的標(biāo)定樣本作為有效樣本Sv。

      4)用Sv建立嶺回歸模型,代入計(jì)算。

      選取有效樣本時(shí)有兩種思路。

      1)設(shè)定選取樣本的比例p,對(duì)標(biāo)定樣本集排序后選取前N*p個(gè)樣本作為Sv。

      2)設(shè)定最小相似度Simmin,僅選取與輸入幀頭部姿態(tài)相似度大于最小相似度的標(biāo)定樣本作為Sv。

      圖2 為WebGazer 原算法和加入頭部姿態(tài)分析算法后的流程。與原算法相比,優(yōu)化算法每次進(jìn)行嶺回歸前需要計(jì)算輸入幀與校準(zhǔn)集的相似度,并進(jìn)行一次遍歷或排序操作。如使用閾值過(guò)濾,時(shí)間復(fù)雜度為O(N);如使用排序過(guò)濾,時(shí)間復(fù)雜度為O(N lg N)。

      圖2 兩種算法流程對(duì)比Fig.2 Flowchart comparison of two algorithms

      在極端情況下,視線追蹤過(guò)程與標(biāo)定過(guò)程頭部姿態(tài)差異過(guò)大,大部分標(biāo)定數(shù)據(jù)與輸入數(shù)據(jù)頭部姿態(tài)相似度都較小時(shí),使用第一種方法無(wú)法保證標(biāo)定數(shù)據(jù)的質(zhì)量;使用第二種方法則無(wú)法保證標(biāo)定數(shù)據(jù)的數(shù)量。

      如果原始標(biāo)定數(shù)據(jù)與該次輸入頭部姿態(tài)相似度普遍較高,設(shè)置一個(gè)選取比例或者最小相似度都是可行的,也幾乎是等價(jià)的;但真實(shí)場(chǎng)景下原始標(biāo)定數(shù)據(jù)庫(kù)本身包含了不同頭部姿態(tài)環(huán)境下的數(shù)據(jù),用戶在視線追蹤過(guò)程中頭部姿態(tài)也會(huì)發(fā)生變化,這時(shí)如何平衡有效樣本的數(shù)量和質(zhì)量就需要實(shí)驗(yàn)驗(yàn)證。

      3 實(shí)驗(yàn)設(shè)計(jì)

      3.1 標(biāo)定

      眼動(dòng)儀根據(jù)一般使用屏幕邊緣的標(biāo)定點(diǎn)或?qū)⑵聊粍澐譃榫W(wǎng)格狀,根據(jù)劃分程度和屏幕尺寸比例,常用的標(biāo)定點(diǎn)數(shù)量一般為9、12、16 等。由于基于攝像頭的視線追蹤技術(shù)無(wú)法做到眼動(dòng)儀一樣構(gòu)建精確的模型,所以增加了標(biāo)定點(diǎn)的數(shù)量。另外,標(biāo)定過(guò)程使用交互行為確保采樣的準(zhǔn)確,如圖3。

      圖3 標(biāo)定過(guò)程Fig.3 Calibration process

      具體的標(biāo)定過(guò)程如下:將顯示設(shè)備平均劃分為18×10 的網(wǎng)格區(qū)域。標(biāo)定過(guò)程中,隨機(jī)在某個(gè)區(qū)域中出現(xiàn)閃爍的環(huán)形圖案,實(shí)驗(yàn)參與者需要注視環(huán)形圖案中心,并使用鼠標(biāo)光標(biāo)點(diǎn)擊環(huán)形圖案中心。系統(tǒng)記錄下點(diǎn)擊行為發(fā)生時(shí)刻的攝像頭圖像和網(wǎng)格索引。將環(huán)形圖案中心坐標(biāo)作為視線真實(shí)坐標(biāo)。

      為了盡可能多地得到不同頭部姿態(tài)環(huán)境下的標(biāo)定數(shù)據(jù),標(biāo)定過(guò)程中允許被試者在眼球運(yùn)動(dòng)的同時(shí)小幅度改變頭部姿態(tài)。

      3.2 追蹤過(guò)程采樣

      視線追蹤過(guò)程的采樣使用與標(biāo)定過(guò)程相同的網(wǎng)格劃分,并隨機(jī)出現(xiàn)閃爍的圓環(huán)圖案并持續(xù)一段時(shí)間,要求實(shí)驗(yàn)參與者的視線跟隨圓環(huán)的位置進(jìn)行移動(dòng)。同樣將環(huán)形圖案中心坐標(biāo)作為視線真實(shí)坐標(biāo)。

      每次圓環(huán)出現(xiàn)到消失持續(xù)4 s,采樣20次,記作一組采樣??紤]到兩組采樣之間的視線轉(zhuǎn)移,每組頭部和尾部5 次采樣被舍棄,只使用中間10次的采樣數(shù)據(jù)。

      3.3 實(shí)驗(yàn)環(huán)境與對(duì)象

      實(shí)驗(yàn)環(huán)境為Macbook pro 13 英寸筆記本電腦,默認(rèn)顯示設(shè)備及前置攝像頭,系統(tǒng)運(yùn)行在Google chrome 瀏覽器中,瀏覽器顯示分辨率為1 920 px×1 080 px。

      由于交互實(shí)驗(yàn)受參與者的狀態(tài)影響,在不同的參數(shù)下進(jìn)行多次交互實(shí)驗(yàn)無(wú)法有效控制變量,所以本文選擇通過(guò)單次實(shí)驗(yàn)采集數(shù)據(jù),對(duì)比不同參數(shù)下算法的結(jié)果。

      實(shí)驗(yàn)共有12 名參與者(7 名男性,5 名女性),年齡在19~25。參與者以高校學(xué)生為主,均視力正常。每名參與者視線追蹤過(guò)程的采樣時(shí)間為20 min。

      3.4 預(yù)實(shí)驗(yàn)

      預(yù)實(shí)驗(yàn)用來(lái)驗(yàn)證頭部姿態(tài)相似度算法的有效性。根據(jù)算法的設(shè)計(jì)原理,頭部姿態(tài)相似度指標(biāo)需要滿足:當(dāng)標(biāo)定數(shù)據(jù)與輸入數(shù)據(jù)相似度越大,得到的結(jié)果越精確。

      預(yù)實(shí)驗(yàn)過(guò)程使用所有標(biāo)定數(shù)據(jù)進(jìn)行預(yù)測(cè),對(duì)每次預(yù)測(cè)記錄當(dāng)前預(yù)測(cè)坐標(biāo)與圓環(huán)中心坐標(biāo)的距離,記作誤差error,以及輸入數(shù)據(jù)與所有標(biāo)定數(shù)據(jù)的頭部姿態(tài)相似度的平均值,記作并做相關(guān)性分析。如果這兩個(gè)值存在比較顯著的負(fù)相關(guān)關(guān)系,即可說(shuō)明頭部姿態(tài)相似度的計(jì)算方法是有效的。

      4 實(shí)驗(yàn)和結(jié)果分析

      4.1 頭部姿態(tài)相似度與誤差值的相關(guān)性

      對(duì)預(yù)實(shí)驗(yàn)結(jié)果進(jìn)行分析,可以驗(yàn)證頭部姿態(tài)相似度算法的有效性。預(yù)測(cè)誤差與本文定義的頭部姿態(tài)相似度呈明顯的負(fù)相關(guān)關(guān)系。進(jìn)一步統(tǒng)計(jì)結(jié)果也表明,頭部姿態(tài)相似度越大,平均誤差普遍越小。

      圖4 和圖5 是某位預(yù)實(shí)驗(yàn)被試者的實(shí)驗(yàn)數(shù)據(jù)。除了負(fù)相關(guān)關(guān)系外,從散點(diǎn)圖還可以發(fā)現(xiàn)實(shí)驗(yàn)結(jié)果的分布情況,大多數(shù)被試者在正常實(shí)驗(yàn)環(huán)境下,預(yù)測(cè)過(guò)程中較為集中在0.5~0.8,這個(gè)區(qū)間是由相似度本身的定義和實(shí)驗(yàn)環(huán)境決定的。對(duì)數(shù)據(jù)進(jìn)一步統(tǒng)計(jì)處理后發(fā)現(xiàn),當(dāng)<0.4 時(shí),預(yù)測(cè)結(jié)果的準(zhǔn)確性極低。

      圖4 頭部姿態(tài)相似度-誤差散點(diǎn)圖Fig.4 Head pose similarity-error scatter diagram

      預(yù)實(shí)驗(yàn)結(jié)果也為設(shè)置優(yōu)化算法中的參數(shù)提供了參考。在優(yōu)化算法中,采用規(guī)定最小相似度來(lái)選取標(biāo)定數(shù)據(jù)時(shí),將0.4作為Simmin的參考值。

      圖5 頭部姿態(tài)相似度-誤差統(tǒng)計(jì)Fig.5 Statistics of head pose similarity-error

      4.2 優(yōu)化前后算法誤差比較

      與優(yōu)化前算法相比,優(yōu)化后算法的誤差有明顯降低。所有實(shí)驗(yàn)被試者優(yōu)化前算法得到的平均預(yù)測(cè)誤差為193~256 px,優(yōu)化后算法得到的平均預(yù)測(cè)誤差為128~198 px。不同被試者略有差異,但所有實(shí)驗(yàn)結(jié)果中優(yōu)化后算法的平均誤差都低于優(yōu)化前算法。

      通過(guò)統(tǒng)計(jì)分析,還得出兩個(gè)結(jié)論:1)優(yōu)化前后算法的誤差與采樣位置均沒(méi)有明顯關(guān)系,這說(shuō)明視線注視點(diǎn)的位置不會(huì)對(duì)預(yù)測(cè)準(zhǔn)確性產(chǎn)生顯著影響。2)如果某次采樣使用優(yōu)化前算法得到誤差較小,優(yōu)化后的算法得到的誤差相比其他采樣也普遍較小。這個(gè)結(jié)論也符合預(yù)期,因?yàn)閮?yōu)化算法的核心思路是在固定的校準(zhǔn)數(shù)據(jù)中挑選出與輸入數(shù)據(jù)頭部姿態(tài)更接近的,但最終的誤差還要取決于校準(zhǔn)數(shù)據(jù)本身的質(zhì)量。

      圖6~8 是某位被試者的實(shí)驗(yàn)數(shù)據(jù),標(biāo)定點(diǎn)數(shù)為100,使用最小相似度過(guò)濾標(biāo)定數(shù)據(jù),Simmin為0.4。圖6~7 中的x-y 平面是預(yù)測(cè)結(jié)果采樣點(diǎn)的屏幕網(wǎng)格索引坐標(biāo),z軸是優(yōu)化前后的誤差。圖8是隨著采樣過(guò)程的進(jìn)行誤差的變化情況。

      4.3 優(yōu)化算法參數(shù)分析

      通過(guò)計(jì)算出頭部姿態(tài)相似度,已經(jīng)有了選取有效標(biāo)定數(shù)據(jù)的標(biāo)準(zhǔn)。前文已經(jīng)提到,參數(shù)配置需要考慮每次選取的有效標(biāo)定數(shù)據(jù)的質(zhì)量和數(shù)量。

      圖6 WebGazer誤差Fig 6 Error of WebGazer

      通過(guò)對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行分析,發(fā)現(xiàn)因?yàn)樵紭?biāo)定數(shù)據(jù)質(zhì)量不同,個(gè)體差異明顯,單純對(duì)不同參數(shù)下的結(jié)果進(jìn)行分析無(wú)法得出一個(gè)最優(yōu)化的策略。本文只得到一個(gè)經(jīng)驗(yàn)策略,選取的有效標(biāo)定數(shù)據(jù)與輸入數(shù)據(jù)頭部姿態(tài)相似度不低于0.35,選取的有效標(biāo)定數(shù)據(jù)數(shù)量不少于40,普遍效果較好。如果無(wú)法同時(shí)做到,采用順位替補(bǔ)或者取消數(shù)量要求均可,沒(méi)有明顯差異。但這種情況出現(xiàn)說(shuō)明頭部姿態(tài)變化過(guò)大,得到的誤差一般較大。

      原始標(biāo)定點(diǎn)的數(shù)量也是一個(gè)重要的參數(shù),本文方法的標(biāo)定使用18×10的網(wǎng)格,一輪完全標(biāo)定原始標(biāo)定點(diǎn)數(shù)為180。實(shí)驗(yàn)結(jié)果分析表明,標(biāo)定點(diǎn)越多,誤差越小,與普遍認(rèn)知一致。但是標(biāo)定點(diǎn)數(shù)的設(shè)置需要考慮標(biāo)定成本。通過(guò)對(duì)比,當(dāng)標(biāo)定點(diǎn)量大于80 后,增加標(biāo)定點(diǎn)對(duì)準(zhǔn)確度帶來(lái)的提升變得非常小,多輪標(biāo)定也無(wú)明顯提升。換用多輪九點(diǎn)標(biāo)定,效果與全屏標(biāo)定無(wú)明顯優(yōu)劣。

      圖7 優(yōu)化后的WebGazer誤差Fig.7 Error of optimized WebGazer

      圖8 采樣點(diǎn)數(shù)-誤差折線圖Fig.8 Line chart of number of samples-error

      5 結(jié)語(yǔ)

      本文分析了人臉特征點(diǎn)檢測(cè)結(jié)果和頭部姿態(tài)的關(guān)系,選取合適的人臉特征點(diǎn)建立頭部姿態(tài)特征并設(shè)計(jì)了相似度算法。在此基礎(chǔ)上,利用相似度篩選出與輸入數(shù)據(jù)頭部姿態(tài)接近的標(biāo)定樣本作為有效樣本進(jìn)行視線預(yù)測(cè)。設(shè)計(jì)實(shí)驗(yàn)并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行分析,驗(yàn)證了優(yōu)化算法可以提高算法的準(zhǔn)確度與穩(wěn)定性。

      猜你喜歡
      視線頭部標(biāo)定
      要去就去視線盡頭的山
      頭部按摩治療老伴失憶
      火箭的頭部為什么是圓鈍形?
      軍事文摘(2020年22期)2021-01-04 02:16:38
      使用朗仁H6 Pro標(biāo)定北汽紳寶轉(zhuǎn)向角傳感器
      你吸引了我的視線
      基于勻速率26位置法的iIMU-FSAS光纖陀螺儀標(biāo)定
      船載高精度星敏感器安裝角的標(biāo)定
      自適應(yīng)統(tǒng)計(jì)迭代重建算法在頭部低劑量CT掃描中的應(yīng)用
      當(dāng)代視線
      基于Harris-張正友平面標(biāo)定法的攝像機(jī)標(biāo)定算法
      京山县| 天全县| 五指山市| 滨海县| 平江县| 阜新| 贺兰县| 榆树市| 盘山县| 延长县| 怀宁县| 万源市| 平罗县| 南漳县| 中方县| 咸宁市| 南漳县| 台湾省| 延津县| 锦屏县| 新兴县| 萍乡市| 白朗县| 梨树县| 石城县| 依安县| 安义县| 五寨县| 乐亭县| 色达县| 天水市| 南木林县| 哈密市| 漠河县| 科技| 定州市| 钟山县| 多伦县| 囊谦县| 商河县| 西安市|