錢曉松,竇金花,杜芃
無人駕駛汽車行駛引導(dǎo)交互手勢設(shè)計(jì)研究
錢曉松,竇金花,杜芃*
(北京科技大學(xué) 機(jī)械工程學(xué)院,北京 100083)
旨在構(gòu)建符合用戶認(rèn)知的交互手勢設(shè)計(jì)方法,提升非方向盤操控情境下的無人駕駛汽車行駛引導(dǎo)的用戶體驗(yàn)。首先采用用戶參與式設(shè)計(jì)的方法,提取出無人駕駛場景下車內(nèi)與車外的行駛引導(dǎo)交互手勢集合;其次,采用一致率比較方法確保手勢交互系統(tǒng)的一致性,并在此基礎(chǔ)上構(gòu)建一套適用于車內(nèi)外行駛引導(dǎo)的交互手勢集合;最后,通過卡片分類法和模擬測試對構(gòu)建的手勢集進(jìn)行可用性評估。卡片分類法和模擬測試均顯示采用了用戶參與式設(shè)計(jì)和一致性計(jì)算相結(jié)合的設(shè)計(jì)方法所建立的無人駕駛汽車內(nèi)外行駛引導(dǎo)交互手勢集合達(dá)到了較好的用戶體驗(yàn)預(yù)期,同時也驗(yàn)證了在車內(nèi)外采用統(tǒng)一的行駛引導(dǎo)交互手勢的可行性。驗(yàn)證了手勢交互在車內(nèi)外對無人駕駛汽車行駛進(jìn)行引導(dǎo)可以達(dá)到較好的用戶體驗(yàn),為無人駕駛汽車的用戶體驗(yàn)研究提供了新的方向。
無人駕駛汽車;行駛引導(dǎo);手勢設(shè)計(jì);用戶參與設(shè)計(jì)
具備完全自動駕駛能力(5級)的汽車被定義為系統(tǒng)在任何可行駛條件下無需人為干預(yù)即可執(zhí)行全部駕駛?cè)蝿?wù)[1]。無人駕駛汽車在緩解交通壓力、減少交通風(fēng)險(xiǎn)、降低能源消耗上有著自身的獨(dú)特優(yōu)勢[2]。無人駕駛汽車通過先進(jìn)的技術(shù)實(shí)現(xiàn)更安全、高效、環(huán)保的交通系統(tǒng),從而為社會帶來巨大的經(jīng)濟(jì)和社會效益,有效地提升了人們的生活質(zhì)量,推動城市實(shí)現(xiàn)可持續(xù)發(fā)展。2022年1月,國務(wù)院在《“十四五”數(shù)字經(jīng)濟(jì)發(fā)展規(guī)劃》中明確提出“鼓勵發(fā)展智能經(jīng)濟(jì),穩(wěn)步推進(jìn)自動駕駛”。無人駕駛汽車將成為未來工業(yè)發(fā)展的重要助推力,也是各國科技實(shí)力比拼的新戰(zhàn)場。
隨著無人駕駛技術(shù)的落地,汽車將由單一的交通工具轉(zhuǎn)變?yōu)殪`活共享的數(shù)字體驗(yàn)產(chǎn)品[3]。在Detjen等[2]提出的無人駕駛汽車設(shè)計(jì)框架中,用戶的需求體現(xiàn)在掌控感、關(guān)聯(lián)感、安全感等方面,具體表現(xiàn)為“最后一百米”的精準(zhǔn)運(yùn)輸服務(wù),以及對用戶使用無人駕駛汽車的訓(xùn)練。無人駕駛場景下,用戶將不再被方向盤所束縛,因此引入其他交互模式對車輛進(jìn)行控制已勢在必行。手勢交互作為用戶較為熟悉的自然交互之一,可以有效降低用戶的學(xué)習(xí)成本,并已廣泛應(yīng)用于車載座艙中。手勢交互為無人駕駛汽車的智能化操作提供了更多的自由度和舒適性,是未來提升無人駕駛汽車乘車體驗(yàn)的關(guān)鍵因素之一。
無人駕駛汽車使用戶能夠輕松選擇符合個人需求的路線,極大增強(qiáng)了旅程的靈活性。Mamchenko等[4]通過研究發(fā)現(xiàn),道路地點(diǎn)的精準(zhǔn)定位對無人駕駛汽車的操作至關(guān)重要。Shu等[5]認(rèn)為照顧到“最后一百米”的無人駕駛交通服務(wù)可以提高交通的容量和靈活性。滿足“最后一百米”任務(wù)的無人駕駛汽車,使得用戶可以靈活地定義自己的旅程終點(diǎn),如辦公室大樓、住宅區(qū)和商業(yè)街,不僅滿足了用戶在門戶間交通的需求,還大大提高了交通效率[6]。導(dǎo)致無人駕駛汽車精準(zhǔn)控制難以成功的原因在于用戶對目標(biāo)地點(diǎn)描述的模糊性和系統(tǒng)導(dǎo)航定位的精確性。錢曉松等[7]指出,數(shù)據(jù)地圖的精度缺陷和用戶不完整的信息輸入造成了目的地與實(shí)際目標(biāo)存在百米左右的誤差。此外,用戶已經(jīng)形成了先模糊定位,再逐漸調(diào)整到目的地的習(xí)慣。因此,通過解決無人駕駛汽車在非方向盤控制下的精準(zhǔn)導(dǎo)航需求可直接提升用戶體驗(yàn)。
手勢交互為解決無人駕駛汽車的駕駛控制提供了新思路,而手勢識別技術(shù)和交互手勢設(shè)計(jì)則決定了最終的用戶體驗(yàn)。手勢識別技術(shù)主要分為基于傳感器的方法和基于視覺的方法。其中,視覺識別方法包括單攝像頭、多攝像頭和光編碼的識別方式[8]。動態(tài)手勢的識別技術(shù)主要依靠深度學(xué)習(xí)方法,涉及多種時間建模技術(shù),如雙流網(wǎng)絡(luò)、3D卷積神經(jīng)網(wǎng)絡(luò)(CNN)和長短期記憶(LSTM)網(wǎng)絡(luò)[9]。交互手勢主要分為觸屏交互手勢和凌空交互手勢兩類。相較于觸屏交互手勢,凌空交互手勢更接近人們?nèi)粘=涣魉褂玫氖謩?,因此對缺乏智能設(shè)備使用經(jīng)驗(yàn)的老年群體更加友好[10]。目前,車載凌空交互手勢主要應(yīng)用于以導(dǎo)航、音樂為代表的車載交互界面操作中。現(xiàn)有對車外手勢交互的研究集中在行人與自動駕駛車輛在通行博弈場景下手勢的信息交流功能[11-12]。鑒于手勢可以提供運(yùn)動軌跡、方向等信息,已經(jīng)有部分前沿探索性研究嘗試將手勢交互運(yùn)用到運(yùn)動導(dǎo)航領(lǐng)域。Zeng等[13]將手勢交互應(yīng)用于殘疾人輪椅的運(yùn)動控制當(dāng)中,通過手勢交互對輪椅的運(yùn)動進(jìn)行全面操控。
手勢交互設(shè)計(jì)必須遵循以用戶為中心的設(shè)計(jì)原則,即符合用戶的心智模型[14]。手勢語義集合作為自然交互語義集合的子集[15],需要設(shè)計(jì)師在龐大的自然語義集合中抽取、規(guī)范,以及使用于目標(biāo)用戶群體的交互手勢集合中。許多對手勢交互設(shè)計(jì)的研究發(fā)現(xiàn),從用戶已有的經(jīng)驗(yàn)出發(fā)過渡為新的交互方式可以保證交互的自然性和易學(xué)習(xí)性[13-15]。諸多現(xiàn)有研究采用了用戶協(xié)同設(shè)計(jì)的方式。Wobbrock等[16]提出了最大化猜想設(shè)計(jì)方法,通過展示手勢在任務(wù)中的作用,鼓勵用戶提出他們認(rèn)為合適的手勢交互方式,并形成交互手勢集合,可以為設(shè)計(jì)師提供后續(xù)交互手勢提取和設(shè)計(jì)的參考。Wu等[17]提出了由參與式觀察、頭腦風(fēng)暴、啟發(fā)式設(shè)計(jì)、基準(zhǔn)測試四個階段構(gòu)成的交互手勢設(shè)計(jì)框架。
隨著智能汽車的發(fā)展,車外交互作為用戶體驗(yàn)中的一個環(huán)境逐漸受到重視,利用手勢在車外與智能汽車進(jìn)行自然交互,可以帶來更加無縫式的智能汽車交互體驗(yàn)。相較于車內(nèi)環(huán)境,車外環(huán)境具有較大的操作空間和較嘈雜的聲音環(huán)境,更適合手勢作為自然交互的方式。但如果車內(nèi)和車外采用不一樣的交互手勢,將加大用戶的學(xué)習(xí)成本和犯錯幾率。因此,本研究以無人駕駛汽車行駛引導(dǎo)任務(wù)的交互手勢為研究對象,采用用戶參與式設(shè)計(jì)與專家評估相結(jié)合的設(shè)計(jì)方法,以驗(yàn)證車內(nèi)外采用統(tǒng)一交互手勢的可行性。
交互手勢收集和集合構(gòu)建階段的研究流程如圖1所示。筆者首先采集用戶生成的交互手勢,通過分析、歸納用戶認(rèn)知視角下的目標(biāo)任務(wù)和手勢動作之間的關(guān)聯(lián)性,以指導(dǎo)交互手勢的集合構(gòu)建。筆者通過計(jì)算不同任務(wù)下用戶生成手勢的一致率,判斷手勢的設(shè)計(jì)與目標(biāo)任務(wù)是否吻合,并結(jié)合用戶的語義分析,最終構(gòu)建行駛引導(dǎo)交互手勢集合。
圖1 收集和構(gòu)建階段研究流程
交互手勢采集階段共邀請15名被試參與測試,男性6人、女性9人,年齡均在21~25歲(=22.5,D=1.2)。其中10人具有駕駛能力,并有7人熟練掌握駕駛技巧。
每名被試使用16英寸(1英寸=2.54 cm)顯示器,在Unity虛擬場景下熟悉手勢交互場景。虛擬場景中包含一輛用于手勢控制的車輛和一棟代表目標(biāo)位置的房屋。測試人員在光照良好的環(huán)境下,坐姿處于電腦攝像頭1 m范圍內(nèi),通過Mediapipe進(jìn)行手勢操作。
測試開始前,被試在工作人員指導(dǎo)下通過10 min學(xué)習(xí)并熟悉Unity模擬的手勢導(dǎo)航場景。正式測試開始后,要求15名被試按照5人一組,針對各目標(biāo)任務(wù)在車內(nèi)場景和車外場景分別設(shè)計(jì)3種手勢[17]。研究要求被試產(chǎn)出的手勢滿足四大要求:(1)手勢可由單手或雙手構(gòu)成;(2)雙手手勢的兩手之間可存在位置關(guān)系;(3)由于車外手勢交互操作距離較大且環(huán)境更為復(fù)雜,為了增強(qiáng)手勢可識別性,針對車外手勢,要求被試可以根據(jù)自身想法放大動作特征;(4)針對車外手勢,要求被試采用站立姿態(tài)完成手勢定義。實(shí)驗(yàn)過程中,研究人員通過攝像機(jī)記錄被試生成手勢的過程,并要求被試在生成手勢時使用“出聲思維法”[18]回答產(chǎn)生該手勢的思路。
要求(1)和要求(2)主要是為幫助用戶避免遺留偏見問題,提高可收集到的手勢種類,且通過要求(2)的雙手位置關(guān)系,可以更好地發(fā)揮手勢的指向性特點(diǎn)。要求(3)和要求(4)幫助被試?yán)斫廛囃馐謩莸氖褂铆h(huán)境,使得收集到的手勢更適用于車外環(huán)境。
本研究在進(jìn)行交互手勢采集結(jié)果統(tǒng)計(jì)時,根據(jù)手勢形態(tài)同時結(jié)合“出聲思維法”獲取的語音資料對手勢進(jìn)行分類。例如,不同的被試?yán)檬持傅闹赶蚧蛲瑫r利用食指、中指的指向,如果語音材料中表示兩個被試的手勢描述思路相同,則被認(rèn)為是同一種手勢。用戶參與設(shè)計(jì)生成的交互手勢集合見圖2。
本研究通過計(jì)算同一任務(wù)下用戶設(shè)計(jì)手勢的一致率判斷各任務(wù)被試生成的手勢相似程度[16]。一致率(Agreement Rate)用表示,表示某一個任務(wù),則各項(xiàng)任務(wù)手勢一致率的計(jì)算見式(1)。
式中:是被試在進(jìn)行任務(wù)時所涉及的所有手勢的集合;||為集合的大?。?i>P是具有相同手勢姿態(tài)的手勢子集。
用戶生成的車內(nèi)場景下各項(xiàng)任務(wù)手勢的一致率如表1所示;車外場景下各項(xiàng)任務(wù)手勢的一致率,見表2。
研究發(fā)現(xiàn),無論是車內(nèi)還是車外,被試用戶在“前進(jìn)”“后退”“左/右轉(zhuǎn)”任務(wù)下設(shè)計(jì)的手勢都具有較高的一致率,而“靠邊停車”的交互手勢的一致率較低。
圖2 車內(nèi)外手勢收集的集合
表1 車內(nèi)場景被試生成手勢一致率
Tab.1 Agreement scores of internal gestures generated by participants
表2 車外場景被試生成手勢一致率
Tab.2 Agreement scores of external gestures generated by participants
研究根據(jù)各手勢出現(xiàn)頻次,選取被試生成最多次數(shù)的手勢,并結(jié)合語音材料中用戶對手勢語義的理解方式,對用戶生成的交互手勢特征進(jìn)行一致性優(yōu)化后構(gòu)建了最終的行駛引導(dǎo)交互手勢集合(如圖3所示)。例如,在“靠邊停車”手勢中,車內(nèi)場景下被試手指指向右側(cè)的手勢頻次較多,而車外場景下大部分被試傾向于采用表示“向右”后“停車”的語義。綜合考慮兩種場景下被試的表述方式和手勢動作,確定了“EP2”作為“靠邊停車”的交互手勢。
圖3 車內(nèi)外交互手勢構(gòu)建的集合
本研究采用卡片法和模擬測試法對構(gòu)建的行駛引導(dǎo)交互手勢集合進(jìn)行驗(yàn)證??ㄆㄓ糜隍?yàn)證上一階段構(gòu)建的交互手勢集合與目標(biāo)任務(wù)的匹配程度,模擬測試用于驗(yàn)證交互手勢集合在車內(nèi)與車外環(huán)境下的具體表現(xiàn)。
在卡片法驗(yàn)證階段,邀請20名未參與第一階段的被試人員,男性8人、女性12人,年齡均為21~25歲(=22.6,D=1.2)。其中15人具有駕駛能力,且8人熟練掌握駕駛技巧。
在模擬器驗(yàn)證階段,針對車內(nèi)場景和車外場景,分別邀請12名被試進(jìn)行模擬實(shí)驗(yàn),由此驗(yàn)證交互手勢的可用性。男性7人、女性5人,年齡均為21~25歲(=22.6,D=0.9)。其中,8人具有駕駛能力,且4人熟練掌握駕駛技巧。
每名被試使用16英寸(1英寸=2.54 cm)顯示器,在Unity的虛擬場景下熟悉手勢交互。在車內(nèi)場景測試中,虛擬環(huán)境包括了用于手勢控制的車內(nèi)座艙(第一人稱視角)、仿真街道和作為目的地的公交車站。在車內(nèi)場景中,測試人員在光照良好的室內(nèi)環(huán)境下,坐于距電腦攝像頭1 m范圍內(nèi),通過Mediapipe進(jìn)行手勢操作。在車外場景測試中,虛擬環(huán)境包括用于手勢控制的車輛和仿真街道,以及作為用戶觀察位置的房屋。車外場景中,測試人員在光照良好的室內(nèi)環(huán)境下,站于距電腦攝像頭1 m范圍內(nèi),通過Mediapipe進(jìn)行手勢操作。
在卡片分類驗(yàn)證階段,20名被測根據(jù)車內(nèi)和車外場景隨機(jī)分為兩組,并統(tǒng)計(jì)手勢與目標(biāo)任務(wù)的正確分類頻次。
研究人員利用Unity搭建車內(nèi)和車外的手勢交互場景。被試需要利用上述構(gòu)建的交互手勢集合完成6次操作,指引模擬場景中的車輛行駛到指定位置。車外場景被試采用站姿完成實(shí)驗(yàn)。在測試場景中被試需要完成6次操作任務(wù)。將“車輛進(jìn)入任務(wù)可執(zhí)行區(qū)域”到“被試執(zhí)行正確任務(wù)操作”的時間記為每項(xiàng)任務(wù)的完成時間。實(shí)驗(yàn)中研究人員記錄用戶使用手勢完成每一項(xiàng)任務(wù)的時間,任務(wù)完成時間按照幀數(shù)統(tǒng)計(jì),視頻為24 fps。實(shí)驗(yàn)人員在實(shí)驗(yàn)結(jié)束后邀請被試使用7分里克特量表對使用手勢操控車輛的舒適度、易學(xué)性進(jìn)行評分。
卡片法階段交互手勢與任務(wù)匹配頻次共收集到40份數(shù)據(jù),統(tǒng)計(jì)結(jié)果見表3。根據(jù)表3的結(jié)果顯示,本實(shí)驗(yàn)構(gòu)建的交互手勢集合可以較好地表達(dá)出操作指令的語義,符合用戶認(rèn)知。
表3 手勢與任務(wù)匹配頻次
Tab.3 Frequency of gesture-to-task matching
任務(wù)完成時間采用Mann-Whitney U檢驗(yàn)進(jìn)行分析(如圖4所示)。根據(jù)圖4的結(jié)果顯示,被試用戶在“調(diào)頭”任務(wù)(=24,=3466,<0.01)和“靠邊停車”任務(wù)(=24,=1.964,<0.05)的完成時間出現(xiàn)顯著差異。研究還發(fā)現(xiàn),用戶在車內(nèi)場景的完成時間顯著低于車外場景(如圖4所示)。
由于用戶易學(xué)性評分與舒適度評分為計(jì)數(shù)數(shù)據(jù)且不符合正態(tài)分布,所以研究采用Fisher精確檢驗(yàn)進(jìn)行分析(如圖5~6所示)。在車內(nèi)場景和車外場景下,24名被試對交互手勢集合的舒適度評分和對交互手勢集合的易學(xué)性評分并未出現(xiàn)顯著差異。
對于無人駕駛汽車行駛引導(dǎo)任務(wù),被試的車內(nèi)手勢和車外手勢的生成過程都利用了手勢指向性的特點(diǎn)。例如,車內(nèi)手勢(“F1”和“IF2”)和車外手勢(“EF1”和“EF2”)均以向上方或向前方的手勢形態(tài)特征表達(dá)了“前進(jìn)”的語義。盡管車內(nèi)手勢和車外手勢在形態(tài)上存在相似之處,二者之間仍有明顯的區(qū)別。
車內(nèi)手勢的形態(tài)特征表現(xiàn)為更明確的指向性。手勢向上或下的指向表示“前進(jìn)”或“后退”,手勢向左或右的指向表示“左轉(zhuǎn)”或“右轉(zhuǎn)”。握拳(“IS3”)作為沒有方向指向的手勢則代表“停車”的語義?!罢{(diào)頭”任務(wù)則使用具有彎曲形態(tài)特征的手勢(“IT1”“IT3”)代表行駛方向的改變?!翱窟呁\嚒比蝿?wù)則使用向右下方指向的手勢(“IP1”)代表向右靠近并減速的語義,或突出表達(dá)靠邊(“IP3”“IP4”)的語義。
車外手勢的形態(tài)特征在指向性的基礎(chǔ)上,通過拆解任務(wù)語義進(jìn)行表述。例如,“調(diào)頭”任務(wù)被拆解成“向前”再“向后”的手勢語義。手勢“ET3”通過依次表述“向前”和“向后”的手勢來定義“調(diào)頭”任務(wù)的手勢。而對于手勢“EP2”,“靠邊停車”任務(wù)被拆解成“向右行駛”并“停車”的手勢語義。
出現(xiàn)這種差別的原因可能是由于車內(nèi)環(huán)境與車外環(huán)境之間用戶視角的變化。在車內(nèi)環(huán)境中,用戶與車輛視角一致,車輛行駛方向即為用戶目標(biāo)方向。手勢指向從自身位置出發(fā),可以進(jìn)行行駛方向的直觀描述。在車外環(huán)境中,用戶與車輛視角不一致,用戶從旁觀者角度觀察和控制車輛運(yùn)動。因此,拆解任務(wù)語義以表述車輛的運(yùn)動過程更適合車外環(huán)境的用戶視角。
圖4 車內(nèi)外場景下交互手勢集合任務(wù)完成時間差異性
圖6 車內(nèi)外場景下交互手勢集合易學(xué)性差異情況
另外,車內(nèi)手勢中的“IS1”和“IP2”利用了其他符號含義進(jìn)行語義表述?!癐S1”利用已形成共識的暫停手勢表述“停車”;“IP2”利用食指和大拇指構(gòu)成“對勾”的形狀來表示行程結(jié)束,可以進(jìn)行“靠邊停車”。
車內(nèi)環(huán)境下被試生成的手勢主要為靜態(tài)手勢(占比90.4%),而車外環(huán)境下被試生成的手勢主要為動態(tài)手勢(占比66.7%)。相比于靜態(tài)手勢,車外手勢中運(yùn)動軌跡的加入增加了手勢信息的維度。以“右轉(zhuǎn)”任務(wù)的“EL1”和“EL2”為例,被試的運(yùn)動軌跡或?yàn)橄蛴宜剿邮直郏ā癊L1”),或?yàn)橄蛴邑Q直甩動手臂(“EL2”)。通過對軌跡進(jìn)行編碼,同為向右甩動的手勢可分別用于“右轉(zhuǎn)”(“EL2”)和“靠邊停車”(“EP1”)。
但是,由于車內(nèi)場景中的活動空間受限,運(yùn)動幅度較大的動態(tài)手勢不適合車內(nèi)較狹小的環(huán)境。此外,上文提到了用戶可以利用車內(nèi)手勢從自身位置視角出發(fā)進(jìn)行行駛方向的直觀描述,因此車內(nèi)手勢無需利用動態(tài)特征以增加額外的信息。車外環(huán)境下動態(tài)手勢數(shù)量增加,用戶認(rèn)為在復(fù)雜的車外環(huán)境中動態(tài)手勢(“EF1”“EB1”“EL1”“ES1”“ET1”)能使手勢更加容易被系統(tǒng)偵測識別。但是動態(tài)手勢中包含的軌跡信息和運(yùn)動速度信息具有不確定性,因此技術(shù)層面上較難做到精準(zhǔn)識別[4]。此外,動態(tài)手勢需要用戶提前掌握手勢能被系統(tǒng)識別的最佳運(yùn)動幅度和運(yùn)動速度,這進(jìn)一步加大了用戶的學(xué)習(xí)難度。
研究結(jié)果顯示,無論是車內(nèi)還是車外,靜態(tài)手勢均可以較清晰地表達(dá)行駛引導(dǎo)相關(guān)的任務(wù)語義,無需再利用動態(tài)手勢添加額外的信息,并且靜態(tài)手勢相較于動態(tài)手勢無需對用戶的動作幅度和速度作進(jìn)一步要求,可以有效地降低學(xué)習(xí)成本,從而滿足無人駕駛汽車的行駛引導(dǎo)需求。
在手勢采集階段,19.0%的用戶在車內(nèi)采用了雙手手勢,而33.3%的用戶在車外使用了雙手手勢。車內(nèi)環(huán)境中,雙手手勢主要出現(xiàn)在停車(“IS1”)、調(diào)頭(“IT5”)和靠邊停車(“IP3”“IP4”)任務(wù)中。其中,“IS1”手勢源于生活中與“停止”相似的手勢,而“IT5”手勢則是被試?yán)檬终?、手心相反的雙手代表車輛行駛方向的調(diào)換?!癐P3”“IP4”則利用了手勢的指向性并拆解了任務(wù)語義。“IP3”的左手代表“向右”,而右手代表“路邊”?!癐P4”的左手代表“停車”,而右手代表“路邊”。在車外環(huán)境中,每項(xiàng)任務(wù)都有少量被試采用了雙手手勢。該類被試用戶認(rèn)為單手手勢容易與日常生活手勢混淆,導(dǎo)致車外使用單手手勢時可能因被誤識別而引發(fā)危險(xiǎn),而雙手手勢更易于與日常生活中的手勢產(chǎn)生區(qū)分。
然而,單手手勢的包容性明顯優(yōu)于雙手手勢。單手手勢對手部殘障用戶或者拄拐的用戶更加友好。此外,單手手勢可以保證用戶在對車輛進(jìn)行交互控制時,另一只手依然可以從事其他活動,例如操作手機(jī)或者攜帶旅行箱。不僅如此,單手手勢排除了左右手動作混淆的可能性,減少了誤操作的風(fēng)險(xiǎn)。由于單手手勢減少了手部肢體運(yùn)動軌跡,特別是在需要快速反應(yīng)的情況下,單手狀態(tài)下用戶可以更加快速、便利地變換手勢,從而改變交互指令。
如表1~2所示,通過計(jì)算Qian等[19]的研究中被試生成的交互手勢集合的一致率,發(fā)現(xiàn)本研究中車內(nèi)和車外環(huán)境下各項(xiàng)任務(wù)的手勢一致率與Qian等的研究相符。但是,本研究也發(fā)現(xiàn)車外環(huán)境下的手勢一致率低于車內(nèi)環(huán)境。本研究認(rèn)為車外環(huán)境下用戶的活動空間增大是導(dǎo)致被試自定義生成的手勢更為靈活多變的主要原因。盡管同一任務(wù)下車內(nèi)外交互手勢形態(tài)存在一定差異,但被試在生成手勢時采取了相似的思路和策略,即利用手勢的指向性特征進(jìn)行表達(dá)。
模擬測試中車內(nèi)和車外場景下“調(diào)頭”任務(wù)和“靠邊停車”任務(wù)的完成時間出現(xiàn)了顯著差異性。本研究發(fā)現(xiàn)由于車外場景下被試的觀察視角與車輛的移動視角并不統(tǒng)一,因此在完成“調(diào)頭”“靠邊停車”等較復(fù)雜的指令時,被試需要對車輛的位置進(jìn)行更仔細(xì)的判斷,從而導(dǎo)致了完成時間的增加。盡管模擬測試中部分任務(wù)的完成時間出現(xiàn)了顯著性差異,但由于并沒有超過用戶接受度的閾值,因此不會對用戶的交互體驗(yàn)產(chǎn)生顯著的消極影響。而卡片測試與模擬測試后的用戶調(diào)研均顯示本實(shí)驗(yàn)構(gòu)建的交互手勢集合在易學(xué)性和舒適度方面并無顯著差異,在車內(nèi)外均達(dá)到較好的用戶體驗(yàn)預(yù)期。
在無人駕駛場景下,由于目標(biāo)地點(diǎn)描述的模糊性和系統(tǒng)導(dǎo)航定位的精確性之間的鴻溝,導(dǎo)致用戶在到達(dá)預(yù)設(shè)目的地后仍需對車輛位置進(jìn)行調(diào)整。因此,對不具備駕駛能力的用戶更需要一種直觀、高效、安全的交互方式以實(shí)現(xiàn)對無人駕駛汽車的行駛引導(dǎo)。本研究通過采用用戶參與式設(shè)計(jì)和一致性計(jì)算相結(jié)合的交互手勢設(shè)計(jì)方法建立了一套適用于車內(nèi)外行駛引導(dǎo)的交互手勢,并通過卡片分類法和模擬測試驗(yàn)證了車內(nèi)外采用統(tǒng)一的行駛引導(dǎo)交互手勢的高度可行性。本研究作為探索性研究,依然存在一些不足。本研究被試的數(shù)量和樣本豐富性不足,未能將其他年齡層用戶和殘障用戶納入考量。未來在針對無人駕駛車具體任務(wù)場景的手勢設(shè)計(jì)時,應(yīng)考慮涵蓋較多年齡層面的用戶群體。本研究拓展了未來無人駕駛汽車的用戶體驗(yàn)研究方向,為手勢交互提供了新的應(yīng)用場景,也為中國汽車企業(yè)與自動駕駛行業(yè)的發(fā)展提供了有價(jià)值的參考。
[1] GB/T 40429—2021, 汽車駕駛自動化分級[S]. GB/T 40429-2021, Taxonomy of Driving Automation for Vehicles[S].
[2] DETJEN H, SCHNEEGASS S, GEISLER S, et al. An Emergent Design Framework for Accessible and Inclusive Future Mobility[C]// Proceedings of the 14th International Conference on Automotive User Interfaces and Interactive Vehicular Applications. Seoul: ACM, 2022: 1-12
[3] FR?HLICH P, MILLONIG A, FRISON A K, et al. User Interfaces for Public Transport Vehicles: Future Opportunities and Challenges[C]// Proceedings of the 10th International Conference on Automotive User Interfaces and Interactive Vehicular Applications. Toronto: ACM, 2018: 50-55.
[4] MAMCHENKO M V, ROMANOVA M A, TREFILOV P M. Defining the Critical Characteristics of Unmanned Vehicles in a Smart City[J]. IFAC, 2021, 54(13): 488- 492.
[5] SHU Y, SHIN K G, HE T, et al. Last-Mile Navigation Using Smartphones[C]// Proceedings of the 21st Annual International Conference on Mobile Computing and Networking. Paris: ACM, 2015: 512-524.
[6] WANG N, PEI Y, FU H. Public Acceptance of Last-mile Shuttle Bus Services with Automation and Electrification in Cold-Climate Environments[J]. Sustainability, 2022, 14(21): 14383.
[7] 錢曉松, 張帆, 楊新. 基于全自動駕駛情境下駕駛導(dǎo)航需求的手勢交互設(shè)計(jì)研究[J]. 裝飾, 2020(4): 104- 107. QIAN X S, ZHANG F, YANG X. Study on Gesture Interaction for Navigation in The Autonomous Driving Situation[J]. ZHUANGSHI, 2020(4): 104-107.
[8] SARMA D, BHUYAN M K. Methods, Databases and Recent Advancement of Vision-based Hand Gesture Recognition for HCI Systems: A Review[J]. SN Computer Science, 2021, 2(6): 436.
[9] SHI Y, LI Y, FU X, et al. Review of Dynamic Gesture Recognition[J]. Virtual Reality & Intelligent Hardware, 2021, 3(3): 183-206.
[10] CARREIRA M, TING K L H, CSOBANKA P, et al. Evaluation of In-Air Hand Gestures Interaction for Older People[J]. Universal Access in the Information Society, 2017, 16(3): 561-580.
[11] DEY D, TERKEN J. Pedestrian Interaction with Vehicles: Roles of Explicit and Implicit Communication[C]// Proceedings of the 9th International Conference on Automotive User Interfaces and Interactive Vehicular Applications. Oldenburg: ACM, 2017: 109-113.
[12] JOISTEN P, LIU Z, THEOBALD N, et al. Communication of Automated Vehicles and Pedestrian Groups: An Intercultural Study on Pedestrians’ Street Crossing Decisions[C]// Mensch und Computer 2021. Ingolstadt: ACM, 2021: 49-53.
[13] ZENG J, SUN Y, WANG F. A Natural Hand Gesture System for Intelligent Human-Computer Interaction and Medical Assistance[C]// 2012 3rd Global Congress on Intelligent Systems. Wuhan: IEEE, 2012: 382-385.
[14] 孫效華, 周博, 李彤. 隔空手勢交互的設(shè)計(jì)要素與原則[J]. 包裝工程, 2015, 36(8): 10-13. SUN X H, ZHOU B, LI T. Design Key Elements and Principles of In-Air Gesture-Based Interaction[J]. Packaging Engineering, 2015, 36(8): 10-13.
[15] 于漢超, 楊曉東, 張迎偉, 等. 凌空手勢識別綜述[J]. 科技導(dǎo)報(bào), 2017, 35(16): 64-73. YU H C, YANG X D, ZHANG Y W, et al. A Review on the Recognition of Mid-Air Gestures[J]. Science & Technology Review, 2017, 36(15): 64-73.
[16] WOBBROCK J O, AUNG H H, ROTHROCK B, et al. Maximizing the Guessability of Symbolic Input[C]// Proceedings of the CHI’05 Extended Abstracts on Human Factors in Computing Systems. Portland: ACM, 2005: 1869-1872.
[17] WU H, FU S, YANG L, et al. Exploring Frame-Based Gesture Design for Immersive VR Shopping Environ-ments[J]. Behaviour & Information Technology, 2022, 41(1): 96-117.
[18] 周榮剛, 張侃. 可用性測試中的出聲思維法[J]. 人類工效學(xué), 2005, 11(3): 3. ZHOU R G, ZHAG K.Thinking Aloud in Usability Testing[J]. Chinese Journal of Ergonomics, 2005, 11(3): 3.
[19] QIAN X, JU W, SIRKIN D M. Aladdin’s Magic Carpet: Navigation by In-Air Static Hand Gesture in Autonomous Vehicles[J]. International Journal of Human– Computer Interaction, 2020, 36(20): 1912-1927.
Navigation Gesture Design for Fully Autonomous Vehicles
QIAN Xiaosong, DOU Jinhua, DU Peng*
(School of Mechanical Engineering, University of Science and Technology Beijing, Beijing 100083, China)
The work aims to develop an interaction gesture design method that aligns with user cognition, so as to enhance the user experience of fully autonomous vehicles (FAVs) navigation without steering wheel control. Initially, the navigation gestures for both internal and external scenarios of FAVs were collected by a user generated design test. Then a navigation gesture collection applicable for FAVs was constructed based on consistency comparison. Finally, the usability of the navigation gesture collection was evaluated through card sorting and simulation testing. The results from card sorting and simulation testing indicated that the gesture design method which combined user participatory design and consistency calculation achieved a positive user experience expectation for FAVs. It also affirmed the feasibility of navigation gestures for both internal and external scenarios of FAVs. This research validates the effectiveness of gesture interaction in enhancing the user experience in internal and external scenarios of FAVs, and provides a new direction for the user experience research of FAVs.
fully autonomous vehicles; navigation; gesture design; user generated design
TB472;J525.2
A
1001-3563(2024)08-0040-08
10.19554/j.cnki.1001-3563.2024.08.005
2023-11-22
教育部2022年第二批產(chǎn)學(xué)合作協(xié)同育人項(xiàng)目(220705329275903)
通信作者