• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型

    2021-07-12 01:16:30進(jìn),張浩,田
    圖學(xué)學(xué)報(bào) 2021年3期
    關(guān)鍵詞:黑盒軌跡動(dòng)態(tài)

    黃 進(jìn),張 浩,田 豐

    面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型

    黃 進(jìn)1,3,張 浩1,2,田 豐1,3

    (1. 中國(guó)科學(xué)院軟件研究所人機(jī)交互北京重點(diǎn)實(shí)驗(yàn)室,北京 100190;2. 中國(guó)科學(xué)院大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,北京 101408;3. 中國(guó)科學(xué)院大學(xué)人工智能學(xué)院,北京 101408)

    隨著人機(jī)交互技術(shù)不斷發(fā)展,包含動(dòng)態(tài)內(nèi)容的交互系統(tǒng),如虛擬/增強(qiáng)/混合現(xiàn)實(shí)、視頻監(jiān)控系統(tǒng)等,逐漸占據(jù)主要地位。面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型受到了越來(lái)越多的關(guān)注,大量的計(jì)算模型被提出,加強(qiáng)了人們對(duì)動(dòng)態(tài)用戶界面的認(rèn)識(shí)和理解。然而,現(xiàn)階段,面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型研究仍在問(wèn)題復(fù)雜度、解釋性、交互底層機(jī)制描述上存在諸多問(wèn)題,極大地限制了動(dòng)態(tài)模型研究的發(fā)展和應(yīng)用。本文通過(guò)對(duì)面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型的研究現(xiàn)狀進(jìn)行分析,對(duì)當(dāng)前存在且急需解決的問(wèn)題進(jìn)行了梳理,并給出了領(lǐng)域未來(lái)發(fā)展的看法,旨在拋磚引玉,為今后面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型研究提供參考。

    人機(jī)交互;界面系統(tǒng);動(dòng)態(tài)場(chǎng)景;動(dòng)態(tài)交互任務(wù);計(jì)算模型

    計(jì)算建模是一種利用計(jì)算機(jī)來(lái)模擬和研究復(fù)雜系統(tǒng)的方法。一個(gè)計(jì)算模型通常包含許多變量,這些變量是所研究系統(tǒng)的特征和屬性。一般來(lái)說(shuō),計(jì)算模型具有3方面的作用:首先,通過(guò)模型構(gòu)建、參數(shù)估計(jì)和實(shí)驗(yàn)驗(yàn)證解釋系統(tǒng)內(nèi)部的復(fù)雜結(jié)構(gòu);其次,基于系統(tǒng)當(dāng)前的特征和屬性,對(duì)系統(tǒng)的輸出結(jié)果做出預(yù)測(cè);最后,通過(guò)單獨(dú)或組合調(diào)整變量并觀察輸出結(jié)果來(lái)進(jìn)行系統(tǒng)模擬,對(duì)系統(tǒng)行為做出仿真。

    人機(jī)交互經(jīng)過(guò)了多年發(fā)展,各方面技術(shù)已經(jīng)非常成熟,然而人們對(duì)用戶行為規(guī)律的研究卻相對(duì)滯后,一定程度上制約了交互系統(tǒng)的發(fā)展。因此,近些年來(lái),越來(lái)越多的學(xué)者開(kāi)始利用計(jì)算建模的方法來(lái)研究人機(jī)交互問(wèn)題,旨在理解用戶行為,預(yù)測(cè)用戶表現(xiàn),并對(duì)交互過(guò)程進(jìn)行仿真。2021年,國(guó)際計(jì)算機(jī)協(xié)會(huì)人機(jī)交互特別興趣小組ACM SIGCHI,在其最主要的學(xué)術(shù)會(huì)議CHI中設(shè)立了一個(gè)全新的計(jì)算交互分委會(huì)“Computational Interaction Subcommittee”,專注于利用計(jì)算方法研究人機(jī)交互技術(shù)和設(shè)計(jì),顯示了人機(jī)交互學(xué)術(shù)界對(duì)于計(jì)算模型的重視程度。

    隨著人機(jī)交互技術(shù)不斷發(fā)展,包含動(dòng)態(tài)內(nèi)容的交互系統(tǒng),例如虛擬/增強(qiáng)/混合現(xiàn)實(shí)(Virtual/Augmented/ Mixed Reality,VR/AR/MR)、動(dòng)畫系統(tǒng)、視頻監(jiān)控系統(tǒng)、仿真系統(tǒng)、娛樂(lè)教育系統(tǒng)等,逐漸占據(jù)主要地位,面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型受到了越來(lái)越多的關(guān)注,學(xué)者們構(gòu)建了大量的計(jì)算模型,對(duì)動(dòng)態(tài)交互場(chǎng)景中用戶的時(shí)間表現(xiàn)、精確度和行為進(jìn)行了建模,加強(qiáng)了對(duì)動(dòng)態(tài)用戶界面的認(rèn)識(shí)和理解。然而,現(xiàn)階段面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型研究仍存在諸多問(wèn)題和挑戰(zhàn),其中包括復(fù)雜動(dòng)態(tài)交互問(wèn)題建模的困難,黑盒模型存在的問(wèn)題,機(jī)制性建模的不足和模型應(yīng)用時(shí)存在的挑戰(zhàn)等,制約了動(dòng)態(tài)模型研究的發(fā)展和應(yīng)用。本文通過(guò)對(duì)面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型研究現(xiàn)狀進(jìn)行分析,對(duì)當(dāng)前存在且亟需解決的問(wèn)題進(jìn)行了梳理,并給出了該領(lǐng)域未來(lái)發(fā)展的看法,旨在拋磚引玉,為今后面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型研究提供參考。

    1 研究現(xiàn)狀

    1.1 靜態(tài)交互場(chǎng)景的計(jì)算模型

    目標(biāo)選擇和軌跡任務(wù)被認(rèn)為是人機(jī)交互中最為基礎(chǔ)的交互任務(wù),其計(jì)算模型主要包括時(shí)間模型和不確定性模型2類,前者預(yù)測(cè)完成觸控任務(wù)所需時(shí)間,而后者則可以用于計(jì)算成功率。對(duì)于時(shí)間模型,F(xiàn)itts’ Law[1]被證實(shí)是最具魯棒性和廣泛應(yīng)用的時(shí)間模型,完成了如圖1所示的1D目標(biāo)獲取,并對(duì)運(yùn)動(dòng)時(shí)間進(jìn)行了精準(zhǔn)的預(yù)測(cè),揭示了完成任務(wù)時(shí)間與目標(biāo)大小和目標(biāo)距離的關(guān)聯(lián)[2],即

    其中,MT為完成該任務(wù)所需的平均運(yùn)動(dòng)時(shí)間;A為光標(biāo)起始點(diǎn)到目標(biāo)中心的距離;W為目標(biāo)的寬度;a和b為由指點(diǎn)設(shè)備、操作人員和環(huán)境因素決定的經(jīng)驗(yàn)常數(shù);對(duì)數(shù)項(xiàng),被稱之為難度系數(shù)(index of difficulty,ID)。Fitts’ Law最開(kāi)始建立在一個(gè)1D的靜態(tài)觸控任務(wù)中,后來(lái)又被擴(kuò)展到了2D[3-4]、3D[5]以及動(dòng)態(tài)任務(wù)[6]中。

    為了預(yù)測(cè)軌跡任務(wù)的時(shí)間表現(xiàn),ACCOT等[7]對(duì)Fitts’ Law進(jìn)行拓展,提出了Steering Law用于對(duì)軌跡任務(wù)的運(yùn)動(dòng)時(shí)間進(jìn)行預(yù)測(cè),在如圖2所示的一個(gè)筆直的軌道中,任務(wù)時(shí)間與軌道長(zhǎng)度和軌道寬度的比值呈線性關(guān)系,即

    其中,為通道長(zhǎng)度;為通道寬度;a和b是經(jīng)驗(yàn)常數(shù)。

    圖2 Steering Law中的筆直通道任務(wù)

    利用微分的思想,Steering Law還可以進(jìn)一步拓展到任意光滑軌道中,從而能夠更好地應(yīng)對(duì)急轉(zhuǎn)彎[8]、邊界大小變化通道[9]、以及復(fù)雜管道[10]中。經(jīng)過(guò)推導(dǎo),Steering Law可以拓展到任意有理通道上,在一般情況下,完成任務(wù)時(shí)間可以表示為無(wú)數(shù)多個(gè)微小的筆直通道的積分。然而,Steering Law的后續(xù)研究發(fā)現(xiàn),其僅適用于光滑的軌道,而對(duì)嚴(yán)重扭曲或快速變化的軌道預(yù)測(cè)性能不足。因此,許多Steering Law的后續(xù)研究都將主要精力放在處理通道突然發(fā)生變化的情況。例如,文獻(xiàn)[8]對(duì)Steering Law在包含直轉(zhuǎn)角的軌跡任務(wù)的中的表現(xiàn)進(jìn)行了改進(jìn),文獻(xiàn)[9]討論了通道大小發(fā)生突然變化時(shí)的時(shí)間預(yù)測(cè)模型。

    對(duì)于不確定性模型,國(guó)內(nèi)外學(xué)者關(guān)注的焦點(diǎn)在于觸控目標(biāo)選擇時(shí)的落點(diǎn)分布情況,以及由此推算的目標(biāo)選擇成功率。研究者們首先提出了有效寬度和有效距離的概念,即目標(biāo)選擇落點(diǎn)分布中2倍標(biāo)準(zhǔn)差的范圍和均值,進(jìn)而對(duì)Fitts’ Law進(jìn)行修正[11],提高了特殊情況下Fitts’ Law的預(yù)測(cè)準(zhǔn)確性[12]。WOBBROCK等[13]利用Fitts’ Law和有效寬度,對(duì)落點(diǎn)分布規(guī)律進(jìn)行分析,推導(dǎo)出了一個(gè)1D目標(biāo)獲取的成功率模型(圖3),揭示了任務(wù)難度系數(shù)和目標(biāo)選擇成功率之間的關(guān)系,即

    其中,erf(x)為高斯誤差函數(shù);MTe為由有效距離和有效寬度計(jì)算出來(lái)的目標(biāo)獲取運(yùn)動(dòng)時(shí)間;a和b是經(jīng)驗(yàn)常數(shù)項(xiàng)。

    BI等[14-15]使用雙高斯分布假設(shè)對(duì)小型觸屏設(shè)備交互中的落點(diǎn)分布規(guī)律進(jìn)行建模,對(duì)小型觸控交互中運(yùn)動(dòng)時(shí)間做出更為精確的預(yù)測(cè)。該思想隨后在虛擬鍵盤和文本輸入上面得到了應(yīng)用,有效地改善了鍵盤和文本輸入的精確度[16-17]。

    上述模型均為面向靜態(tài)交互場(chǎng)景的計(jì)算模型,而隨著人機(jī)交互技術(shù)不斷發(fā)展,動(dòng)態(tài)交互任務(wù),例如VR/AR/MR、動(dòng)畫系統(tǒng)中的交互任務(wù),逐漸占據(jù)主要地位,面向靜態(tài)交互場(chǎng)景的模型的限制越來(lái)越明顯,無(wú)法有效支撐含有動(dòng)態(tài)內(nèi)容的人機(jī)交互界面設(shè)計(jì)與技術(shù)創(chuàng)新。因此,學(xué)者們開(kāi)始著眼于構(gòu)建動(dòng)態(tài)交互場(chǎng)景中的模型,其主要包括動(dòng)態(tài)交互場(chǎng)景中的時(shí)間預(yù)測(cè)模型、錯(cuò)誤率預(yù)測(cè)模型和用戶行為模型。

    1.2 時(shí)間預(yù)測(cè)模型

    與靜態(tài)場(chǎng)景一致,動(dòng)態(tài)場(chǎng)景中最基礎(chǔ)的交互任務(wù)是移動(dòng)目標(biāo)選擇任務(wù)。對(duì)于移動(dòng)目標(biāo)選擇而言,JAGACINSKI的移動(dòng)目標(biāo)選擇時(shí)間模型[6]是最著名的時(shí)間預(yù)測(cè)模型之一。該模型通過(guò)改進(jìn)的難度系數(shù)解釋目標(biāo)速度的影響,將Fitts’ Law擴(kuò)展到運(yùn)動(dòng)目標(biāo)捕獲中,即

    其中,和的含義與Fitts’ Law一致;為目標(biāo)移動(dòng)速度;a,b和c為經(jīng)驗(yàn)常數(shù)。

    與Fitts’ Law中的ID相類似,修改后的難度指數(shù)反映了目標(biāo)寬度和速度相互作用與交互時(shí)間之間的關(guān)系。另一個(gè)廣為人知的移動(dòng)目標(biāo)選擇時(shí)間估計(jì)方法來(lái)自文獻(xiàn)[18],該方法通過(guò)應(yīng)用線性控制模型理論來(lái)推斷運(yùn)動(dòng)目標(biāo)捕獲的困難指數(shù),利用穩(wěn)態(tài)位置誤差減小目標(biāo)有效寬度,模擬人體獲取運(yùn)動(dòng)目標(biāo)的響應(yīng),最終估計(jì)完成交互所需時(shí)間。通過(guò)考慮目標(biāo)運(yùn)動(dòng)對(duì)人類時(shí)間準(zhǔn)確度的影響,文獻(xiàn)[19-20]發(fā)現(xiàn)目標(biāo)速度對(duì)不同參與者的目標(biāo)捕獲策略(如追蹤和命中)有不同的影響。并建議用不同的目標(biāo)速度函數(shù)來(lái)估計(jì)目標(biāo)捕獲時(shí)間,而不是用固定的函數(shù)來(lái)處理目標(biāo)速度的影響。HAJRI等[21]還通過(guò)應(yīng)用人類處理器模型[22]來(lái)描述運(yùn)動(dòng)目標(biāo)選擇,推導(dǎo)了一個(gè)2D移動(dòng)目標(biāo)選擇的時(shí)間預(yù)測(cè)模型。該模型在結(jié)合2個(gè)2D靜態(tài)目標(biāo)選擇模型[23-24]的前提下,將橫向和縱向的目標(biāo)移動(dòng)速度引入ID,實(shí)現(xiàn)了2D移動(dòng)目標(biāo)選擇的時(shí)間預(yù)測(cè)。此外,CASALLAS[25]利用數(shù)據(jù)驅(qū)動(dòng)的方式分析了多個(gè)任務(wù)因素與3D移動(dòng)目標(biāo)選擇時(shí)間的相關(guān)關(guān)系,通過(guò)一個(gè)線性函數(shù)對(duì)主要的因素進(jìn)行加權(quán),得到了一個(gè)預(yù)測(cè)3D移動(dòng)目標(biāo)選擇時(shí)間的模型。

    1.3 錯(cuò)誤率預(yù)測(cè)模型

    其中,和的含義與式(4)中的含義一致;a,b,c,d,e,f和g為經(jīng)驗(yàn)常數(shù)。

    在給定空間選擇落點(diǎn)分布的情況下,通過(guò)對(duì)目標(biāo)選擇區(qū)域內(nèi)概率分布函數(shù)的積分即可以得到錯(cuò)誤率,如圖4所示。

    圖4 基于落點(diǎn)分布計(jì)算選擇錯(cuò)誤率[27]

    與空間域中獲取目標(biāo)錯(cuò)誤率類似的,對(duì)時(shí)間域中錯(cuò)誤率的建模,可通過(guò)估計(jì)時(shí)間落點(diǎn)分布實(shí)現(xiàn)。文獻(xiàn)[28]通過(guò)假設(shè)用戶在目標(biāo)時(shí)間窗口內(nèi)有一個(gè)隱含的時(shí)間目標(biāo)點(diǎn),推導(dǎo)出一個(gè)模型來(lái)預(yù)測(cè)時(shí)間指向任務(wù)中的錯(cuò)誤率?;谠摲椒?,提出了多個(gè)衍生模型來(lái)預(yù)測(cè)多線索移動(dòng)目標(biāo)捕獲[32],包括運(yùn)動(dòng)延遲的移動(dòng)目標(biāo)捕獲[33],2D移動(dòng)目標(biāo)選擇[34]的錯(cuò)誤率。

    1.4 用戶行為模型

    盡管上述模型已經(jīng)能夠成功地捕捉用戶交互過(guò)程中的某些瞬間特性(如完成時(shí)間或者整體錯(cuò)誤率),但是并不涉及用戶交互過(guò)程中的動(dòng)力學(xué)或軌跡的變化[35]。因此,國(guó)內(nèi)外學(xué)者提出了一系列用戶行為模型,用來(lái)描述用戶交互行為的演變過(guò)程。用戶行為模型通?;谟^測(cè)到的用戶表現(xiàn)數(shù)據(jù),構(gòu)建具有預(yù)測(cè)能力的過(guò)程模型。直線-曲線-拐角模型(curves,line-segments,and corners,CLC)[36]將用戶輸入的手勢(shì)分割成直線、曲線和拐角的組合。該模型對(duì)手勢(shì)中每個(gè)組成部分分別建模:直線由常量、線性或冪函數(shù)建模,曲線由曲率的冪律建模,拐角由基于角度的常數(shù)函數(shù)建模。該模型根據(jù)用戶預(yù)期繪制的形狀,嘗試將手勢(shì)演變過(guò)程進(jìn)行分割,以分段預(yù)測(cè)的形式估計(jì)了用戶完成手勢(shì)所需時(shí)間。這也是對(duì)于手勢(shì)輸入系統(tǒng)性建模與理解最早的工作之一。QUINN和ZHAI[37]通過(guò)對(duì)用戶使用手勢(shì)鍵盤輸入過(guò)程中產(chǎn)生的用戶軌跡進(jìn)行分析,發(fā)現(xiàn)手勢(shì)軌跡的形態(tài)和動(dòng)態(tài)特性可以通過(guò)最小加加速度模型(minimum jerk model)進(jìn)行模擬。通過(guò)該模型模擬的軌跡在圖形形狀和動(dòng)力學(xué)特征上都與原始軌跡高度匹配。同時(shí)基于最小加加速度模型建立了一個(gè)手勢(shì)生成模型,該模型可以對(duì)用戶任意手勢(shì)輸入任務(wù)所作動(dòng)作產(chǎn)生的手勢(shì)軌跡進(jìn)行預(yù)測(cè)。

    除了對(duì)用戶手勢(shì)進(jìn)行建模外,國(guó)內(nèi)外學(xué)者也對(duì)不同維度下用戶的基礎(chǔ)目標(biāo)選擇任務(wù)進(jìn)行了過(guò)程建模。OULASVIRTA等[38]使用神經(jīng)力學(xué)模型來(lái)模擬用戶按下按鈕的1D運(yùn)動(dòng)過(guò)程,模型框架如圖5所示。該模型可以模擬4種不同按鈕類型下用戶的力作用并預(yù)測(cè)完成按鈕任務(wù)所需的時(shí)間。總體上較好地模擬了用戶輸入過(guò)程的運(yùn)動(dòng)學(xué)、動(dòng)力學(xué)和用戶性能表現(xiàn)。HUANG等[39]基于最優(yōu)反饋策略,構(gòu)建了一種2D目標(biāo)選擇的軌跡建模模型。該模型將目標(biāo)狀態(tài)作為反饋信息影響對(duì)象的運(yùn)動(dòng)過(guò)程,實(shí)現(xiàn)了對(duì)2D下靜態(tài)和動(dòng)態(tài)目標(biāo)選擇任務(wù)的軌跡建模。BACHYNSKYI和MüLLER[40]針對(duì)3D空間下的用戶目標(biāo)選擇運(yùn)動(dòng)軌跡進(jìn)行研究,探討了三階滯后模型來(lái)模擬空中用戶運(yùn)動(dòng)軌跡的可能性。該模型能較好地模擬用戶交互過(guò)程中的軌跡、速度、加速度等動(dòng)力學(xué)屬性。盡管在建模過(guò)程重剔除了部分對(duì)用戶軌跡結(jié)果影響較小的2個(gè)維度,將三維軌跡映射為一維運(yùn)動(dòng),但這也是最早的對(duì)用戶3D空間下交互軌跡進(jìn)行建模的嘗試之一。

    圖5 文獻(xiàn)[38]中給出的基于神經(jīng)力學(xué)的模型框架

    2 問(wèn)題與挑戰(zhàn)

    2.1 復(fù)雜動(dòng)態(tài)交互問(wèn)題建模的困難

    靜態(tài)交互任務(wù)是比較簡(jiǎn)單的。以Fitts’ Law的1D選擇任務(wù)為例,其僅涉及目標(biāo)大小()和目標(biāo)距離()2個(gè)變量,而當(dāng)問(wèn)題放到2D空間中則變得復(fù)雜得多,因?yàn)檫@樣需要考慮目標(biāo)的長(zhǎng)和寬對(duì)用戶表現(xiàn)得影響,對(duì)于矩形目標(biāo),同樣的距離(起始位置到目標(biāo)中心)的條件下目標(biāo)處于不同空間方位,實(shí)際用戶表現(xiàn)也會(huì)受到影響[4]。

    而對(duì)于動(dòng)態(tài)交互任務(wù),問(wèn)題的復(fù)雜性則進(jìn)一步增加。以2D移動(dòng)目標(biāo)選擇為例,首先,動(dòng)態(tài)交互場(chǎng)景中,目標(biāo)可能具有移動(dòng)速度、形狀、朝向和初始位置,這些條件的改變均會(huì)導(dǎo)致用戶選擇策略和表現(xiàn)的巨大差異,因此必須考慮的因素顯著增加;其次,在動(dòng)態(tài)交互場(chǎng)景中,目標(biāo)地移動(dòng)速度、形狀、朝向均有可能隨時(shí)發(fā)生動(dòng)態(tài)變化,這種變化同樣會(huì)顯著影響用戶表現(xiàn);最后,上述各類因素及其隨著時(shí)間推移而發(fā)生的變化將產(chǎn)生無(wú)數(shù)種無(wú)法枚舉的情況,且無(wú)法利用傳統(tǒng)的心理學(xué)實(shí)驗(yàn)方法將其一一進(jìn)行測(cè)試以尋找規(guī)律,這種方法在處理動(dòng)態(tài)任務(wù)建模時(shí)可能束手無(wú)策。本文認(rèn)為,這些挑戰(zhàn)是導(dǎo)致現(xiàn)階段動(dòng)態(tài)場(chǎng)景下的計(jì)算模型魯棒性差、精準(zhǔn)度低的主要原因。

    因此,許多學(xué)者開(kāi)始轉(zhuǎn)向數(shù)據(jù)驅(qū)動(dòng)的方式,希望利用黑盒模型和機(jī)器學(xué)習(xí)手段實(shí)現(xiàn)動(dòng)態(tài)交互場(chǎng)景下的用戶表現(xiàn)建模。然而,這種方式卻會(huì)帶來(lái)模型可解釋性差,無(wú)法對(duì)界面設(shè)計(jì)給出指導(dǎo)等問(wèn)題。

    2.2 黑盒模型存在的問(wèn)題

    隨著交互場(chǎng)景的復(fù)雜化,學(xué)者嘗試用深度學(xué)習(xí)或復(fù)雜的集成模型來(lái)解決用戶動(dòng)態(tài)交互場(chǎng)景下的行為建模問(wèn)題。這類黑盒模型通常具有很高的準(zhǔn)確性,然而,其同樣存在著以下幾個(gè)主要問(wèn)題:

    首先,黑盒模型的高準(zhǔn)確率依賴于大量的數(shù)據(jù)集合。學(xué)者通常需要依靠眾包等數(shù)據(jù)采集手段[41],收集大量的用戶數(shù)據(jù),以支撐黑盒模型的參數(shù)訓(xùn)練,大規(guī)模的數(shù)據(jù)采集也導(dǎo)致建模成本大大提高。其次,難以挖掘黑盒模型中每個(gè)特征與用戶行為機(jī)制的內(nèi)在聯(lián)系。黑盒模型的高準(zhǔn)確率與特征個(gè)數(shù)以及特征參數(shù)無(wú)法分開(kāi),但是通常來(lái)講,黑盒模型的工作原理往往難以解釋。由于黑盒模型缺少對(duì)數(shù)據(jù)表現(xiàn)背后的行為機(jī)制的推理,這也使得這類模型難以對(duì)交互設(shè)計(jì)給出指導(dǎo)意見(jiàn)。最后,黑盒模型難以泛化和遷移。一個(gè)有著高準(zhǔn)確率的黑盒模型往往針對(duì)特定的交互任務(wù),即使在某個(gè)場(chǎng)景中能夠應(yīng)用,該模型也很難在別的交互場(chǎng)景下有著同樣高效的建模效率。

    因此,能夠直接反映變量之間關(guān)系的白盒模型雖然預(yù)測(cè)能力通常有限,但是,由于這類簡(jiǎn)單模型具有更好的可解釋性以及更容易理解的內(nèi)部工作原理,仍然是用戶表現(xiàn)建模的主流工具。

    2.3 機(jī)制性建模的不足

    機(jī)制性建模從用戶行為數(shù)據(jù)數(shù)呈現(xiàn)入手,采取回歸分析、控制理論等建模手段模擬用戶的運(yùn)動(dòng)機(jī)制。常見(jiàn)的機(jī)制性模型的目的是基于觀測(cè)到的用戶表現(xiàn)數(shù)據(jù),構(gòu)建具有強(qiáng)大預(yù)測(cè)能力的計(jì)算工具,并不試圖模擬內(nèi)部的生物學(xué)原理運(yùn)動(dòng)特征。而在運(yùn)動(dòng)控制和神經(jīng)學(xué)科領(lǐng)域文獻(xiàn)中,人類手部、胳膊的運(yùn)動(dòng)建模仿真已經(jīng)得到了廣泛地研究,部分模型嘗試從肌肉關(guān)節(jié)作用[42-43]等更深層次的運(yùn)動(dòng)機(jī)制中理解和建模用戶的交互行為。雖然該領(lǐng)域與人機(jī)交互領(lǐng)域下的用戶行為有著較高的相似度,但是這種建模方法仍未廣泛地應(yīng)用于人機(jī)交互領(lǐng)域用戶行為建模的研究中。

    此外,目前機(jī)制性建模仍停留在單純的感知-運(yùn)動(dòng)控制層次,仍未拓展到認(rèn)知層次。有大量的數(shù)據(jù)表明,人的小腦可以參與到高層次的人類認(rèn)知、運(yùn)動(dòng)控制功能中[44-46]。但是目前機(jī)制性模型僅僅可以對(duì)用戶的行為機(jī)制進(jìn)行解釋,仍未找到用戶行為與用戶認(rèn)知功能間的內(nèi)部聯(lián)系。

    2.4 模型應(yīng)用時(shí)存在的困難

    人機(jī)交互計(jì)算模型對(duì)于交互技術(shù)的發(fā)展和研究具有重要作用。好的計(jì)算模型能夠預(yù)測(cè)用戶的行為,提供技術(shù)創(chuàng)新支持,對(duì)用戶界面設(shè)計(jì)做出指導(dǎo)。近年來(lái),人機(jī)交互學(xué)者們針對(duì)動(dòng)態(tài)交互場(chǎng)景提出的計(jì)算模型越來(lái)越多,加強(qiáng)了對(duì)基礎(chǔ)交互現(xiàn)象的理解,然而人們卻很少看到這些模型在交互系統(tǒng)中的直接應(yīng)用,其主要原因有以下幾點(diǎn):

    首先,現(xiàn)存模型主要針對(duì)少數(shù)幾種任務(wù)如移動(dòng)目標(biāo)選擇進(jìn)行建模,對(duì)實(shí)際交互場(chǎng)景中大量使用的一些任務(wù),如手勢(shì)、身體姿態(tài)、眼動(dòng)頭動(dòng)、物體操縱、移動(dòng)或?qū)Ш降染从谐墒斓哪P停瑢?dǎo)致在實(shí)際應(yīng)用場(chǎng)景中存在需求卻無(wú)模型可用的情況;其次,現(xiàn)存模型的泛化性較低,往往在實(shí)際交互條件,例如界面布局、設(shè)備尺寸和精度、用戶人群等發(fā)生改變后無(wú)法使用,必須要在特定場(chǎng)景下重新采集數(shù)據(jù),對(duì)模型參數(shù)重新估計(jì)方可保證模型性能,而這種要求在實(shí)際工程應(yīng)用中往往是不現(xiàn)實(shí)的;最后,現(xiàn)存模型在構(gòu)建時(shí)往往不是以解決實(shí)際應(yīng)用中存在的問(wèn)題出發(fā)的,用其解決實(shí)際問(wèn)題時(shí)一般需要對(duì)該問(wèn)題進(jìn)行小心翼翼地抽象化和形式化以適應(yīng)模型的使用條件,而一旦這種抽象和形式化操作不當(dāng),有可能極大降低模型表現(xiàn)。這一點(diǎn)很大程度上降低了一般人機(jī)交互從業(yè)者們使用模型的意愿,甚至寧愿依靠自己的經(jīng)驗(yàn)做出界面設(shè)計(jì)判斷而不愿相信模型預(yù)測(cè)結(jié)果。

    本文認(rèn)為,人機(jī)交互計(jì)算模型未來(lái)是否能快速發(fā)展,關(guān)鍵在于其能否服務(wù)于實(shí)際,因此,解決以上3個(gè)問(wèn)題是當(dāng)前從事人機(jī)交互建模工作的學(xué)者們需要優(yōu)先考慮的事。

    3 總結(jié)與展望

    隨著新型用戶界面中動(dòng)態(tài)內(nèi)容的不斷增多,面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型逐漸受到重視,在延續(xù)靜態(tài)任務(wù)交互模型的基礎(chǔ)上,面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型對(duì)基礎(chǔ)交互任務(wù)中用戶的完成時(shí)間、錯(cuò)誤率和行為做出了建模,一定程度上解釋了動(dòng)態(tài)交互場(chǎng)景中的用戶行為,有助于改進(jìn)動(dòng)態(tài)用戶界面的設(shè)計(jì)。

    然而,面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型研究仍存在諸多問(wèn)題和挑戰(zhàn),其中包括復(fù)雜動(dòng)態(tài)交互問(wèn)題建模的困難,黑盒模型存在的問(wèn)題,機(jī)制性建模的不足和模型應(yīng)用時(shí)存在的挑戰(zhàn)等,極大地限制了動(dòng)態(tài)模型研究的發(fā)展和應(yīng)用。如何有效地解決這些問(wèn)題可能是每一位計(jì)算模型領(lǐng)域的學(xué)者們必須深入思考的事。

    在此,本文將拋磚引玉,給出動(dòng)態(tài)交互場(chǎng)景中計(jì)算模型的3個(gè)發(fā)展方向和可能的途徑,供讀者參考。

    (1) 模型可解釋性的提高鑒于動(dòng)態(tài)交互場(chǎng)景的復(fù)雜性,黑盒模型是一種潛在的用戶建模有效手段。然而人機(jī)交互模型本質(zhì)上需要研究用戶行為背后的行為機(jī)制,并最終給出用戶界面設(shè)計(jì)的指導(dǎo)意見(jiàn)。在建模方法選擇時(shí),要對(duì)黑盒模型的建模準(zhǔn)確性和可解釋性進(jìn)行權(quán)衡。要解決黑盒模型的可解釋性需要從2個(gè)方向入手:一是從黑盒模型本身角度出發(fā),研究不同特征參數(shù)對(duì)模型建模的行為表現(xiàn)的影響,進(jìn)而分析黑盒模型是如何依賴于每個(gè)特征,這也是目前深度學(xué)習(xí)領(lǐng)域一個(gè)活躍的研究方向之一;二是可以從理解用戶意圖角度出發(fā),在黑盒模型基礎(chǔ)上構(gòu)建可解釋性更強(qiáng)的代理模型,用于輔助理解指導(dǎo)人類運(yùn)動(dòng)的認(rèn)知過(guò)程,從而構(gòu)建更為完整的計(jì)算模型工具,最終能夠?yàn)樵O(shè)計(jì)者提供更為完整和有用的建模結(jié)果。

    (2) 用戶行為底層機(jī)制的建模。要保證用戶行為模型在動(dòng)態(tài)交互場(chǎng)景下的準(zhǔn)確度,需要進(jìn)一步分析用戶行為下更深層次的用戶表現(xiàn),構(gòu)建更為底層的用戶行為機(jī)制模型。還需進(jìn)一步模擬人類的生物學(xué)原理運(yùn)動(dòng)特征,甚至構(gòu)建認(rèn)知層面的用戶行為模型。從用戶認(rèn)知層面出發(fā),要求模型可以模擬用戶在動(dòng)態(tài)交互場(chǎng)景下的認(rèn)知變化,以及不同環(huán)境下用戶的行為策略,從而在認(rèn)知層面指導(dǎo)用戶的關(guān)節(jié)、肌肉行為模型,并最終呈現(xiàn)在用戶的行為表現(xiàn)中。而這種基于更為底層機(jī)制的模型也會(huì)在一定程度上提升用戶行為模型的魯棒性,并且可能使得模型具有較強(qiáng)的泛化遷移能力。

    (3) 模型在界面設(shè)計(jì)和交互技術(shù)中的應(yīng)用。正如上文所述,人機(jī)交互計(jì)算模型未來(lái)是否能快速發(fā)展,關(guān)鍵在于其能否服務(wù)于實(shí)際。面向動(dòng)態(tài)交互場(chǎng)景的計(jì)算模型在實(shí)際交互系統(tǒng)中有著廣泛的應(yīng)用前景,在以下幾個(gè)方面將發(fā)揮重要作用:

    首先,在動(dòng)態(tài)用戶界面交互設(shè)計(jì)中,人機(jī)交互計(jì)算模型能夠?qū)Π瑒?dòng)態(tài)用戶界面中的用戶表現(xiàn)做出預(yù)測(cè),進(jìn)而對(duì)界面的動(dòng)態(tài)因素包括物體的動(dòng)態(tài)、軌跡變化、動(dòng)畫快慢等進(jìn)行優(yōu)化;其次,人機(jī)交互計(jì)算模型允許用戶界面通過(guò)理解人類行為,將這類模型融入交互系統(tǒng)的研發(fā)之中,能使計(jì)算系統(tǒng)更好地適應(yīng)用戶偏好,推測(cè)用戶意圖,從而提升交互效率和交互體驗(yàn);最后,人機(jī)交互計(jì)算模型能夠揭示人類行為規(guī)律,其靈活應(yīng)用能為用戶界面、交互技術(shù)、交互系統(tǒng)和設(shè)備的研發(fā)提供啟示和支持,加快新型交互系統(tǒng)的產(chǎn)生。

    [1] FITTS P M. The information capacity of the human motor system in controlling the amplitude of movement[J] Journal of Experimental Psychology: General, 1954, 47(6): 381-391.

    [2] MACKENZIE I S. Fitts’ law as a research and design tool in human-computer interaction[J] Human-Computer Interaction, 1992, 7(1): 91-139.

    [3] MACKENZIE I S, BUXTON W. Extending Fitts’ law to two-dimensional tasks[C]//CHI’92: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 1992: 219-226.

    [4] ZHANG X Y, ZHA H B, FENG W X. Extending Fitts’ law to account for the effects of movement direction on 2d pointing[C]//CHI’12: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2012: 3185-3194.

    [5] MYRATA A, IWASE H. Extending Fitts’ law to a three-dimensional pointing task[J]. Human Movement Science, 2001, 20(6): 791-805.

    [6] JAGACINSKI R J, REPPERGER D W, WARD S L, et al. A test of Fitts’ law with moving targets[J]. Human Factors, 1980, 22(2), 225-233.

    [7] ACCOT J, ZHAI S M, BELIN A E. Beyond Fitts’ law: models for trajectory-based HCI tasks[C]//CHI’97: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 1997: 295-302.

    [8] PASTEL R. Measuring the difficulty of steering through corners[C]//CHI’06: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2006: 1087-1096.

    [9] YAMANAKA S, STUERALINGER W, MIYASHITA H. Steering through sequential linear path segments[C]//CHI’17: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2017: 232-243.

    [10] NANCEL M, LANK E. Modeling user performance on curved constrained paths[C]//CHI’17: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2017: 244-254.

    [11] WELFORD A T. Fundamentals of skill[M] London: Methuen, 1968: 1-426.

    [12] ZHAI S M, KONG J, REN X S. Speed–accuracy tradeoff in Fitts’ law tasks—on the equivalency of actual and nominal pointing precision[J]. International Journal of Human-Computer Studies, 2004, 61(6): 823-856.

    [13] WOBBROCK J O, CUTRELL E, HARADA S, et al. An error model for pointing based on Fitts’ law[C]//CHI’08: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2008: 1613-1622.

    [14] BI X J, ZHAI S. Bayesian touch: a statistical criterion of target selection with finger touch[C]//The 26th Annual ACM Symposium on User Interface Software and Technology. 2013: 51-60.

    [15] BI X J, LI Y, ZHAI S M. FFitts law: modeling finger touch with fitts’ law[C]//CHI’13: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2013: 1363-1372.

    [16] HENZE N, RUKZIO E, BOLL S. Observational and experimental investigation of typing behaviour using virtual keyboards for mobile devices[C]//CHI’12: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press,2012: 2659-2668.

    [17] WEIR D, POHL H, ROGERS S, et al. Uncertain text entry on mobile devices[C]//CHI’14: Proceedings of the AVM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2014: 2307-2316.

    [18] HOFFNMANN E R. Capture of moving targets: a modification of Fitts’ Law[J]. Ergonomics, 1991, 34(2): 211-220.

    [19] TREASILIAN J R, LONERGAN A. Intercepting a moving target: effects of temporal precision constraints and movement amplitude[J]. Experimental Brain Research, 2002, 142(2): 193-207.

    [20] TRESILIAN J R. Hitting a moving target: perception and action in the timing of rapid interceptions[J]. Perception & Psychophysics, 2005, 67(1): 129-149.

    [21] HAJRI A, FELS S, MILLER G, et al. Moving target selection in 2D graphical user interfaces[C]//2011 IFIP Conference on Human-Computer Interaction. Heidelberg: Springer, 2011: 141-161.

    [22] CARD S K, MORAN T P, NEWELL A. The keystroke-level model for user performance time with interactive systems[J]. Communications of the ACM, 1980, 23(7): 396-410.

    [23] MACKENZIE I S. Fitts’ law as a research and design tool in human-computer interaction[J]. Human-Computer Interaction, 1992, 7(1): 91-139.

    [24] GROSSMAN T, BALAKRISKNAN R. Pointing at trivariate targets in 3D environments[C]//CHI’04: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2004: 447-454.

    [25] CASALLAS J S. Prediction of user action in moving-target selection tasks[D]. Ames: Iowa State University, 2015.

    [26] WOBBROCK J O, CUTRELL E, HARADA S, et al. An error model for pointing based on Fitts’ law[C]//CHI’08: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2008: 1613-1622.

    [27] HUANG J, TIAN F, FAN X M, et al. Understanding the uncertainty in 1D unidirectional moving target selection[C]//CHI’18: Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2018: 1-12.

    [28] LEE B, OULASVIRTA A. Modelling error rates in temporal pointing[C]//CHI’16: Proceedings of the ACM CHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2016: 1857-1868.

    [29] ROLIN R A, FOOKEN J, SPERING M, et al. Perception of looming motion in virtual reality egocentric interception tasks[J]. IEEE Transactions on Visualization and Computer Graphics, 2018, 25(10): 3042-3048.

    [30] HUANG J, TIAN F, LI N L, et al. Modeling the uncertainty in 2D moving target selection[C]//The 32nd Annual ACM Symposium on User Interface Software and Technology. New York: ACM Press, 2019: 1031-1043.

    [31] HUANG J, TIAN F, FAN X M, et al. Modeling the endpoint uncertainty in crossing-based moving target selection[C]//2020 CHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2020: 1-12.

    [32] LEE B, KIM S, OILASVIRTA A, et al. Moving target selection: a cue integration model[C]//2018 CHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2018: 1-12.

    [33] LEE I, KIM S, LEE B. Geometrically compensating effect of end-to-end latency in moving-target selection games[C]//2019 CHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2019: 560: 1-560: 12.

    [34] PARK E, LEE B. An intermittent click planning model[C]//2020 CHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2020: 9: 1-9: 13.

    [35] VIVIANI P, FLASH T. Minimum-jerk, two-thirds power law, and isochrony: converging approaches to movement planning[J]. Journal of Experimental Psychology: Human Perception and Performance, 1995, 21(1): 32.

    [36] CAO X, ZHAI S. Modeling human performance of pen stroke gestures[C]//2007 SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2007: 1495-1504.

    [37] QUINN P, ZHAI S. Modeling gesture-typing movements[J]. Human–Computer Interaction, 2018, 33(3): 234-280.

    [38] OULASVIRTA A, KIM S, LEE B. Neuromechanics of a button press[C]//2018 CHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2018: 4099-4112.

    [39] HUANG J, PENG X L, TIAN F, et al. Modeling a target-selection motion by leveraging an optimal feedback control mechanism[J]. Science China Information Sciences, 2018, 61(4): 044101:1-044101:3.

    [40] BACHYNSKYI M, MüLLER J. Dynamics of aimed mid-air movements[C]//2020 CHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2020: 67: 1-67: 12.

    [41] SWEARNGIN A, LI Y. Modeling mobile interface tappability using crowdsourcing and deep learning[C]//2019 CHI Conference on Human Factors in Computing Systems. New York: ACM Press, 2019: 75: 1-75: 11.

    [42] CAMPOS F M M O, CALADO J M F. Approaches to human arm movement control—a review[J]. Annual Reviews in Control, 2009, 33(1): 69-77.

    [43] SHADMEHR R, WISE S P. The computational neurobiology of reaching and pointing: a foundation for motor learning[M]. Cambridge: MIT Press, 2005: 1-573.

    [44] MIDDLETON F A, STRICK P L. The cerebellum: an overview[J]. Trends in Neurosciences, 1998, 21(9): 367-369.

    [45] TAMADA T, MIYAUCHI S, IMAMIZU H, et al. Cerebrocerebellar functional connectivity revealed by the laterality index in tool-use learning[J]. Neuroreport, 1999, 10(2): 325-331.

    [46] KAWATO M. Internal models for motor control and trajectory planning[J]. Current Opinion in Neurobiology, 1999, 9(6): 718-727.

    Computational model for dynamical interaction scenarios

    HUANG Jin1,3, ZHANG Hao1,2, TIAN Feng1,3

    (1. Beijing Key Lab of Human-Computer Interaction, Institute of Software Chinese Academy of Sciences, Beijing 100190, China;2. School of Computer Science and Technology, University of Chinese Academy of Sciences, Beijing 101408, China;3. School of Artificial Intelligence, University of Chinese Academy of Sciences, Beijing 101408, China)

    With the development of human-computer interaction (HCI) technology, interactive systems including dynamic content, such as virtual/augmented/mixed reality, video surveillance system, etc., gradually becomes the mainstream. Computational models for dynamic interaction scenarios have attracted more and more attention. HCI researchers proposed numerous models that significantly improve our understanding of dynamical user interfaces. However, there are still many challenges in the research of computational model for dynamical interaction scenarios. The problems of complexity in dynamic interaction scenarios, lack of interpretability, weakness in descripting interaction mechanisms greatly limit the development and application of computational models for dynamical interaction scenarios. We review related work and recent advances in the computing model for dynamic interaction scenarios, summarize existing problems, and offer our predictions for the future development in this field. The purpose of this paper is to provide references for future research on computing models for dynamical interaction scenarios.

    human computer interaction; interactive system; dynamic scenarios; dynamic interaction task; computational model

    TP 391

    10.11996/JG.j.2095-302X.2021030359

    A

    2095-302X(2021)03-0359-08

    2021-04-21;

    2021-05-19

    21 April 2021;

    19 May,2021

    國(guó)家自然科學(xué)基金項(xiàng)目(61802379);中國(guó)科學(xué)院前沿科學(xué)重點(diǎn)研究項(xiàng)目(QYZDY-SSW-JSC041);中國(guó)科學(xué)院青年創(chuàng)新促進(jìn)會(huì)項(xiàng)目(2020113)

    National Natural Science Foundation of China (61802379); Key Research Program of Frontier Sciences CAS (QYZDY-SSW-JSC041); Youth Innovation Promotion Association CAS (2020113)

    黃 進(jìn)(1985-),男,廣西玉林人,助理研究員,博士。主要研究方向?yàn)槿藱C(jī)交互理論、模型和方法。E-mail:huangjin@iscas.ac.cn

    HUANG Jin (1985-), male, assistant professor, Ph.D. His main research interests cover human-computer interaction theory, concepts and models. E-mail: huangjin@iscas.ac.cn

    田 豐(1976-),男,陜西延安人,研究員,博士。主要研究方向?yàn)槿藱C(jī)交互、虛擬現(xiàn)實(shí)等。E-mail:tianfeng@iscas.ac.cn

    TIAN Feng (1976-), male, professor, Ph.D. His main research interests cover human-computer interaction, virtual reality, etc. E-mail:tianfeng@iscas.ac.cn

    猜你喜歡
    黑盒軌跡動(dòng)態(tài)
    國(guó)內(nèi)動(dòng)態(tài)
    一種基于局部平均有限差分的黑盒對(duì)抗攻擊方法
    國(guó)內(nèi)動(dòng)態(tài)
    國(guó)內(nèi)動(dòng)態(tài)
    軌跡
    軌跡
    動(dòng)態(tài)
    軌跡
    進(jìn)化的軌跡(一)——進(jìn)化,無(wú)盡的適應(yīng)
    十分钟在线观看高清视频www| 国产精品一区二区在线观看99| 色网站视频免费| 两性夫妻黄色片 | 亚洲高清免费不卡视频| 国产亚洲一区二区精品| 夜夜爽夜夜爽视频| 纵有疾风起免费观看全集完整版| 成人国语在线视频| 人人妻人人添人人爽欧美一区卜| 国产黄色视频一区二区在线观看| 精品人妻在线不人妻| 欧美日韩一区二区视频在线观看视频在线| 国产欧美另类精品又又久久亚洲欧美| 嫩草影院入口| 亚洲国产成人一精品久久久| 亚洲,欧美,日韩| 久久久亚洲精品成人影院| 在线观看三级黄色| 国产亚洲精品久久久com| 亚洲精品国产av蜜桃| 国产精品人妻久久久久久| 国产成人精品久久久久久| 久久久久精品久久久久真实原创| 卡戴珊不雅视频在线播放| 日韩一区二区三区影片| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 国产免费一级a男人的天堂| 26uuu在线亚洲综合色| 成人18禁高潮啪啪吃奶动态图| www日本在线高清视频| 国产日韩欧美亚洲二区| 免费女性裸体啪啪无遮挡网站| 精品国产一区二区久久| 日韩欧美精品免费久久| 精品亚洲成a人片在线观看| 看免费成人av毛片| 人人妻人人澡人人看| 亚洲精品国产色婷婷电影| 熟女人妻精品中文字幕| 日韩一区二区视频免费看| 寂寞人妻少妇视频99o| 日韩伦理黄色片| 综合色丁香网| 国产黄色视频一区二区在线观看| 国产日韩欧美亚洲二区| 免费看不卡的av| 亚洲精品美女久久久久99蜜臀 | 观看av在线不卡| 搡女人真爽免费视频火全软件| 一级,二级,三级黄色视频| 久久女婷五月综合色啪小说| 在线精品无人区一区二区三| 日本欧美视频一区| 狠狠精品人妻久久久久久综合| 99久久精品国产国产毛片| 国精品久久久久久国模美| 亚洲一级一片aⅴ在线观看| 视频区图区小说| 一级,二级,三级黄色视频| 欧美最新免费一区二区三区| 18+在线观看网站| 日韩一区二区视频免费看| 午夜福利视频在线观看免费| 国产免费又黄又爽又色| 久久av网站| 欧美xxⅹ黑人| 观看av在线不卡| 欧美少妇被猛烈插入视频| 午夜福利视频在线观看免费| 女人被躁到高潮嗷嗷叫费观| 亚洲图色成人| 黄色配什么色好看| 母亲3免费完整高清在线观看 | 亚洲性久久影院| 99视频精品全部免费 在线| 国产免费福利视频在线观看| 欧美人与性动交α欧美精品济南到 | 大片电影免费在线观看免费| 中文字幕精品免费在线观看视频 | 1024视频免费在线观看| av在线观看视频网站免费| 国产国语露脸激情在线看| 亚洲精品乱久久久久久| 欧美日韩国产mv在线观看视频| av女优亚洲男人天堂| 欧美人与性动交α欧美软件 | 九九爱精品视频在线观看| 美国免费a级毛片| 国产精品女同一区二区软件| 久久 成人 亚洲| 精品一区二区三区四区五区乱码 | 中文精品一卡2卡3卡4更新| 国产精品无大码| 欧美最新免费一区二区三区| 午夜福利网站1000一区二区三区| av网站免费在线观看视频| 色婷婷av一区二区三区视频| 大香蕉97超碰在线| 免费看不卡的av| 日本av免费视频播放| 校园人妻丝袜中文字幕| 国产欧美日韩一区二区三区在线| 色94色欧美一区二区| 女人精品久久久久毛片| 春色校园在线视频观看| 久久精品国产鲁丝片午夜精品| 免费看光身美女| 26uuu在线亚洲综合色| 午夜91福利影院| 国产一区有黄有色的免费视频| 久久99一区二区三区| 亚洲内射少妇av| 国产 精品1| 人妻 亚洲 视频| 久久久国产精品麻豆| 啦啦啦在线观看免费高清www| 日日爽夜夜爽网站| 又黄又爽又刺激的免费视频.| 最近最新中文字幕大全免费视频 | 国产欧美亚洲国产| 女人精品久久久久毛片| 熟女人妻精品中文字幕| 国产免费现黄频在线看| 最近最新中文字幕免费大全7| 欧美国产精品va在线观看不卡| 午夜福利乱码中文字幕| 国产一区二区三区av在线| 亚洲精品av麻豆狂野| 九九爱精品视频在线观看| 你懂的网址亚洲精品在线观看| 自拍欧美九色日韩亚洲蝌蚪91| 大片免费播放器 马上看| 久久精品国产a三级三级三级| 国产熟女欧美一区二区| 一级毛片电影观看| 黄色 视频免费看| 国产一区二区激情短视频 | 美女内射精品一级片tv| 亚洲精品久久成人aⅴ小说| 黄片无遮挡物在线观看| 国产男女内射视频| 天堂俺去俺来也www色官网| 不卡视频在线观看欧美| 国产欧美另类精品又又久久亚洲欧美| 一级黄片播放器| 捣出白浆h1v1| 在线观看三级黄色| 欧美日韩亚洲高清精品| 亚洲成人av在线免费| 99久久中文字幕三级久久日本| 老司机亚洲免费影院| 18+在线观看网站| 看非洲黑人一级黄片| 国产成人免费无遮挡视频| 亚洲国产欧美日韩在线播放| 你懂的网址亚洲精品在线观看| 黑人猛操日本美女一级片| 欧美3d第一页| 肉色欧美久久久久久久蜜桃| 搡老乐熟女国产| 熟妇人妻不卡中文字幕| 亚洲精品日韩在线中文字幕| 啦啦啦视频在线资源免费观看| 十八禁高潮呻吟视频| 精品福利永久在线观看| 亚洲色图综合在线观看| 亚洲三级黄色毛片| 国产一区二区在线观看日韩| 亚洲av免费高清在线观看| 亚洲人成网站在线观看播放| 亚洲av.av天堂| 色婷婷久久久亚洲欧美| 国产探花极品一区二区| 久久人人爽人人爽人人片va| 男人舔女人的私密视频| 欧美精品一区二区大全| 天堂8中文在线网| 久久久久久人妻| 日本免费在线观看一区| 色视频在线一区二区三区| 国产在线一区二区三区精| 满18在线观看网站| 国产1区2区3区精品| 一级爰片在线观看| 欧美日韩精品成人综合77777| 最后的刺客免费高清国语| 精品视频人人做人人爽| 国产熟女午夜一区二区三区| 久久久久精品性色| 久久久久国产网址| 国产精品三级大全| 十八禁高潮呻吟视频| 男女边摸边吃奶| 一区二区三区四区激情视频| 考比视频在线观看| 一本色道久久久久久精品综合| 97精品久久久久久久久久精品| 免费大片黄手机在线观看| 各种免费的搞黄视频| 99热这里只有是精品在线观看| 国产av精品麻豆| 一级毛片电影观看| 国产日韩欧美在线精品| 欧美日韩精品成人综合77777| 国产精品熟女久久久久浪| 国产探花极品一区二区| 亚洲欧洲精品一区二区精品久久久 | 我的女老师完整版在线观看| 晚上一个人看的免费电影| 亚洲第一区二区三区不卡| 精品第一国产精品| 亚洲国产看品久久| 日韩不卡一区二区三区视频在线| 人妻系列 视频| 成人亚洲欧美一区二区av| 久久久精品94久久精品| av在线app专区| 视频在线观看一区二区三区| 高清欧美精品videossex| 精品少妇黑人巨大在线播放| 国产亚洲午夜精品一区二区久久| 欧美成人精品欧美一级黄| 满18在线观看网站| 免费大片18禁| 国产欧美日韩一区二区三区在线| 最新的欧美精品一区二区| 亚洲欧洲精品一区二区精品久久久 | 日本午夜av视频| 欧美国产精品va在线观看不卡| 捣出白浆h1v1| 国产精品欧美亚洲77777| 男人舔女人的私密视频| 国产精品一国产av| 免费黄色在线免费观看| 免费观看在线日韩| 成人无遮挡网站| 18禁国产床啪视频网站| 大片电影免费在线观看免费| 国产亚洲av片在线观看秒播厂| 欧美亚洲 丝袜 人妻 在线| 我要看黄色一级片免费的| 高清视频免费观看一区二区| 2018国产大陆天天弄谢| 午夜福利视频在线观看免费| 国产麻豆69| 免费黄色在线免费观看| 日本免费在线观看一区| 18禁在线无遮挡免费观看视频| 国产精品国产av在线观看| 色婷婷av一区二区三区视频| 久久久久久人妻| 汤姆久久久久久久影院中文字幕| 成人无遮挡网站| 99国产精品免费福利视频| 十分钟在线观看高清视频www| 丝袜在线中文字幕| 男女边摸边吃奶| 亚洲欧美清纯卡通| 成人亚洲欧美一区二区av| 黑人欧美特级aaaaaa片| 国产精品国产av在线观看| 18禁裸乳无遮挡动漫免费视频| 免费黄色在线免费观看| 国产一区有黄有色的免费视频| 一级,二级,三级黄色视频| 婷婷色综合www| 国产精品不卡视频一区二区| 精品久久国产蜜桃| 丁香六月天网| 精品国产乱码久久久久久小说| 下体分泌物呈黄色| 99视频精品全部免费 在线| 看免费av毛片| 久热这里只有精品99| 十分钟在线观看高清视频www| 女人被躁到高潮嗷嗷叫费观| 国产 一区精品| 久久久久国产精品人妻一区二区| 精品福利永久在线观看| 久久久久网色| 国产高清不卡午夜福利| 免费观看性生交大片5| 国产成人午夜福利电影在线观看| 国国产精品蜜臀av免费| 亚洲精品久久成人aⅴ小说| 一区二区av电影网| 亚洲av综合色区一区| 伊人亚洲综合成人网| 咕卡用的链子| 亚洲成色77777| 人人妻人人添人人爽欧美一区卜| 午夜福利,免费看| 色哟哟·www| 新久久久久国产一级毛片| 国产 一区精品| 99热6这里只有精品| 天堂中文最新版在线下载| 国产1区2区3区精品| 深夜精品福利| 中国国产av一级| 秋霞伦理黄片| 中文精品一卡2卡3卡4更新| 亚洲少妇的诱惑av| 亚洲av成人精品一二三区| 999精品在线视频| 日韩av不卡免费在线播放| 亚洲四区av| 成人亚洲欧美一区二区av| 啦啦啦视频在线资源免费观看| 久久av网站| www.熟女人妻精品国产 | 久久综合国产亚洲精品| 人妻 亚洲 视频| 亚洲综合色网址| 免费黄频网站在线观看国产| 一区二区av电影网| 国产在线一区二区三区精| 欧美bdsm另类| 18禁动态无遮挡网站| 国产精品成人在线| 韩国av在线不卡| 边亲边吃奶的免费视频| a 毛片基地| 日本免费在线观看一区| 久久国内精品自在自线图片| 黑丝袜美女国产一区| 国产成人免费无遮挡视频| 国产探花极品一区二区| 啦啦啦中文免费视频观看日本| 日韩成人伦理影院| av天堂久久9| 两个人免费观看高清视频| 日韩三级伦理在线观看| 国产免费又黄又爽又色| 99久久中文字幕三级久久日本| 老熟女久久久| 国产麻豆69| 18禁观看日本| 中文字幕人妻熟女乱码| 18禁动态无遮挡网站| 亚洲熟女精品中文字幕| 国产精品久久久久久精品古装| 在线观看免费日韩欧美大片| 建设人人有责人人尽责人人享有的| 欧美精品人与动牲交sv欧美| 人妻少妇偷人精品九色| 成人毛片a级毛片在线播放| 高清欧美精品videossex| 人体艺术视频欧美日本| 最后的刺客免费高清国语| 老司机影院毛片| 大片免费播放器 马上看| 成人免费观看视频高清| 国产精品久久久久久av不卡| 18禁裸乳无遮挡动漫免费视频| 最近中文字幕2019免费版| 乱码一卡2卡4卡精品| 国产免费现黄频在线看| 亚洲成国产人片在线观看| 观看美女的网站| 亚洲av在线观看美女高潮| 女性生殖器流出的白浆| 美女国产视频在线观看| 免费观看性生交大片5| 99热6这里只有精品| 九草在线视频观看| 黑人高潮一二区| 麻豆精品久久久久久蜜桃| 国产在线视频一区二区| 一区二区av电影网| 久久久久精品性色| a级片在线免费高清观看视频| 纵有疾风起免费观看全集完整版| 精品久久国产蜜桃| 蜜桃国产av成人99| 国产在线视频一区二区| 欧美亚洲 丝袜 人妻 在线| 久久综合国产亚洲精品| 99热全是精品| 国产白丝娇喘喷水9色精品| 高清黄色对白视频在线免费看| 菩萨蛮人人尽说江南好唐韦庄| 大香蕉97超碰在线| 欧美+日韩+精品| 最新中文字幕久久久久| 国内精品宾馆在线| 午夜福利视频在线观看免费| 蜜臀久久99精品久久宅男| 国产精品久久久久久精品电影小说| 五月开心婷婷网| 中国国产av一级| 欧美老熟妇乱子伦牲交| av一本久久久久| 天天影视国产精品| 国产麻豆69| 免费黄网站久久成人精品| 街头女战士在线观看网站| 亚洲国产色片| 男女免费视频国产| 精品少妇久久久久久888优播| 97超碰精品成人国产| 一边亲一边摸免费视频| 久久亚洲国产成人精品v| 亚洲国产精品一区三区| 精品少妇黑人巨大在线播放| 大片免费播放器 马上看| 精品国产露脸久久av麻豆| 春色校园在线视频观看| 精品人妻偷拍中文字幕| 国产亚洲一区二区精品| 最新中文字幕久久久久| 又黄又爽又刺激的免费视频.| 一级片'在线观看视频| 久热这里只有精品99| 中文字幕最新亚洲高清| 在线精品无人区一区二区三| 精品少妇内射三级| 天堂中文最新版在线下载| 亚洲国产色片| 国产精品偷伦视频观看了| 香蕉精品网在线| 哪个播放器可以免费观看大片| 亚洲国产欧美日韩在线播放| 日本vs欧美在线观看视频| 国产色爽女视频免费观看| 国产男人的电影天堂91| 国产精品不卡视频一区二区| 亚洲欧美日韩卡通动漫| 少妇高潮的动态图| 国产亚洲精品久久久com| 亚洲av欧美aⅴ国产| 少妇 在线观看| av在线观看视频网站免费| 欧美成人精品欧美一级黄| 日本wwww免费看| 乱码一卡2卡4卡精品| 国产国拍精品亚洲av在线观看| 日韩伦理黄色片| 欧美日韩亚洲高清精品| 精品国产一区二区久久| 国产又爽黄色视频| 午夜久久久在线观看| 乱人伦中国视频| 中文欧美无线码| 一边摸一边做爽爽视频免费| 男女下面插进去视频免费观看 | 日韩一区二区三区影片| 满18在线观看网站| 侵犯人妻中文字幕一二三四区| 亚洲,欧美精品.| 亚洲av福利一区| 精品亚洲成国产av| 草草在线视频免费看| 国产成人欧美| 免费人妻精品一区二区三区视频| 国产精品99久久99久久久不卡 | 飞空精品影院首页| 久久99精品国语久久久| av女优亚洲男人天堂| 欧美xxⅹ黑人| 99久久精品国产国产毛片| 国产成人精品久久久久久| 亚洲国产精品成人久久小说| 欧美精品一区二区大全| a 毛片基地| 色94色欧美一区二区| 人妻人人澡人人爽人人| 91午夜精品亚洲一区二区三区| 亚洲精品456在线播放app| 国产麻豆69| 久久狼人影院| 精品少妇久久久久久888优播| 黑丝袜美女国产一区| 曰老女人黄片| 欧美精品一区二区免费开放| 国产日韩欧美亚洲二区| 伦理电影免费视频| 日韩熟女老妇一区二区性免费视频| 国产精品久久久久成人av| 亚洲精品自拍成人| 亚洲国产成人一精品久久久| 精品午夜福利在线看| 两个人免费观看高清视频| 日本爱情动作片www.在线观看| 最近中文字幕2019免费版| 亚洲欧美一区二区三区国产| 欧美日韩精品成人综合77777| 久久久a久久爽久久v久久| 国产亚洲午夜精品一区二区久久| 91精品三级在线观看| 一本久久精品| 超色免费av| 黑人巨大精品欧美一区二区蜜桃 | 中国美白少妇内射xxxbb| 国产精品久久久久久av不卡| 亚洲av欧美aⅴ国产| 丝袜在线中文字幕| 捣出白浆h1v1| av福利片在线| 免费黄色在线免费观看| 亚洲一码二码三码区别大吗| 嫩草影院入口| 亚洲国产日韩一区二区| 久久人人爽av亚洲精品天堂| 亚洲人成网站在线观看播放| 国国产精品蜜臀av免费| 久久久精品免费免费高清| 多毛熟女@视频| 考比视频在线观看| 男女国产视频网站| 蜜桃在线观看..| 国产日韩一区二区三区精品不卡| 国产精品不卡视频一区二区| 国产日韩一区二区三区精品不卡| 宅男免费午夜| 制服人妻中文乱码| 日韩在线高清观看一区二区三区| 搡老乐熟女国产| 中国美白少妇内射xxxbb| 久久热在线av| 欧美人与善性xxx| 国产综合精华液| 国产一区二区三区综合在线观看 | 国产不卡av网站在线观看| 亚洲av电影在线观看一区二区三区| kizo精华| √禁漫天堂资源中文www| 看免费成人av毛片| 曰老女人黄片| 亚洲欧洲国产日韩| 亚洲精品久久成人aⅴ小说| 中文字幕av电影在线播放| 国产女主播在线喷水免费视频网站| 蜜桃国产av成人99| 在线观看三级黄色| 看免费成人av毛片| 黄色视频在线播放观看不卡| 男人操女人黄网站| 极品少妇高潮喷水抽搐| 欧美性感艳星| 亚洲欧美精品自产自拍| 欧美丝袜亚洲另类| 国产成人免费观看mmmm| 国产成人一区二区在线| 一区二区三区乱码不卡18| 一区二区三区精品91| 国产乱人偷精品视频| 搡老乐熟女国产| 国产有黄有色有爽视频| 成人二区视频| 国产成人精品婷婷| 久久鲁丝午夜福利片| 曰老女人黄片| 搡女人真爽免费视频火全软件| 亚洲人成网站在线观看播放| 午夜老司机福利剧场| 91国产中文字幕| 亚洲第一av免费看| 黄色毛片三级朝国网站| 1024视频免费在线观看| 91成人精品电影| 观看美女的网站| 成人毛片60女人毛片免费| 欧美 日韩 精品 国产| 自拍欧美九色日韩亚洲蝌蚪91| 九草在线视频观看| 51国产日韩欧美| 日韩伦理黄色片| 考比视频在线观看| 美国免费a级毛片| 国产精品一国产av| 久久婷婷青草| 男男h啪啪无遮挡| 汤姆久久久久久久影院中文字幕| av在线老鸭窝| 亚洲欧美日韩卡通动漫| 亚洲精品自拍成人| 免费黄频网站在线观看国产| 观看美女的网站| 欧美精品人与动牲交sv欧美| 精品亚洲乱码少妇综合久久| 久久影院123| 国产成人精品久久久久久| 午夜精品国产一区二区电影| 精品一区在线观看国产| 狠狠婷婷综合久久久久久88av| 欧美丝袜亚洲另类| 少妇的逼好多水| 久久国产精品大桥未久av| 啦啦啦啦在线视频资源| 一边亲一边摸免费视频| 国产高清不卡午夜福利| 亚洲精品中文字幕在线视频| 一边亲一边摸免费视频| 亚洲成人av在线免费| 国产精品久久久久久精品古装| 有码 亚洲区| 免费av不卡在线播放| 青春草国产在线视频| 久久久久视频综合| 国产在线免费精品| 日韩一区二区三区影片| 亚洲综合色网址| 亚洲人成77777在线视频| 亚洲成人一二三区av| 国产精品欧美亚洲77777| 国产av码专区亚洲av| 丝袜在线中文字幕| 激情五月婷婷亚洲| 永久网站在线| 久久精品国产亚洲av天美| 欧美日韩视频高清一区二区三区二| 亚洲av欧美aⅴ国产| 老女人水多毛片|