• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于機(jī)器學(xué)習(xí)與眼動(dòng)追蹤的認(rèn)知風(fēng)格模型構(gòu)建

    2024-01-01 00:00:00薛耀鋒朱芳清
    關(guān)鍵詞:智能教育機(jī)器學(xué)習(xí)

    摘要:認(rèn)知風(fēng)格反映了學(xué)生接近、獲取、組織、處理和解釋信息的模式,可用來(lái)解釋和指導(dǎo)學(xué)生的行為。將認(rèn)知風(fēng)格集成到智能系統(tǒng)中,有助于開發(fā)個(gè)性化的用戶模型,推動(dòng)智能教育發(fā)展。當(dāng)前有關(guān)認(rèn)知風(fēng)格自動(dòng)分類的研究較為匱乏,尚未將機(jī)器學(xué)習(xí)與眼動(dòng)追蹤技術(shù)聯(lián)合起來(lái)進(jìn)行應(yīng)用?;跈C(jī)器學(xué)習(xí)與眼動(dòng)追蹤的認(rèn)知風(fēng)格模型,選取注視時(shí)長(zhǎng)、注視點(diǎn)數(shù)量、掃視時(shí)長(zhǎng)、眼跳次數(shù)、眼跳距離與瞳孔直徑等6個(gè)與認(rèn)知有著密切關(guān)系的眼動(dòng)指標(biāo),歸一化處理后借助機(jī)器學(xué)習(xí)算法進(jìn)行認(rèn)知風(fēng)格自動(dòng)分類。實(shí)驗(yàn)結(jié)果表明:在進(jìn)行同樣時(shí)長(zhǎng)的視頻學(xué)習(xí)時(shí),不同場(chǎng)認(rèn)知風(fēng)格的學(xué)習(xí)者表現(xiàn)出不同的視覺行為模式;場(chǎng)依存型學(xué)習(xí)者注視點(diǎn)較為分散,表現(xiàn)出有較多的掃視行為、較少的注視行為、較長(zhǎng)的眼跳距離與較大的瞳孔直徑變化,信息搜索效率較低;而場(chǎng)獨(dú)立型學(xué)習(xí)者有著較為密集與定向的視覺注意模式,信息搜索效率更高。對(duì)5種機(jī)器學(xué)習(xí)算法進(jìn)行性能對(duì)比后發(fā)現(xiàn),邏輯回歸算法的分類效果最好,準(zhǔn)確率達(dá)到89.01%,Kappa值達(dá)到0.774。該認(rèn)知風(fēng)格自動(dòng)化分類模型既可用于智能學(xué)習(xí)系統(tǒng)的課程資源優(yōu)化設(shè)計(jì),也可用于個(gè)性化學(xué)習(xí)路徑的推薦。未來(lái)可整合更多生理數(shù)據(jù),通過(guò)不同模態(tài)數(shù)據(jù)之間的信息互補(bǔ),提升數(shù)據(jù)分析的準(zhǔn)確性以及對(duì)學(xué)習(xí)者認(rèn)知能力評(píng)估的可靠性。

    關(guān)鍵詞:智能教育;機(jī)器學(xué)習(xí);眼動(dòng)追蹤技術(shù);場(chǎng)認(rèn)知風(fēng)格;自動(dòng)化分類

    中圖分類號(hào):G434" "文獻(xiàn)標(biāo)識(shí)碼:A" " 文章編號(hào):1009-5195(2024)04-0094-10" doi10.3969/j.issn.1009-5195.2024.04.011

    ——————————————————————————————————————————

    基金項(xiàng)目:全國(guó)教育科學(xué)規(guī)劃2022年度教育部重點(diǎn)課題“智能教育視角下基于眼動(dòng)追蹤的在線學(xué)習(xí)認(rèn)知模型及自適應(yīng)機(jī)制研究”(DCA220453)。

    作者簡(jiǎn)介:薛耀鋒,博士,副研究員,碩士生導(dǎo)師,華東師范大學(xué)教育信息技術(shù)學(xué)系,上海數(shù)字化教育裝備工程技術(shù)研究中心(上海 200062);朱芳清,碩士研究生,華東師范大學(xué)教育信息技術(shù)學(xué)系(上海 200062)。

    一、引言

    目前我國(guó)教育正面臨著由規(guī)?;騻€(gè)性化、從信息化到智能化的過(guò)渡和轉(zhuǎn)變,傳統(tǒng)的教育模式和學(xué)習(xí)方式亟待創(chuàng)新與變革。智能教育作為智能技術(shù)與教育領(lǐng)域深度融合的代表,能夠服務(wù)于教育模式的轉(zhuǎn)變和教育生態(tài)的重構(gòu)(郭紹青等,2022)。《中國(guó)教育現(xiàn)代化 2035》從智能校園建設(shè)、人才培養(yǎng)、教育治理等不同方面提出了智能教育發(fā)展的戰(zhàn)略任務(wù)(新華網(wǎng),2019),加快了智能教育以及相關(guān)應(yīng)用的落地。智能教學(xué)系統(tǒng)是智能技術(shù)賦能教育的重要成果(王靖等,2023)。認(rèn)知風(fēng)格數(shù)據(jù)正被集成到智能系統(tǒng)中,以開發(fā)個(gè)性化的用戶模型,推動(dòng)智能教育發(fā)展(Nisiforou et al.,2013)。一些研究結(jié)果表明,認(rèn)知風(fēng)格與學(xué)習(xí)成績(jī)之間存在直接關(guān)聯(lián),即學(xué)習(xí)內(nèi)容和形式與學(xué)習(xí)者的認(rèn)知風(fēng)格越匹配,學(xué)習(xí)者的學(xué)習(xí)成績(jī)就越高(Jovanovic et al.,2012)。認(rèn)知風(fēng)格是指?jìng)€(gè)體展示的相對(duì)穩(wěn)定的信息處理模式(McKay et al.,2003),反映了學(xué)生接近、獲取、組織、處理和解釋信息的模式,可以用來(lái)解釋和指導(dǎo)他們的行為。然而傳統(tǒng)的認(rèn)知風(fēng)格測(cè)量往往通過(guò)量表來(lái)進(jìn)行,測(cè)量結(jié)果可能會(huì)受到主觀因素的影響,同時(shí)需要較長(zhǎng)的填寫時(shí)間(Yousef et al,,2021)。因此,亟需開發(fā)一種新的、更便捷、更客觀的測(cè)量方法,來(lái)準(zhǔn)確評(píng)估學(xué)生的認(rèn)知風(fēng)格,以更好地服務(wù)智能時(shí)代學(xué)生的學(xué)習(xí)。

    隨著智能技術(shù)及認(rèn)知科學(xué)的發(fā)展,基于眼動(dòng)追蹤技術(shù)來(lái)探究學(xué)習(xí)者的認(rèn)知過(guò)程已成為教育學(xué)與心理學(xué)研究的重要方式。這是因?yàn)檠矍蜻\(yùn)動(dòng)是視覺感知活動(dòng)中不可或缺的重要組成部分(Workman,2004),眼動(dòng)數(shù)據(jù)能夠追蹤反映學(xué)習(xí)者的信息加工與認(rèn)知過(guò)程,且眼動(dòng)追蹤技術(shù)具有非侵入性的優(yōu)勢(shì)(薛耀鋒等,2021)。越來(lái)越多的研究開始探索個(gè)體的認(rèn)知特征與視覺之間的關(guān)系。例如,Liu(2018)通過(guò)眼動(dòng)數(shù)據(jù)研究了場(chǎng)依賴和場(chǎng)獨(dú)立認(rèn)知風(fēng)格在視覺搜索效率和多媒體學(xué)習(xí)性能方面的差異,證明了眼動(dòng)指標(biāo)可用于識(shí)別學(xué)習(xí)者的認(rèn)知風(fēng)格類型。然而,目前的眼動(dòng)追蹤數(shù)據(jù)僅以熱圖或描述性統(tǒng)計(jì)結(jié)果的形式區(qū)分學(xué)習(xí)者的類型,具體的分析與驗(yàn)證還需要研究者的進(jìn)一步解釋(Pradnya Sidhawara et al.,2020)。

    隨著人工智能技術(shù)的發(fā)展,將眼動(dòng)追蹤技術(shù)與機(jī)器學(xué)習(xí)相結(jié)合來(lái)優(yōu)化智能系統(tǒng),已成為智能教育系統(tǒng)開發(fā)研究的重要趨勢(shì)。例如,Eivazi等人(2011)使用眼動(dòng)追蹤和機(jī)器學(xué)習(xí)的方法來(lái)探究個(gè)人的視覺注意力模式與問(wèn)題解決行為的關(guān)系;Lou等人(2017)使用支持向量機(jī)(Support Vector Machine,SVM)算法和眼動(dòng)追蹤技術(shù)來(lái)評(píng)估讀者的識(shí)字能力,準(zhǔn)確率達(dá)80.3%。先前研究表明,機(jī)器學(xué)習(xí)算法可用于眼動(dòng)數(shù)據(jù)的分析,以實(shí)現(xiàn)對(duì)學(xué)習(xí)者認(rèn)知狀態(tài)的自動(dòng)識(shí)別。

    基于此,本研究擬基于機(jī)器學(xué)習(xí)算法和眼動(dòng)追蹤技術(shù)構(gòu)建認(rèn)知風(fēng)格自動(dòng)識(shí)別模型,通過(guò)分析學(xué)習(xí)者眼動(dòng)模式與認(rèn)知風(fēng)格之間的關(guān)系,總結(jié)不同場(chǎng)認(rèn)知風(fēng)格學(xué)習(xí)者在視頻學(xué)習(xí)過(guò)程中的眼動(dòng)模式及其眼動(dòng)指標(biāo)差異,并利用機(jī)器學(xué)習(xí)算法實(shí)現(xiàn)在線學(xué)習(xí)過(guò)程中學(xué)習(xí)者場(chǎng)獨(dú)立—場(chǎng)依存風(fēng)格的自動(dòng)分類,以促進(jìn)智能學(xué)習(xí)系統(tǒng)的開發(fā),為學(xué)生提供個(gè)性化和智能化的反饋。

    二、相關(guān)研究

    1.場(chǎng)認(rèn)知風(fēng)格

    場(chǎng)認(rèn)知風(fēng)格是在關(guān)于教學(xué)效果的研究中確定的認(rèn)知風(fēng)格理論(Al-Saai et al.,1993)。場(chǎng)認(rèn)知風(fēng)格分為場(chǎng)獨(dú)立、場(chǎng)依存兩個(gè)維度,是最廣泛被使用的認(rèn)知風(fēng)格分類之一。Witkin(1967)認(rèn)為,不同人處理學(xué)習(xí)材料的方式不同,使用不同的方法完成學(xué)習(xí)任務(wù);場(chǎng)獨(dú)立型個(gè)體在信息加工中對(duì)內(nèi)在參照(主體精神)有較大的依賴傾向,主要依據(jù)內(nèi)在標(biāo)準(zhǔn)或內(nèi)在參照進(jìn)行價(jià)值判斷;而場(chǎng)依存型個(gè)體則傾向于以外在參照(外部環(huán)境或他人)作為信息加工的依據(jù),處理問(wèn)題時(shí)往往依賴于外在參照對(duì)客觀事物或事實(shí)進(jìn)行判斷。因此,場(chǎng)依存型個(gè)體比場(chǎng)獨(dú)立型個(gè)體更容易受到外部線索的影響。在以視覺感知為主的學(xué)習(xí)活動(dòng)中,學(xué)習(xí)者的這種認(rèn)知偏好對(duì)學(xué)習(xí)的影響更大。已有研究發(fā)現(xiàn),場(chǎng)依存型學(xué)習(xí)者在識(shí)別嵌入到復(fù)雜圖形中的簡(jiǎn)單圖形時(shí)需要更長(zhǎng)的時(shí)間,或者根本無(wú)法找到;場(chǎng)依存型學(xué)習(xí)者在從視覺教學(xué)材料中提取相關(guān)信息方面存在困難(Mahvelati,2020);場(chǎng)獨(dú)立型個(gè)體更易受到內(nèi)部線索而不是外部線索的影響,因此在信息輸入方面具有選擇性(Riding et al.,1991)。在社交方面,場(chǎng)依存型個(gè)體與場(chǎng)獨(dú)立型個(gè)體也表現(xiàn)出明顯差異。場(chǎng)獨(dú)立型個(gè)體具備良好的分析能力,但在社交中表現(xiàn)出孤立、冷漠和疏離的狀態(tài);而場(chǎng)依存型個(gè)體樂(lè)于與人互動(dòng),表現(xiàn)出對(duì)與他人交流的強(qiáng)烈興趣(Saracho,2003)。

    2.眼動(dòng)追蹤技術(shù)

    眼球運(yùn)動(dòng)被認(rèn)為與大腦的思維活動(dòng)有關(guān),這種連續(xù)的信息流可以作為探究認(rèn)知過(guò)程的重要指標(biāo)。已有研究發(fā)現(xiàn),人眼的位置僅在 200~300 毫秒時(shí)間內(nèi)保持穩(wěn)定。眼球穩(wěn)定的時(shí)期被稱為注視期,它們覆蓋了大約 2° 的可視角度區(qū)域,在此期間信息被聚焦和處理(Jacob et al.,2003)。注視的位置和注視點(diǎn)數(shù)量、注視的持續(xù)時(shí)間和眼跳距離是最常見的眼動(dòng)測(cè)量指標(biāo)。注視的持續(xù)時(shí)間、注視次數(shù)和重新注視次數(shù)揭示了用戶的注意力是如何被引導(dǎo)到特定區(qū)域或視覺位置的。掃視是指眼睛從一個(gè)注視點(diǎn)到另一個(gè)注視點(diǎn)的運(yùn)動(dòng)。兩個(gè)連續(xù)注視點(diǎn)之間的距離定義為眼跳距離。注視和掃視的路徑和順序,顯示了注意力隨時(shí)間的變化情況,可用于深入了解學(xué)習(xí)者是如何從視覺線索中收集信息的(Carter et al.,2020)。瞳孔直徑也是重要的眼動(dòng)指標(biāo),瞳孔大小的變化與認(rèn)知處理需求的變化相關(guān),且該指標(biāo)較為敏感,0.1mm的瞳孔直徑變化就可以代表認(rèn)知狀態(tài)的改變,因此瞳孔直徑可以作為高級(jí)心理變化的測(cè)量指標(biāo)(Szulewski et al.,2015)。

    3.眼動(dòng)指標(biāo)在場(chǎng)認(rèn)知風(fēng)格測(cè)量中的應(yīng)用

    眼動(dòng)指標(biāo)有著很強(qiáng)的表意功能,學(xué)習(xí)者的認(rèn)知處理模式可以通過(guò)眼動(dòng)狀態(tài)與視覺路徑來(lái)識(shí)別(詹澤慧,2013)。具有不同場(chǎng)依賴性的個(gè)體在處理多媒體信息時(shí)可能表現(xiàn)出不同的眼球運(yùn)動(dòng)模式。例如,場(chǎng)依存型學(xué)習(xí)者被認(rèn)為可能比場(chǎng)獨(dú)立型學(xué)習(xí)者需花費(fèi)更多的時(shí)間和精力來(lái)從學(xué)習(xí)環(huán)境中搜索必要的信息(Witkin,1967)。此外,插圖的視覺豐富性,包括顏色細(xì)節(jié)、紋理和形式等特征,也可能干擾場(chǎng)依存型學(xué)習(xí)者對(duì)任務(wù)相關(guān)信息的處理。因此,與場(chǎng)獨(dú)立型學(xué)習(xí)者相比,場(chǎng)依存型學(xué)習(xí)者可能會(huì)表現(xiàn)出更分散的視覺場(chǎng)景注視,以及更長(zhǎng)的任務(wù)達(dá)成時(shí)間。

    眼動(dòng)指標(biāo)在場(chǎng)認(rèn)知風(fēng)格測(cè)量中的應(yīng)用研究,多為在特定任務(wù)情境中,探討不同場(chǎng)認(rèn)知風(fēng)格學(xué)習(xí)者的眼動(dòng)行為差異。如Liu(2018)分析了在觀看多媒體教學(xué)材料時(shí),不同場(chǎng)認(rèn)知風(fēng)格學(xué)習(xí)者的注視與掃視行為差異;Nisiforou等人(2016)分析了在進(jìn)行隱藏圖形測(cè)試時(shí),不同場(chǎng)認(rèn)知風(fēng)格學(xué)習(xí)者的任務(wù)完成時(shí)長(zhǎng)及視覺搜索模式差異。還有一些學(xué)者通過(guò)眼動(dòng)數(shù)據(jù)建模,實(shí)現(xiàn)了對(duì)其他類別認(rèn)知風(fēng)格的自動(dòng)識(shí)別。如薛耀鋒等(2020)通過(guò)圖片與文字興趣域中注視點(diǎn)與注視時(shí)長(zhǎng)的比值,對(duì)言語(yǔ)—表象型學(xué)習(xí)者進(jìn)行了自動(dòng)識(shí)別;Pradnya Sidhawara等(2020)通過(guò)K臨近算法(KNN)等三種機(jī)器學(xué)習(xí)算法,以注視與掃視相關(guān)指標(biāo)為自變量,實(shí)現(xiàn)了言語(yǔ)—表象型學(xué)習(xí)者的自動(dòng)分類。

    總的來(lái)說(shuō),有關(guān)場(chǎng)認(rèn)知風(fēng)格自動(dòng)識(shí)別的研究仍較為匱乏,多數(shù)研究?jī)H限于描述性統(tǒng)計(jì)分析,眼動(dòng)數(shù)據(jù)僅用于驗(yàn)證。此外,以往的研究還未將機(jī)器學(xué)習(xí)算法應(yīng)用于基于眼動(dòng)追蹤數(shù)據(jù)的場(chǎng)認(rèn)知風(fēng)格自動(dòng)分類中。因此,本研究擬將機(jī)器學(xué)習(xí)算法和眼動(dòng)追蹤技術(shù)結(jié)合起來(lái),構(gòu)建認(rèn)知風(fēng)格自動(dòng)分類模型,一方面豐富相關(guān)領(lǐng)域的研究,另一方面借助場(chǎng)認(rèn)知風(fēng)格的自動(dòng)分類,進(jìn)一步完善學(xué)習(xí)者畫像,為設(shè)計(jì)更加個(gè)性化的智能教育系統(tǒng)提供支持。

    三、面向智能教育的認(rèn)知風(fēng)格模型構(gòu)建

    本研究將機(jī)器學(xué)習(xí)算法和眼動(dòng)追蹤技術(shù)結(jié)合在一起,構(gòu)建了認(rèn)知風(fēng)格自動(dòng)分類模型(如圖1所示)。整個(gè)模型集成在一個(gè)智能學(xué)習(xí)系統(tǒng)當(dāng)中,主要分為三大部分:數(shù)據(jù)采集模塊、數(shù)據(jù)處理模塊與數(shù)據(jù)應(yīng)用模塊。數(shù)據(jù)采集模塊的功能是在學(xué)習(xí)者觀看在線課程視頻的過(guò)程中通過(guò)外部的眼動(dòng)儀設(shè)備來(lái)收集眼動(dòng)數(shù)據(jù)。數(shù)據(jù)處理模塊的功能是實(shí)現(xiàn)眼動(dòng)數(shù)據(jù)處理以及認(rèn)知風(fēng)格自動(dòng)識(shí)別。該模塊是整個(gè)模型的核心。首先,對(duì)收集到的原始眼動(dòng)數(shù)據(jù)進(jìn)行特征提取,提取出注視時(shí)長(zhǎng)、注視點(diǎn)數(shù)量、掃視時(shí)長(zhǎng)、眼跳次數(shù)、眼跳距離以及瞳孔直徑6個(gè)原始指標(biāo);然后對(duì)原始指標(biāo)進(jìn)行歸一化處理,將其作為自變量數(shù)據(jù),同時(shí)將認(rèn)知風(fēng)格類型作為標(biāo)簽,輸入到機(jī)器學(xué)習(xí)算法當(dāng)中,得到最終的分類結(jié)果。數(shù)據(jù)應(yīng)用模塊的功能是將學(xué)習(xí)者認(rèn)知風(fēng)格的識(shí)別結(jié)果儲(chǔ)存在學(xué)習(xí)者畫像庫(kù)當(dāng)中,為之后的智能課程推薦、智能教學(xué)規(guī)劃等提供支持。眼動(dòng)指標(biāo)與機(jī)器學(xué)習(xí)算法的選擇,決定了認(rèn)知風(fēng)格模型分類的效果,是整個(gè)模型最為關(guān)鍵的兩個(gè)環(huán)節(jié)。

    1.眼動(dòng)指標(biāo)選擇

    由于本研究的目的是準(zhǔn)確識(shí)別學(xué)習(xí)者的認(rèn)知風(fēng)格,因此在選擇眼動(dòng)指標(biāo)時(shí),研究選擇了與學(xué)習(xí)認(rèn)知密切相關(guān)的注視類、掃視類以及瞳孔直徑類指標(biāo)。

    常用的注視類指標(biāo)包括注視時(shí)長(zhǎng)與注視點(diǎn)數(shù)量。注視時(shí)長(zhǎng)是指在一個(gè)區(qū)域內(nèi)進(jìn)行的所有注視行為的時(shí)間總和。注視時(shí)長(zhǎng)越長(zhǎng),學(xué)習(xí)者的認(rèn)知資源投入越多,對(duì)學(xué)習(xí)內(nèi)容的認(rèn)知加工程度也就越深。注視點(diǎn)數(shù)量是指在一個(gè)區(qū)域內(nèi)進(jìn)行的注視行為的總次數(shù)。在某個(gè)區(qū)域內(nèi)的注視點(diǎn)越多,學(xué)習(xí)者在此處的注意力及認(rèn)知資源分配就越多(閆志明等,2018)。

    常用的掃視類指標(biāo)包括掃視時(shí)長(zhǎng)、眼跳次數(shù)及眼跳距離。掃視指的是眼睛從一個(gè)注視點(diǎn)到另一個(gè)注視點(diǎn)的行為。眼跳過(guò)程中會(huì)產(chǎn)生視覺抑制現(xiàn)象,使學(xué)習(xí)者知覺信息的能力減弱,因此掃視過(guò)程中是不進(jìn)行深度認(rèn)知處理的(閆志明等,2018)。掃視時(shí)長(zhǎng)指的是在一個(gè)區(qū)域內(nèi)進(jìn)行的所有掃視行為的時(shí)間總和。掃視時(shí)間越長(zhǎng),說(shuō)明注意力越不集中。眼跳次數(shù)指的是眼睛在注視點(diǎn)之間轉(zhuǎn)換的總次數(shù)。一般來(lái)說(shuō),學(xué)習(xí)內(nèi)容區(qū)域或難度越大,眼跳次數(shù)越多。眼跳距離指兩個(gè)注視點(diǎn)之間的距離,是反映知覺廣度的指標(biāo)。越長(zhǎng)的眼跳距離代表在一次注視中提取的信息量越大(王雪,2015)。

    瞳孔直徑即瞳孔的大小,反映了廣泛的認(rèn)知過(guò)程。在亮度與頭部動(dòng)作恒定的情況下,腦力勞動(dòng)的增加會(huì)導(dǎo)致瞳孔直徑的增大(Math?t et al.,2023)。研究表明,在學(xué)習(xí)過(guò)程中,瞳孔越大說(shuō)明提取信息越難、心理負(fù)荷越大,需要投入更多的認(rèn)知資源來(lái)理解知識(shí)(曹衛(wèi)真等,2012)。

    由于坐姿等客觀因素的影響,不同被試的眼動(dòng)數(shù)據(jù)收集率會(huì)有差別。研究選取數(shù)據(jù)收集率在50%以上的眼動(dòng)數(shù)據(jù)作為有效數(shù)據(jù)。為了使后續(xù)建模輸入的數(shù)據(jù)及建模結(jié)果不受數(shù)據(jù)收集率的影響,研究將眼動(dòng)指標(biāo)進(jìn)行歸一化處理,處理后的指標(biāo)將作為最終的建模指標(biāo),具體見表 1。

    2.機(jī)器學(xué)習(xí)算法選擇

    為了實(shí)現(xiàn)學(xué)習(xí)者場(chǎng)認(rèn)知風(fēng)格的自動(dòng)識(shí)別,本研究選擇5種常用的機(jī)器學(xué)習(xí)算法進(jìn)行分類性能測(cè)試與比較,目的是選取性能最好的機(jī)器學(xué)習(xí)算法來(lái)構(gòu)建最終模型。5種機(jī)器學(xué)習(xí)算法分別是支持向量機(jī)(Support Vector Machine,SVM)、隨機(jī)森林(Random Forest,RF)、樸素貝葉斯(Naive Bayes,NB)、K臨近算法(K-Nearest Neighbor,KNN)以及邏輯回歸(Logistic Regression,LR)。

    支持向量機(jī)是一種監(jiān)督分類算法,旨在找到線性可分特征向量的優(yōu)化超平面,以最大化分類間隔來(lái)增強(qiáng)泛化能力,同時(shí)最小化誤分類誤差。支持向量機(jī)可以在被稱為核函數(shù)的非線性映射函數(shù)的幫助下有效地執(zhí)行非線性分類。因此,通過(guò)將主輸入空間映射到高維點(diǎn)積空間,可以增強(qiáng)線性可分離性(Ghazizadeh et al.,2019)。然而其對(duì)缺失數(shù)據(jù)較為敏感,且在多分類問(wèn)題中容易陷入過(guò)擬合。本研究使用線性核作為支持向量機(jī)的內(nèi)核函數(shù)。

    隨機(jī)森林是一種基于識(shí)別的、監(jiān)督式的機(jī)器學(xué)習(xí)算法。它由許多決策樹組成,是一種使用復(fù)數(shù)決策樹的集成學(xué)習(xí)算法,減少了數(shù)據(jù)集的過(guò)度擬合并提高了精度,克服了決策樹算法的局限性。隨機(jī)森林對(duì)噪聲具有魯棒性,并且可以通過(guò)減少泛化誤差來(lái)產(chǎn)生高精度的結(jié)果(Breiman,2001)。但是,當(dāng)遇到取值劃分比較多的特征時(shí),會(huì)對(duì)其整體判斷產(chǎn)生較大影響。本研究將樹的數(shù)量設(shè)置為100,將單個(gè)樹的深度限制為5。

    貝葉斯網(wǎng)絡(luò)由一個(gè)結(jié)構(gòu)模型和一組條件概率組成。結(jié)構(gòu)模型是一個(gè)有向無(wú)環(huán)圖,其中節(jié)點(diǎn)表示屬性,弧表示屬性依賴關(guān)系。屬性依賴關(guān)系通過(guò)給定其父節(jié)點(diǎn)的每個(gè)節(jié)點(diǎn)的條件概率進(jìn)行量化。樸素貝葉斯分類器是最簡(jiǎn)單的貝葉斯網(wǎng)絡(luò)分類器,它假定實(shí)例的所有屬性在給定類的上下文的情況下彼此獨(dú)立,在大樣本處理時(shí)有很大優(yōu)勢(shì)(Jiang et al.,2013)。不過(guò),當(dāng)樣本屬性有關(guān)聯(lián)時(shí),會(huì)影響模型的準(zhǔn)確度。

    K臨近算法是一種非參數(shù)分類方法。它是基于監(jiān)督學(xué)習(xí)技術(shù),用于模式識(shí)別和分類的最簡(jiǎn)單的機(jī)器學(xué)習(xí)算法之一。與其他分類器不同,KNN 算法本身不需要訓(xùn)練階段,因?yàn)樗淮鎯?chǔ)預(yù)測(cè)階段的訓(xùn)練數(shù)據(jù)。KNN 算法假定新數(shù)據(jù)與已有數(shù)據(jù)之間具有相似性,并將新數(shù)據(jù)放入與可用類別最相似的類別中(Kharbech et al.,2016)。但其計(jì)算量較大、計(jì)算速度慢,不易確定K值,且數(shù)據(jù)不均衡時(shí)會(huì)影響準(zhǔn)確性。本研究以 K=5 運(yùn)行算法。

    邏輯回歸是廣義線性回歸模型的特定情況,是一種為了解決二分類問(wèn)題提出的算法。該算法在假設(shè)數(shù)據(jù)服從伯努利分布的基礎(chǔ)上,給定條件概率分布,并用極大似然估計(jì)求解最優(yōu)參數(shù)。邏輯回歸本質(zhì)上是一個(gè)線性分類器,所得到的模型清晰,可解釋性強(qiáng),并且實(shí)施簡(jiǎn)單,計(jì)算高效,可以在大數(shù)據(jù)場(chǎng)景中使用(Bewick et al.,2005)。然而其不能解決非線性問(wèn)題,也難以處理數(shù)據(jù)不平衡問(wèn)題。

    四、實(shí)驗(yàn)設(shè)計(jì)

    1.實(shí)驗(yàn)材料

    在線課程視頻。本研究選取2段時(shí)長(zhǎng)為3分鐘、主題為“機(jī)器學(xué)習(xí)”的在線課程視頻作為實(shí)驗(yàn)材料。每段課程視頻均以“文本+圖片+聲音”的形式呈現(xiàn)。課程視頻的亮度恒定,防止由于亮度變化而引起瞳孔直徑的變化。

    認(rèn)知風(fēng)格量表。本研究采用鑲嵌圖形測(cè)驗(yàn)(Group Embedded Figure Test,GEFT)作為認(rèn)知風(fēng)格的識(shí)別量表(張雁凌,2003)。該測(cè)驗(yàn)共分為三個(gè)部分,共有簡(jiǎn)單圖形9個(gè)與復(fù)雜圖形29個(gè)。每個(gè)部分測(cè)試時(shí)間為5分鐘,要求被試在規(guī)定時(shí)間內(nèi)從各個(gè)復(fù)雜圖形中找到規(guī)定的簡(jiǎn)單圖形并用筆標(biāo)注出來(lái)。第一部分的9道題目較為簡(jiǎn)單,主要用于讓被試熟悉題目,不計(jì)入總分。第二、三部分的題目每答對(duì)一道題記1分,答錯(cuò)不得分。能夠快速排除干擾信息并找到簡(jiǎn)單圖形的被試為場(chǎng)獨(dú)立型學(xué)習(xí)者,反之則為場(chǎng)依存型學(xué)習(xí)者。在本研究中,得分在0~10分的被試為場(chǎng)依存型學(xué)習(xí)者,得分在11~20分的為場(chǎng)獨(dú)立型學(xué)習(xí)者。

    2.實(shí)驗(yàn)對(duì)象

    本研究選取H大學(xué)68名在讀大學(xué)生為實(shí)驗(yàn)被試,年齡在18~24歲之間。為保證眼動(dòng)數(shù)據(jù)的有效性及采集率,被試的裸眼糾正視力均不低于1.0,不配戴眼鏡或佩戴眼鏡的度數(shù)低于400度。同時(shí),為保證學(xué)習(xí)認(rèn)知過(guò)程順利,要求被試均具有一定的機(jī)器學(xué)習(xí)基礎(chǔ)。被試在申請(qǐng)參與時(shí),需填寫機(jī)器學(xué)習(xí)測(cè)試問(wèn)卷,合格者才能被選取。根據(jù)鑲嵌圖形測(cè)試的結(jié)果,共有39名被試為場(chǎng)獨(dú)立型學(xué)習(xí)者,29名為場(chǎng)依存型學(xué)習(xí)者。

    3.實(shí)驗(yàn)設(shè)備與環(huán)境

    首先,研究使用Tobii T120眼動(dòng)儀收集每個(gè)被試的眼動(dòng)數(shù)據(jù)。該儀器的數(shù)據(jù)采集頻率為60 Hz,精度為0.5°。眼動(dòng)儀集成在17 英寸的LCD屏幕中,通過(guò)在屏幕下方安裝光學(xué)系統(tǒng)以實(shí)現(xiàn)眼球運(yùn)動(dòng)追蹤。教學(xué)材料顯示在LCD屏幕上,當(dāng)被試觀看材料時(shí),眼動(dòng)儀會(huì)記錄眼球運(yùn)動(dòng)。其次,研究使用與眼動(dòng)追蹤同步的Tobii Studio軟件收集數(shù)據(jù)。實(shí)驗(yàn)選擇在一間安靜、恒溫且光照適宜的實(shí)驗(yàn)室中進(jìn)行,以減少無(wú)關(guān)因素對(duì)被試的影響。被試坐在軟椅上觀看材料,同時(shí)桌面上放有頭部支架,減少被試的頭部移動(dòng),以確保眼動(dòng)數(shù)據(jù)的收集率以及有效性。

    4.實(shí)驗(yàn)流程

    在實(shí)驗(yàn)開始之前,被試填寫機(jī)器學(xué)習(xí)先驗(yàn)知識(shí)問(wèn)卷,通過(guò)者成為正式被試。進(jìn)入實(shí)驗(yàn)室后,被試通過(guò)紙筆測(cè)驗(yàn)的方式進(jìn)行鑲嵌圖形測(cè)驗(yàn)題目作答,主試計(jì)時(shí)并控制每部分答題時(shí)長(zhǎng)。眼動(dòng)實(shí)驗(yàn)正式開始前,由主試向被試介紹實(shí)驗(yàn)流程以及注意事項(xiàng),并幫助被試進(jìn)行眼動(dòng)儀校驗(yàn)。被試通過(guò)校驗(yàn)后方可正式觀看學(xué)習(xí)視頻。被試觀看第一個(gè)實(shí)驗(yàn)視頻后,黑屏3分鐘供被試休息,之后再觀看第二個(gè)實(shí)驗(yàn)視頻。在此期間,研究者一直使用眼動(dòng)儀記錄數(shù)據(jù)。被試觀看完畢后離開實(shí)驗(yàn)室,實(shí)驗(yàn)結(jié)束。

    5.數(shù)據(jù)分析

    實(shí)驗(yàn)結(jié)束后,研究人員利用Tobii Studio軟件進(jìn)行眼動(dòng)數(shù)據(jù)導(dǎo)出、預(yù)處理與特征提取等工作;使用SPSS 23.0軟件對(duì)眼動(dòng)指標(biāo)進(jìn)行單因素方差分析,以此來(lái)確定場(chǎng)認(rèn)知風(fēng)格對(duì)學(xué)習(xí)者眼動(dòng)行為的影響;使用RapidMiner Studio 9.10軟件進(jìn)行場(chǎng)認(rèn)知風(fēng)格分類算法模型的構(gòu)建,并采用準(zhǔn)確率(Accuracy)以及Kappa值來(lái)評(píng)價(jià)算法性能。

    五、結(jié)果與討論

    1.機(jī)器學(xué)習(xí)算法的分類性能比較

    本實(shí)驗(yàn)共收集到73萬(wàn)余條眼動(dòng)樣本數(shù)據(jù),將數(shù)據(jù)進(jìn)行特征提取,總共得到136組特征向量。研究首先利用眼動(dòng)數(shù)據(jù)實(shí)現(xiàn)對(duì)場(chǎng)認(rèn)知風(fēng)格學(xué)習(xí)者的分類。方法是:將歸一化后的注視時(shí)長(zhǎng)占比、平均注視點(diǎn)數(shù)量、掃視時(shí)長(zhǎng)占比、平均眼跳次數(shù)、平均眼跳距離、瞳孔直徑標(biāo)準(zhǔn)差6個(gè)指標(biāo)作為變量輸入,以場(chǎng)認(rèn)知風(fēng)格類型為標(biāo)簽進(jìn)行分類,分別使用支持向量機(jī)(SVM)、隨機(jī)森林(RF)、樸素貝葉斯(NB)、K臨近算法(KNN)以及邏輯回歸(LR)等機(jī)器學(xué)習(xí)算法,通過(guò)十折交叉驗(yàn)證法檢驗(yàn)算法的準(zhǔn)確率和Kappa值,得到如表 2所示的結(jié)果。

    準(zhǔn)確率指的是所有分類正確的樣本數(shù)與總樣本數(shù)的比值,即分類正確的概率,范圍在0~1之間,值越大說(shuō)明采用該方法進(jìn)行的分類越準(zhǔn)確。Kappa系數(shù)是用在統(tǒng)計(jì)學(xué)中評(píng)估一致性的一種方法,考查的是預(yù)測(cè)結(jié)果和實(shí)際分類結(jié)果是否一致,范圍在-1~1之間,通常大于0,值越大說(shuō)明該方法的分類性能越強(qiáng)。

    由表2可以看出,在5種機(jī)器學(xué)習(xí)算法中,邏輯回歸(LR)算法具有最高的分類準(zhǔn)確率,達(dá)到89.01%;同時(shí)具有最高的Kappa值,為0.774。說(shuō)明在這5種算法之中,邏輯回歸算法在進(jìn)行場(chǎng)認(rèn)知風(fēng)格分類時(shí)性能最強(qiáng),是構(gòu)建模型的最優(yōu)方法。

    2.不同認(rèn)知風(fēng)格學(xué)習(xí)者眼動(dòng)熱力圖及眼動(dòng)路徑比較

    為了更深入地了解不同認(rèn)知風(fēng)格學(xué)習(xí)者在眼動(dòng)行為上的差異,并為其個(gè)性化學(xué)習(xí)資源推薦提供指導(dǎo),本研究對(duì)學(xué)習(xí)者的視覺模式與眼動(dòng)指標(biāo)進(jìn)行了深入分析。圖 2展示了一名場(chǎng)依存型學(xué)習(xí)者與一名場(chǎng)獨(dú)立型學(xué)習(xí)者的眼動(dòng)熱力圖,顏色越深、亮度越亮代表被試在該位置的注釋時(shí)間越長(zhǎng)。從圖中兩名學(xué)習(xí)者的注意力分布情況來(lái)看,場(chǎng)依存型學(xué)習(xí)者在注意力分配(即注視位置)方面比場(chǎng)獨(dú)立型學(xué)習(xí)者表現(xiàn)出更顯著的變化。場(chǎng)依存型學(xué)習(xí)者的注視位置較為分散,在文字、圖片等區(qū)域都有大量的注視行為。場(chǎng)獨(dú)立型學(xué)習(xí)者的注視位置較為集中,注意力主要分布在圖片區(qū)域。在信息搜索方面,分散的注視點(diǎn)表明學(xué)習(xí)者難以將知識(shí)內(nèi)容進(jìn)行編碼,在識(shí)別與理解知識(shí)內(nèi)容方面具有更大的不確定性(Just et al.,1976);反之,較為集中的注視點(diǎn)反映了更高的視覺搜索效率,表明學(xué)習(xí)者可以更快速地進(jìn)行知識(shí)編碼并儲(chǔ)存。通過(guò)實(shí)驗(yàn)可知,場(chǎng)獨(dú)立型學(xué)習(xí)者比場(chǎng)依存型學(xué)習(xí)者具有更高的視覺搜索效率。

    圖 3展示了圖 2中對(duì)應(yīng)的場(chǎng)依存型學(xué)習(xí)者與場(chǎng)獨(dú)立型學(xué)習(xí)者的眼動(dòng)路徑圖,相鄰的兩個(gè)注視點(diǎn)由直線連接,并且在某注視點(diǎn)的注視時(shí)間越長(zhǎng),則該注視點(diǎn)的直徑就越大。該圖體現(xiàn)了不同認(rèn)知風(fēng)格學(xué)習(xí)者的視覺搜索模式??傮w來(lái)看,相較于場(chǎng)獨(dú)立型學(xué)習(xí)者,場(chǎng)依存型學(xué)習(xí)者的眼動(dòng)路徑較為分散與雜亂,且會(huì)受到與知識(shí)無(wú)關(guān)內(nèi)容的影響。場(chǎng)依存型學(xué)習(xí)者的眼跳距離更大,且較多次地注視學(xué)習(xí)視頻中的信息,體現(xiàn)出一種較為分散的視覺搜索模式。而場(chǎng)獨(dú)立型學(xué)習(xí)者的眼跳距離較小,注視內(nèi)容更加密集,體現(xiàn)了較為密集的視覺搜索模式。根據(jù)Rayner等人(1992)的研究結(jié)果,回視的次數(shù)反映了在視覺場(chǎng)景中搜索信息時(shí)定位關(guān)鍵內(nèi)容的困難程度。圖3同時(shí)也表明,場(chǎng)依存型學(xué)習(xí)者更難搜索到視頻中的關(guān)鍵信息與關(guān)鍵知識(shí)。

    結(jié)合場(chǎng)認(rèn)知風(fēng)格理論,不同認(rèn)知風(fēng)格的學(xué)習(xí)者產(chǎn)生不同視覺搜索模式的原因在于,場(chǎng)依存型學(xué)習(xí)者難以識(shí)別視頻信息中的關(guān)鍵元素,需要依賴信息與環(huán)境之間的關(guān)系來(lái)輔助判斷。因此,場(chǎng)依存型學(xué)習(xí)者需要逐個(gè)探測(cè)視頻信息,由此產(chǎn)生了更多的掃視與回視等行為。相比之下,場(chǎng)獨(dú)立型學(xué)習(xí)者表現(xiàn)出更精準(zhǔn)的搜索模式,其特點(diǎn)是更少的掃視和回視。同時(shí),場(chǎng)依存型學(xué)習(xí)者的注意力容易受到與課程內(nèi)容不相關(guān)因素的影響,視線多次在課程標(biāo)題與課程內(nèi)容之間轉(zhuǎn)移,體現(xiàn)出一定的迷失與分心情況。而場(chǎng)獨(dú)立型學(xué)習(xí)者的注意力則集中分布在與課程內(nèi)容有緊密關(guān)系的要素上,視覺行為更加定向。

    3.不同認(rèn)知風(fēng)格學(xué)習(xí)者眼動(dòng)指標(biāo)差異性分析

    使用方差分析對(duì)眼動(dòng)數(shù)據(jù)進(jìn)行分析可知(結(jié)果如表 3所示),6個(gè)眼動(dòng)指標(biāo)均在0.01水平上具有顯著差異。其中,場(chǎng)獨(dú)立型學(xué)習(xí)者的注視時(shí)長(zhǎng)占比與平均注視點(diǎn)數(shù)量均高于場(chǎng)依存型學(xué)習(xí)者,場(chǎng)依存型學(xué)習(xí)者的掃視時(shí)長(zhǎng)占比與平均眼跳次數(shù)均高于場(chǎng)獨(dú)立型學(xué)習(xí)者。這表明在視頻學(xué)習(xí)的過(guò)程中,場(chǎng)獨(dú)立型學(xué)習(xí)者進(jìn)行了更多的注視行為,而場(chǎng)依存型學(xué)習(xí)者進(jìn)行了更多的掃視行為。同時(shí),場(chǎng)依存型學(xué)習(xí)者的平均眼跳距離顯著大于場(chǎng)獨(dú)立型學(xué)習(xí)者,與眼動(dòng)路徑圖的結(jié)果一致,表明場(chǎng)依存型學(xué)習(xí)者需要大范圍地進(jìn)行信息檢索。并且,場(chǎng)依存型學(xué)習(xí)者的瞳孔直徑標(biāo)準(zhǔn)差顯著大于場(chǎng)獨(dú)立型學(xué)習(xí)者,表明場(chǎng)依存型學(xué)習(xí)者在學(xué)習(xí)過(guò)程中產(chǎn)生了更加顯著的認(rèn)知變化。

    掃視指標(biāo)的相關(guān)結(jié)果與以往研究一致,即場(chǎng)依存型學(xué)習(xí)者表現(xiàn)出更多的掃視行為。然而注視時(shí)長(zhǎng)的結(jié)果與以往的研究不同。已有研究認(rèn)為,場(chǎng)依存型學(xué)習(xí)者難以確定關(guān)鍵信息,因而需要更多的注視行為進(jìn)行信息的獲取與理解(Nisiforou et al.,2013);而本研究發(fā)現(xiàn),場(chǎng)獨(dú)立型學(xué)習(xí)者的注視時(shí)長(zhǎng)與平均注視點(diǎn)數(shù)量均高于場(chǎng)依存型學(xué)習(xí)者。究其原因,已有的場(chǎng)認(rèn)知風(fēng)格—眼動(dòng)研究中的實(shí)驗(yàn)材料是不限時(shí)的測(cè)試任務(wù),需要統(tǒng)計(jì)被試完成任務(wù)整個(gè)過(guò)程中的眼動(dòng)行為。由于場(chǎng)依存型學(xué)習(xí)者難以識(shí)別關(guān)鍵信息,他們會(huì)花費(fèi)更長(zhǎng)的時(shí)間來(lái)完成任務(wù),在此過(guò)程中需要進(jìn)行更多的認(rèn)知處理,因此會(huì)產(chǎn)生更多的注視行為。然而本研究的實(shí)驗(yàn)材料為時(shí)長(zhǎng)固定的課程視頻,在相同的時(shí)間內(nèi),場(chǎng)依存型學(xué)習(xí)者會(huì)花費(fèi)更多的時(shí)間來(lái)檢索關(guān)鍵信息,因而會(huì)產(chǎn)生更多的掃視行為,從而減少了注視行為的占比。因此,雖在不同的背景與不同的需求下,對(duì)兩種場(chǎng)認(rèn)知風(fēng)格學(xué)習(xí)者的眼動(dòng)指標(biāo)分析產(chǎn)生了不同的結(jié)果,但其背后隱含的認(rèn)知原理卻是相同的。

    六、總結(jié)

    1.邏輯回歸算法是構(gòu)建認(rèn)知風(fēng)格模型的良好方法

    本研究旨在構(gòu)建基于機(jī)器學(xué)習(xí)算法與眼動(dòng)追蹤技術(shù)的認(rèn)知風(fēng)格模型,實(shí)現(xiàn)學(xué)習(xí)者認(rèn)知風(fēng)格的自動(dòng)分類,為智能學(xué)習(xí)系統(tǒng)的構(gòu)建提供支撐。研究共選擇了5種機(jī)器學(xué)習(xí)算法來(lái)構(gòu)建認(rèn)知風(fēng)格模型。通過(guò)實(shí)驗(yàn)數(shù)據(jù)分析,發(fā)現(xiàn)邏輯回歸(LR)算法在進(jìn)行認(rèn)知風(fēng)格分類時(shí)的準(zhǔn)確率與Kappa值均最高,分類準(zhǔn)確率高達(dá)89.01%,是分類性能最佳的方法。因此,我們最終選取邏輯回歸作為認(rèn)知風(fēng)格模型構(gòu)建的機(jī)器學(xué)習(xí)算法。

    2.不同認(rèn)知風(fēng)格學(xué)習(xí)者視覺模式存在差異

    本研究通過(guò)眼動(dòng)實(shí)驗(yàn),深入挖掘了不同認(rèn)知風(fēng)格學(xué)習(xí)者的眼動(dòng)行為差異。結(jié)果表明,在視頻學(xué)習(xí)過(guò)程中,不同場(chǎng)認(rèn)知風(fēng)格學(xué)習(xí)者表現(xiàn)出不同的視覺行為模式。場(chǎng)依存型學(xué)習(xí)者有著較為分散的視覺注意模式,同時(shí)在信息檢索方面存在一定困難,且在掃視過(guò)程中容易迷失和分心;場(chǎng)獨(dú)立型學(xué)習(xí)者有著較為密集與定向的視覺注意模式,更加關(guān)注重點(diǎn)學(xué)習(xí)內(nèi)容,信息搜索效率更高。

    同時(shí),對(duì)場(chǎng)依存型和場(chǎng)獨(dú)立型學(xué)習(xí)者的眼動(dòng)指標(biāo)差異進(jìn)行分析發(fā)現(xiàn),兩種認(rèn)知風(fēng)格的學(xué)習(xí)者在6個(gè)歸一化眼動(dòng)指標(biāo)上均具有顯著差異。在固定時(shí)長(zhǎng)的視頻學(xué)習(xí)過(guò)程當(dāng)中,場(chǎng)依存型學(xué)習(xí)者展現(xiàn)了更多的掃視行為與更長(zhǎng)的平均眼跳距離;場(chǎng)獨(dú)立型學(xué)習(xí)者展現(xiàn)了更多的注視行為與較短的平均眼跳距離。這表明在進(jìn)行同樣時(shí)長(zhǎng)的視頻學(xué)習(xí)時(shí),場(chǎng)依存型學(xué)習(xí)者會(huì)花費(fèi)更多時(shí)間來(lái)進(jìn)行信息檢索,而場(chǎng)獨(dú)立型學(xué)習(xí)者會(huì)花費(fèi)更多時(shí)間來(lái)進(jìn)行信息處理。

    3.認(rèn)知風(fēng)格模型可為智能教育提供精準(zhǔn)支撐

    本研究所構(gòu)建的認(rèn)知風(fēng)格模型可應(yīng)用于智能學(xué)習(xí)系統(tǒng)的優(yōu)化當(dāng)中,具有豐富的現(xiàn)實(shí)意義。首先,本研究探索了學(xué)習(xí)者認(rèn)知風(fēng)格與視覺行為之間的聯(lián)系,該結(jié)果可用于智能學(xué)習(xí)系統(tǒng)的課程資源優(yōu)化設(shè)計(jì)?;谝詫W(xué)習(xí)者為中心的設(shè)計(jì)理論,在以學(xué)習(xí)者為中心的學(xué)習(xí)環(huán)境中提供能滿足個(gè)人獨(dú)特學(xué)習(xí)需求的資源,有助于加深學(xué)習(xí)者對(duì)學(xué)習(xí)內(nèi)容的理解(牟智佳,2017)。當(dāng)教師或教學(xué)設(shè)計(jì)者認(rèn)識(shí)到不同認(rèn)知風(fēng)格學(xué)習(xí)者的視覺行為差異時(shí),可以根據(jù)學(xué)習(xí)者的個(gè)體差異為其提供差異化的學(xué)習(xí)材料。例如,由于場(chǎng)依存型學(xué)習(xí)者難以識(shí)別課程中的關(guān)鍵信息,在課程設(shè)計(jì)的過(guò)程中,可加入更多的線索,如加粗、加亮關(guān)鍵字體,或通過(guò)添加箭頭等形式,來(lái)為場(chǎng)依存型學(xué)習(xí)者提供學(xué)習(xí)輔助,幫助其快速定位關(guān)鍵信息,提升學(xué)習(xí)效率。

    其次,認(rèn)知風(fēng)格模型還可用于智能學(xué)習(xí)系統(tǒng)的構(gòu)建。個(gè)性化學(xué)習(xí)路徑的規(guī)劃是智能學(xué)習(xí)系統(tǒng)的重要功能之一,其實(shí)現(xiàn)的關(guān)鍵在于明確學(xué)習(xí)者的特征。學(xué)習(xí)者特征把握不精準(zhǔn),是目前個(gè)性化學(xué)習(xí)路徑推薦準(zhǔn)確率較低的主要原因(唐雯謙等,2021)。本研究提供了認(rèn)知風(fēng)格分類精確度近90%的模型,可以幫助設(shè)計(jì)者準(zhǔn)確地把握學(xué)習(xí)者的認(rèn)知風(fēng)格特征。將訓(xùn)練好的模型嵌入到在線學(xué)習(xí)平臺(tái)當(dāng)中,可以實(shí)現(xiàn)對(duì)學(xué)習(xí)者認(rèn)知風(fēng)格的自動(dòng)識(shí)別,構(gòu)建更加細(xì)致的學(xué)習(xí)者畫像,進(jìn)而為學(xué)習(xí)者提供更適合的學(xué)習(xí)內(nèi)容、更合理的學(xué)習(xí)路徑,提升其學(xué)習(xí)體驗(yàn)和學(xué)習(xí)效果。

    4.局限性與展望

    首先,本研究的實(shí)驗(yàn)材料較為單一,僅提供了呈現(xiàn)方式較為單一的某一學(xué)科的課程視頻作為實(shí)驗(yàn)材料。因此,未來(lái)的研究可使用更多樣化的課程視頻,或者是其他類型的視覺刺激,以檢驗(yàn)實(shí)驗(yàn)方法與實(shí)驗(yàn)結(jié)果的可靠性和有效性。此外,應(yīng)考慮更多的學(xué)習(xí)者特征如年齡、性別、學(xué)科背景等,探究其對(duì)認(rèn)知風(fēng)格和眼動(dòng)行為的影響,同時(shí)可以將其作為新的自變量輸入到機(jī)器學(xué)習(xí)算法當(dāng)中,以提升模型的針對(duì)性與準(zhǔn)確性。眼球運(yùn)動(dòng)也可能會(huì)受到學(xué)習(xí)環(huán)境的影響,僅使用眼動(dòng)追蹤數(shù)據(jù)來(lái)測(cè)量學(xué)習(xí)認(rèn)知并不全面,未來(lái)可將其他的生理指標(biāo)如腦電、心電等整合在研究中,通過(guò)不同模態(tài)數(shù)據(jù)之間的信息互補(bǔ),提升數(shù)據(jù)分析的準(zhǔn)確性,以完善學(xué)習(xí)者認(rèn)知評(píng)估的可靠性。

    參考文獻(xiàn):

    [1]曹衛(wèi)真,殷婷如,邢強(qiáng)等(2012).常見教學(xué)網(wǎng)頁(yè)圖文搭配方式對(duì)記憶效果影響的研究[J].電化教育研究,33(2):93-100.

    [2]郭紹青,華曉雨(2022).論智慧教育與智能教育的關(guān)系[J].西北師大學(xué)報(bào)(社會(huì)科學(xué)版),59(6):139-147.

    [3]牟智佳(2017).“人工智能+”時(shí)代的個(gè)性化學(xué)習(xí)理論重思與開解[J].遠(yuǎn)程教育雜志,35(3):22-30.

    [4]唐雯謙,覃成海,向艷等(2021).智慧教育與個(gè)性化學(xué)習(xí)理論與實(shí)踐研究[J].中國(guó)電化教育,(5):124-137.

    [5]王靖,巴安妮,吳寶鎖(2023).智能教學(xué)反饋的目標(biāo)、機(jī)制與架構(gòu)[J].現(xiàn)代遠(yuǎn)程教育研究,35(3):102-112.

    [6]王雪(2015).多媒體學(xué)習(xí)研究中眼動(dòng)跟蹤實(shí)驗(yàn)法的應(yīng)用[J].實(shí)驗(yàn)室研究與探索,34(3):190-193,201.

    [7]新華網(wǎng)(2019).中共中央、國(guó)務(wù)院印發(fā)《中國(guó)教育現(xiàn)代化2035》[EB/OL].[2023-08-09].http://www.moe.gov.cn/jyb_xwfb

    /s6052/moe_838/201902/t20190223_370857.html.

    [8]薛耀鋒,曾志通(2020).面向自適應(yīng)學(xué)習(xí)的不同認(rèn)知風(fēng)格學(xué)習(xí)者眼動(dòng)模型研究[J].現(xiàn)代教育技術(shù),30(8):91-97.

    [9]薛耀鋒,李佳璇(2021).基于眼動(dòng)追蹤的在線同步學(xué)習(xí)系統(tǒng)可用性評(píng)測(cè)[J].現(xiàn)代教育技術(shù),31(12):85-93.

    [10]閆志明,郭喜蓮,王睿(2018).多媒體學(xué)習(xí)研究中眼動(dòng)指標(biāo)述評(píng)[J].現(xiàn)代教育技術(shù),28(5):33-39.

    [11]詹澤慧(2013).基于智能Agent的遠(yuǎn)程學(xué)習(xí)者情感與認(rèn)知識(shí)別模型——眼動(dòng)追蹤與表情識(shí)別技術(shù)支持下的耦合[J].現(xiàn)代遠(yuǎn)程教育研究,(5):100-105.

    [12]張雁凌(2003).中國(guó)大學(xué)生的場(chǎng)獨(dú)立/依存的認(rèn)知風(fēng)格對(duì)英語(yǔ)水平的影響[J].外國(guó)語(yǔ)言文學(xué),(4):43-45.

    [13]Al-Saai, A. J., amp; Dwyer, F. M. (1993). The Effect of Visualization on Field-Dependent and Field-Independent Learners[J]. International Journal of Instructional Media, 20:243-249.

    [14]Bewick, V., Cheek, L., amp; Ball, J. (2005). Statistics Review 14: Logistic Regression[J]. Critical Care, 9(1):112-118.

    [15]Breiman, L. (2001). Random Forests[J]. Machine Learning, 45(1):5-32.

    [16]Carter, B. T., amp; Luke, S. G. (2020). Best Practices in Eye Tracking Research[J]. International Journal of Psychophysiology, 155:49-62.

    [17]Eivazi, S., amp; Bednarik, R. (2011). Predicting Problem-Solving Behavior and Performance Levels from Visual Attention Data[C]// Proceedings of the 2nd Workshop on Eye Gaze in Intelligent Human Machine Interaction at IUI. Palo Alto, CA:9-16.

    [18]Ghazizadeh, E., Abbasi-Moghadam, D., amp;" Nezamabadi-Pour, H. (2019). An Enhanced Two-Phase SVM Algorithm for Cooperative Spectrum Sensing in Cognitive Radio Networks[J]. Communication Systems, 32(2):e3856.

    [19]Jacob, R. J. K., amp; Karn, K. S. (2003). The Mind’s Eye: Cognitive and Applied Aspects of Eye Movement Research[M]. Amsterdam, The Netherlands: Elsevier Science:573-605.

    [20]Jiang, L. X., Cai, Z. H., amp; Zhang, H. et al. (2013). Naive Bayes Text Classifiers: A Locally Weighted Learning Approach[J]. Journal of Experimental amp; Theoretical Artificial Intelligence, 25(2):273-286.

    [21]Jovanovic, M., Vukicevic, M., amp; Milovanovic M. et al. (2012). Using Data Mining on Student Behavior and Cognitive Style Data for Improving E-Learning Systems: A Case Study[J]. International Journal of Computational Intelligence Systems, 5(3):597-610.

    [22]Just, M. A., amp; Carpenter, P. A. (1976). Eye Fixations and Cognitive Processes[J]. Cognitive Psychology, 8:441-480.

    [23]Kharbech, S.," Dayoub, I., amp; Zwingelstein-Colin, M. (2016). On Classifiers for Blind Feature-Based Automatic Modulation Classification over Multiple-Input-Multiple-Output Channels[J]. IET Communications, 10(7):790-795.

    [24]Liu, H. C. (2018). Investigating the Impact of Cognitive Style on Multimedia Learners’Understanding and Visual Search Patterns: An Eye-Tracking Approach[J]. Journal of Educational Computing Research, 55(8):1053-1068.

    [25]Lou, Y., Liu, Y., amp; Kaakinen, J. K. et al. (2017). Using Support Vector Machines to Identify Literacy Skills: Evidence from Eye Movements[J]. Behavior Research Methods, 49(3):887-895.

    [26]Mahvelati, E. H. (2020). Field-Dependent/Field-Independent Learners’Information Processing Behavior in an Implicit Learning Task: Evidence from Iranian EFL Learners[J]. Journal of" Psycholinguist Research, 49(6):955-973.

    [27]Math?t, S., amp; Vilotijevi?, A. (2023). Methods in Cognitive Pupillometry: Design, Preprocessing, and Statistical Analysis[J]. Behavior Research Methods, 55:3055-3077 .

    [28]McKay, M. T., Fischler, I., amp; Dunn, B. R. (2003). Cognitive Style and Recall of Text: An EEG Analysis[J]. Learning and Individual Differences, 14(1):1-21.

    [29]Nisiforou, E. A., amp; Laghos, A. (2013). Do the Eyes Have It? Using Eye Tracking to Assess Students Cognitive Dimensions[J]. Educational Media International, 50(4):247-265.

    [30]Nisiforou, E., amp; Laghos, A. (2016). Field Dependence-

    Independence and Eye Movement Patterns: Investigating Users’ Differences Through an Eye Tracking Study[J]. Interacting with Computers, 28(4):407-420.

    [31]Pradnya Sidhawara, A. G., Wibirama, S., amp; Adji, T. B. et al. (2020). Classification of Visual-Verbal Cognitive Style in Multimedia Learning using Eye-Tracking and Machine Learning[C]// 2020 6th International Conference on Science and Technology (ICST). Yogyakarta, Indonesia:1-5.

    [32]Rayner, K., amp; Pollatsek, A. (1992). Eye-Movements and Scene Perception[J]. Canadian Journal of Psychology, 46(3):342-376.

    [33]Riding, R., amp; Cheema, I. (1991). Cognitive Styles: An Overview and Integratio[J]. Educational Psychology, 11:193-215.

    [34]Saracho, O. (2003). Matching Teachers’ and Students’ Cognitive Styles[J]. Early Child Development and Care, 173:161-173.

    [35]Szulewski, A. M. D., Roth, N., amp; Howes, D. M. D. (2015). The Use of Task-Evoked Pupillary Response as an Objective Measure of Cognitive Load in Novices and Trained Physicians: A New Tool for the Assessment of Expertise[J]. Academic Medicine, 90(7):981-987.

    [36]Witkin, H. A. (1967). A Cognitive-Style Approach to Cross-Cultural Research[J]. International Journal of Psychology, 2(4):233-250.

    [37]Workman, M. (2004). Performance and Perceived Effectiveness in Computer-Based and Computer Aided Education: Do Cognitive Styles Make a Difference[J]. Computers in Human Behaviour, 20(4):517-534.

    [38]Yousef, A. M. F.," Atia, A., amp;" Youssef, A. et al. (2021). Automatic Identification of Student’s Cognitive Style from Online Laboratory Experimentation Using Machine Learning Techniques[C]// 2021 IEEE 12th Annual Ubiquitous Computing, Electronics amp; Mobile Communication Conference (UEMCON). New York:143-149.

    收稿日期 2023-12-14 責(zé)任編輯 汪燕

    Construction of Cognitive Style Model Based on Machine Learning and Eye Tracking

    XUE Yaofeng, ZHU Fangqing

    Abstract: Cognitive style reflects the patterns of students’ approaching, acquiring, organizing, processing and interpreting information, and can be used to explain and guide students’ behavior. Integrating cognitive style into intelligent systems can help develop personalized user models and promote the development of intelligent education. Currently, there is a lack of research on automatic classification of cognitive styles, and machine learning has not yet been combined with eye tracking technology for application in this research field. Based on machine learning and eye tracking, a cognitive style model is built. It selects six eye movement indicators closely related to cognition, including fixation duration, number of fixations, saccade duration, number of saccades, saccade distance, and pupil diameter. After normalization, machine learning algorithms are used to automatically classify cognitive styles. The experimental results show that learners with different field cognitive styles exhibit different visual behavior patterns when learning from videos of the same duration. Field-dependent learners have a more dispersed fixation points, showing more saccades, fewer fixations, longer saccade distances, and larger pupil diameter changes, resulting in lower information search efficiency. Field-independent learners have a more intensive and directional visual attention pattern, resulting in higher information search efficiency. After comparing the performance of five machine learning algorithms, it is found that the classification effect of logistic regression algorithm is the best, with an accuracy rate of 89.01% and a Kappa value of 0.774. This automatic classification model of cognitive styles can be used for optimizing the design of course resources in intelligent learning systems and for recommending personalized learning paths. In the future, more physiological data can be integrated to improve the accuracy of data analysis and the reliability of learner cognitive ability assessment through information complementarity between different modalities.

    Keywords: Intelligent Education; Machine Learning; Eye Tracking Technology; Field Cognitive Style; Automatic Classification

    猜你喜歡
    智能教育機(jī)器學(xué)習(xí)
    “互聯(lián)網(wǎng)+”環(huán)境下移動(dòng)教育發(fā)展現(xiàn)狀分析
    “智能游戲開發(fā)與設(shè)計(jì)”課堂教學(xué)
    基于詞典與機(jī)器學(xué)習(xí)的中文微博情感分析
    基于機(jī)器學(xué)習(xí)的圖像特征提取技術(shù)在圖像版權(quán)保護(hù)中的應(yīng)用
    基于網(wǎng)絡(luò)搜索數(shù)據(jù)的平遙旅游客流量預(yù)測(cè)分析
    前綴字母為特征在維吾爾語(yǔ)文本情感分類中的研究
    基于支持向量機(jī)的金融數(shù)據(jù)分析研究
    機(jī)器學(xué)習(xí)理論在高中自主學(xué)習(xí)中的應(yīng)用
    智能手機(jī)APP在高校會(huì)計(jì)學(xué)中的應(yīng)用探究
    商情(2016年11期)2016-04-15 20:47:36
    淺談素質(zhì)教育與音樂(lè)教育
    欧美人与善性xxx| 精品乱码久久久久久99久播| 亚洲精华国产精华精| 国内精品久久久久久久电影| 日韩欧美在线乱码| 国产男靠女视频免费网站| 国产一区二区激情短视频| 日韩高清综合在线| 成人美女网站在线观看视频| 亚洲第一区二区三区不卡| 九九久久精品国产亚洲av麻豆| 九九热线精品视视频播放| 国产精品嫩草影院av在线观看 | 在线国产一区二区在线| 久久久午夜欧美精品| 精品久久国产蜜桃| 久99久视频精品免费| 精品久久久久久久久久免费视频| 国产精品一区二区性色av| 无遮挡黄片免费观看| 欧美性猛交黑人性爽| 1024手机看黄色片| 内地一区二区视频在线| 国产精品98久久久久久宅男小说| 国产一区二区三区av在线 | 最后的刺客免费高清国语| 国产单亲对白刺激| 啦啦啦韩国在线观看视频| 国产视频一区二区在线看| 欧美日本亚洲视频在线播放| 免费电影在线观看免费观看| 少妇猛男粗大的猛烈进出视频 | 亚洲精品成人久久久久久| 国产私拍福利视频在线观看| 俺也久久电影网| 99久久无色码亚洲精品果冻| 人妻少妇偷人精品九色| 午夜激情福利司机影院| 精品无人区乱码1区二区| 亚洲美女搞黄在线观看 | 国产精品一区二区三区四区免费观看 | 丰满人妻一区二区三区视频av| 日日撸夜夜添| 好男人在线观看高清免费视频| 久久久国产成人精品二区| 久久国产精品人妻蜜桃| 免费看光身美女| 22中文网久久字幕| 久久精品国产亚洲av香蕉五月| 欧美人与善性xxx| 色尼玛亚洲综合影院| 久久精品国产亚洲av天美| 别揉我奶头 嗯啊视频| 蜜桃久久精品国产亚洲av| 日本黄色片子视频| 热99re8久久精品国产| 可以在线观看的亚洲视频| 可以在线观看的亚洲视频| 桃色一区二区三区在线观看| 欧美色视频一区免费| 级片在线观看| 午夜免费男女啪啪视频观看 | 国语自产精品视频在线第100页| 少妇人妻一区二区三区视频| 久久精品综合一区二区三区| 99在线视频只有这里精品首页| 淫妇啪啪啪对白视频| 国产伦在线观看视频一区| 久久香蕉精品热| 2021天堂中文幕一二区在线观| 久久亚洲精品不卡| 两个人视频免费观看高清| 一本一本综合久久| 最近最新中文字幕大全电影3| 特级一级黄色大片| 亚洲一区二区三区色噜噜| АⅤ资源中文在线天堂| 一本一本综合久久| 亚洲乱码一区二区免费版| 99久久九九国产精品国产免费| 国产乱人伦免费视频| 婷婷精品国产亚洲av| 日韩一本色道免费dvd| 婷婷色综合大香蕉| www.色视频.com| 欧美黑人欧美精品刺激| 久久人人精品亚洲av| 亚洲成人久久性| 国产精品久久久久久久电影| 色综合色国产| 特级一级黄色大片| 成年版毛片免费区| 国产亚洲精品av在线| 99热这里只有是精品50| 女人被狂操c到高潮| 两人在一起打扑克的视频| 国产精品嫩草影院av在线观看 | 国产精华一区二区三区| 国产精品精品国产色婷婷| 久久亚洲精品不卡| 男女啪啪激烈高潮av片| 亚洲精品一卡2卡三卡4卡5卡| 真人做人爱边吃奶动态| 国产 一区 欧美 日韩| 特大巨黑吊av在线直播| x7x7x7水蜜桃| 日韩亚洲欧美综合| 亚洲国产精品成人综合色| 嫩草影院精品99| 哪里可以看免费的av片| 日韩精品有码人妻一区| 久久久久久九九精品二区国产| 日韩精品中文字幕看吧| 天堂av国产一区二区熟女人妻| 色av中文字幕| 成年人黄色毛片网站| 欧美成人性av电影在线观看| 丰满乱子伦码专区| 国产精品久久久久久精品电影| 人人妻,人人澡人人爽秒播| 在线观看免费视频日本深夜| 国产伦一二天堂av在线观看| 18+在线观看网站| 午夜精品一区二区三区免费看| 亚洲第一电影网av| 久久精品国产99精品国产亚洲性色| 美女 人体艺术 gogo| 久99久视频精品免费| 一本一本综合久久| 狠狠狠狠99中文字幕| 99热只有精品国产| 97人妻精品一区二区三区麻豆| 日本-黄色视频高清免费观看| 中国美白少妇内射xxxbb| 国产又黄又爽又无遮挡在线| 中出人妻视频一区二区| 麻豆国产av国片精品| 一区二区三区免费毛片| 狠狠狠狠99中文字幕| 国产精品,欧美在线| 久久午夜亚洲精品久久| 欧美zozozo另类| 亚洲欧美激情综合另类| 欧美3d第一页| 99精品久久久久人妻精品| 日韩亚洲欧美综合| 国产成人影院久久av| 欧美黑人巨大hd| 欧美激情在线99| 啪啪无遮挡十八禁网站| 日本a在线网址| 一级毛片久久久久久久久女| 亚洲黑人精品在线| 99国产精品一区二区蜜桃av| 美女xxoo啪啪120秒动态图| 精品久久久久久久久av| 国产精品日韩av在线免费观看| 国产成年人精品一区二区| www日本黄色视频网| 97人妻精品一区二区三区麻豆| 美女免费视频网站| 此物有八面人人有两片| 国产精品一区二区性色av| 日本-黄色视频高清免费观看| 99视频精品全部免费 在线| 国产白丝娇喘喷水9色精品| 欧美+日韩+精品| 日韩在线高清观看一区二区三区 | 亚洲精品一卡2卡三卡4卡5卡| 内射极品少妇av片p| 日日摸夜夜添夜夜添av毛片 | 日韩中字成人| 久久人人精品亚洲av| 日韩一本色道免费dvd| 国产高潮美女av| 悠悠久久av| 亚洲一区二区三区色噜噜| 亚洲国产高清在线一区二区三| 国产午夜福利久久久久久| 一区二区三区激情视频| 99久久久亚洲精品蜜臀av| 一区二区三区高清视频在线| 一区二区三区激情视频| 悠悠久久av| 成人国产一区最新在线观看| 最好的美女福利视频网| 日本五十路高清| 最好的美女福利视频网| 自拍偷自拍亚洲精品老妇| 日韩欧美国产一区二区入口| 国产乱人视频| ponron亚洲| 12—13女人毛片做爰片一| 不卡一级毛片| 全区人妻精品视频| 小说图片视频综合网站| 老熟妇乱子伦视频在线观看| h日本视频在线播放| 老熟妇乱子伦视频在线观看| av福利片在线观看| 欧美三级亚洲精品| 免费在线观看影片大全网站| 91久久精品电影网| 亚洲精品亚洲一区二区| 午夜影院日韩av| 美女免费视频网站| 国产私拍福利视频在线观看| 哪里可以看免费的av片| 亚洲最大成人av| 国产伦人伦偷精品视频| 91在线精品国自产拍蜜月| 69av精品久久久久久| 啪啪无遮挡十八禁网站| 亚洲国产精品成人综合色| 国模一区二区三区四区视频| 亚洲va在线va天堂va国产| 18禁裸乳无遮挡免费网站照片| 国模一区二区三区四区视频| 日本欧美国产在线视频| 国产麻豆成人av免费视频| 一级av片app| 中文在线观看免费www的网站| 欧美最黄视频在线播放免费| 搡老熟女国产l中国老女人| 亚洲欧美日韩东京热| 黄色配什么色好看| 又紧又爽又黄一区二区| 国产老妇女一区| 国产极品精品免费视频能看的| 人人妻,人人澡人人爽秒播| 久久亚洲精品不卡| 国产国拍精品亚洲av在线观看| 69av精品久久久久久| 欧美色视频一区免费| 久久久国产成人精品二区| 亚洲美女搞黄在线观看 | 51国产日韩欧美| 国产69精品久久久久777片| 国产单亲对白刺激| 直男gayav资源| 又粗又爽又猛毛片免费看| 免费av不卡在线播放| 国产女主播在线喷水免费视频网站 | 国产午夜精品久久久久久一区二区三区 | 给我免费播放毛片高清在线观看| 狂野欧美白嫩少妇大欣赏| 国产单亲对白刺激| 日韩欧美在线二视频| 免费一级毛片在线播放高清视频| 尾随美女入室| av天堂中文字幕网| 日韩一本色道免费dvd| 欧美日韩精品成人综合77777| 亚州av有码| 嫩草影院精品99| 亚洲欧美清纯卡通| 建设人人有责人人尽责人人享有的 | 插阴视频在线观看视频| 亚洲人与动物交配视频| 国产v大片淫在线免费观看| 99热这里只有是精品50| 精品少妇黑人巨大在线播放| 亚洲国产高清在线一区二区三| 免费不卡的大黄色大毛片视频在线观看| 久久久久视频综合| 中国国产av一级| 久久精品久久精品一区二区三区| 午夜福利视频精品| a 毛片基地| 丝瓜视频免费看黄片| 国产精品国产av在线观看| 久久国产精品大桥未久av | 一级毛片黄色毛片免费观看视频| 亚洲精品亚洲一区二区| 精品久久久久久电影网| 国产精品一区二区在线不卡| 一级毛片我不卡| 国产精品国产三级国产专区5o| 亚洲图色成人| 国产淫语在线视频| 一个人看视频在线观看www免费| 天天躁夜夜躁狠狠久久av| 美女国产视频在线观看| 青春草亚洲视频在线观看| 日韩免费高清中文字幕av| 99热6这里只有精品| 亚洲国产精品国产精品| 久久久欧美国产精品| 成人亚洲欧美一区二区av| 日本av免费视频播放| 爱豆传媒免费全集在线观看| 观看美女的网站| 国内精品宾馆在线| 男女无遮挡免费网站观看| 人体艺术视频欧美日本| 日韩av不卡免费在线播放| 精品国产乱码久久久久久小说| 高清av免费在线| 91久久精品国产一区二区成人| 插阴视频在线观看视频| 极品教师在线视频| 成人午夜精彩视频在线观看| 国产熟女欧美一区二区| 深夜a级毛片| 国产亚洲午夜精品一区二区久久| 欧美成人a在线观看| 欧美精品亚洲一区二区| 免费黄网站久久成人精品| 成年女人在线观看亚洲视频| 久久久久国产网址| 91久久精品电影网| 免费不卡的大黄色大毛片视频在线观看| 黄色怎么调成土黄色| 亚洲欧美中文字幕日韩二区| 伊人久久国产一区二区| 成人高潮视频无遮挡免费网站| 男女边摸边吃奶| 爱豆传媒免费全集在线观看| 啦啦啦中文免费视频观看日本| 国产淫片久久久久久久久| 欧美高清性xxxxhd video| 十八禁网站网址无遮挡 | 亚洲色图av天堂| 亚洲欧美精品专区久久| 国产成人精品婷婷| 亚洲婷婷狠狠爱综合网| 性色av一级| 精品久久久噜噜| 欧美激情极品国产一区二区三区 | 人体艺术视频欧美日本| 亚洲精品日韩av片在线观看| 国国产精品蜜臀av免费| 97热精品久久久久久| 天堂俺去俺来也www色官网| 精品视频人人做人人爽| 精品国产露脸久久av麻豆| 美女主播在线视频| 国产精品女同一区二区软件| 国产片特级美女逼逼视频| 精品亚洲成a人片在线观看 | 精品久久久久久久久av| 午夜老司机福利剧场| 蜜桃亚洲精品一区二区三区| 国产爽快片一区二区三区| 高清视频免费观看一区二区| 亚洲精品日韩在线中文字幕| 2018国产大陆天天弄谢| 久久国内精品自在自线图片| 又爽又黄a免费视频| 看免费成人av毛片| 国产黄频视频在线观看| 有码 亚洲区| 亚洲欧美清纯卡通| 狠狠精品人妻久久久久久综合| 中文资源天堂在线| 交换朋友夫妻互换小说| 国产男人的电影天堂91| 在线观看免费高清a一片| 极品教师在线视频| 日韩国内少妇激情av| 国产精品福利在线免费观看| 久久久精品94久久精品| 麻豆成人午夜福利视频| av在线老鸭窝| 波野结衣二区三区在线| 美女主播在线视频| 天堂8中文在线网| 日韩一区二区三区影片| 国产又色又爽无遮挡免| 男女边摸边吃奶| 欧美另类一区| 在线免费观看不下载黄p国产| 大又大粗又爽又黄少妇毛片口| 欧美精品人与动牲交sv欧美| 中国三级夫妇交换| 国产免费一区二区三区四区乱码| a级毛色黄片| 国产成人a区在线观看| 亚洲经典国产精华液单| 少妇丰满av| 午夜免费鲁丝| 三级国产精品片| 亚洲欧美成人精品一区二区| 91午夜精品亚洲一区二区三区| 亚洲av.av天堂| 久久 成人 亚洲| 美女高潮的动态| 国产av一区二区精品久久 | 免费观看av网站的网址| 成人国产麻豆网| 欧美成人a在线观看| 在线亚洲精品国产二区图片欧美 | 国产精品一区二区在线观看99| 精品久久久久久久久亚洲| 丰满迷人的少妇在线观看| 少妇人妻精品综合一区二区| 成人美女网站在线观看视频| 我的老师免费观看完整版| 五月玫瑰六月丁香| 日本一二三区视频观看| 国产乱人偷精品视频| 网址你懂的国产日韩在线| 一区在线观看完整版| 色视频在线一区二区三区| 黄色视频在线播放观看不卡| 人人妻人人看人人澡| 国产黄色免费在线视频| 精品久久久久久久久av| 少妇人妻精品综合一区二区| 国产午夜精品一二区理论片| 国产免费一级a男人的天堂| 色吧在线观看| 亚洲欧美清纯卡通| 少妇精品久久久久久久| av福利片在线观看| 日本vs欧美在线观看视频 | 看非洲黑人一级黄片| 一二三四中文在线观看免费高清| 亚洲美女搞黄在线观看| 国产高清不卡午夜福利| 亚洲一级一片aⅴ在线观看| 老司机影院成人| 欧美高清成人免费视频www| 国产一区二区三区av在线| 久久 成人 亚洲| 97在线人人人人妻| 欧美日韩一区二区视频在线观看视频在线| 大码成人一级视频| 日韩 亚洲 欧美在线| 日韩成人伦理影院| 26uuu在线亚洲综合色| 18禁裸乳无遮挡免费网站照片| 亚洲三级黄色毛片| 国产精品国产三级专区第一集| 偷拍熟女少妇极品色| 18禁动态无遮挡网站| 亚洲经典国产精华液单| 日韩中文字幕视频在线看片 | .国产精品久久| av又黄又爽大尺度在线免费看| 久久久久国产精品人妻一区二区| 亚洲国产精品999| 26uuu在线亚洲综合色| 欧美成人一区二区免费高清观看| 免费黄频网站在线观看国产| 日韩一本色道免费dvd| 超碰av人人做人人爽久久| 99热这里只有精品一区| 成年美女黄网站色视频大全免费 | 国产乱人偷精品视频| 午夜福利在线观看免费完整高清在| 多毛熟女@视频| 国产一级毛片在线| 久久国产精品大桥未久av | 久久久成人免费电影| 亚洲精品日本国产第一区| 中国美白少妇内射xxxbb| 亚洲国产av新网站| 免费观看的影片在线观看| 国产午夜精品一二区理论片| 色5月婷婷丁香| 国产极品天堂在线| 亚洲色图综合在线观看| videos熟女内射| 久久久午夜欧美精品| 免费观看性生交大片5| av在线app专区| 中文天堂在线官网| 久久ye,这里只有精品| 狠狠精品人妻久久久久久综合| 国产av码专区亚洲av| 欧美少妇被猛烈插入视频| 成人二区视频| 插逼视频在线观看| 男女边摸边吃奶| 国产免费视频播放在线视频| 丝袜喷水一区| 国产精品成人在线| 一区二区三区免费毛片| kizo精华| 丰满人妻一区二区三区视频av| 麻豆乱淫一区二区| 国产男女超爽视频在线观看| 国产视频首页在线观看| 久久久久久久久久久丰满| av在线观看视频网站免费| 欧美成人一区二区免费高清观看| 男人添女人高潮全过程视频| 观看av在线不卡| 精品一区二区三区视频在线| 国产成人freesex在线| 丰满人妻一区二区三区视频av| 少妇熟女欧美另类| 久久久久久久久久人人人人人人| 麻豆国产97在线/欧美| 欧美 日韩 精品 国产| 身体一侧抽搐| 亚洲色图综合在线观看| 成人综合一区亚洲| 欧美bdsm另类| 亚洲国产色片| 女性生殖器流出的白浆| 免费久久久久久久精品成人欧美视频 | 亚洲精品一二三| 一区二区av电影网| 99热6这里只有精品| 久久久久久久久久人人人人人人| 国产精品爽爽va在线观看网站| 国产日韩欧美亚洲二区| 只有这里有精品99| 亚洲精品日本国产第一区| 五月开心婷婷网| 成人影院久久| 夜夜爽夜夜爽视频| 26uuu在线亚洲综合色| 乱系列少妇在线播放| 熟女电影av网| 黄色怎么调成土黄色| 联通29元200g的流量卡| 男女下面进入的视频免费午夜| 乱系列少妇在线播放| 国产黄片美女视频| 免费大片18禁| 久久精品熟女亚洲av麻豆精品| 精品一区二区免费观看| 国产精品久久久久久精品古装| 男人舔奶头视频| 亚洲国产色片| 午夜福利在线观看免费完整高清在| 亚洲婷婷狠狠爱综合网| 岛国毛片在线播放| 超碰av人人做人人爽久久| 国产精品国产av在线观看| 2018国产大陆天天弄谢| 国产高清三级在线| 大片电影免费在线观看免费| 国产欧美日韩精品一区二区| 大码成人一级视频| 免费黄网站久久成人精品| 2022亚洲国产成人精品| 亚洲精品国产av成人精品| 国产精品一区二区三区四区免费观看| av一本久久久久| 又黄又爽又刺激的免费视频.| 欧美bdsm另类| 三级国产精品片| av在线蜜桃| 美女内射精品一级片tv| 日韩,欧美,国产一区二区三区| a级毛片免费高清观看在线播放| 一级爰片在线观看| 少妇人妻 视频| 性色av一级| 中文字幕av成人在线电影| 色婷婷久久久亚洲欧美| 欧美最新免费一区二区三区| 日本av手机在线免费观看| 久久这里有精品视频免费| 国产精品一及| 在线亚洲精品国产二区图片欧美 | 婷婷色综合www| 亚洲中文av在线| 超碰av人人做人人爽久久| 在线播放无遮挡| 一级a做视频免费观看| 亚洲人成网站高清观看| 亚洲av成人精品一二三区| 热re99久久精品国产66热6| 天天躁夜夜躁狠狠久久av| 女性被躁到高潮视频| 精品国产一区二区三区久久久樱花 | 草草在线视频免费看| 亚洲av综合色区一区| 午夜日本视频在线| 久久久色成人| 夜夜看夜夜爽夜夜摸| 欧美xxxx黑人xx丫x性爽| 国产精品一区二区三区四区免费观看| 一级二级三级毛片免费看| 国产欧美日韩精品一区二区| 久久久久视频综合| 精品人妻一区二区三区麻豆| 亚洲怡红院男人天堂| 纯流量卡能插随身wifi吗| 少妇人妻一区二区三区视频| 免费在线观看成人毛片| 22中文网久久字幕| 精品一区二区三区视频在线| 男女免费视频国产| 春色校园在线视频观看| 99精国产麻豆久久婷婷| 91精品伊人久久大香线蕉| 人妻制服诱惑在线中文字幕| 免费大片18禁| 内射极品少妇av片p| 18禁在线播放成人免费| 午夜免费男女啪啪视频观看| 一级a做视频免费观看| 男人添女人高潮全过程视频| 亚洲国产欧美在线一区| 成年女人在线观看亚洲视频| 国产成人精品婷婷| 国产日韩欧美在线精品| 777米奇影视久久| 亚洲av成人精品一区久久| 日韩大片免费观看网站| 亚洲av成人精品一区久久| 亚州av有码| 国产日韩欧美在线精品| 97超视频在线观看视频| 国产 一区 欧美 日韩| 日韩中文字幕视频在线看片 | av免费观看日本| 男人狂女人下面高潮的视频| 国产真实伦视频高清在线观看|