魏廷江 倪琴 高榮 郝煜佳 白慶春
摘? 要: 介紹了知識追蹤(KT)的相關概念與任務,梳理其發(fā)展脈絡,綜述KT的原理、相關算法和數據集,分析了不同結構的KT模型的優(yōu)缺點.在此基礎上,對KT領域未來發(fā)展方向進行了深入探討,提出了數據表征、認知建模、模型可解釋性三個重要的發(fā)展方向,并作出了一定的展望.
關鍵詞: 知識追蹤(KT); 教育數據挖掘; 個性化學習; 學習者建模
中圖分類號: TP 18??? 文獻標志碼: A??? 文章編號: 1000-5137(2022)02-0171-09
WEI TingjiangNI QinGAO RongHAO YujiaBAI Qingchun
(1.College of Information, Mechanical and Electrical Engineering, Shanghai Normal University, Shanghai 201418, China;2.Shanghai Engineering Research Center of Open Distance Education, Shanghai Open University, Shanghai 200433, China)
In this paper, firstly common models and datasets in the field of knowledge tracing (KT) were organized and the development and progress of them were collated. Secondly, the correlative theory as well as principles and datasets were overviewed. The advantages and disadvantages of KT models with different structures were analyzed. Moreover, the future development directions of the KT field were discussed, and three important directions of data representation, cognitive modeling, and model interpretability were proposed respectively, and the prospect for the future was predicted.
knowledge tracing (KT); educational data mining; adaptive learning; learner model
0? 引言
在線教育使得學生能夠隨時隨地學習不同來源的課程,也為個性化學習、因材施教帶來新的機遇和挑戰(zhàn).對于學生而言,面對海量學習資源會遇到選擇困難、碎片化學習、學習進度控制難等問題;教師對于學生的學習需求、學習效果難以進行準確評估.數據驅動下的知識追蹤(KT)模型通過大數據分析學習過程和學習行為,能夠精準識別學習者的個性特征,動態(tài)監(jiān)控學習過程,實時預測學習趨勢,有效評價學習結果,給予學習者個性化的干預和自適應的指導.
KT算法將學生的知識掌握程度隨著時間的推移建模預測,從而能夠準確地預測學生在未來互動中的表現,據此有針對性地為學生訂制不同的學習路線,提升學習效率.學生通過在線學習平臺進行學習交互,形成答題行為時間序列,KT算法通過對學習者和序列聯(lián)合建模,預測其對于新知識的認知概率分布,進一步推理出學習者的技能和認知水平.
根據學生答題記錄評估學生的知識狀態(tài)是當前KT建模領域重要的研究內容.其核心思想是根據學生學習軌跡來自動追蹤學生的知識水平隨著時間變化的過程.早期KT技術主要依賴于概率模型,將知識的掌握程度預測看作“掌握/未掌握”的概率分布推理問題,如隱馬爾可夫模型(HMM)、貝葉斯KT(BKT)模型.HMM可以根據學習者歷史知識狀態(tài)預測隱變量的概率分布,并刻畫狀態(tài)之間的轉移情況.KT領域采用的深度學習方法最早出現在2015年,PIECH等提出了經典的深度KT模型(DKT),其核心思想是基于學習者練習數據是典型的序列數據的特性,利用循環(huán)神經網絡(RNN)可以相對有效地捕捉到時間序列前后的關聯(lián)性.隨著相關研究的進展,在KT領域,注意力機制的方法也逐漸被引入神經網絡中,并在性能和可解釋性方面取得了突破.
本文作者主要綜述了采用傳統(tǒng)方法和深度學習方法對KT建模方面的研究成果,通過討論上述模型的優(yōu)劣,對KT領域的研究作出了展望.具體來說:1) 對KT領域目前主要的問題進行了梳理,全面總結了KT領域當前的研究進展;2) 深入剖析了目前主流KT模型,從問題表征、因素關系表示、認知和遺忘機制方面闡述KT的過程;3) 通過分析和對比主流KT模型,在數據表征、認知遺忘、可解釋性方面展望了未來研究方向.
1? KT問題
2? 傳統(tǒng)KT方法
傳統(tǒng)KT方法主要基于概率模型,追蹤的過程可以劃分為基于BKT模型的方法和基于因素模型的方法.基于BKT模型的方法主要關注于學習者交互序列預測,而因素分析模型更加偏重于解釋KT過程中所涉及的各種學習因素.
基于模型的方法
BKT模型的目標是將學生的表現(可觀察的變量)映射到對知識水平(不可觀察或潛在變量)的估計,標準BKT模型建模過程中將知識點設置為“永不忘記”,并且假設一個題目只對應一個知識點.貝葉斯KT模型如圖1所示.
貝葉斯KT模型具有簡單易用、可解釋性強的優(yōu)勢,并且也是KT領域的經典方法.但是,貝葉斯KT模型并未考慮到不同學生的初始知識水平存在差異的情況,缺乏對于題目難度的建模與評估.另一方面,模型假定學生不存在遺忘的情況并不符合實際認知規(guī)律.除此之外,使用二元組表示知識狀態(tài)并不符合實際認知狀態(tài)情況,并且由于隱藏狀態(tài)和練習做題之間的映射關系較模糊,很難充分預測每個練習和具體知識概念的關系.
因素分析方法
因素分析方法是通過對學習者知識水平中的細粒度影響因子建模,預測答對的概率.CEN等認為一個好的認知模型應該能夠捕捉到課程中的細粒度知識點,提供合適的反饋和提示,選擇難度與學生個人相匹配的問題,最終提高學生的學習水平.CEN等提出了學習因素分析(LFA)相關模型,該模型的主要目的是從學生的學習數據中,尋找一個能夠量化因素的認知模型.LESZCZENSKI認為LFA是評估和比較許多潛在的學習認知模式的一種通用解決方案,并擴展了其在大型數據集上的應用.LFA繼承和發(fā)展了心理測量學中用于評估認知的矩陣,并擴展了學習曲線分析理論.LFA模型通過對認知模型空間進行啟發(fā)式搜索,使研究者可以評估一套知識點的不同認知表征方式,即同一組知識點會在不同學生身上表現出不同的因素依賴.傳統(tǒng)上基于邏輯回歸的LFA模型可以表示為:
為了探尋學習者數據中的時間序列特征,CEN等進一步提出了加性因素模型(AFM)模型,AFM模型可以應對KT過程中出現多個知識點的情況,可以連續(xù)漸進式地追蹤學習者的學習情況,能夠設計適合學習者的知識點難度系數和學習速率.PAVLIK等對AFM模型進行進一步的擴展,提出了績效因素分析(PFA)模型,PFA模型將學習者學習過程中的交互過程分為積極和消極兩個方面,AFM模型可被看作是PFA模型的一種特例.
因素分析方法在KT領域表現出了極強的可解釋性,能夠處理多種學習者特征.但大規(guī)模在線教育數據中數據維度太多,特征編碼和額外信息來源較為復雜,模型擬合難度也較高,相較于深度模型來說,潛力有限,無法做到真正的大規(guī)模、自適應且動態(tài)地追蹤.
3? KT過程分析
問題表征
3.1.1 知識關系
領域知識模型對應用領域的組成元素及其結構進行描述,表示內部各組成元素及其之間的相互關系,其組成主要包括語義網絡、層次結構、領域本體、知識圖譜等技術.知識圖譜是由Google在2012年為改善搜索引擎而提出的一個新的概念,可以將其簡單理解為多關系圖.在領域表示學習方面,目前的絕大多數研究都基于關聯(lián)主義學習理論,把精力聚焦于對通用知識圖譜的構建上.
知識點具有天然的圖關系屬性,近年來利用深度學習處理圖結構數據的圖神經網絡,受到了廣泛關注.NAKAGAWA等提出無預先知識圖結構的情況下,構建知識圖譜并進行KT的方法,并且該方法基于圖結構,提高了模型預測的可解釋性.TONG等引入了問題模式的概念,構造了一個分層的練習圖,可以對學習依賴關系進行建模,并采用兩種注意機制突出學習者的重要歷史狀態(tài).SCHLICHTKRULL等提出了基于關系圖卷積神經網絡(CNN)的知識圖譜構建方法.LI等在R-GCN的基礎上,利用學生互動過程,構建了“學生—互動—問題”網絡,提出了R2GCN模型,適用于異構情況下的網絡學習.YANG等提出了一種端到端的DKT框架,能夠利用“高階問題—技能”關系,緩解數據稀疏性和多知識點問題.
從認知維度出發(fā)構建認知圖譜,更能理解學習者學習過程,從而在認知層面對學習者進行建模.但是通過分析研究發(fā)現,以上大多數研究都集中在對表層學習概念和關系鏈接的表征上,缺乏關于實體重要性、隱性知識鏈接、隱性知識與顯性知識相互作用對學習能力的影響等方面的研究,并且對于自動構建認知圖譜缺乏相關的研究,還無法真正實現對學習者認知狀態(tài)的識別.
3.1.2 因素關系處理
深度學習技術逐步應用到了KT領域,IRT模型也被重新改造,以適應深度學習方式,通過融入學生能力狀態(tài),提升網絡性能.典型的實例有Deep-IRT,它是IRT模型與DKVMN模型的結合.HUANG等提出知識熟練度追蹤(KPT)模型和練習關聯(lián)的知識熟練度(EKPT)模型,應用于知識估計、分數預測和診斷結果可視化三個重要任務.VIE等綜合IRT,AFM,PFA等模型,提出了知識追蹤機(KTMs)框架,KTMs利用所有特征的稀疏權值集,對學習者答題結果的概率進行建模.
IRT模型特別是其衍生出的MIRT模型,存在的較大問題是模型有效訓練難度高,所以在實際中并不常用.從IRT到AFM以及PFA模型的演化過程,實質上是在逐步將學習者數據中的各種特征納入分析的過程,但是以因素分析為基礎的特征分析模型對于動態(tài)數據建模能力相對較弱,無法跟蹤學生的認知狀態(tài),對于大規(guī)模自適應學習缺乏足夠的技術支持.
3.1.3 學習者認知機制和遺忘機制
目前KT領域絕大多數模型都會關注到學習者的認知過程和知識遺忘過程,對這兩個維度高效建模是進行有效認知診斷的關鍵.WANG等提出了一種通用的神經認知診斷框架,摒棄人工特征,將神經網絡集成到復雜的非線性交互模型中,解決認知診斷問題,并且結合CNN,提出了Neural CDM+模型,通過自動提取系統(tǒng)中的知識點信息,補充知識點相關度矩陣,避免了主觀性甚至錯誤.
關于記憶研究方面,最為經典的是艾賓浩斯遺忘曲線,心理學家赫爾曼·艾賓浩斯通過一系列的測量實驗總結了遺忘規(guī)律,近似表示為指數函數,但艾賓浩斯曲線是建立在經驗之上的,并且測量的范圍相對寬泛.MURRE等通過數學證明了如果學習率的分布遵循伽瑪分布、均勻分布或半正態(tài)函數,冪函數為指數函數的平均結果,即在大規(guī)模的知識點學習過程中,學習過程的整體遺忘性規(guī)律可以被認為遵循冪函數分布.
DKT模型使用RNN一定程度上實現了對記憶過程模擬,但是仍然沒有真正意義上模擬人類思維習慣.LI等提出的學習與遺忘追蹤(LFKT)模型,在RNN的基礎上成功模擬了一定程度的思維遺忘機制;DKVMN模型通過類似于計算機內存管理的方式,建立知識記憶遺忘矩陣,在模型可解釋性上取得了很大的進步;GHOSH等提出的模型不僅在問題細分方面取得了進步,還在基于Transformer的模型框架上引入了注意力衰減機制,模擬全局遺忘行為,從而取得了較好的模型效果.總的來說,KT問題不能簡單地對學習者數據進行擬合,人的認知及遺忘過程是研究學習者知識掌握過程的關鍵因素.
3.2.1 基于RNN的KT
RNN是一種用來分析時間序列模型的網絡,其最大優(yōu)勢在于可以記憶前期輸入的相關信息,并利用其對當前問題進行判斷和輸出.DKT是一種利用RNN的KT方法.雖然BKT方法可以追蹤知識掌握程度,并且PFA等模型的性能表現更加優(yōu)秀,但DKT可自動提取練習標簽之間的關系并且追蹤學習過程中的時間信息,其性能和實驗結果明顯優(yōu)于之前的方法.
基于RNN的模型中,從學生劃分方面,MINN等提出了一種新的KT模型——基于動態(tài)學生分類的DKT(DKT-DSC),通過在每個時間間隔內將學生分組,預測學生的學習效果;YEUNG等在2017 ASSISTments Data Mining競賽中采用DKT進行知識狀態(tài)預測,證明了DKT模型在實際工作中的有效性.在習題方面,SU等通過追蹤學生的練習記錄和相應練習的文本內容,提出了一個通用的練習增強循環(huán)神經網絡(EERNN)框架,根據其知識水平預測成績.整體來講,基于RNN結構的追蹤模型在性能和可用性方面大幅度超越了傳統(tǒng)模型,但是在解釋性上略顯不足.
3.2.2 基于注意力機制的DKT
關于注意力機制的研究一直在進行.PANDEY等認為學習者完成當前練習的過程中,必然伴隨著對過去相關練習交互的回憶,通過注意力機制,可以在過去的交互序列中尋找到與當前問題相關的重點信息,從而做出更為準確的預測,并且證明了基于Transformer的模型比基于RNN的模型在運算速度上快了一個數量級.
基于Transformer的KT模型主要難點在于構造合適的Query,Key和Value值,以及選擇適合的注意力實現方法.CHOI 等將練習序列和回答序列分別進行編碼,從而尋找到了更為合適的Query,Key和Value值.SHIN等將經過時間、滯后時間兩個特征編碼與學生答題響應的編碼進行結合,從而增強了模型的預測精度.
3.2.3 基于Hawkes過程的DKT
大多數關于DKT的研究主要集中在時間特征和全局遺忘衰減上,對于不同知識點的時間交叉效應研究相對較少.MEI等在2017年提出可以利用Hawkes過程對長短期記憶(LSTM)節(jié)點的時間效應(遺忘效應)進行衰減處理.KT領域的學習者交互過程可以被看作是一系列的連續(xù)事件流,但是泊松過程假定事件相互獨立,并不符合多知識點狀態(tài)下學習者交互的邏輯.Hawkes過程則假設過去事件會在一定程度上提高未來事件發(fā)生的概率,并且這種影響會隨著時間指數衰減,這種思想比較符合認知遺忘規(guī)律下的學習者能力.WANG等在DKT領域引入Hawkes Process的模型,深入研究了不同知識點之間的時間交叉效應,并且提高了深度模型的可解釋性,從而使得基于KT模型反饋教學成為可能.HawkesKT的強度便于可視化,可為教育專家提供參考和完善意見.另外,由于模型本身無復雜的網絡結構,在訓練效率和參數解釋方面能體現顯著的優(yōu)勢.
DKT技術有效推動大規(guī)模在線動態(tài)追蹤學習者能力的研究進展,并且由于深度模型本身具有高度的擬合能力,使得深度模型在大規(guī)模數據集上表現出了比傳統(tǒng)模型更好的性能和準確度,大幅度提升了KT模型的可用性.但目前KT領域的研究不僅僅追求模型精確度,對于模型的可解釋性、泛化能力也提出了更高的要求.DKT技術雖然對比早期技術有明顯的進步,但是缺乏對于學習者記憶能力、學習風格、認知能力等的進一步探索,并且未全面考量學習者認知狀態(tài)在復雜在線教育環(huán)境中對于KT的影響.
3.2.4 主要深度模型對比
從傳統(tǒng)基于隱馬爾可夫過程的KT到DKT,KT領域的研究經歷了巨大的變革,本節(jié)將對KT領域有代表性的深度模型進行對比分析.
從模型輸入方面來看,基于RNN的DKT模型普遍使用學習者編號、習題號
和知識點
編號作為模型的輸入.以Transformer結構為基礎的模型則偏向于向輸入中添加知識點內容、學習者交互序列等內容.大多數基于注意力機制的模型通過尋找學習者與問題交互過程、知識點關系等的內在注意力關聯(lián)提升模型性能.而基于Hawkes Process的KT模型在輸入方面更關注時間序列和交互序列,通過研究時間交叉效應,在記憶模擬方面取得進展.
模型輸出方面,目前KT模型不僅要求模型輸出成績預測,還對模型可解釋性輸出提出了更高的要求,DKT模型并未做出突破性進展.DKVMN模型作為對DKT模型的擴展,在可解釋性方面做出了突破,可以觀察到練習題所需要的技能標簽.以Transformer結構為基礎的KT模型得益于注意力機制,可以通過可視化注意力表示出結構性的反饋意見,從而為學習者提供有效的幫助.而HawkesKT的核心出發(fā)點參數是高度可解釋的,通過對模型參數的可視化,還可以在大量技能之間找到關聯(lián),適用于在線和傳統(tǒng)教育場景.記憶衰減處理方式是KT的核心問題之一.基于LSTM模型的KT模型主要依賴于網絡結構,保持和遺忘所提取的輸入數據部分特征,擬合學生學習過程,從而做出預測,但是通過門控方式實現的記憶留存并不符合學習者實際記憶過程.DKVMN以記憶增強網絡為基礎,通過結構化模型模擬邏輯流控制,以類似計算機內存管理技術的方式實現記憶留存,但是這種模式過于機械化,并且對于不同學習者的學習速率無法進行很好的量化.基于注意力機制的模型逐步關注記憶力衰減機制在KT任務中的作用,但是絕大多數模型的工作都集中在整體記憶衰減方面,缺乏對知識點尺度甚至問題尺度上記憶過程的探索.HawkesKT方法在知識點尺度上的交叉效應方面取得了突破,但是其對記憶衰減的模擬上依然以指數分布曲線為主.
4? 分析與展望
本文作者對比討論了目前主流的KT模型,分析了主流模型的優(yōu)缺點.目前的研究主要針對知識點與題目間的關系進行建模,很少有研究從模型效果評價指標、學習潛力預測、深度記憶過程模擬等方面進行知識狀態(tài)追蹤和預測,同時也較少有對多知識點關系建模方法進行知識狀態(tài)追蹤的研究.通過分析KT領域目前主流的模型,梳理出KT領域未來的發(fā)展方向,從數據表征、認知建模、建模方法、解釋及反饋方面對KT領域進行展望.
1) 數據處理及數據表征.KT模型在運用輸入數據方面越來越需要預處理、預訓練操作.預訓練模型在序列任務上表現出了良好的性能,采用可解釋性較強的算法預處理輸入數據變得越來越重要.比如使用Rasch編碼預處理輸入數據后,再進行注意力運算和模型預測,在模型性能和可解釋性方面都取得了很好的效果.在數據特征方面,引入學習者生物特征、更加豐富的習題特征都是未來重要的突破方向,KT模型應該向更高維度、更普適、更泛化的方向發(fā)展,如何對學習者的非結構性學習數據進行追蹤也是重要的發(fā)展方向.
2) 認知建模.認知診斷和KT分別應用于學習者靜態(tài)數據分析和動態(tài)數據分析,但KT模型內不應缺乏對學習者認知能力的建模.對于問題維度、知識點維度的建模不足以擬合學習者的知識狀態(tài)變化,應在此基礎上進一步對認知維度進行建模,從而在更高的維度上追蹤學習者的狀態(tài)變化情況.
3) 模型方法及可解釋性.自從DKT被提出以來,KT領域內的模型基本以深度模型為主,但越來越多的工作表明DKT無法做到真正的動態(tài)自適應KT.基于RNN的模型在數據擬合能力上逐步被以注意力機制為核心的Transformer類模型超越,未來KT領域建模方法應該在注意力方向、圖譜方向進一步發(fā)展.人腦記憶的形成過程中,人自身的注意力是重要的一環(huán),這也是基于注意力機制模型結合遺忘建模取得不錯效果的關鍵原因.知識圖譜作為非結構化知識表征的重要手段,在KT領域有更進一步的潛力,并且對于認知能力研究也可以加入圖譜技術,從而在可解釋性KT方向取得突破.
5? 總結
自新冠疫情爆發(fā)以來,在線教育行業(yè)需求愈發(fā)旺盛,對海量教育數據的學習者數據分析變得愈發(fā)重要,從數據中追蹤學習者認知能力、知識水平、學習狀態(tài)、心理變化等是自適應式、動態(tài)反饋式學習環(huán)境構建的基礎性任務.
KT技術通過分析海量學習者的學習數據,能為學習者開發(fā)個性化學習方式,提供準確學習行為評估.本文作者梳理了KT領域的經典模型,分別從傳統(tǒng)KT理論到DKT模型兩個大方面進行剖析,并以數據處理、學習者內在因素、模型可解釋性及可反饋性方面進行詳細梳理和分析,對KT未來方向進行了探究.
參考文獻:
[1]? HUO Y, WONG D F, NI L M, et al. Knowledge modeling via contextualized representations for LSTM?based personalized exercise recommendation [J]. Information Sciences,2020,523:266-278.
[2]? JIANG Q, ZHAO W, LI S, et al. Research on the mining of precise personalized learning path in age of big data: analysis of group learning behaviors based on AprioriAll [J]. e?Education Research,2018,39(2):45-52.
[3]? PIECH C, SPENCER J, HUANG J, et al. Deep knowledge tracing [J]. Computer Science,2015,3(3):19-23.
[4]? YE Y W, LI F M, LIU Q Q, et al. Incorporating the variables of forgetting and data volume into knowledge tracing model: how does it impact prediction accuracy? [J]. Distance Education in China,2019(8):20-26.
[5]? ZHAO J, BHATT S, THILLE C, et al. Interpretable personalized knowledge tracing and next learning activity recommendation [C/OL]// Proceedings of the Seventh ACM Conference on Learning@Scale. New York: Association for Computing Machinery,2020:325-328[2022-01-15]. https://doi.org/10.1145/3386527.3406739.
[6]? VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need [C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook: Curran Associates,2017:6000-6010.
[7]? KONG W L, HANG S Y, ZHAO S L. Construction of adaptive learning path supported by artificial intelligence [J]. Modern Distance Education Research,2020,32(3):94-103
[8]? CHOI Y, LEE Y, SHIN D, et al. Ednet: a large?scale hierarchical dataset in education [J/OL]. [2022-01-08]. http://arxiv.org/abs/1912.03072.
[9]? MANRIQUE R F, CAMILO E L G, LEON E. Student modeling via Bayesian knowledge tracing: a case study [C]//Computing Congress (CCC), 2014 9th Colombian. [S.l.:s.n.],2014:1-6.
[10] CEN H, KOEDINGER K, JUNKER B. Learning factors analysis?a general method for cognitive model evaluation and improvement [C]// International Conference on Intelligent Tutoring Systems. Taiwan: Springer,2006:164-175.
[11] LESZCZENSKI J M. Learning factors analysis learns to read [D]. Pittsburgh: Carnegie Mellon University,2007.
[12] PAVLIK P I, CEN H, KOEDINGER K. Performance factors analysis: a new alternative to knowledge tracing [C]//Proceedings of the 2009 conference on Artificial Intelligence in Education. Amsterdam: ACM,2009:531-538.
[13] MA X C, ZHONG S C, XU D. Research on support model and implementation mechanism of personalized adaptive learning system from the perspective of big data [J]. China Educational Technology,2017(363):97-102.
[14] GORI M, MONFARDINI G, SCARSELLI F. A new model for learning in graph domains [C]// 2005 IEEE International Joint Conference on Neural Networks. Montreal: IEEE,2005:729-734.
[15] NAKAGAWA H, IWASAWA Y, MATSUO Y. Graph?based knowledge tracing: modeling student proficiency using graph neural network [C]// IEEE/WIC/ACM International Conference on Web Intelligence. Thessaloniki: IEEE,2019: 156-163.
[16] TONG H, WANG Z, LIU Q, et al. HGKT: introducing hierarchical exercise graph for knowledge tracing [J/OL]. [2022-01-10].https:∥arxiv.org/abs/2006.16915.
[17] SCHLICHTKRULL M, KIPF T N, BLOEM P, et al. Modeling relational data with graph convolutional networks [C]//GANGEMI A, NAVIGLI R, VIDAL M E, et al. The Semantic Web. Cham: Springer International Publishing,2018: 593-607.
[18] LI H, WEI H, WANG Y, et al. Peer?inspired student performance prediction in interactive online question pools with graph neural network [C/OL]// CIKM’20: Proceedings of the 29th ACM International Conference on Information & Knowledge Management. New York: Association for Computing Machinery,2020:2589-2596[2022-01-15]. https://doi.org/10.1145/3340531.3412733.
[19] YANG Y, SHEN J, QU Y, et al. Gikt: a graph?based interaction model for knowledge tracing [C]// HUTTER F, KERSTING K, LIJFFIJT J, et al. Machine learning and knowledge discovery in databases. Cham: Springer International Publishing,2021:299-315.
[20] GHOSH A, HEFFERNAN N, LAN A S. Context-aware attentive knowledge tracing [C/OL]// Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: Association for Computing Machinery,2020:2330-2339[2022-01-15]. https://doi.org/10.1145/3394486.3403282.
[21] HARVEY R J, HAMMER A L. Item response theory [J]. Counseling Psychologist,1999,27(3):353-383.
[22] HOLSTER T A, LAKE J. Guessing and the Rasch model [J/OL]. Language Assessment Quarterly,2016,13(2):124-141[2022-01-15].https://doi.org/10.1080/15434303.2016.1160096.
[23] YEUNG C K. Deep?IRT: make deep learning based knowledge tracing explainable using item response theory [J/OL]. [2022-01-15]. https:∥arxiv.org/abs/190411738.
[24] ZHANG J, SHI X, KING I, et al. Dynamic key?value memory networks for knowledge tracing [C]// International Conference on World Wide Web. Geneva: Association for Computing Machinery,2017:765-774.
[25] HUANG Z, LIU Q, CHEN Y, et al. Learning or forgetting?A dynamic approach for tracking the knowledge proficiency of students [J]. ACM Transactions on Information Systems (TOIS),2020,38(2):1-33.
[26] VIE J J, KASHIMA H. Knowledge tracing machines: factorization machines for knowledge tracing [J/OL]. Proceedings of the AAAI Conference on Artificial Intelligence,2019,33(1):750-757[2022-01-15]. https://ojs.aaai.org/index.php/AAAI/article/view/3853.DOI:10.1609/aaai.v33i01.3301750.
[27] WANG F, LIU Q, CHEN E, et al. Neural cognitive diagnosis for intelligent education systems [J/OL]. Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(4):6153-6161[2022-01-15]. https://ojs.aaai.org/index.php/AAAI/article/view/6080.DOI:10.1609/aaai.v34i04.6080.
[28] MURRE J, CHESSA A G. Power laws from individual differences in learning and forgetting: mathematical analyses [J]. Psy?chonomic Bulletin and Review,2011,18(3):592-597.
[29] LINDSEY R V, SHROYER J D, PASHLER H, et al. Improving students’ long?term knowledge retention through personalized review [J/OL]. Psychological Science,2014,25(3):639-647[2022-01-15]. https://doi.org/10.1177/0956797613504302.
[30] LI Z, ZHOU D D, WANG Y. Research of educational knowledge graph from the perspective of “Artificial Intelligence+”: connotation, technical framework and application [J]. Journal of Distance Education,2019,37(4): 42-53.
[31] MINN S, YU Y, DESMARAIS M C, et al. Deep knowledge tracing and dynamic student classification for knowledge tracing [C/OL]// 2018 IEEE International Conference on Data Mining (ICDM). 2018:1182-1187.DOI:10.1109/ICDM.2018.00156.
[32] YEUNG C, LIN Z Z, YANG K, et al. Incorporating features learned by an enhanced deep knowledge tracing model for stem/non-stem job prediction [J]. International Journal of Artificial Intelligence in Education,2019,29(3):317-341.
[33] SU Y, LIU Q, LIU Q, et al. Exercise?enhanced sequential modeling for student performance prediction [J/OL]. Proceedings of the AAAI Conference on Artificial Intelligence,2018,32(1):2435-2443[2022-01-15]. https://ojs.aaai.org/index.php/AAAI/article/view/11864.
[34] PANDEY S, KARYPIS G. A self?attentive model for knowledge tracing [C]// International Conference on Education Data Mining. Montreal: Word Press,2019:1-6.
[35] CHOI Y, LEE Y, CHO J, et al. Towards an appropriate query, key, and value computation for knowledge tracing [C]//Proceedings of the Seventh ACM Conference on Learning@Scale. New York: Association for Computing Machinery, 2020:341-344.
[36] SHIN D, SHIM Y, YU H, et al. Saint+: integrating temporal features for EdNet correctness prediction [C/OL]// 11th International Learning Analytics and Knowledge Conference. New York: Association for Computing Machinery,2021:490-496[2022-01-15]. https://doi.org/10.1145/3448139.3448188.
[37] MEI H, EISNER J. The neural Hawkes process: a neurally self?modulating multivariate point process [C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook: Curran Associates,2017:6757-6767.
[38] WANG C, MA W, ZHANG M, et al. Temporal cross?effects in knowledge tracing [C/OL]// Proceedings of the 14th ACM International Conference on Web Search and Data Mining. New York: Association for Computing Machinery, 2021:517-525[2022-01-15]. https://doi.org/10.1145/3437963.3441802.
(責任編輯:包震宇,郁慧)