謝振平 金 晨 劉 淵
(江南大學(xué)數(shù)字媒體學(xué)院 江蘇無錫 214122)
(江蘇省媒體設(shè)計與軟件技術(shù)重點實驗室(江南大學(xué)) 江蘇無錫 214122)
(xiezhenping@hotmail.com)
近年來,隨著無線網(wǎng)絡(luò)和移動寬帶互聯(lián)網(wǎng)的快速發(fā)展,以及成熟的便攜式移動設(shè)備的大量涌現(xiàn),在線學(xué)習(xí)已越來越成為一種重要的知識學(xué)習(xí)方式[1-2].在線學(xué)習(xí)具有學(xué)習(xí)資源廣泛、資源更新及時、學(xué)習(xí)方式便捷等特點.然而互聯(lián)網(wǎng)上的海量學(xué)習(xí)資源在給用戶帶來便捷學(xué)習(xí)的同時也造成了“認(rèn)知過載”、“知識碎片化”等困惑[3].如何幫助不同學(xué)習(xí)者從海量的學(xué)習(xí)資源中找到個體所需的資源已成為一個巨大的挑戰(zhàn),在其中引入個性化推薦技術(shù)是一個必然的選擇[3-10].
傳統(tǒng)個性化推薦的主要目標(biāo)是通過分析用戶信息和項目信息,獲取用戶興趣偏好,從而為用戶推薦感興趣的項目,主要技術(shù)包括基于內(nèi)容的推薦[11-12]、協(xié)同過濾推薦[13]、基于規(guī)則的推薦[14-15]等.這些技術(shù)在電子商務(wù)和社交媒體領(lǐng)域具有較高的適用性,并已取得了大量的成功應(yīng)用;但在個性化知識推薦學(xué)習(xí)方面,相關(guān)研究與應(yīng)用還較少,而直接使用現(xiàn)有推薦算法將面臨2個問題:
1) 推薦產(chǎn)生的知識序列缺乏連續(xù)性.分析人類知識學(xué)習(xí)過程可知,較好的系統(tǒng)性和連續(xù)性是個性化知識學(xué)習(xí)序列的基本要求,而現(xiàn)有的推薦方法在每次推薦新項目時通常考慮為獨立的過程,對于推薦結(jié)果序列的系統(tǒng)性和連續(xù)性較少關(guān)注.
2) 知識需求分析片面化.個性化知識推薦的目的是幫助用戶學(xué)習(xí)新知識,彌補知識缺陷,知識需求分析應(yīng)主要依據(jù)用戶當(dāng)前知識水平和目標(biāo)知識體系.現(xiàn)有個性化推薦方法在分析用戶推薦需求時,缺少這方面的考慮,難以充分挖掘用戶的實際知識需求.
另一方面,建構(gòu)主義學(xué)習(xí)理論[16-17]認(rèn)為,人類知識學(xué)習(xí)本質(zhì)上是一個知識建構(gòu)過程,個體通過自身原有的知識經(jīng)驗建構(gòu)生成新的知識;如用戶在學(xué)習(xí)了知識A,B,C的基礎(chǔ)上能夠根據(jù)三者的內(nèi)在邏輯結(jié)構(gòu)建構(gòu)理解新知識D.為此,本文提出一種基于建構(gòu)學(xué)習(xí)理論的個性化知識推薦模型——建構(gòu)推薦模型.建構(gòu)推薦模型采用知識網(wǎng)絡(luò)建模用戶所需的知識系統(tǒng),基于知識網(wǎng)絡(luò)的邊信息存儲知識間的建構(gòu)關(guān)系,據(jù)此結(jié)合用戶已學(xué)知識內(nèi)容,引入支撐度最大優(yōu)先的隨機游走推薦算法,連續(xù)地推薦產(chǎn)生最佳知識學(xué)習(xí)序列.
基于內(nèi)容的推薦[11-12](content-based recomm-endation, CBR)是最早被提出的一種推薦技術(shù),算法通常包括3個步驟:1)為資源庫中每一個資源抽取特征項作為資源特征;2)分析用戶過去喜好的資源,從中學(xué)習(xí)出這些資源的特征作為用戶喜好特征;3)通過計算用戶喜好特征和候選資源特征的相似度,為用戶推薦相似度高的一組資源.CBR算法的優(yōu)點是準(zhǔn)確度高,不依賴大量的用戶群,新資源不存在冷啟動問題;缺點是特征抽取困難,局限于文本資源的推薦,并且很難挖掘用戶潛在興趣.
協(xié)同過濾推薦[13](collaborative filtering reco-mmendation, CFR)通常分為2類:基于用戶的協(xié)同過濾[18-20](user-based collaborative filtering, UBCF)和基于項目的協(xié)同過濾[21-22](item-based collaborative filtering, IBCF).基于用戶的協(xié)同過濾首先尋找與目標(biāo)用戶有相似興趣的用戶,然后根據(jù)相似用戶對項目的評分來預(yù)測目標(biāo)用戶對未知項目的評分,將評分高的項目推薦給目標(biāo)用戶.基于項目的協(xié)同過濾則是根據(jù)用戶對項目的評分?jǐn)?shù)據(jù)來分析項目之間的相似性,并將那些與用戶之前喜歡的項目相似度高的項目推薦給用戶.CFR算法的優(yōu)點是適用性廣,主要依據(jù)用戶對資源的評分,與資源的形式無關(guān),因此理論上CFR算法適用于任何資源的推薦.協(xié)同過濾推薦的缺點也很明顯,由于過分依賴用戶評分?jǐn)?shù)據(jù),導(dǎo)致新資源和新用戶存在冷啟動問題,并且通常用戶評分項目較少,導(dǎo)致用戶評分矩陣稀疏,造成相似性計算誤差大,影響最終推薦的準(zhǔn)確度.
關(guān)聯(lián)規(guī)則的推薦[14-15](rule-based recommen-dation, RBR)關(guān)鍵在于挖掘不同資源項之間可能存在的價值關(guān)聯(lián)項,然后基于已有的關(guān)聯(lián)規(guī)則為用戶推薦可能感興趣的資源.關(guān)聯(lián)規(guī)則的挖掘一般分為2個步驟:1)通過分析用戶與資源項之間的歷史數(shù)據(jù)生成所有的頻繁項集;2)通過計算支持度、置信度、提升度來提取強關(guān)聯(lián)規(guī)則.RBR算法的主要不足之處在于:規(guī)則制定費時費力,規(guī)則一旦生成不能自動更新.
建構(gòu)主義[16-17]源自瑞士著名心理學(xué)家皮亞杰(Jean Piaget)創(chuàng)立的關(guān)于兒童認(rèn)知發(fā)展理論,他堅持從內(nèi)因和外因相互作用的觀點來研究兒童認(rèn)知發(fā)展,他認(rèn)為兒童是通過與周圍環(huán)境的不斷相互作用來逐步建構(gòu)對外部環(huán)境的認(rèn)識.他提出,知識并非單純地來自主體或者客體,而是在雙方相互作用的過程中生成的.主體獲得新經(jīng)驗需要自身原有的經(jīng)驗基礎(chǔ),而新經(jīng)驗的獲得又能使原有經(jīng)驗得到更新和完善.從這一角度看,人類學(xué)習(xí)的本質(zhì)是一個主動建構(gòu)知識的過程,而不是被動地接受信息的過程.
明顯地,個性化知識推薦服務(wù)目標(biāo)與建構(gòu)主義學(xué)習(xí)理論有著天然的本質(zhì)聯(lián)系,后者應(yīng)能較好地指導(dǎo)個性化知識推薦方法的設(shè)計實現(xiàn),使得用戶能更輕松且高效地獲得新知識.
Fig. 2 Term extraction process圖2 術(shù)語抽取流程
本文將建構(gòu)主義學(xué)習(xí)理論引入到知識推薦系統(tǒng)中,提出一種新的個性化知識推薦方法——建構(gòu)推薦模型,其中主要考慮2個問題:1)如何表示用戶當(dāng)前知識經(jīng)驗;2)如何基于已有的知識經(jīng)驗推出下一時刻最適合建構(gòu)學(xué)習(xí)的新知識.本文考慮基于知識網(wǎng)絡(luò)圖覆蓋的形式幫助用戶逐步建構(gòu)學(xué)習(xí)來完善自身的知識,并提出知識的可學(xué)習(xí)支撐度來評估用戶對新知識的可學(xué)習(xí)建構(gòu)優(yōu)先級.
設(shè)計考慮的建構(gòu)推薦模型如圖1所示,主要由2部分構(gòu)成:知識網(wǎng)絡(luò)模塊和建構(gòu)推薦模塊.知識網(wǎng)絡(luò)[23-24]是一個具有節(jié)點間互聯(lián)關(guān)系的知識環(huán)境,節(jié)點代表知識單元,邊表示知識單元之間的相關(guān)關(guān)系.知識網(wǎng)絡(luò)的構(gòu)建包括:知識術(shù)語抽取、詞向量模型以及通過語義距離的約束生成知識網(wǎng)絡(luò).這樣,用戶知識背景可認(rèn)為是知識網(wǎng)絡(luò)的一個子結(jié)構(gòu),表示用戶已學(xué)習(xí)的知識子系統(tǒng).模型框架的另一個核心是建構(gòu)推薦模塊,主要任務(wù)是通過知識網(wǎng)絡(luò)建立用戶已有知識與需求知識間的邏輯關(guān)聯(lián),并分析用戶知識需求,為用戶推薦最具建構(gòu)學(xué)習(xí)價值的新知識.
Fig. 1 Framework of the proposed constructive recommendation model圖1 建構(gòu)推薦模型框架
建構(gòu)推薦模型的知識網(wǎng)絡(luò)構(gòu)建過程包含3個步驟:1)通過術(shù)語抽取技術(shù)自動識別領(lǐng)域知識術(shù)語;2)采用詞向量工具為每個知識術(shù)語訓(xùn)練生成一個實數(shù)向量;3)通過獲取的實數(shù)向量計算知識術(shù)語之間的語義關(guān)系,從而建立知識之間的結(jié)構(gòu)關(guān)聯(lián).
2.1.1 知識術(shù)語抽取
知識術(shù)語抽取的主要任務(wù)是從特定領(lǐng)域的文本語料中自動識別完整獨立的知識術(shù)語,每一個知識術(shù)語表示一個知識概念.知識術(shù)語抽取具體流程如圖2所示:首先獲取特定領(lǐng)域的一定量的文本語料,通過分詞、去除停用詞進(jìn)行語料預(yù)處理,將預(yù)處理的字串重新組合生成候選術(shù)語;然后通過信息熵和詞頻分布篩選候選術(shù)語[25].其中,信息熵[26]用于計算候選術(shù)語在語料中左右邊界的穩(wěn)定性,以判斷相應(yīng)術(shù)語的獨立成詞程度;詞頻分布通過計算候選術(shù)語的詞頻來區(qū)分普通詞和領(lǐng)域術(shù)語,通常地,領(lǐng)域術(shù)語在相關(guān)領(lǐng)域出現(xiàn)的頻率較高,在不相關(guān)領(lǐng)域出現(xiàn)的頻率較低[25].實際中,可結(jié)合信息熵和詞頻為每個候選術(shù)語生成一個綜合權(quán)重,按權(quán)重大小排序,選取權(quán)重大的前T個候選術(shù)語作為最終知識術(shù)語.
2.1.2 詞向量模型
詞向量模型是神經(jīng)網(wǎng)絡(luò)在自然語言處理領(lǐng)域應(yīng)用的產(chǎn)物,最早由Hinton于1986年提出.詞向量的核心思想是通過文本語料訓(xùn)練,將每個詞映射成一個高維的實數(shù)向量,然后通過計算向量之間的距離可直觀描述詞與詞之間存在的語義關(guān)系.目前詞向量已經(jīng)廣泛應(yīng)用在文本情感分類[27]、情感新詞發(fā)現(xiàn)[28]、詞義消歧[29]等自然語言處理領(lǐng)域.
本文采用Word2Vec工具[30-32]訓(xùn)練詞向量.Word2Vec中包含2個重要模型:CBOW模型和Skip-gram模型[30-31].這2個模型的區(qū)別在于:前者是在已知上下文的基礎(chǔ)上預(yù)測當(dāng)前詞;而后者是在已知當(dāng)前詞的基礎(chǔ)上預(yù)測上下文.每個模型均有2套框架,分別基于Hierarchical Softmax和Negative Sampling來設(shè)計實現(xiàn).與Hierarchical Softmax相比,Negative Sampling不使用復(fù)雜的Huffman樹,而是利用相對簡單的隨機負(fù)采樣,能提高訓(xùn)練速度并改善詞向量的質(zhì)量.綜合地,本文采用基于Negative Sampling的CBOW模型來訓(xùn)練詞向量.如圖3所示,CBOW模型包括輸入層、投影層和輸出層,工作原理是通過輸入上下文n個詞來預(yù)測當(dāng)前詞Wt出現(xiàn)的概率.本文實驗中設(shè)置n=4,輸入經(jīng)過術(shù)語識別的分詞語料,最終為每個術(shù)語訓(xùn)練生成一個200維的實數(shù)向量.
Fig. 3 CBOW term vector model圖3 詞向量模型示意圖
2.1.3 知識網(wǎng)絡(luò)構(gòu)建
基于獲得的每個知識術(shù)語所對應(yīng)的詞向量,可通過詞向量間的數(shù)學(xué)運算來計算知識之間可能存在的知識關(guān)系,并將有效的知識關(guān)系進(jìn)行存儲,最終建立一個完整的知識網(wǎng)絡(luò).
建構(gòu)推薦模型的知識網(wǎng)絡(luò)構(gòu)建流程如圖4所示,知識網(wǎng)絡(luò)構(gòu)建遵循近鄰優(yōu)先原則,即知識庫中T個知識分別尋找語義距離最近的M個知識為其近鄰知識,并進(jìn)行記憶存儲構(gòu)成知識關(guān)系,則總的邊關(guān)系數(shù)量為T×M個.通常,M值太小會丟失必要的近鄰知識關(guān)系,降低知識網(wǎng)絡(luò)的整體連通性,無法有效表達(dá)目標(biāo)知識系統(tǒng);而M值過大只會增加知識網(wǎng)絡(luò)冗余度,并且增加推薦計算效率,對知識網(wǎng)絡(luò)的整體連通性提升價值有限.結(jié)合小世界網(wǎng)絡(luò)理論和實驗分析,本文考慮M=10.
Fig. 4 Knowledge network building process of constructive recommendation model圖4 建構(gòu)推薦模型的知識網(wǎng)絡(luò)構(gòu)建流程
圖5所示為一個建構(gòu)推薦模型的知識網(wǎng)絡(luò)結(jié)構(gòu)實例,圓點表示知識,有向邊表示近鄰知識關(guān)系.
Fig. 5 An example of knowledge network structure of constructive recommendation model圖5 建構(gòu)推薦模型的知識網(wǎng)絡(luò)結(jié)構(gòu)實例
上述方法構(gòu)建的知識網(wǎng)絡(luò)具有3個特征:
1) 近鄰關(guān)系是單向的,即若b是a的近鄰知識,a不一定是b的近鄰知識.
2)a的所有近鄰知識總數(shù)為a的入度,近鄰知識包含a的知識總數(shù)為a的出度,任何一個知識節(jié)點的入度固定為M,出度則不固定.
3) 知識網(wǎng)絡(luò)中任意2個知識節(jié)點a,b間的連接關(guān)系有4種情況:兩者互為近鄰知識關(guān)系;兩者無直接近鄰關(guān)系;一方是另一方的近鄰知識,但反之則不是.
此外,一個良好的知識網(wǎng)絡(luò)在不考慮連接邊的方向性時應(yīng)該具有較強的全連通性.
建構(gòu)推薦的主要任務(wù)是結(jié)合知識網(wǎng)絡(luò)分析用戶知識需求,從而為用戶生成語義連續(xù)的推薦序列.建構(gòu)推薦模塊主要包括候選推薦知識提取和候選知識排序輸出2個部分.候選推薦知識考慮從最近學(xué)習(xí)知識序列的關(guān)聯(lián)知識中提取不超過N個的未學(xué)知識;候選知識排序輸出推薦引入支撐度指標(biāo)作為排序量.為此,首先引入關(guān)于支撐知識的定義.
定義1. 知識支撐關(guān)系.設(shè)知識b與a存在近鄰關(guān)系,且設(shè)b是a的top-M近鄰,記作a←b,則稱b是a的支撐知識,也稱a是b的外延知識.
進(jìn)一步,可設(shè)知識a的所有支撐知識構(gòu)成的集合為a的支撐知識集,記為Sa.如圖6所示,知識t的支撐知識集為St.
Fig. 6 An example of knowledge network substructure圖6 知識網(wǎng)絡(luò)子結(jié)構(gòu)示例
進(jìn)一步引入支撐度概念,表示用戶當(dāng)前已學(xué)知識對新知識的直接可建構(gòu)程度.例如“營養(yǎng)素”的支撐知識集為“蛋白質(zhì)”、“脂肪”、“碳水化合物”、“維生素”、“纖維素”等,用戶對支撐知識的掌握體現(xiàn)了建構(gòu)理解“營養(yǎng)素”的能力,本文引入支撐度概念量化描述這種能力.任一知識t相對于用戶當(dāng)前狀態(tài)的支撐度記為Wsp(t),具體定義如下:
(1)
(2)
建構(gòu)主義學(xué)習(xí)理論的核心在于建構(gòu)認(rèn)知,學(xué)習(xí)者通過已掌握知識建構(gòu)獲得新知識.相應(yīng)地,引入如圖7所示的建構(gòu)推薦策略.同樣地,圖7中實心圓點表示已學(xué)知識,線條圓點表示候選知識,空心圓點表示其他知識;實線表示已經(jīng)建構(gòu)的知識關(guān)系,虛線表示未建構(gòu)學(xué)習(xí)的知識關(guān)系.
圖7(a)表示一次知識推薦的開始狀態(tài),圖7(b)(c)(d)分別表示候選推薦知識選擇、候選知識推薦排序以及推薦知識學(xué)習(xí)后的更新結(jié)果.圖7(a)中有2個知識為已學(xué)知識,其他均為未學(xué)知識,它們之間基于知識網(wǎng)絡(luò)關(guān)系構(gòu)成一個整體.
如圖7(b)所示,候選推薦知識選擇考慮從已學(xué)知識的直接相關(guān)但還未學(xué)的知識中選取,其中直接相關(guān)知識包括支撐知識和外延知識.候選知識選擇按2個優(yōu)先次序進(jìn)行選?。鹤罱鼘W(xué)習(xí)知識的關(guān)聯(lián)知識為第1優(yōu)先選擇,而同一已學(xué)知識的不同關(guān)聯(lián)知識則按最短距離優(yōu)先選擇.同時考慮實際應(yīng)用需要,引入最大候選知識容量參數(shù)N,即每次按上述方法選擇的最大候選知識項數(shù)不超過N.
如圖7(c)所示,候選知識推薦排序?qū)λ幸堰x擇的候選知識項按未學(xué)知識的支撐度從大到小排序,并優(yōu)先推薦給出支撐度較大的候選項作為推薦結(jié)果.不失一般性,可考慮推薦結(jié)果為排序結(jié)果的top-K輸出,即輸出排序靠前的K個候選知識項作為推薦選項,供用戶選擇.
最后,如圖7(d)所示,用戶選擇一個推薦項(圖中為用戶選擇了排序第1的知識項)進(jìn)行學(xué)習(xí)后形成了新的已學(xué)知識狀態(tài)(同圖7(a)相似的狀態(tài)結(jié)構(gòu)).
Fig. 7 The diagram of constructive recommendation strategy圖7 建構(gòu)推薦策略過程示意圖
基于上述建構(gòu)主義推薦策略,進(jìn)一步對建構(gòu)推薦算法過程進(jìn)行具體描述.算法輸入為用戶初始背景知識,然后連續(xù)地推薦給出用戶最具學(xué)習(xí)價值的top-K個學(xué)習(xí)知識項,用戶選擇其中一個知識學(xué)習(xí)后形成新的背景知識,如此不斷迭代,用戶知識得到漸進(jìn)增長.
算法1. 個性化知識學(xué)習(xí)的建構(gòu)推薦算法.
輸入:用戶初始背景知識U={t1,t2,…,tL}.
過程:
①Cn={c,Wsp|Cn=?},i=1;
② while |Cn| ③C=getCandNeib(ti); ④ ifisempty(C)==TRUE then ⑤i=i+1; ⑥ else ⑦ 根據(jù)式(1)計算Wsp(c)|c∈C,addToCn(c,Wsp(c)),i=i+1; ⑧ end if ⑨ end while ⑩ 根據(jù)支撐度Wsp對Cn降序排序; 算法1中,Cn={c,Wsp}表示當(dāng)前候選知識項集合,getCandNeib()表示獲取某個知識節(jié)點的未學(xué)習(xí)且不在Cn中的最近直接相關(guān)知識(包括支撐知識和外延知識),addToCn()表示將一個新的候選知識和相應(yīng)的支撐度值構(gòu)成的元素項加入當(dāng)前候選知識項集合Cn,步驟⑩中的排序操作表示對Cn中的項按每個項的支撐度值從大到小排序. 在建構(gòu)推薦模型中,若將模型中的候選項排序指標(biāo)“支撐度最大優(yōu)先”替換為“距離最小優(yōu)先”,則相應(yīng)的模型將等價于某種基于內(nèi)容的個性化推薦模型.由此,知識網(wǎng)絡(luò)上的基于內(nèi)容相似的個性化推薦模型同樣可直接用于個性化學(xué)習(xí)知識推薦,本文也將此方法作為參照,在實驗研究中進(jìn)行比較分析.另一方面,相比于協(xié)同過濾推薦算法,建構(gòu)推薦模型由于直接基于知識網(wǎng)絡(luò)進(jìn)行用戶知識需求分析,避免了冷啟動問題和用戶歷史數(shù)據(jù)稀疏的問題. 進(jìn)一步分析本文中模型的復(fù)雜度.假設(shè)在建構(gòu)推薦算法中,已學(xué)習(xí)知識數(shù)為T,候選知識項集合容量為N,則算法主要時間復(fù)雜度體現(xiàn)在步驟③和步驟⑦,每執(zhí)行1次語句認(rèn)為檢索1次數(shù)據(jù)庫,步驟③表示獲取某個知識節(jié)點未學(xué)習(xí)的最近直接相關(guān)知識,最大循環(huán)次數(shù)為T,步驟⑦表示計算候選知識支撐度,最大循環(huán)次數(shù)為N,則算法的時間復(fù)雜度可表示為O(T+N).相對地,最大相似度優(yōu)先排序推薦算法與建構(gòu)推薦算法相比無需執(zhí)行步驟⑦,則時間復(fù)雜度應(yīng)為O(T).雖然如此,通常在檢索產(chǎn)生N個候選樣本時,所需的實際檢索次數(shù)要遠(yuǎn)小于T,本文實驗部分顯示的結(jié)果為大部分情況下均小于5.如此,檢索計算復(fù)雜度分別約為O(5+N)和O(5),新算法的計算復(fù)雜度同樣是實用可接受的. 此外,雖然與電子商務(wù)和社交網(wǎng)絡(luò)中的傳統(tǒng)個性化推薦目標(biāo)具有較大差別,但個性化知識推薦的核心需求仍是發(fā)現(xiàn)并給出用戶最需要的信息內(nèi)容.本文受建構(gòu)主義學(xué)習(xí)理論啟發(fā),提出的建構(gòu)推薦模型給出了一種思想上直觀、算法上可行的新型個性化推薦方法,是對現(xiàn)有個性化推薦方法的有益補充,理論上也能拓展應(yīng)用于傳統(tǒng)的電子商務(wù)和社交網(wǎng)絡(luò)領(lǐng)域. 考慮個性化知識推薦的特點及當(dāng)前研究現(xiàn)狀,本文考慮以飲食健康知識學(xué)習(xí)為實驗對象,對建構(gòu)推薦模型進(jìn)行性能分析. 1) 我們使用八爪魚采集器*http://www.bazhuayu.com/從中國食品科技網(wǎng)*http://www.tech-food.com/和39健康網(wǎng)*http://food.39.net/抓取“健康知識”、“膳食營養(yǎng)”、“飲食誤區(qū)”等主題的14 600篇飲食相關(guān)科普文章,共計約2 000萬字,作為語料素材.經(jīng)過語料預(yù)處理和術(shù)語抽取技術(shù)識別獲得1 000條飲食知識術(shù)語,部分術(shù)語抽取結(jié)果如表1所示,其中綜合權(quán)重為2.1.1節(jié)中所述的基于信息熵和詞頻生成的術(shù)語權(quán)重. Table 1 Part of Healthy Diets Knowledge Terms表1 獲取的部分健康飲食術(shù)語 2) 利用抽取的知識術(shù)語篩選文本語料,去除不包含知識術(shù)語的句子,用經(jīng)過篩選的文本語料訓(xùn)練得到知識術(shù)語詞向量,并通過計算知識術(shù)語間的歐氏距離作為不同術(shù)語詞間的語義距離.表2給出了部分健康飲食知識術(shù)語間的語義距離值.直觀分析可以發(fā)現(xiàn),“牛奶”與“豆奶”、“奶制品”的語義距離明顯小于與“水果”、“蔬菜”的語義距離,這一結(jié)果與術(shù)語的實際語義相一致,也表明本文所訓(xùn)練生成的健康飲食知識術(shù)語詞向量具有較高的合理性. Table 2 Semantic Distance of Some Healthy Diet Knowledge Terms 3) 基于建構(gòu)推薦模型的知識網(wǎng)絡(luò)構(gòu)建方法生成含有1 000個健康飲食知識術(shù)語的知識網(wǎng)絡(luò),圖8給出了相應(yīng)的知識網(wǎng)絡(luò)中語義距離的分布情況,距離值主要落在區(qū)間[0.0312,3.1215]內(nèi),分布形狀呈現(xiàn)一定的規(guī)則性. Fig. 8 Semantic distance distribution among network nodes of our knowledge network圖8 知識網(wǎng)絡(luò)節(jié)點間語義距離分布 為了對比研究建構(gòu)推薦模型的性能,我們引入基于最大相似度優(yōu)先排序的推薦Similarity_Rec方法和隨機推薦Random_Rec方法作為參照,類似地記建構(gòu)推薦方法為Support_Rec.基于最大相似度優(yōu)先排序的推薦指候選推薦知識按相似度最大優(yōu)先排序,選擇相似度最大的top-K個知識作為推薦輸出.隨機推薦指每次從候選推薦知識中等概率隨機選擇K個知識作為推薦輸出. 從個性化知識推薦的目標(biāo)需求出發(fā),我們引入學(xué)習(xí)效率和學(xué)習(xí)知識序列關(guān)聯(lián)度2個性能指標(biāo).學(xué)習(xí)效率表示用戶在連續(xù)選擇學(xué)習(xí)一段時間后,學(xué)習(xí)獲得的總知識量與學(xué)習(xí)的知識數(shù)間的相對比值.在學(xué)習(xí)相同個數(shù)的知識前提下,學(xué)習(xí)獲得的知識量越多則學(xué)習(xí)效率越高.學(xué)習(xí)知識序列關(guān)聯(lián)度表示用戶在推薦給出的學(xué)習(xí)知識中連續(xù)選擇的知識間的相關(guān)程度,基于學(xué)習(xí)的一般認(rèn)知,學(xué)習(xí)知識序列間的相關(guān)程度越高則越有利于新知識的快速掌握. 為此,首先引入知識網(wǎng)絡(luò)上的知識量定義. 定義2. 一個知識網(wǎng)絡(luò)或其一個子網(wǎng)絡(luò)的知識量由2部分構(gòu)成:知識節(jié)點的自身知識量以及知識節(jié)點間的關(guān)系知識量,其中記知識節(jié)點a的知識量為KI(a),知識節(jié)點a與b間的關(guān)聯(lián)知識量為KI(a,b),具體定義如下: 1)KI(a)根據(jù)知識內(nèi)涵先驗給出(本文研究中默認(rèn)取KI(a)=1); 2) 若a與b間存在直接近鄰關(guān)系,即其中至少有一個知識節(jié)點為另一個知識節(jié)點的支撐知識,則KI(a,b)由式(3)定義,否則KI(a,b)=0. (3) 其中,dab表示a與b間語義距離;尺度參數(shù)σ與式(2)中定義相同,且可取相同值,本文研究中經(jīng)實驗比較均取σ=1.上述定義在考慮知識系統(tǒng)的總知識量時,不僅關(guān)注知識本體的知識量,也關(guān)注知識間的語義關(guān)系知識價值.其中,2個語義距離較近的直接相關(guān)聯(lián)知識節(jié)點間的關(guān)系知識量較小,即若兩者的信息差異度小,則建構(gòu)形成的關(guān)系知識量也小. 基于定義2,可對知識網(wǎng)絡(luò)中的任意已學(xué)知識子網(wǎng)給出學(xué)習(xí)效率定義: (4) 其中,Ucur={t1,t2,…,tL}表示已學(xué)知識子網(wǎng)的知識節(jié)點集,Uall為整體知識網(wǎng)絡(luò)所含的知識節(jié)點集,KIall為整個知識子網(wǎng)的總知識量,有: (5) 根據(jù)上述學(xué)習(xí)效率定義,個體在學(xué)習(xí)某個知識系統(tǒng)的過程中所選擇的不同知識學(xué)習(xí)序列將對應(yīng)不同的學(xué)習(xí)效率.而在現(xiàn)實學(xué)習(xí)中,我們通常希望高效快速地掌握一個知識系統(tǒng)的信息內(nèi)涵,即通過學(xué)習(xí)有限個節(jié)點知識,掌握知識系統(tǒng)中較多的知識信息.例如給定2個知識序列,序列1:“蘋果、香蕉、西瓜、桃子、柑橘、獼猴桃、葡萄、草莓”;序列2:“蘋果、香蕉、西瓜、西紅柿、紅薯、黃瓜、青椒、胡蘿卜”.序列1中所有知識都圍繞水果主題;序列2中“蘋果、香蕉、西瓜”屬于水果,“西紅柿、紅薯、黃瓜”是介于水果和蔬菜之間的食物,“青椒、胡蘿卜”屬于蔬菜.雖然2個學(xué)習(xí)序列推薦了相同數(shù)量的知識,序列2的知識量顯然更多.根據(jù)式(4)的學(xué)習(xí)效率公式定義,較高的學(xué)習(xí)效率值也表示個體在學(xué)習(xí)等量的知識數(shù)后獲得了更高的知識量,兩者具有良好的一致性.這也表明,我們引入的學(xué)習(xí)效率性能指標(biāo)具有較好的合理性. 進(jìn)一步,對最新學(xué)習(xí)的知識t,引入學(xué)習(xí)知識序列關(guān)聯(lián)度定義: (6) 其中,Vt表示最近歷史學(xué)習(xí)的知識集,即學(xué)習(xí)t之前最近學(xué)習(xí)的一定數(shù)量的知識,本文取最近的前5條歷史知識;Ic(t,s)為t與s間是否存在直接關(guān)聯(lián)(存在t←s或s←t)的指示函數(shù),是則Ic(t,s)=1,否則Ic(t,s)=0;函數(shù)Sim()定義同式(2). 綜合地,上面引入的學(xué)習(xí)效率和學(xué)習(xí)知識序列關(guān)聯(lián)度計算直接取決于已完成的知識學(xué)習(xí)歷史以及目標(biāo)學(xué)習(xí)知識系統(tǒng).此外,由于推薦算法不同而產(chǎn)生的任一不同知識學(xué)習(xí)過程點均可對應(yīng)求得相應(yīng)的學(xué)習(xí)效率和平均學(xué)習(xí)知識序列關(guān)聯(lián)度,據(jù)此可定量地評價不同個性化知識推薦方法的性能. 建構(gòu)推薦模型有N和K兩個模型參數(shù)需要初始設(shè)定,分別表示每次推薦時選取的候選知識容量上限和推薦輸出時給出的用戶可選的知識項數(shù).首先考慮取K=1,即每次只推薦輸出排序最高的1個候選知識項時,N在不同取值下3種對比算法的推薦性能情況.表3,4給出了相應(yīng)的一組實驗結(jié)果,分別顯示了學(xué)習(xí)效率和學(xué)習(xí)知識序列關(guān)聯(lián)度.實驗中,N分別取10,20,30和不限(Inf),每次隨機選取1個初始知識,然后進(jìn)行連續(xù)推薦模擬.表3中實驗結(jié)果為20次模擬的平均結(jié)果及相應(yīng)的標(biāo)準(zhǔn)差.為了更直觀地表示,表3中不同已學(xué)知識比例時的學(xué)習(xí)效率值直接用已學(xué)知識量的比例間接表示. Table 3 Learning Efficiency Values Obtained by Three Recommendation Algorithms on Different N with K=1 Fig. 9 Typical learning efficiency curves of compared recommendation algorithms圖9 不同推薦算法的典型學(xué)習(xí)效率變化曲線 分析表3中的學(xué)習(xí)效率值可知,在相同N取值下,建構(gòu)推薦算法在學(xué)習(xí)完不同知識比例情況下均取得了更好的學(xué)習(xí)效率.相比較而言,隨機推薦方法的學(xué)習(xí)效率要略好于基于最大相似度優(yōu)先排序的推薦方法Similarity_Rec.雖然如此,結(jié)合表4結(jié)果可以看出,隨機推薦Random_Rec的平均學(xué)習(xí)知識序列關(guān)聯(lián)度要低于Similarity_Rec.對比不同N取值下的學(xué)習(xí)效率結(jié)果可知,對于本文所構(gòu)建的知識網(wǎng)絡(luò),建構(gòu)推薦算法在N=20時表現(xiàn)出了最佳的學(xué)習(xí)效率,而另外2種算法在N=20時也表現(xiàn)出了較佳水平的學(xué)習(xí)效率.而對比表4結(jié)果也可以發(fā)現(xiàn),雖然N取值較小時,平均的學(xué)習(xí)知識序列關(guān)聯(lián)度會增加,但N=20時已與N=10時的最好結(jié)果相接近,但要明顯好于更大的N取值.為此,進(jìn)一步的實驗中將考慮取N=20時,分析不同K取值下的推薦算法性能. Table4KnowledgeSequenceCorrelationValuesObtainedbyThreeRecommendationAlgorithmsonDifferentN 表4不同N下的3種推薦算法的學(xué)習(xí)知識序列關(guān)聯(lián)度比較 NSupport_RecSimilarity_RecRandom_Rec100.830.700.66200.820.690.59300.760.660.51Inf0.610.100.08 綜合地,3種對比推薦算法中,建構(gòu)推薦方法不僅具有更優(yōu)的學(xué)習(xí)效率,且學(xué)習(xí)知識序列間的平均關(guān)聯(lián)度也較高,更符合用戶學(xué)習(xí)新知識的需要.圖9給出了一個典型情況下不同推薦算法隨著推薦知識增加的學(xué)習(xí)效率相對值變化曲線;圖10給出了相應(yīng)的學(xué)習(xí)知識序列關(guān)聯(lián)度變化曲線,為了清晰展示不同曲線之間的差異,我們將原始知識關(guān)聯(lián)度數(shù)據(jù)進(jìn)行約簡,每隔10個數(shù)據(jù)取1個平均值,圖10每條曲線實際展示了100個數(shù)據(jù)點. Fig.10 Typical value tendency curves of knowledge sequence correlation obtained by compared recommendation algorithms圖10 不同推薦算法的典型學(xué)習(xí)知識序列關(guān)聯(lián)度變化趨勢曲線 如圖9直觀顯示,3條變化曲線中,支撐度最大優(yōu)先的建構(gòu)推薦方法在學(xué)習(xí)等量的知識節(jié)點后,所獲得的知識量比例要高于另2種方法;而圖10中對應(yīng)的知識序列關(guān)聯(lián)度變化曲線則表明,支撐度最大優(yōu)先的建模推薦方法在學(xué)習(xí)經(jīng)過一段時間后,學(xué)習(xí)知識序列間的關(guān)聯(lián)度開始增強,并明顯高于另2種方法.相對地,隨機推薦方法的學(xué)習(xí)知識序列關(guān)聯(lián)度從開始到結(jié)束無明顯變化,這一結(jié)果與經(jīng)驗邏輯結(jié)果相一致,也間接表明了本文所定義的相關(guān)評價指標(biāo)的合理性.對于相似度最近優(yōu)先的推薦方法,其生成的學(xué)習(xí)知識序列關(guān)聯(lián)度開始較高,但隨后則表現(xiàn)不佳.這一結(jié)果表明:相似度最近優(yōu)先的推薦方法在學(xué)習(xí)知識序列產(chǎn)生過程中,不能很好地兼顧知識系統(tǒng)的整體需求,每次過于簡單地選擇最相似的候選知識并非是一個有效的學(xué)習(xí)方式.這一結(jié)論可能也將有助于進(jìn)一步發(fā)展傳統(tǒng)電子商務(wù)和社交網(wǎng)絡(luò)的個性化推薦技術(shù),特別是基于內(nèi)容相似性優(yōu)先的推薦策略存在一定的局限性.而基于支撐度最大優(yōu)先的建構(gòu)推薦策略則可以提供一些非常有價值的思想借鑒. 進(jìn)一步,我們考慮top-K推薦輸出策略中不同K值對算法性能的影響,根據(jù)前面實驗結(jié)果,固定平均最佳候選知識容量N=20.與上述實驗過程稍微不同,考慮每次為用戶輸出K個推薦知識項時,模擬用戶均勻隨機地選擇一個知識進(jìn)行學(xué)習(xí),這樣相同的初始背景知識也會產(chǎn)生非常多不同可能的學(xué)習(xí)知識序列.為此,實驗中對于同一初始知識模擬10次不同結(jié)果,同時隨機選擇了20個健康飲食知識術(shù)語作為初始背景知識.表5給出了相應(yīng)的實驗結(jié)果,其中性能值為200次模擬運行的統(tǒng)計結(jié)果,隨機選擇的20個初始知識為:低熱量飲食、檳榔、柑橘、紫菜、羊肉串、辣味食物、山芋、牛奶、菊花茶、菌類、全谷物、酒釀、紅棗、高鹽食品、山銀花、西瓜、菜子油、抗癌食品、牛排、蘋果. 表5給出了Support_Rec和Similarity_Rec這2種算法的學(xué)習(xí)效率度量值.顯然地,對于Random_Rec,在上述模擬實驗中,不同K值在理論上是等價的,所以表5中沒有給出重復(fù)對比結(jié)果.同時K=1時,相應(yīng)的結(jié)果即如表3結(jié)果所示.此外,實驗中考慮實際應(yīng)用中,不給用戶造成過多的選擇障礙,K取值考慮在相對不大的個位數(shù)范圍內(nèi). Table 5 Learning Efficiency Values Obtained by Three Recommendation Algorithms on Different K with N=20 分析表5結(jié)果可知,對于Support_Rec,其隨著K值增大,性能會有所下降,而K=3與K=1時的性能結(jié)果相近.而對于Similarity_Rec,K值增大時,性能結(jié)果僅有微小的變化,據(jù)此,我們可以考慮在實際應(yīng)用中取K=3.這樣,既給用戶提供了一定的個性化選擇空間,又保證了用戶學(xué)習(xí)知識序列的高效性.同樣地,橫向比較看,基于支撐最大優(yōu)先的推薦方法在不同K值條件下仍具有顯著的學(xué)習(xí)效率優(yōu)勢.進(jìn)一步顯示了本文提出的新模型的有益價值. 進(jìn)一步,我們對不同算法推薦產(chǎn)生的知識術(shù)語實例序列進(jìn)行研究分析,表6、表7給出了2組典型的模擬實驗結(jié)果,其中N=20,K=3,初始知識分別選取了較為常見的知識概念“蘋果”和“牛奶”. Table 6 Knowledge Sequence Example 1 Generated by Compared Recommendation Algorithms Table 7 Knowledge Sequence Example 2 Generated by Compared Recommendation Algorithms 從人工語義理解的角度分析表6、表7中術(shù)語知識可知,支撐度最大優(yōu)先的建構(gòu)推薦方法所產(chǎn)生的推薦知識序列的整體層次性和連續(xù)性要顯著優(yōu)先其他2種方法.如表6中結(jié)果所示,Support_Rec產(chǎn)生的推薦知識序列首先從“蘋果”到“柑橘”一直圍繞“水果”主題,然后從“新鮮蔬菜”和“綠葉蔬菜”開始推薦“蔬菜類”知識.如表7中結(jié)果所示,Support_Rec產(chǎn)生的推薦知識序列首先“牛奶”到“奶油”都與“奶類”密切相關(guān),然后從“白砂糖”到“糖精”屬于“糖類”相關(guān)知識,最后從“味精”到“沙拉醬”都屬于“調(diào)味品”.由此可見,Support_Rec產(chǎn)生的推薦知識序列在局部確實具有很強的關(guān)聯(lián)性,而當(dāng)用戶對某一小類知識掌握到一定程度后又會有效地轉(zhuǎn)移推薦其他大類相關(guān)的節(jié)點知識.例如從“水果”到“蔬菜”、從“奶類”到“糖類”再到“調(diào)味品”.上述實驗結(jié)果確實是令人驚奇的,也進(jìn)一步表明了本文所述建構(gòu)推薦模型的有效性. 相比而言,其他2種對比方法所產(chǎn)生的推薦知識序列在人工語義角度不能找到明顯的層次性和連續(xù)性,序列知識間的語義跳躍性很大.從這一角度看,本文提出的支撐度最大優(yōu)先的建構(gòu)推薦過程能較好地契合人類知識的有序漸進(jìn)理解過程,也將能有效地支持用戶的個性化知識學(xué)習(xí),具有較高的實用價值. 為了進(jìn)一步分析模型的實際推薦效果,我們邀請20位學(xué)生用戶開展了模擬實驗分析.實驗中由用戶自己設(shè)置初始知識,用戶每次從系統(tǒng)推薦的3個知識中選擇1個進(jìn)行學(xué)習(xí).結(jié)合前面實驗結(jié)果,我們主要模擬分析了N=20和K=3時Support_Rec和Similarity_Rec這2種算法的推薦性能和算法復(fù)雜度,實驗結(jié)果如表8和表9所示.對比表5和表8結(jié)果可知,真實用戶模擬測試結(jié)果與隨機模擬結(jié)果高度一致, 進(jìn)一步顯示了本文模型的有效性和實用性. Table 8 Learning Efficiency Values Obtained by Two Recommendation Algorithms Table 9 Computational Efficiency Values Obtained by Two Recommendation Algorithms with N=20 and K=3 從表9結(jié)果可知,大部分情況下Support_Rec算法平均檢索次數(shù)比Similarity_Rec高約20次,與N=20的設(shè)定相關(guān)聯(lián).而具體的平均檢索次數(shù)值表明,產(chǎn)生N=20個候選樣本所需的檢索次數(shù)大部分情況下均小于5,而Support_Rec算法相比Similarity_Rec需要增加約N次的支撐度計算所需數(shù)據(jù)檢索,故檢索計算復(fù)雜度平均要稍高一些,但仍維持在不大的常數(shù)水平,能夠滿足實用要求.此外需要指出的是,當(dāng)已學(xué)知識比例達(dá)到90%時,由于知識網(wǎng)絡(luò)中未學(xué)習(xí)知識數(shù)量較少,需檢索較多的已學(xué)知識才能產(chǎn)生足量的候選相關(guān)知識. 為更好地適應(yīng)網(wǎng)絡(luò)資源知識的個性化學(xué)習(xí)需要,解決現(xiàn)有推薦技術(shù)沒有重點關(guān)注推薦內(nèi)容的整體性和序列關(guān)聯(lián)性問題,研究提出了一種基于建構(gòu)主義學(xué)習(xí)理論的個性化知識推薦新方法——建構(gòu)推薦模型.新模型使用知識網(wǎng)絡(luò)建模所期望學(xué)習(xí)的目標(biāo)知識系統(tǒng),并提出知識網(wǎng)絡(luò)上的候選知識可學(xué)支撐度最大優(yōu)先的推薦策略.本文理論與實驗結(jié)果表明了建構(gòu)推薦模型的合理性和有效性,并可作為當(dāng)前基于內(nèi)容的推薦和協(xié)同推薦方法的有益補充,其不僅僅可簡單易行地應(yīng)用于個性化知識推薦領(lǐng)域,也可為傳統(tǒng)電子商務(wù)和社交網(wǎng)絡(luò)中個性化推薦技術(shù)提供思想啟發(fā).雖然如此,針對不同實際應(yīng)用場景,構(gòu)建最為合理的知識網(wǎng)絡(luò)系統(tǒng)是一個需要考慮的關(guān)鍵問題,而為了避免推薦算法相續(xù)產(chǎn)生高度相似的推薦項,考慮引入額外的知識概念語義分析也可進(jìn)一步提升建構(gòu)推薦算法的實用價值[33]. [1] Salehi M. Application of implicit and explicit attribute based collaborative filtering and BIDE for learning resource recommendation[J]. Data & Knowledge Engineering, 2013, 87(9): 130-145 [2] Manouselis N, Vuorikari R, Van Assche F. Collaborative recommendation of e-learning resources: An experimental investigation[J]. Journal of Computer Assisted Learning, 2010, 26(4): 227-242 [3] Chen Yibo. Personalized knowledge service key technology based on linked data and user ontology[D]. Wuhan: Wuhan University, 2012 (in Chinese) (陳毅波. 基于關(guān)聯(lián)數(shù)據(jù)和用戶本體的個性化知識服務(wù)關(guān)鍵技術(shù)研[D]. 武漢: 武漢大學(xué), 2012) [4] Parveen R, Jaiswal A K, Kant V. E-learning recommenda-tion systems—A survey[J]. Int Journal of Engineering Research and Development, 2012, 4(12): 10-12 [5] Khribi M K, Jemni M, Nasraoui O. Automatic recommenda-tions for e-learning personalization based on Web usage mining techniques and information retrieval[C] //Proc of the 8th Int Conf on Advanced Learning Technologies. Pisacaway, NJ: IEEE, 2008: 241-245 [6] Sikka R, Dhankhar A, Rana C. A survey paper on e-learning recommender system[J]. International Journal of Computer Applications, 2012, 47(9): 27-30 [8] Zhao Liang, Hu Naijing, Zhang Shouzhi. Algorithm design for personalization recommendation systems[J]. Journal of Computer Research and Development, 2002, 39(8): 986-991 (in Chinese) (趙亮, 胡乃靜, 張守志. 個性化推薦算法設(shè)計[J]. 計算機研究與發(fā)展, 2002, 39(8): 986-991) [9] Huang Zhenhua, Zhang Jiawen, Tian Chunqi, et al. Survey on learning-to-rank based recommendation algorithms[J]. Journal of Software, 2016, 27(3): 691-713 (in Chinese) (黃震華, 張佳雯, 田春岐, 等. 基于排序?qū)W習(xí)的推薦算法研究綜述[J]. 軟件學(xué)報, 2016, 27(3): 691-713) [10] Gao Ming, Jin Cheqing, Qian Weining, et al. Real time and personalized recommendation on microblogging systems[J]. Chinese Journal of Computers, 2014, 37(4): 963-975 (in Chinese) (高明, 金澈清, 錢衛(wèi)寧, 等. 面向微博系統(tǒng)的實時個性化推薦[J]. 計算機學(xué)報, 2014, 37(4): 963-975) [11] Pazzani M J, Billsus D. Content-Based Recommendation Systems[M]. Berlin: Springer, 2007: 325-341 [12] Ghauth K I, Abdullah N A. Learning materials recommendation using good learners’ ratings and content-based filtering[J]. Educational Technology Research and Development, 2010, 58(6): 711-727 [13] Leng Yajun, Lu Qing, Liang Changyong. Survy of recommendation based on collaborative filtering[J]. Pattern Recognition and Artificial Intelligence, 2014, 27(8): 720-734 (in Chinese) (冷亞軍, 陸青, 梁昌勇. 協(xié)同過濾推薦技術(shù)綜述[J]. 模式識別與人工智能, 2014, 27(8): 720-734) [14] Mobasher B, Dai Honghua, Luo Tao, et al. Effective personalization based on association rule discovery from Web usage data[C] //Proc of the 3rd Int Symp on Web Information and Data Management. New York: ACM, 2001: 9-15 [15] Lee C H, Kim Y H, Rhee P K. Web personalization expert with combining collaborative filtering and association rule mining technique[J]. Expert Systems with Applications, 2001, 21(3): 131-137 [16] Bodner G M. Constructivism: A theory of knowledge[J]. Journal of Chemical Education, 1985, 63(10): 873-878 [17] Siemens G. Connectivism: A learning theory for the digital age[J]. International Journal of Instructional Technology & Distance Learning, 2004, 2(s101): 3-10 [18] Zhao Zhidan, Shang Mingsheng. User-based collaborative-filtering recommendation algorithms on Hadoop[C] //Proc of the 3rd Int Conf on Knowledge Discovery and Data Mining, Pisacaway, NJ: IEEE, 2010: 478-481 [19] Rong Huigui, Huo Shengxu, Hu Chunhua, et al. User similarity-based collaborative filtering recommendation algorithm[J]. Journal on Communications, 2014, 35(2): 16-24 (in Chinese) (榮輝桂, 火生旭, 胡春華, 等. 基于用戶相似度的協(xié)同過濾推薦算法[J]. 通信學(xué)報, 2014, 35(2): 16-24) [20] Wang Peng, Wang Jingjing, Yu Nenghai. A kernel and user-based collaborative filtering recommendation algorithm[J]. Journal of Computer Research and Development, 2013, 50(7): 1444-1451 (in Chinese) (王鵬, 王晶晶, 俞能海. 基于核方法的User-Based協(xié)同過濾推薦算法[J]. 計算機研究與發(fā)展, 2013, 50(7): 1444-1451) [21] Sarwar B, Karypis G, Konstan J, et al. Item-based collaborative filtering recommendation algorithms[C] //Proc of the 10th Int Conf on World Wide Web. New York: ACM, 2001: 285-295 [22] Deng Ailin, Zhu Yangyong, Shi Baile. A collaborative filtering recommendation algorithm based on item rating prediction[J]. Journal of Software, 2003, 14(9): 1621-1628 (in Chinese) (鄧愛林, 朱揚勇, 施伯樂. 基于項目評分預(yù)測的協(xié)同過濾推薦算法[J]. 軟件學(xué)報, 2003, 14(9): 1621-1628) [23] Liu Xiang, Ma Feicheng, Wang Xiaoguang. Formation and process model of knowledge networks[J]. System Engineering Theory and Practice, 2013, 33(7): 1836-1844 (in Chinese) (劉向, 馬費成, 王曉光. 知識網(wǎng)絡(luò)的結(jié)構(gòu)及過程模型[J]. 系統(tǒng)工程理論與實踐, 2013, 33(7): 1836-1844) [24] Liu Zhiyuan, Sun Maosong, Lin Yankai, et al. Knowledge representation learning : A review[J]. Journal of Computer Research and Development, 2016, 53(2): 247-261 (in Chinese) (劉知遠(yuǎn), 孫茂松, 林衍凱, 等. 知識表示學(xué)習(xí)研究進(jìn)展[J]. 計算機研究與發(fā)展, 2016, 53(2): 247-261) [25] Li Lishuang. The research of term and relation acquisition methods for domain ontology learning[D]. Dalian: Dalian University of Technology, 2013 (in Chinese) (李麗雙. 領(lǐng)域本體學(xué)習(xí)中術(shù)語及關(guān)系抽取方法的研究[D]. 大連: 大連理工大學(xué), 2013) [26] Ren He, Zeng Juanfang. A Chinese word extraction algorithm based on information entropy[J]. Journal of Chinese Information Processing, 2006, 20(5): 40-43 (in Chinese) (任禾, 曾雋芳. 一種基于信息熵的中文高頻詞抽取算法[J]. 中文信息學(xué)報, 2006, 20(5): 40-43) [27] Zhang Dongwen, Xu Hua, Su Zengcai, et al. Chinese comments sentiment classification based on word2vec and SVMperf[J]. Expert Systems with Applications, 2015, 42(4): 1857-1863 [28] Yang Yang, Liu Longfei, Wei Xianhui, et al. New methods for extracting emotional words based on distributed representation of words[J]. Journal of Shandong University: Natural Science, 2014, 49(11): 51-58 (in Chinese) (楊陽, 劉龍飛, 魏現(xiàn)輝,等. 基于詞向量的情感新詞發(fā)現(xiàn)方法[J]. 山東大學(xué)學(xué)報:理學(xué)版, 2014, 49(11): 51-58) [29] Tang Gongbo, Yu Dong, Xun Endong. An unsupervised word sense disambiguation method based on sememe vector in HowNet[J]. Journal of Chinese Information Processing, 2015, 29(6): 23-29 (in Chinese) (唐共波, 于東, 荀恩東. 基于知網(wǎng)義原詞向量表示的無監(jiān)督詞義消歧方法[J]. 中文信息學(xué)報, 2015, 29(6): 23-29) [30] Mikolov T, Chen Kai, Corrado G, et al. Efficient estimation of word representations in vector space[EB/OL]. Ithaca, NY: Cornell University Library, 2013[2013-09-07]. https://arxiv.org/abs/1301.3781 [31] Mikolov T, Yih W, Zweig G. Linguistic regularities in continuous space word representations[C/OL] // Proc of the 2013 North American Chapter of ACL on Human Language Technologies. Atlanta, Georgia, USA: The Association for Computational Linguistics, 2013: 746-751.[2016-03-15]. http://www.aclweb.org/anthology/N13-1090 [32] Mikolov T, Sutskever I, Chen Kai, et al. Distributed representations of words and phrases and their compositionality [C/OL] //Proc of the 2013 Int Conf on Neural Information Processing Systems. Lake Tahoe, Nevada, USA: NIPS Foundation Inc, 2013: 3111-3119.[2016-03-15].http://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf [33] Li Pohan, He Zhenying, Xiang Helin. A linkage clustering based query expansion algorithm[J]. Journal of Computer Research and Development, 2011, 48(Suppl 2): 197-204 (in Chinese) (李珀瀚, 何震瀛, 向河林. 一種基于鏈接聚類的查詢擴展算法[J]. 計算機研究與發(fā)展, 2011, 48(增刊2): 197-204)3.3 分析討論
4 實驗研究
4.1 實驗方案
4.2 評價指標(biāo)
4.3 實驗結(jié)果與分析
4.4 模擬推薦實例分析
4.5 真實用戶模擬實驗
5 結(jié)束語