張春祥 周雪松 高雪瑤
摘 要:詞義消歧是自然語言處理領(lǐng)域中的一個重要研究問題。針對漢語一詞多義現(xiàn)象,結(jié)合上下文語境,采用循環(huán)神經(jīng)網(wǎng)絡(Recurrent Netural Networks,RNN)來確定歧義詞匯的真實含義。以目標歧義詞匯為中心,提取其左右4個鄰接的詞匯單元。從中抽取詞形、詞性和語義類作為消歧特征。以消歧特征為基礎(chǔ),結(jié)合循環(huán)神經(jīng)網(wǎng)絡來構(gòu)建詞義消歧分類器。利用SemEval-2007: Task#5的訓練語料和哈爾濱工業(yè)大學語義標注語料來優(yōu)化RNN的參數(shù)。使用SemEval-2007: Task#5的測試語料對詞義消歧分類器進行測試。實驗結(jié)果表明:所提出的方法能夠提高詞義消歧的準確率。
關(guān)鍵詞:詞義消歧;自然語言處理;循環(huán)神經(jīng)網(wǎng)絡;消歧特征
DOI:10.15938/j.jhust.2020.01.012
中圖分類號: TP391.2
文獻標志碼: A
文章編號: 1007-2683(2020)01-0080-06
Abstract:Word sense disambiguation is an important research problem in natural language processing field. For the phenomenon that a Chinese word has many senses, recurrent neural network(RNN) is used to determine true meaning of ambiguous word with its context. Target ambiguous word is viewed as center and its four adjacent word units are extracted. Word, part-of-speech and semantic categories are extracted as disambiguation features. Based on disambiguation features, recurrent neural network is used to construct word sense disambiguation classifier. Training corpus in SemEval-2007: Task#5 and semantic annotation corpus in Harbin Institute of Technology are used to optimize parameters of RNN. Test corpus in SemEval-2007: Task#5 is applied to test word sense disambiguation classifier. Experimental results show that the proposed method can improve accuracy of word sense disambiguation.
Keywords:word sense disambiguation; natural language processing; recurrent neural network; disambiguation features
0 引 言
詞義消歧是自然語言處理領(lǐng)域中的基礎(chǔ)性研究問題。同時,也是機器翻譯和機器理解中的核心步驟。鹿文鵬根據(jù)依存句法分析結(jié)果來提取歧義詞匯的依存約束集合。從WordNet中找出歧義詞匯各個詞義的代表詞。根據(jù)詞義代表詞在依存約束集合中的依存適配度來選擇正確的詞義[1]。鹿文鵬等[2]利用文本領(lǐng)域關(guān)聯(lián)詞和句子上下文詞來構(gòu)建消歧圖。利用領(lǐng)域知識來調(diào)整消歧圖。同時,使用改進的圖評分標準對消歧圖中的各個詞義結(jié)點的重要程度進行打分。楊陟卓等[3]運用語言模型來優(yōu)化有監(jiān)督消歧模型。充分利用有監(jiān)督消歧模型和語言模型來確定歧義詞匯的真實含義。在訓練語料不足的情況下,這種方法可以有效地改善詞義消歧的效果。王少楠等[4]將上下文語境中具有明確含義的實詞作為輸入。在上下文語境中,獲取可以表示歧義詞匯語義的其它特征。最后,利用貝葉斯概率模型將這兩種信息結(jié)合起來,共同實現(xiàn)歧義詞匯的語義表示和歸納。實驗結(jié)果表明:這種方法可以得到更好的語義表示和歸納效果。唐共波等[5]將多義詞的上下文作為消歧特征,以形成特征向量。通過計算多義詞詞向量與特征向量之間的相似度來進行詞義消歧。該方法可以大大地減少詞義消歧模型的時間復雜度。楊陟卓等[6]設(shè)計并實現(xiàn)了一種基于模擬退火的詞義消歧方法,能夠自動估計各種知識類型的關(guān)系權(quán)重,并優(yōu)化各種知識對消歧效果的影響。這種方法有效地克服了數(shù)據(jù)稀疏和知識獲取的瓶頸。楊振景等[7]提取歧義詞匯上下文中的局部詞、局部詞性以及局部詞和詞性對作為消歧特征,并對這三種特征賦予不同的權(quán)重。同時,利用支持向量機模型來確定歧義詞匯的真實含義。范弘屹等[8]給出了一種改進的語義相似度計算方法。在原有方法的基礎(chǔ)上,考慮HowNet中義原的深度和密度對詞語相似度的影響。挖掘義原之間的關(guān)系,改進原有的計算方法。張健立等[9]利用WordNet中的語義關(guān)系來構(gòu)建語義關(guān)系圖。根據(jù)歧義詞匯與其上下文之間的關(guān)聯(lián)度,來確定它的最佳含義。Zhu[10]提出了一種基于馮諾依曼核的半監(jiān)督詞義消歧方法。利用詞與詞之間的共現(xiàn)來定義圖。根據(jù)有標注和無標注訓練數(shù)據(jù)在圖中的傳播過程來計算術(shù)語之間的語義相似度。然后,根據(jù)語義相似度來構(gòu)造馮諾依曼核。Huang等[11]將語義分析視為多個語義序參數(shù)競爭的過程,提出了一種基于改進協(xié)同神經(jīng)網(wǎng)絡并融入詞義信息的角色標注模型。Abualhaija等[12]以遺傳模擬退火算法和蟻群算法為基礎(chǔ),提出了一種蜂群算法來解決詞義消歧問題。Hung等[13]提出了一種基于口語詞文檔的詞義消歧方法。首先構(gòu)建了情感詞匯網(wǎng)詞典,然后利用所構(gòu)建的詞典進行詞義消歧。史兆鵬等[14]從依存句法分析結(jié)果中提取歧義詞匯及其上下文的詞性、依存結(jié)構(gòu)和依存詞。構(gòu)造歧義詞匯語義類的權(quán)值函數(shù),選擇權(quán)值最大的語義類進行消歧。高璐等[15]提出了一種利用知網(wǎng)實例庫和知網(wǎng)關(guān)系進行詞義消歧的算法。錢濤等[16]給出了一種基于超圖的詞義消歧模型。利用詞匯鏈找到歧義詞匯與上下文詞匯之間的高階語義關(guān)系。將上下文詞匯作為結(jié)點,利用詞匯鏈所找到的超邊來構(gòu)建超圖。利用基于最大密度的超圖譜聚類算法來確定歧義詞匯的含義。任海英等[17]提出了一種基于維基百科的多策略詞義消歧方法。設(shè)計了類別一致性、內(nèi)容相關(guān)性和詞義重要程度三個指標。利用二次消歧方法來確定歧義詞匯的真實含義。劉嶠等[18]提出了一種基于語義一致性的集成實體鏈接算法,能夠更好地利用知識庫中實體之間的結(jié)構(gòu)化語義關(guān)系,提高了算法對概念相似實體的區(qū)分度。許坤等[19]利用語料庫來構(gòu)建從實體到知識庫的映射,對謂詞進行消歧。然后,將自然語言問句轉(zhuǎn)化為計算機可理解的結(jié)構(gòu)化查詢語句。楊安利等[20]用無標注文本來構(gòu)建詞向量模型,結(jié)合特定領(lǐng)域的關(guān)鍵詞信息,提出了一種新的詞義消歧方法。
本文以歧義詞匯為中心,選取它左右兩側(cè)的4個鄰接詞匯單元中的詞形、詞性和語義類作為消歧特征,利用循環(huán)神經(jīng)網(wǎng)絡來確定它的正確語義。
1 消歧特征的選擇
歧義詞匯的語義類別是由其上下文環(huán)境所決定的。在歧義詞匯的上下文中,包含了很多用于確定歧義詞匯語義的語言學知識。要想確定歧義詞匯的真實含義,就要從其上下文中挖掘相關(guān)的信息,這就是所謂的消歧特征提取。特征選取的方法不同,詞義消歧的結(jié)果會不同,這將會直接影響到詞義消歧的效果。
以歧義詞匯為中心,選取其左右鄰接的4個詞匯單元。從這4個詞匯單元中,分別提取其詞形、詞性和語義類3種消歧特征。以包含歧義詞匯“鏡頭”的漢語句子為例,其消歧特征的提取過程為:
漢語句子:另一個鏡頭是周總理向災區(qū)群眾講話。
分詞結(jié)果:另一個鏡頭是周總理向災區(qū)群眾講話。
詞性標注結(jié)果:另/r一個/m鏡頭/n 是/v 周/nh總理/n向/p 災區(qū)/n 群眾/n講話/v 。
語義類標注結(jié)果:另/r/E 一個/m/D 鏡頭/n/D 是/v/J 周/nh/-1 總理/n/A向/p/K 災區(qū)/n/C 群眾/n/A講話/v/H 。
消歧特征的提取過程如圖1所示。其中,W表示詞形;P表示詞性;S表示語義類。UnitL1和UnitL2分別表示歧義詞匯左邊鄰接的兩個詞匯單元。UnitR1和UnitR2分別表示歧義詞匯右邊鄰接的兩個詞匯單元。歧義詞匯“鏡頭”左側(cè)的兩個詞匯單元分別為“另/r/E”和“一個/m/D”。此處,r表示代詞;m表示數(shù)詞;“另”所屬的語義大類為E;“一個”所屬的語義大類為D。歧義詞匯“鏡頭”右側(cè)的兩個詞匯單元分別為“是/v/J”和“周/nh/-1”。此處,v表示動詞;nh表示姓氏詞;“是”所屬的語義大類為J;“周”所屬的語義大類為-1。從這4個詞匯單元中,分別提取詞形、詞性和語義類作為消歧特征。
在數(shù)據(jù)預處理部分,將訓練數(shù)據(jù)轉(zhuǎn)換為RNN所能接受的標準輸入數(shù)據(jù)。在傳統(tǒng)的數(shù)據(jù)處理中,采用了獨熱編碼(one-hot)方法。采用寄存器對不同的狀態(tài)進行標識。在任意時刻,寄存器只有一位設(shè)置為1,其余位均設(shè)置為0。使用這種方法所得到的特征向量是非常稀疏和冗長的。為了解決這個問題,引入了Embedding層來對輸入數(shù)據(jù)進行處理。將所提取的消歧特征轉(zhuǎn)化為一個由浮點數(shù)表示的特征矩陣。在特征矩陣中,每一列表示一個詞匯單元的特征向量。所得到的數(shù)據(jù)是稠密的,能更好地表示特征信息。使用公式(1)來計算詞匯單元的各個消歧特征的Embedding向量。
其中:矩陣M∈Rd*V是一個隨機初始化的大規(guī)模浮點數(shù)矩陣;d為Embedding向量的維數(shù);V為消歧詞窗所包含的詞匯單元數(shù)目;vm是詞匯單元的消歧特征的one-hot表示。在Embedding層中,采用點乘運算來求解消歧特征所對應的Embedding向量rm。
在漢語句子C中,歧義詞匯w的人工標注語義類為S。歧義詞匯w左側(cè)第二個詞匯單元為UnitL2=(WL2, PL2, SL2);左側(cè)第一個詞匯單元為UnitL1=(WL1, PL1, SL1);右側(cè)第一個詞匯單元為UnitR1=(WR1, PR1, SR1);右側(cè)第二個詞匯單元為UnitR2=(WR2, PR2, SR2)。對于詞匯單元UnitL2,計算WL2的獨熱編碼;然后利用公式(1)來獲取它所對應的Embedding向量F_WL2。計算PL2的獨熱編碼;然后利用公式(1)來獲取它所對應的Embedding向量F_PL2。計算SL2的獨熱編碼;然后利用公式(1)來獲取它所對應的Embedding向量F_SL2。連接F_WL2、F_PL2和F_SL2,形成特征向量FL2。同理,可以獲得UnitL1的特征向量FL1、UnitR1的特征向量FR1和UnitR2的特征向量FR2。以特征向量FL2、FL1、FR1和FR2為基礎(chǔ),構(gòu)造特征矩陣Feature={FL2, FL1, FR1, FR2}。使用特征矩陣Feature和人工標注語義類S來訓練RNN,以獲得優(yōu)化的模型參數(shù)。
RNN是一種利用序列信息來進行數(shù)據(jù)處理的模型[21]。其特點是:能夠保存當前時刻的上下文狀態(tài);在上下隱藏層的結(jié)點之間,存在連接邊。在RNN中,包括輸入層、隱藏層和輸出層。
輸入層接受特征矩陣Feature。將特征向量FL2、FL1、FR1、FR2分別賦給輸入層所對應的結(jié)點。在隱藏層中,神經(jīng)元是相對獨立的。隱藏層的層數(shù)是由特征向量的個數(shù)決定的。在t時刻,隱藏層結(jié)點的狀態(tài)是由t時刻的輸入層結(jié)點所接受的特征向量和t-1時刻的隱藏層結(jié)點狀態(tài)共同決定的。將隱藏層的計算結(jié)果先送入全鏈接層,然后再送入輸出
層的SoftMax函數(shù)。其目的是:使SoftMax函數(shù)的輸入和輸出維數(shù)相同。SoftMax函數(shù)根據(jù)t時刻輸入的特征向量和t-1時刻隱藏層結(jié)點狀態(tài)來計算t時刻的語義類概率分布向量。
圖中S′t1表示t1時刻,語義類概率分布向量中,最大的概率所對應的語義類;S′ti表示ti時刻的語義類概率分布向量中,最大的概率所對應的語義類。SoftMax輸出結(jié)果是一個向量。其維數(shù)為語義類的數(shù)目。若歧義詞匯w有n種語義類別S1,S2,…,Sn,則SoftMax輸出一個n維的語義類概率分布向量{P(S1),P(S2),…,P(Sn)}。在輸出向量中,各個分量表示歧義詞匯在各個語義類下的概率分布。在輸出層中,最后一個結(jié)點的SoftMax函數(shù)輸出語義類概率分布向量。在向量中,最大概率值P(Si)所對應的語義類Si,就是RNN計算的歧義詞匯的語義類。
在圖2中,U表示輸入層與隱藏層之間的連接權(quán)值矩陣;D表示t-1時刻的隱藏層與t時刻的隱藏層之間的連接權(quán)值矩陣;V表示隱藏層與輸出層之間的連接權(quán)值矩陣。矩陣U、D和V是RNN的模型參數(shù)。在模型訓練之前,將矩陣U、D和V隨機初始化為很小的數(shù)值。
3 基于循環(huán)神經(jīng)網(wǎng)絡詞義消歧模型的訓練
RNN是一種基于時間維度的模型。隱藏層可以在時間維度上進行展開。此處,設(shè)置RNN的隱藏層層數(shù)為4?;跁r間維度展開的RNN模型如圖3所示。
在圖3中,F(xiàn)eature表示特征矩陣;Ft表示t時刻輸入層結(jié)點所接受的特征向量;At是t時刻隱藏層結(jié)點的狀態(tài);Ot是t時刻所輸出的語義類概率分布向量;S′t是t時刻RNN所輸出的歧義詞匯的語義類。其中,t=1, 2, 3, 4。RNN的訓練過程包括前向傳播過程和反向傳播過程。
1)前向傳播過程。
在前向傳播過程中,根據(jù)t時刻所接受的特征向量Ft和t-1時刻隱藏層結(jié)點的狀態(tài)At-1,來計算t時刻的語義類概率分布向量Ot={P(S1), P(S2), …, P(Sn)}。整個傳播過程是自底向上進行的,具體步驟如下所示。
①輸入特征矩陣Feature={FL2, FL1, FR1, FR2},F(xiàn)t為t時刻輸入層所接受的向量,賦值F1=FL2,F(xiàn)2=FL1,F(xiàn)3=FR1,F(xiàn)4=FR2;
②for(t=1; t<=4; t++)
基于RNN的詞義消歧過程為:將測試數(shù)據(jù)轉(zhuǎn)換為特征矩陣。利用前向傳播過程來計算歧義詞匯的語義類別。將特征矩陣中的特征向量分別賦給RNN模型輸入層的接受向量Ft(t=1, 2, 3, 4)。使用優(yōu)化后的權(quán)值矩陣U、V、D作為RNN的參數(shù)。在隱藏層中,利用式(1)來計算結(jié)點的狀態(tài)。在輸出層中,利用式(4)來計算語義類概率分布向量。取最后一個結(jié)點的輸出向量O4={P(S1), P(S2), …, P(Sn)}作為語義類概率分布向量。在語義類概率分布向量O4中,根據(jù)式(5)來選擇最大概率值P(Si)。Si就是RNN計算所得到的歧義詞匯的語義類別。
4 實 驗
本文將SemEval-2007:Task#5的訓練語料和測試語料作為訓練數(shù)據(jù)和測試數(shù)據(jù)。其中,SemEval-2007:Task#5是ACL2007的一個組成部分,即SemEval-2007國際語義評測的中英文詞匯任務(task#5 multilingual Chinese English lexical sample task)。該任務共包含40個歧義詞匯。從中選取常用的10個歧義詞匯。其中,含有兩種語義類的歧義詞匯有5個,分別為“表面”、“兒女”、“氣象”、“望”、“中醫(yī)”;含有3種語義類的歧義詞匯有5個,分別為“補”、“成立”、“趕”、“日子”、“長城”。
為了度量本文所提出方法的性能,共進行了兩組實驗。在第1組實驗中,選取歧義詞匯左右鄰接的兩個詞匯單元的詞形作為消歧特征,采用貝葉斯(Bayes)分類器來確定歧義詞匯的語義。使用SemEval-2007:Task#5的訓練語料對貝葉斯分類器進行訓練。利用優(yōu)化后的貝葉斯分類器對SemEval-2007:Task#5的測試語料進行詞義消歧。在第2組實驗中,選取歧義詞匯左右鄰接的四個詞匯單元的詞形、詞性和語義類作為消歧特征,利用RNN來確定歧義詞匯的真實含義。利用Embedding層將消歧特征轉(zhuǎn)化為特征矩陣,作為RNN的輸入。利用SemEval-2007:Task#5的訓練語料對RNN進行優(yōu)化。使用優(yōu)化后的RNN對SemEval-2007:Task#5的測試語料進行語義分類。兩組實驗的消歧準確率如表1所示。
5 結(jié) 論
本文提出了一種循環(huán)神經(jīng)網(wǎng)絡的詞義消歧方法。以歧義詞匯左右相鄰的四個詞匯單元的詞形、詞性和語義類作為消歧特征,使用RNN來判別歧義詞匯的真實含義。使用SemEval-2007:Task#5的訓練語料和哈爾濱工業(yè)大學的語義標注語料來優(yōu)化RNN的參數(shù),以提高詞義消歧的精度。使用優(yōu)化后的RNN對SemEval-2007:Task#5的測試語料進行詞義消歧。實驗結(jié)果表明:RNN詞義消歧方法的準確率要優(yōu)于貝葉斯詞義消歧方法。
參 考 文 獻:
[1] 鹿文鵬, 黃河燕. 基于依存適配度的知識自動獲取詞義消歧方法[J]. 軟件學報, 2013, 24(10): 2300.LU Wenpeng, HUANG Heyan. Word Sense Disambiguation Based on Dependency Fitness with Automatic Knowledge Acquistion[J]. Journal of Software, 2013, 24(10): 2300.
[2] 鹿文鵬, 黃河燕, 吳昊. 基于領(lǐng)域知識的圖模型詞義消歧方法[J]. 自動化學報, 2014, 40(12): 2836.LU Wenpeng, HUANG Heyan, WU Hao. Word Sense Disambiguation with Graph Model Based on Domain Knowledge[J]. Journal of Automation, 2014, 40(12): 2836.
[3] 楊陟卓, 黃河燕. 基于語言模型的有監(jiān)督詞義消歧模型優(yōu)化研究[J]. 中文信息學報, 2014, 28(1): 19.YANG Zhizhuo, HUANG Heyan. Supervised WSD Model Optimization Based on Language Model[J]. Journal of Chinese Information Processing, 2014, 28(1): 19.
[4] 王少楠, 宗成慶. 一種基于雙通道LDA模型的漢語詞義表示與歸納方法[J]. 計算機學報, 2016, 38(8): 1652.WANG Shaonan, ZONG Chengqing. A Dual-LDA Method on Chinese Word Sense Representation and Induction[J]. Chinese Journal of Computers, 2016, 38(8): 1652.
[5] 唐共波, 于東, 荀恩東. 基于知網(wǎng)義原詞向量表示的無監(jiān)督的詞義消歧方法[J]. 中文信息學報, 2015, 29(6): 23.TANG Gongbo, YU Dong, XUN Endong. An Unsupervised Word Sense Disambiguation Method Based on the Representation of Sememe in HowNet[J]. Journal of Chinese Information Processing, 2015, 29(6): 23.
[6] 楊陟卓, 黃河燕. 基于異構(gòu)關(guān)系網(wǎng)絡圖的詞義消歧研究[J]. 計算機研究與發(fā)展, 2013, 50(2): 437.YANG Zhizhuo, HUANG Heyan. WSD Method Based on Heterogeneous Relation Graph[J]. Journal of Computer Research and Development, 2013, 50(2): 437.
[7] 張振景, 李新福, 田學東, 等. 基于SVM的離合詞詞義消歧[J]. 計算機科學, 2016, 43(2): 239.ZHANG Zhenjing, LI Xinfu, TIAN Xuedong, et al. Liheci Word Sense Disambiguation Based on SVM[J]. Computer Science, 2016, 43(2): 239.
[8] 范弘屹, 張仰森, 等. 一種基于HowNet的詞語語義相似度計算方法[J]. 北京信息科技大學學報, 2014, 29(4): 42.
FAN Hongyi, ZHANG Yangsen, et al. Computing Method for Semantic Similarity of Words Based on HowNet[J]. Journal of Beijing Information Science and Technology University, 2014, 29(4): 42.
[9] 張健立. 一種基于語義關(guān)系圖的詞義消歧算法[J]. 科技通報, 2015, 31(3): 228.ZHANG Jianli. Word Sense Disambiguation Algorithm Based on Semantic Relation Graph[J]. Bulletin of Science and Technology, 2015, 31(3): 228.
[10]ZHU Wensheng. Semi-supervised Word Sense Disambiguation Using Von Neumann Kernel[J]. International Journal of Innovative Computing Information & Control, 2017, 13(2): 695.
[11]HUANG Zhehuang, CHEN Yidong. An Improving SRL Model With Word Sense Information Using An Improved Synergetic Neural Network Model[J]. Journal of Intelligent & Fuzzy Systems, 2016, 31(3): 1469
[12]ABUALHAIJA S, ZIMMERMANN K H. D-Bees: A Novel Method Inspired By Bee Colony Optimization For Solving Word Sense Disambiguation[J]. Swarm & Evolutionary Computation, 2016, 27(1): 188.
[13]HUNG C, CHEN S J. Word Sense Disambiguation Based Sentiment Lexicons for Sentiment Classification[J]. Knowledge-Based Systems, 2016, 110(1): 224.
[14]史兆鵬, 鄒徐熹, 向潤昭, 等. 基于依存句法分析的多特征詞義消歧[J]. 計算機工程, 2017, 43(9): 210.SHI Zhaopeng, ZOU Xuxi, XIANG Zhaorun. Multi-feature Word Sense Disambiguation Based on Dependency Parsing Analysis[J]. Computer Engineering, 2017, 43(9): 210.
[15]高璐, 趙小兵. 一種實例庫與義原關(guān)系相結(jié)合的概念消歧算法[J]. 首都師范大學學報(自然科學版), 2016, 37(3): 7.GAO Lu, ZHAO Xiaobing. A Concept Disambiguation Algorithm Based on Case Library and Sememe Relation[J]. Journal of Capital Normal University(Natural Science Edition), 2016, 37(3): 7.
[16]錢濤, 姬東鴻, 戴文華. 一個基于超圖的詞義歸納模型[J]. 四川大學學報(工程科學版), 2016, 48(1): 152.QIAN Tao, JI Donghong, DAI Wenhua. A Hypergraph Model for Word Sense Induction[J]. Journal of Sichuan University(Engineering Science Edttion), 2016, 48(1): 152.
[17]任海英, 于立婷. 一種基于維基百科的多策略詞義消歧方法[J]. 現(xiàn)代圖書情報技術(shù), 2015, 31(11): 18.REN Haiying, YU Liting. A Multi Strategy Word Sense Disambiguation Method Based on Wikipedia[J]. Modern Library and Information Technology, 2015, 31(11): 18.
[18]劉嶠, 鐘云, 劉瑤. 基于語義一致性的集成實體鏈接算法[J]. 計算機研究與發(fā)展, 2016, 53(8): 1696.LIU Qiao, ZHONG Yun, LIU Yao. Consistent Collective Entity Linking Algorithm[J]. Journal of Computer Research and Development, 2016, 53(8): 1696.
[19]許坤, 馮巖松, 趙東巖, 等. 面向知識庫的中文自然語言問句的語義理解[J]. 北京大學學報(自然科學版), 2014, 50(1): 85.XU Kun, FENG Yansong, ZHAO Dongyan, et al. Automatic Understanding of Natural Language Questions for Querying Chinese Knowledge Bases[J]. Acta Scientiarum Naturalium Universitaties Pekinensis(Natural Science Edition), 2014, 50(1): 85.
[20]楊安, 李素建, 李蕓. 基于領(lǐng)域知識和詞向量的詞義消歧方法[J]. 北京大學學報(自然科學版), 2017, 53(2): 204.YANG An, LI Suyun, LI Yun. Word Sense Disambiguation Based on Domain Knowledge and Word Cector Model[J]. Acta Scientiarum Naturalium Universitaties Pekinensis(Natural Science Edition), 2017, 53(2): 204.
[21]劉明珠, 鄭云非, 樊金斐, 等. 基于深度學習法的視頻文本區(qū)域定位與識別[J]. 哈爾濱理工大學學報, 2016, 21(6): 61.LIU Mingzhu, ZHENG Yunfei, FAN Jinfei, et al. Area Location and Recognition of Video Text Based on Depth Learning Method[J]. Journal of Harbin University of Science and Technology, 2016, 21(6): 61.
(編輯:溫澤宇)