阮光冊 涂世文 田 欣 張 莉
(1.華東師范大學經(jīng)濟與管理學部信息管理系 上海 200241;2.上??萍及l(fā)展有限公司 上海 200235)
準確獲取指定作者的發(fā)文信息是文獻計量、科學計量、科學評價等領域研究的基礎,也是情報學研究的重要問題。隨著世界科學研究的蓬勃發(fā)展,各類學術文獻數(shù)量正以驚人的速度增長。STM(Scientific Technical and Medical,簡稱STM,國際科學、技術和醫(yī)學出版商協(xié)會)報告顯示[1],2018年,全球范圍內的研究人員數(shù)量達到710萬,且每年以3%~4%的速度持續(xù)增長。在學術文獻數(shù)據(jù)庫中,作者的名稱屬性通常是識別和區(qū)分學術文獻實體最常用的標識符,但相較于模糊匹配和邏輯檢索功能在文獻數(shù)據(jù)庫中的廣泛應用,對英文數(shù)據(jù)庫的作者檢索則受到作者同名、重名以及人名處理標準不一致等問題的困擾,影響了檢索結果的精度。
人名消歧屬于自然語言處理的研究范疇,科技文獻的人名消歧問題存在于各種語言中。就科技文獻的人名消歧來說,其目的是準確獲取指定作者的發(fā)文信息,其核心問題是判斷出現(xiàn)在不同文獻中相同的作者名是否指向同一個人。解決該問題相對簡單的方法是為每一個科研工作者提供一個唯一的標識符,如ORCID,但由于涉及隱私政策等原因,在網(wǎng)絡化和數(shù)字圖書館快速發(fā)展的今天,采用唯一標識碼的方法已無法有效解決海量科技文獻數(shù)據(jù)增長的問題。利用自動化方式進行人名消歧是目前研究的方向,主要的做法是采用某種規(guī)則或者算法,將同名作者加以區(qū)分,將無歧義的信息呈現(xiàn)給用戶[2]。然而,在實際研究中,由于作者英文署名存在多種形式使得構建的模型排歧精度不高、可擴展性欠佳等諸多問題有待進一步解決。
為此,本文以學術文獻增量式人名消歧為研究對象,解決新增學術文獻論文歸屬問題。首先提取學術文獻中的多種特征數(shù)據(jù),借助語言模型BERT進行語義特征抽取,將融合了文獻外部特征和文本內部語義特征的數(shù)據(jù)輸入XGBoost集成模型進行相似度匹配,通過計算,將新增文獻分配給同名作者中相似度最高的作者,完成學術文獻的增量消歧。最后,本文使用DBLP學術搜索平臺的學術文獻數(shù)據(jù)進行實驗,獲得了較好的實驗結果。
科技文獻作者同名消歧問題屬于命名實體消歧的范疇[3]。自從Bagga和Baldwin首次提出跨文本的同指消歧(Co-Reference)[4]之后,人名共指的研究逐漸引起了學界的關注。2001年,數(shù)字圖書館聯(lián)合會議就作者消歧問題展開討論,研究解決數(shù)字參考文獻檢索系統(tǒng)中作者同名問題。
作者同名消歧本質上是一個聚類或分類問題,一般包括特征抽取、相似度計算、消歧處理等步驟。
基于文獻特征的人名消歧是最早被使用的研究方法,利用學術文獻的元數(shù)據(jù),將對同名作者有著較大區(qū)分度的特征提取出來,然后采用特征組合和構造的方式,選擇并保留有效特征,借助模型實現(xiàn)對同名作者的分類,進而實現(xiàn)消歧[2]。在特征提取時,作者的個人信息或論文的題錄信息是常用的消歧特征。實踐研究表明,選擇有效的特征能準確辨識作者的真實情況。如使用文獻的合作者信息進行人名消歧[5],或將作者和論文題錄的多個概念特征進行組合,作為消歧特征組,通過構建相似度矩陣,借助聚類算法進行消歧[6]。除了學術文獻基本元數(shù)據(jù)外,有學者[7]將論文的主題作為消歧特征提取,融合合作者信息、姓名關聯(lián)信息等多特征,實現(xiàn)人名消歧。
根據(jù)對所使用特征處理方式的不同,人名消歧的方法又可以進一步劃分為無監(jiān)督的消歧方法、有監(jiān)督的消歧方法和半監(jiān)督的消歧方法。無監(jiān)督的人名消歧基本思路為:將所選特征轉化為一組數(shù)值,通過計算,將相似度比對結果滿足閾值要求的論文歸屬為同一作者。采用的算法包括:K均值算法[8]、基于密度的聚類算法[9]、凝聚層次聚類算法(HAC)[10]以及各種改進算法等等。由于無監(jiān)督方法使用非標注的文獻數(shù)據(jù),借助選取的特征值計算各文獻間的相似度,面對大量文獻時,運算效率會有所下降,且聚類文獻與現(xiàn)實中作者的對應關系也存在問題。雖有學者提出了多階段的聚類策略[11],一定程度上提高了無監(jiān)督聚類的準確率,但實體對應關系問題依然極大地限制了其使用場景。有監(jiān)督的方法利用標注好的訓練數(shù)據(jù)集來學習分類模型,其做法為:總結已知作者發(fā)文、所屬單位等特征,依據(jù)這些特征對新出現(xiàn)論文進行判斷,決定歸屬。文獻[12]采用隨機森林和DBSCAN 聚類的方法,在USPTO專利數(shù)據(jù)集上進行實驗,獲得了較好的人名消歧效果。有監(jiān)督方法效率與精度較高,不足的地方在于需要大量標注好的樣本,有時需要專業(yè)人員耗費大量的時間對數(shù)據(jù)進行標注,限制了其在大型數(shù)據(jù)庫中的應用。結合非監(jiān)督和監(jiān)督算法的優(yōu)點,研究人員開始嘗試采用將少量標注數(shù)據(jù)與大量無標注數(shù)據(jù)相結合[13],通過訓練模型,進行人名消歧。然而,半監(jiān)督的方法需要人工定義規(guī)則,以實現(xiàn)數(shù)據(jù)標注[14],在處理大規(guī)模數(shù)據(jù)集的人名消歧任務時,仍存在不足。
考慮到學術文獻數(shù)據(jù)中可利用的信息有限,研究者嘗試整合外部的資源和知識來達到數(shù)據(jù)增強的效果。該類方法的一般思路是:結合外部公開的資源和知識庫,通過創(chuàng)建新的規(guī)則和類別,將待消歧的姓名與現(xiàn)實世界中人物信息中區(qū)分度較強且準確的社會屬性建立聯(lián)系,從而獲得更豐富的人物特征,并基于這些社會屬性進行分類,從而實現(xiàn)消歧的目的。文獻[15]通過獲取包含作者文章的Web網(wǎng)頁,判斷兩個待消歧作者的文獻是否同時出現(xiàn)在一篇Web文檔中,從而區(qū)分人名。然而,借助外部資源獲取額外的信息,客觀上會影響文獻檢索的效率,此外如何避免外部信息所帶來的噪音,也是該方法面臨的難題。
目前,一些研究開始探討對學術論文所包含的語義特征進行計算,對同一作者的研究成果進行辨識,從而實現(xiàn)對著者姓名的消歧。如文獻[16]利用語義分析技術對機構知識庫進行作者人名消歧,而文獻[17]則使用生物神經(jīng)網(wǎng)絡層級時序記憶( Hierarchical Temporal Memory,HTM) 對論文摘要進行信息表示,實現(xiàn)作者人名消歧。
綜上所述,對于學術文獻作者姓名消歧問題,現(xiàn)有的多種研究方法均存在各自的優(yōu)勢與不足。本文以增量式人名消歧場景作為研究對象,將BERT預訓練語言模型引入作者人名消歧的研究,借助深度學習強大的語義特征提取和表示能力,解決英文文獻作者消歧的問題。本文旨在探索深度學習方法在解決姓名歧義問題時的可用性并評價其消歧效果。
人名增量消歧本質上是一個分類問題。傳統(tǒng)的基于機器學習的分類方法主要是通過將文本表示為特征向量,利用特征對文本進行降維,選擇算法模型(如:SVM,樸素貝葉斯等)實現(xiàn)分類。這種基于詞袋模型的分類方法對特征工程的依賴度較高,在復雜任務及大數(shù)據(jù)量的情況下,從原始數(shù)據(jù)中自動學習抽象的、高層次的全局特征的能力不強,使得分類模型的泛化能力較差。相對于機器學習方法,深度學習方法能夠從大規(guī)模無標注語料中學習詞的語義和句法信息,通過組合多個非線性模型,將文本數(shù)據(jù)轉化為更高層次的知識表示[18],在無需大量特征工程的情況下,從大數(shù)據(jù)中自動學習文本特征并刻畫出文本的內在信息,提高分類的效果。
在學術文獻不斷動態(tài)增長的情景下,無法依靠人工方式建立分類特征。基于此,本文以深度學習框架為核心,在較少的人工干預情況下,利用詞向量方法對特定應用情境下的語義特征進行提取,快速高效的從歷史數(shù)據(jù)中學習高層次知識表達,實現(xiàn)科技文獻增量式人名消歧方法。
2.1科技文獻的元數(shù)據(jù)特征分析科技文獻的元數(shù)據(jù)因類型不同而異,文獻[19]按照是否涉及文獻內容將科技文獻元數(shù)據(jù)分為文獻的內部特征和外部特征?;谶@一分類方式,本文選擇進行人名消歧的文獻元數(shù)據(jù)如表1所示。
表1 用于作者名消歧的文獻元數(shù)據(jù)
依據(jù)文獻[19],本文選擇作者、合作者、作者單位、期刊名、發(fā)表時間等元數(shù)據(jù)作為科技文獻外部特征進行消歧計算。這些特征不涉及(或較少涉及)科技文獻的內容,屬于文獻的外部標識,在實踐應用中,本文采用特征相似性匹配的分析方法,通過閾值,判斷學者與新增科技文獻之間的歸屬問題。相對應的,關鍵詞、標題和摘要等內部特征,其具有較強的文本語義屬性,本文采用語義表征學習模型BERT對其進行計算,構建蘊含文獻語義信息的特征向量,識別學者與待歸屬文獻之間的語義關聯(lián)。
2.2融合多特征增量式人名消歧方法設計學術檢索平臺的科技文獻數(shù)量龐大,數(shù)據(jù)處于增量式更新狀態(tài),且新增文獻的規(guī)模以及更新時間無法確定。在數(shù)據(jù)不斷動態(tài)增長的情景下,如果仍舊采用全局人名消歧的方法,不僅聚類計算的時間復雜度非常高,同時聚類也將耗費大量的計算資源,為此,在性能和速度上往往讓人難以接受。
在實踐應用過程中,科技文獻作者人名增量消歧的過程,是在已經(jīng)擁有一批消歧文獻數(shù)據(jù)基礎上進行的,其核心思路是快速、準確的將新增學術文獻分配給已有作者。傳統(tǒng)上,圖書館或科研管理機構在進行作者人名規(guī)范時,采用將人名與機構名相結合的方式進行作者分配,但受到機構名變更、簡稱重名等問題的干擾,分配結果仍需要大量的人工進行識別,使得這種方法不僅費時,準確率也無法保障。
為實現(xiàn)增量式人名消歧,本文首先構建了兩個文獻集:現(xiàn)有作者檔案文獻集和新增學術文獻集。實驗步驟為:通過機器學習,從現(xiàn)有作者檔案文獻集中,計算出“作者—文獻”的特征向量模型,然后利用該模型對新增學術文獻進行匹配計算,將符合閾值的文獻分配給已有作者。如果新增文獻的作者不在現(xiàn)有作者檔案文獻集中,則新建其檔案,加入現(xiàn)有作者檔案文獻集。
本文提出的融合文獻內容外部特征的人名增量式消歧方法實現(xiàn)流程如圖1所示。
由圖1所示,本文的方法分成兩大過程,即:特征學習和增量式消歧。其中,特征學習是本文方法的核心,借助機器學習和深度學習的方法,從現(xiàn)有作者檔案文獻集中學習一個特征向量模型,步驟為:構建已明確作者歸屬的“作者-文獻”集,首先,生成正負樣本集,其中,正樣本集為正確歸屬文獻的數(shù)據(jù)集合,負樣本為非正確文獻歸屬的數(shù)據(jù)集合。對于負樣本集,本文以隨機方式,從現(xiàn)有已明確作者歸屬的文獻集中選取同名作者,并將作者對應的歸屬文獻進行隨機的錯亂重排;隨后,抽取正負樣本集中文獻的外部特征(見表1),并對文獻內部特征采用BERT模型計算向量;最后,將獲得的文獻外部特征與BERT獲得向量特征融合為一個特征序列,輸入XGBoost模型進行訓練。
圖1 增量式人名消歧義方法流程圖
對于增量式消歧部分,首先提取新增文獻的外部特征,并采用BERT模型對文獻內部特征進行向量計算,生成一個新增文獻特征序列,借助XGBoost訓練好的模型對新增學術文獻的特征序列進行分類計算,預測作者歸屬,將新增文獻分配給各種特征維度上最為相似的作者,進而完成增量式人名消歧。
2.3學術文獻內部語義特征提取方法人名消歧方法常用論文的標題、關鍵詞以及論文合作者等作為文獻作者的研究方向,進而實現(xiàn)人名消歧[17]。關鍵詞和標題雖然可以反映論文的主題信息,但受限于關鍵詞的規(guī)范性以及主題粒度大小不一的問題,仍然無法完整地表達論文的核心思想。目前,一些研究已經(jīng)開始使用摘要作為消歧特征之一,具體做法是通過對摘要進行分詞和去停用詞等預處理后,抽取特征詞描述文獻的主題,其本質是將長文本信息轉換為詞的形式[8-9],一定程度上損失了語義信息。為此,本文選擇BERT語言模型,借助該模型對句子級別文本的語義表示能力,最大限度的保留摘要文本的上下文語義信息。
BERT(Bidirectional Encoder Representations from Transformers)模型[20]是Google AI團隊在2018年開源的自然語言處理模型,該模型的主要特點是利用兩個方向的上下文信息獲得文本深層次的語義,是一種新的自然語言文本表征方法。相對于Word2Vec等其它廣泛使用的詞向量技術,BERT模型通過遮蔽語言模型(Masked Language Model)和下一句預測兩個預訓練任務,在大規(guī)模的語料集上進行無監(jiān)督的預訓練,再以預訓練模型為基礎,通過模型微調(Fine-tuning)實現(xiàn)下游文本語義分析任務。BERT預訓練模型在無監(jiān)督環(huán)境下,能夠學習到語料庫中的語言先驗知識,可以在標注語料稀缺的場景下完成訓練任務。在預訓練過程中,BERT結合了語料庫中的語言先驗知識,使得模型在文本特征的提取和表示方面明顯具備優(yōu)勢。在解決一詞多義問題方面,BERT模型通過詞匯間上下文關系,記錄了文獻中詞匯的語義信息,可以較好的解決不同語境下的詞義問題。
2.4基于XGBoost的文獻匹配增量消歧可以認為是一個新增文獻與已有作者的匹配問題,其本質上是一種分類問題。為了實現(xiàn)新增文獻與已有作者的匹配,首先需要提取已經(jīng)明確了文獻與作者匹配關系的數(shù)據(jù)集的特征,借助機器學習方法,構建模型;隨后,提取新增文獻的特征,并將其輸入已構建好的模型中,通過計算,實現(xiàn)新增文獻與已有作者的匹配。
本文選擇極端梯度提升算法XGBoost[21]進行特征計算,并構建模型。XGBoost是基于CART回歸樹的一種boosting集成算法,其核心思想是通過建立多棵回歸樹,使樣本預測盡可能接近樣本的真實值,在實踐中,算法具有一定的泛化能力。XGBoost算法在訓練大數(shù)量時,可以通過同層節(jié)點的并行化計算方式,提高計算效率。
科技文獻元數(shù)據(jù)會有一些缺失值,如摘要和關鍵詞等,這就使得數(shù)據(jù)具有稀疏性。XGBoost模型在訓練數(shù)據(jù)時,首先對沒有缺失值的數(shù)據(jù)進行分裂,然后計算缺失值最佳的分裂方案,這使得該模型對缺失值并不敏感,具有較好地處理稀疏型數(shù)據(jù)的能力。
為獲得更好的模型預測能力,本文在模型訓練時采用交叉驗證的形式提高消歧的效果。
2.5方法評估本文使用加權F1 值 (weighted f1-score) 作為模型評估度量。
對于單一作者的情況,模型的準確率、召回率和F1 值的計算規(guī)則如下:
對于有多個作者的情況,其準確率為單一作者的準確率乘以單個作者的F1值。同理,多個作者的召回率和F1值均為單個作者的F1值加權后的結果。其計算方式如下:
WeightedF1=
3.1樣本的構建本文以DBLP(https://dblp.uni-trier.de/db/)學術搜索平臺中的學術文獻數(shù)據(jù)集為實驗數(shù)據(jù),首先獲取論文數(shù)據(jù),并對其進行了預先的消歧和標注,實現(xiàn)“作者-文獻”的關聯(lián),構建現(xiàn)有作者檔案文獻集,為確保數(shù)據(jù)集的準確性,本文選取帶有ORCID的作者,構建“文獻-作者”數(shù)據(jù)集,作為學術文獻同名作者消歧的預訓練和效果檢驗。實驗數(shù)據(jù)如表2所示。
表2 數(shù)據(jù)集概覽
通過檢索,文本共獲取實際作者11 420個,共計107 002篇論文。由于存在同名情況,共獲得109個作者名。實驗中,本文選擇了全部作者的101 797篇論文作為模型訓練,并隨機選擇了1 542個實際作者的5 205篇論文作為測試集。
如圖1所示,本文在模型訓練時,為提高模型的分類效果,將訓練集劃分為正、負兩個樣本集合。其中負樣本集的作用是提高模型的分類效果,負樣本集的生成流程如下所示:
(1)選取訓練集中發(fā)表文獻數(shù)量大于6篇的作者,構建“作者-文獻”集合;
(2)在“作者-文獻”集合中,隨機選取若干個同名作者的集合,并隨機抽取集合中每位作者20%的文獻,對這些文獻的作者與文獻隨機錯亂重排,形成負樣本。
3.2數(shù)據(jù)預處理本文選擇科技文獻的元數(shù)據(jù)包括作者名、合作者、作者單位、期刊(會議)名、論文標題、發(fā)表時間、論文關鍵詞和摘要信息。由于科技文獻的來源不同,這些元數(shù)據(jù)的格式也不同,為此,在特征提取前,需要對其進行專門的處理。具體處理思路如下所示:
a.機構名、期刊(會議)名。對于這些短文本數(shù)據(jù),本文采用常規(guī)的處理方法,首先去除文本中的特殊字符,并將所有內容轉換為小寫格式。
b.作者名。由于不同文獻對作者名的格式要求不同,使得文獻集合中作者名存在多種格式,如作者“Wang Ping”,會存在“Wang P”“Ping Zhang”“WANG PING”等多種形式,為此,需要對其進行處理并統(tǒng)一格式。本文采用字典映射的方式對其進行處理,首先構建標準作者名格式,隨后將文獻中的作者名映射為標準格式。對于一些姓名前后顛倒的形式,本文采用統(tǒng)計字母個數(shù)的方式,對共現(xiàn)字符數(shù)相同的姓名進行規(guī)范格式的映射。通過人為檢測,字典映射方法基本可以準確的實現(xiàn)作者名的關聯(lián)。
c.論文發(fā)表時間。發(fā)表時間預處理需要解決的問題是字段缺失和少量的錯誤數(shù)據(jù)。由于人為的錯誤,少數(shù)論文發(fā)表年份為錯誤數(shù)據(jù),如“2030年”。對于缺失數(shù)據(jù)和錯誤數(shù)據(jù),本文采用的策略是,如果該作者有多篇論文,則以該作者所有論文發(fā)表時間的中位數(shù)進行填充,如果該作者僅有一篇論文,則使用數(shù)據(jù)集中所有論文發(fā)表時間的中位數(shù)進行填充。
d.論文標題和摘要信息。預處理的目的是降低文本的維度,主要采用詞形歸一化處理,使用NLTK工具進行了詞形還原。
預處理完成后,每篇文獻形成如下數(shù)據(jù)表示:
Article: {year, author, coauthor, orgs, title, venue, keywords, abstract}
3.3文獻元數(shù)據(jù)的特征提取本文實現(xiàn)人名消歧,需要構建文獻內外部元數(shù)據(jù)的交叉特征集,具體的操作如下:
a. 時間元數(shù)據(jù)的特征。時間是科技文獻的重要特征,可以反映作者的研究主題和特點??紤]到學者在一個連續(xù)時間內的研究成果具有一定相似性的特征,消歧模型構建時,本文采用了多個時間統(tǒng)計策略,具體為:
year:{yeareraly,yearnewest,yearmean,yearstd,yearmedien}
上述的統(tǒng)計策略分別表示某位作者發(fā)表第一篇文獻的時間,最新論文發(fā)表的時間,發(fā)表論文時間的均值、標準差和中位數(shù)。對于新增文獻,分別與同名作者的5個時間統(tǒng)計特征進行比對,計算時間序列上匹配程度。
b. 作者、單位、期刊名等元數(shù)據(jù)的特征。本文發(fā)現(xiàn)這一類特征采用簡單的匹配方式就可獲得較好的效果,為此,本文在實驗中采用相等匹配和集合匹配兩種方法。
相等匹配即為字符串完全相等。對于作者、期刊名等元數(shù)據(jù),通過規(guī)范化處理,對完全相同的元數(shù)據(jù)則認為匹配成功。
集合匹配主要針對作者所在單位。由于作者單位元數(shù)據(jù)存在格式不一致的問題,在實驗中,本文發(fā)現(xiàn)有的作者單位是簡略的信息,而有些是非常完整的信息。如:簡略的形式為“*** University”,而完整的形式為“*** University *** Department,*** Street”。為此,實驗中,首先對作者單位元數(shù)據(jù)按照空格分詞,形成詞匯集;在匹配時,將新增文獻的作者單位與已有作者的單位進行比對,計算兩個集合交集與最短集合長度之間的比值,如果達到一定的閾值,則認為匹配成功。
c. 文獻內部元數(shù)據(jù)的特征。人名消歧選取的文獻內部元數(shù)據(jù)包括:摘要、標題和關鍵字。為了更好地獲取這些元數(shù)據(jù)的語義特征,本文借助BERT模型將文獻的這些元數(shù)據(jù)轉換成一個帶有語義信息的向量。假設文獻a={ abstract, title, keywords },使用BERT模型將a轉換為向量va,則某位作者的文獻向量集合即為{va1,va2,…van},其中n為該作者的發(fā)文總量。對于新增文獻,其向量表示為vb,論文歸屬問題及轉換為vb和向量集合文獻的相似度計算。
在構建文獻內部特征向量時,使用PyTorch深度學習框架實現(xiàn)的BERT模型(https://pypi.org/project/sentence-transformers/)來進行語義特征表示,實驗中,將元數(shù)據(jù)轉換為一個768維的數(shù)值型向量表示。在匹配計算時,關鍵字、標題和摘要分別轉化為5個統(tǒng)計特征,即最小值、最大值、均值、標準差和中位數(shù)。以摘要為例,圖2顯示了文獻a和文獻b的摘要經(jīng)過BERT語義向量表示后的結果。
圖2 學術文獻摘要BERT語義向量表示
圖3顯示了文獻a和文獻b的摘要相似度計算結果。
圖3 學術文獻摘要相似度特征
最后,將外部特征和內部特征融合后的結果輸入XGBoost進行模型訓練。
3.4作者匹配根據(jù)上文對文獻內外部特征提取完成后,基于構建的正負樣本,本文使用XGBoost(https://pypi.org/project/xgboost/)模型完成特征的融合和作者匹配。
具體匹配的步驟為,首先將樣本數(shù)據(jù)輸入XGBoost,通過調參,完成模型的訓練;隨后,對于新增文獻,先將新增文獻作者與現(xiàn)有作者進行匹配,獲得一些列同名作者;隨后采用XGBoost對新增文獻的特征與同名作者的文獻特征進行相似度計算;最后輸出匹配分數(shù)最高的作者ID作為新增文獻的所屬作者。
3.5結果對比為了評估模型的效果,本文對比了多組實驗的結果,實驗具體設置如下:
a.BERT語義特征和學術文獻基本特征的方法,本文方法。
b.Word2Vec(使用gensim包完成)特征的SVM分類方法,簡化表示為 Word2Vec + SVM。
c.Word2Vec特征的XGBoost分類方法,簡化表示為 Word2Vec + XGBoosts。
d.對比文獻[17]提出的基于SDR的人名消歧方法。
具體的實驗結果如表3所示。
表3 增量消歧實驗結果
從表3中幾種方法在測試集上的指標數(shù)值可見,本文提出的方法表現(xiàn)出較好的效果, F1取得了95.6%的分值,高于其他模型的性能表現(xiàn)。相比于基于Word2vec+XGBoost的方法,本文方法提高了約7%,相比于Word2vec+SVM的方案,本文方法提高了約6%。
此外,對比文獻[17]的實驗結果,雖然基于SDR方法的準確值更高,但是召回率和F1值方面來看,本文的方法更優(yōu)。且文獻[17]采用的是數(shù)據(jù)量小(實驗數(shù)據(jù)為19個作者的88篇論文),因此從總體上來看,本文方法具有一定的合理性。
增量消歧,需要快速且準確地將文獻分配給系統(tǒng)中已有作者,這是學術文獻數(shù)據(jù)庫在進行更新時最亟待解決的問題。本文提出了一種融合多特征的相似度匹配方法實現(xiàn)增量式人名消歧研究,借助BERT自然語言處理模型和XGBoost分類模型進行相似度匹配,將新增文獻分配給相似度得分最高的作者。通過實驗對比,本文方法獲得了較好的增量式人名消歧效果。
然而,該文的研究也存在一些改進的地方,如:
a.本文選取了科技文獻的多個元數(shù)據(jù),形成了多特征融合的消歧模型,但在實際應用中,如何設定每個特征的權重值,合理分配外部特征匹配和內部語義特征所占的比重,進一步提高模型的準確率,是實踐應用中需要解決的問題。
b.本研究僅限于對英文語言的學術文獻作者同名消歧,對跨語言的同名作者消歧并未涉略。因為不同語言之間的名字形式不一致,跨語言學術文獻同名作者消歧更具有挑戰(zhàn),同時也是進行多來源學術文獻組織和管理的難題,今后會對這方面逐步開展研究。