耿云冬,張逸勤,劉 歡,王東波
“人文計算”(Humanities Computing)或稱“數(shù)字人文”(Digital Humanities),肇始于1949年[1]。彼時意大利神父羅伯托·布薩(Roberto Busa)借助計算機(jī)為神學(xué)家阿奎那(Thomas Aquinas)的全集編制中世紀(jì)拉丁文字詞索引。此后依托計算機(jī)技術(shù)開展人文社會科學(xué)的方法日漸流行,數(shù)字人文研究理念也應(yīng)運(yùn)而生。作為全新的方法論,數(shù)字人文研究的顯著特征是基于大規(guī)模數(shù)字化語料,針對具體的研究對象開展數(shù)據(jù)化分析,以期揭示語料背后隱藏的規(guī)律、趨勢,發(fā)現(xiàn)新知識。1980年代以來,中國古文典籍文本數(shù)字化工作發(fā)展迅速,產(chǎn)生了大量的“原生性數(shù)字文本”與“再生性數(shù)字文本”,前者指從電子設(shè)備端直接輸入、可便捷共享的數(shù)字文本,后者指通過機(jī)器掃描轉(zhuǎn)錄而成的數(shù)字文本[2]。然而,無論是“原生性數(shù)字文本”還是“再生性數(shù)字文本”,體現(xiàn)的是典籍文本的“數(shù)字化”轉(zhuǎn)化成績,海量的數(shù)字化古籍文本仍主要用于檢索瀏覽,更多充當(dāng)印刷資源或影印資源的替代物,缺乏結(jié)構(gòu)化的知識組織和深度利用[3],距離成為計算對象還很遙遠(yuǎn)[1]。換言之,面向數(shù)字人文研究的深度利用率亟待提升[4]。眾所周知,古文典籍的重要性不僅在于它們具備文獻(xiàn)學(xué)價值,更在于蘊(yùn)藏的“中國元典精神”[5],借助數(shù)字人文研究方法,推進(jìn)古籍文獻(xiàn)由數(shù)字化向數(shù)據(jù)化轉(zhuǎn)變,使其成為可分析、計算的對象,能更加有效揭示與深刻闡述載于古文典籍的元典精神,有效促進(jìn)其現(xiàn)代轉(zhuǎn)換和現(xiàn)世啟迪。近年隨著深度學(xué)習(xí)技術(shù)與預(yù)訓(xùn)練語言模型創(chuàng)新,如何推進(jìn)古籍文本的數(shù)字化處理向數(shù)據(jù)化研究縱深發(fā)展,進(jìn)而提升我國數(shù)字人文研究水平,為世界數(shù)字人文研究發(fā)展貢獻(xiàn)“中國智慧”,成為時代課題。
基于多年來積累的古籍?dāng)?shù)字化資源,筆者所在團(tuán)隊以2018年發(fā)布的BERT預(yù)訓(xùn)練語言模型為基礎(chǔ),面向繁體中文的典籍文本開發(fā)了SikuBERT和SikuRoBERTa兩個預(yù)訓(xùn)練模型,并在自動分詞、詞性標(biāo)注、斷句、實(shí)體識別等各個層面展開了驗(yàn)證,結(jié)果表明這兩個模型均達(dá)到了較高的精度。本文聚焦團(tuán)隊在典籍文本詞性自動標(biāo)注方面所做的探索與成果。從本質(zhì)上說,詞性是一個詞在與其他詞組合時所顯示出來的語法性質(zhì)。在自然語言處理領(lǐng)域,詞性標(biāo)注則是根據(jù)上下文語境信息,構(gòu)建并運(yùn)用適當(dāng)?shù)乃惴P?,在給定的語篇或句子中判定每個語詞的語法范疇,根據(jù)其語法作用加注詞性標(biāo)記的過程。然而中國典籍文本中詞界模糊,詞的兼類現(xiàn)象普遍而靈活。對古文典籍文本中的語詞進(jìn)行切分和標(biāo)注詞性困難較大。但古文典籍文本詞性自動標(biāo)注研究具有重要意義:高精度的詞性自動標(biāo)注有利于更準(zhǔn)確地挖掘古文典籍文本中的隱性知識,有利于以語詞為粒度開展更具深度的古文應(yīng)用工作[6],如古漢語詞典編纂、古籍跨語翻譯、中華元典精神挖掘,從而實(shí)現(xiàn)更高效的人文計算研究。
本文旨在呈現(xiàn)SikuBERT模型在16部古文典籍詞性標(biāo)注層面的實(shí)驗(yàn)設(shè)計及其結(jié)果,研究內(nèi)容主要包括:述評1980年代以來針對古文典籍文本詞性自動標(biāo)注的代表性研究成果;概要介紹SikuBERT預(yù)訓(xùn)練語言模型的構(gòu)建背景;闡述基于SikuBERT預(yù)訓(xùn)練語言模型的詞性自動標(biāo)注實(shí)驗(yàn)設(shè)計及結(jié)果分析;展示“SIKU-BERT典籍智能處理系統(tǒng)”的詞性自動標(biāo)注功能設(shè)計及應(yīng)用;對數(shù)字人文視閾下的古文典籍文本詞性自動標(biāo)注可以繼續(xù)拓展的研究方向做出展望。
詞性是詞的詞類屬性,“是一個個具體的詞跟名詞、動詞、形容詞……等詞類標(biāo)簽之間的映射(指派)關(guān)系”[7]。詞性自動標(biāo)注工作就是利用語言學(xué)知識和計算機(jī)技術(shù)標(biāo)注文本中每個詞的詞性,也就是確定該詞屬于名詞、動詞、形容詞還是其他詞性的過程。詞性自動標(biāo)注是古文智能處理最基礎(chǔ)的工作之一,其準(zhǔn)確性會影響信息檢索、語法分析、語義分析、機(jī)器翻譯、語音合成、知識挖掘等后續(xù)任務(wù)實(shí)現(xiàn)的效果。目前,面向漢語文本的詞性自動標(biāo)注方法主要有四種,即基于規(guī)則的方法、基于統(tǒng)計模型的方法、融合規(guī)則與統(tǒng)計的混合方法以及基于深度學(xué)習(xí)技術(shù)的預(yù)訓(xùn)練語言模型方法。這些方法在漢語文本的詞性標(biāo)注工作中都有所應(yīng)用并不斷改進(jìn),而且學(xué)界對詞性標(biāo)注問題的研究重心近年來也由現(xiàn)代漢語文本逐漸轉(zhuǎn)向古籍文本。
基于規(guī)則的詞性自動標(biāo)注方法始于1970年代,主要得益于英語語料庫建設(shè)對詞性自動標(biāo)注的探索,其基本理念是:基于語言學(xué)的詞性/詞類①研究成果[8],利用詞典手動編制標(biāo)注規(guī)則,然后依據(jù)上下文信息,為語詞確定適切的詞性。在該方法中,“規(guī)則知識庫”的構(gòu)造是關(guān)鍵,需要考慮兩個基本問題:規(guī)則對語言現(xiàn)象的覆蓋率和規(guī)則處理的正確率[9]。該方法的優(yōu)勢在于可以參考語言學(xué)理論研究成果,規(guī)則表達(dá)清晰,借助語境信息可以實(shí)現(xiàn)對語詞的詞性特征的細(xì)致描述,消歧效果較好[10],而且可應(yīng)用范圍較廣。然而基于規(guī)則的詞性自動標(biāo)注方法其缺陷也較為明顯:人工構(gòu)造規(guī)則知識庫耗時費(fèi)力,規(guī)則的嚴(yán)寬劃分存在較大主觀性,規(guī)則應(yīng)用的一致性較弱,機(jī)器對規(guī)則的自動學(xué)習(xí)效果較差。從本質(zhì)上說,基于規(guī)則的詞性自動標(biāo)注是“一種確定性的演繹推理方法”[11],這就決定其在自然語言處理中的魯棒性較弱。
基于統(tǒng)計的詞性標(biāo)注方法得益于經(jīng)驗(yàn)主義方法在計算語言學(xué)研究的廣泛應(yīng)用。該方法的基本理念是:首先制訂詞性標(biāo)記集;然后,由人工對一定數(shù)量的語料展開詞性標(biāo)記工作;接下來交由計算機(jī)學(xué)習(xí)、統(tǒng)計人工標(biāo)注的語料,獲得相關(guān)頻率數(shù)據(jù)(如標(biāo)記同現(xiàn)頻率、語詞表現(xiàn)為某一詞類的頻率);最后基于頻率數(shù)據(jù),構(gòu)建統(tǒng)計模型,應(yīng)用于詞性判定任務(wù)[12]。在該方法中,基于特征模板的統(tǒng)計模型建構(gòu)是關(guān)鍵。在不斷改進(jìn)的各種算法模型中,得到比較廣泛應(yīng)用的主要有“隱馬爾可夫模型”(Hidden Markov Model)、“最大熵模型”(Maximum Entropy Models)和“條件隨機(jī)場”(Conditional Random Fields,)3種②。
隱馬爾可夫模型是一種面向隨機(jī)序列數(shù)據(jù)處理的統(tǒng)計模型,基于該模型的詞性自動標(biāo)注方法通常假設(shè)中心詞的詞性僅與它前面的n個詞有關(guān),而與中心詞后面的詞無關(guān)。然而,現(xiàn)實(shí)中的情況往往并非如此[13]。為此,研究者針對基于隱馬爾可夫模型的詞性標(biāo)注方法做了很多改進(jìn)。袁里馳提出將馬爾可夫族模型與句法分析相結(jié)合的方法來進(jìn)行詞性自動標(biāo)注,實(shí)驗(yàn)結(jié)果表明,相較于隱馬爾可夫模型,馬爾可夫族模型的性能更優(yōu)[14]。
最大熵原理是統(tǒng)計學(xué)習(xí)的一般原理,其基本理念是:學(xué)習(xí)概率模型時,在所有可能的概率分布中,熵最大的模型就是最好的模型。換言之,在只掌握關(guān)于未知分布的部分知識時,應(yīng)當(dāng)選取滿足全部已知條件但熵值最大的概率分布[15]。該方法充分利用語詞所處的上下文信息,但是也面臨著“標(biāo)簽偏見(label bias)”的不足[13]。針對其不足,研究者也在不斷改進(jìn)基于最大熵模型的詞性自動標(biāo)注方法。例如,趙偉等立足漢語語言特點(diǎn),重視特征提取問題,提出一種新的最大熵模型,采用BLMVM算法和Gaussian prior平滑技術(shù),設(shè)計出基于漢語的詞和字特征的詞性自動標(biāo)注系統(tǒng),標(biāo)注效果較為理想[15]。
條件隨機(jī)場是一種指數(shù)型模型,基本理念是:通過建立概率模型來標(biāo)注序列數(shù)據(jù),使用復(fù)雜、有重疊性和非獨(dú)立的特征展開訓(xùn)練和推理[13]。相較于隱馬爾可夫模型和最大熵模型,條件隨機(jī)場似乎更受自然語言處理研究者的青睞,相關(guān)研究成果更多,代表性研究包括:石民等以《左傳》文本作為實(shí)驗(yàn)語料,提出基于條件隨機(jī)場的一體化詞性標(biāo)注方法,實(shí)驗(yàn)結(jié)果表明F值可以達(dá)到89.65%[16]。留金騰等針對上古漢語文獻(xiàn)《淮南子》語料庫構(gòu)建過程中的自動分詞及詞性自動標(biāo)注工作做了探究,嘗試使用Domain Adaptation(領(lǐng)域適應(yīng))方法,并以一定量來自目標(biāo)領(lǐng)域的Seed Data(種子數(shù)據(jù))為基礎(chǔ),采用條件隨機(jī)場模型以及特征模板,顯著提高了詞性自動標(biāo)注的準(zhǔn)確率,最高得到80.81%的準(zhǔn)確率[17]。朱曉等以《明史》文本作為實(shí)驗(yàn)語料,通過交叉檢驗(yàn)方法比較基于條件隨機(jī)場的“無邊圖模型”“完全圖模型”“嵌套圖模型”3種圖模型在古漢語詞性自動標(biāo)注中的應(yīng)用。實(shí)驗(yàn)結(jié)果表明,完全圖模型與嵌套圖模型在詞性自動標(biāo)注中的效果更優(yōu),并提出分詞在一定程度上有助于提升古漢語詞性自動標(biāo)注效率[18]。
相較于基于規(guī)則的方法,基于統(tǒng)計的方法優(yōu)勢在于它的全部知識是通過對大規(guī)模語料庫的參數(shù)訓(xùn)練自動得到的,標(biāo)注結(jié)果有較高的一致性和較廣的覆蓋率,并且可以將一些不確定的知識定量化分析[10]。因此,在面向漢語的自然語言處理領(lǐng)域,基于統(tǒng)計的詞性自動標(biāo)注方法更受青睞,當(dāng)前應(yīng)用更廣泛。然而,該方法也并非完美無缺:當(dāng)訓(xùn)練語料達(dá)到一定規(guī)模后,通過擴(kuò)大語料規(guī)模來提高準(zhǔn)確率將變得困難[19],而且特定的統(tǒng)計模型在應(yīng)用范圍上都具有領(lǐng)域性,一旦使用領(lǐng)域發(fā)生變換,模型效用度也可能隨之減弱[20]。
基于規(guī)則的詞性標(biāo)注方法和基于統(tǒng)計的詞性標(biāo)注方法各有優(yōu)劣,很多研究者在實(shí)際應(yīng)用會對兩種方法加以組合,甚至做出更大改進(jìn),以建構(gòu)更加符合漢語特性的詞性自動標(biāo)注方法。例如,周強(qiáng)將規(guī)則和統(tǒng)計相結(jié)合設(shè)計出一種新的軟件系統(tǒng),并對封閉語料和開放語料的詞性自動標(biāo)注展開實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明正確率分別達(dá)到96.06%和95.82%[10];張民等引入“置信區(qū)間”概念,提出一種統(tǒng)計和規(guī)則并舉的漢語詞性自動標(biāo)注算法,在未考慮生詞和漢語詞錯誤切分的情況下,詞性自動標(biāo)注的準(zhǔn)確率分別達(dá)到98.9%(封閉測試結(jié)果)和98.1%(開放測試結(jié)果)[11];王東波等構(gòu)建包含45個特征在內(nèi)的組合特征模板,基于條件隨機(jī)場展開詞性自動標(biāo)注實(shí)驗(yàn),最終F值的均值達(dá)到90.40%,驗(yàn)證了組合特征模板在古籍文本詞性自動標(biāo)注中的優(yōu)勢[21]。
深度學(xué)習(xí)(Deep Learning)使用神經(jīng)網(wǎng)絡(luò)模擬人類智能,通常利用大量標(biāo)記的數(shù)據(jù)訓(xùn)練計算機(jī)執(zhí)行學(xué)習(xí)任務(wù),直至訓(xùn)練出一個成熟的模型。2018 年 Devlin 等 提 出 Bidirectional Encoder Representations from Transformers(BERT)[22]深度學(xué)習(xí)模型,引發(fā)學(xué)界關(guān)注。就本質(zhì)而言,BERT是自然語言處理領(lǐng)域最底層的語言模型,是一種基于Transformer架構(gòu)的神經(jīng)網(wǎng)絡(luò),具有強(qiáng)大特征提取能力,通過海量語料預(yù)訓(xùn)練,獲得序列當(dāng)前最全面的局部和全局特征表示。張琪等[20]認(rèn)為,深度學(xué)習(xí)模型可以自動提取豐富的上下文特征,能夠應(yīng)對傳統(tǒng)方法中存在的特征依賴、特征稀疏等問題。他們嘗試將BERT引入古漢語分詞詞性自動標(biāo)注研究,以經(jīng)過手工分詞并標(biāo)注詞性后得到的25部先秦古籍文本為實(shí)驗(yàn)語料,構(gòu)建分詞詞性標(biāo)注一體化模型,未加入任何人工特征的模型詞性標(biāo)注的準(zhǔn)確率達(dá)到88.97%,該研究還進(jìn)一步把基于BERT開發(fā)的分詞詞性標(biāo)注一體化模型應(yīng)用于未經(jīng)人工處理的《史記》文本詞性自動標(biāo)注,發(fā)現(xiàn)該模型的分詞和詞性標(biāo)注效果穩(wěn)定,實(shí)用性較強(qiáng)。該研究為把BERT等深度學(xué)習(xí)模型應(yīng)用于古籍文本詞性自動標(biāo)注做了積極探索。
綜上而言,現(xiàn)有面向漢語的詞性自動標(biāo)注研究以基于統(tǒng)計方法為主,存在提升空間:一是面向現(xiàn)代漢語語料的探索偏多,面向古文典籍的探索亟待深化;二是以建語料庫為導(dǎo)向的詞性標(biāo)注需要轉(zhuǎn)向以服務(wù)數(shù)字人文研究為目標(biāo)的詞性標(biāo)注;三是產(chǎn)生于機(jī)器學(xué)習(xí)時代的詞性標(biāo)注方法需要升級到深度學(xué)習(xí)時代的預(yù)訓(xùn)練語言模型方法。隨著技術(shù)發(fā)展以及標(biāo)注需求的細(xì)化,基于深度學(xué)習(xí)的模型正日益成為該領(lǐng)域的研究熱點(diǎn)與發(fā)展趨勢。
從工作原理看,BERT模型基于自注意力機(jī)制對文本進(jìn)行建模,Transformer強(qiáng)大的特征提取能力使BERT相對于循環(huán)神經(jīng)網(wǎng)絡(luò)模型具有天然優(yōu)勢。此外,采用雙向語言模型可同時提取語詞的上下文信息,使語詞的表示具有更豐富的語義。BERT的語言數(shù)據(jù)訓(xùn)練分為兩個階段:預(yù)訓(xùn)練(Pre-training)和微調(diào)(Fine-tuning)。具體而言,BERT模型在預(yù)訓(xùn)練階段利用Transformer的雙向編碼器根據(jù)上下文雙向轉(zhuǎn)換解碼,同RNN模型相比,Transformer具有并行化處理功能,為了實(shí)現(xiàn)雙向理解使用Masked Language Model遮蓋部分詞語并在訓(xùn)練過程中對這些詞語進(jìn)行預(yù)測,以及利用Next Sentence Prediction 方法進(jìn)行句子級別的表示,使模型學(xué)習(xí)兩個句子之間的關(guān)系。預(yù)訓(xùn)練階段之后,基于訓(xùn)練語料對模型進(jìn)行有監(jiān)督的微調(diào)使其能夠應(yīng)用到各種任務(wù)場景中。目前預(yù)訓(xùn)練語言模型已在英語和現(xiàn)代漢語文本上極大地提升了文本挖掘的精度。
當(dāng)前基于BERT預(yù)訓(xùn)練模型開發(fā)的古籍文本智能處理方法主要包括Google 官方提供的Bert-Base-Chinese、哈工大訊飛聯(lián)合實(shí)驗(yàn)室(HFL)提供的RoBERTa、北京理工大學(xué)提供的GuwenBERT。其中,Bert-Base-Chinese和RoBERTa是基于中文維基百科預(yù)訓(xùn)練的包含簡體與繁體中文的預(yù)訓(xùn)練模型,GuwenBERT是基于殆知閣古文文獻(xiàn)訓(xùn)練的簡體中文預(yù)訓(xùn)練模型。相較于殆知閣古文文獻(xiàn),中文維基百科在語法上與典籍文獻(xiàn)有較大差異。然而,基于殆知閣古文文獻(xiàn)訓(xùn)練的GuwenBERT 卻又是基于簡體中文的預(yù)訓(xùn)練模型。可以預(yù)見,在繁體中文的典籍文獻(xiàn)命名實(shí)體識別中,上述三個預(yù)訓(xùn)練模型皆有其優(yōu)點(diǎn)而又有明顯的不足。有鑒于此,南京農(nóng)業(yè)大學(xué)信息管理學(xué)聯(lián)合南京師范大學(xué)文學(xué)院、南京理工大學(xué)經(jīng)濟(jì)管理學(xué)院開發(fā)“SIKU-BERT 典籍智能處理系統(tǒng)”。以《四庫全書》繁體版本語料為實(shí)驗(yàn)數(shù)據(jù),基于SikuBERT 預(yù)訓(xùn)練模型開展了自動分詞、詞性自動標(biāo)注、自動斷句、命名實(shí)體識別等下游任務(wù)實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,SikuBERT預(yù)訓(xùn)練模型的效能較上述三個預(yù)訓(xùn)練模型均有不同幅度的提升。下文著重介紹基于SikuBERT模型的詞性自動標(biāo)注實(shí)驗(yàn)。
本研究實(shí)驗(yàn)設(shè)計利用BERT進(jìn)行特征提取,使用經(jīng)過大型語料庫預(yù)訓(xùn)練的BERT創(chuàng)建語境化的字嵌入,進(jìn)而作為后續(xù)模型的輸入。實(shí)驗(yàn)數(shù)據(jù)來源于“中國哲學(xué)書電子化計劃”網(wǎng)站(https://ctext.org/confucianism/zhs.),站內(nèi)收錄了逾3萬部中國歷代傳世文獻(xiàn),提供中英文版本。針對前人研究多使用單本或同類典籍文本作為語料來源而導(dǎo)致模型普適性較差的不足,文章從該網(wǎng)站爬取16部不同類型的典籍作為實(shí)驗(yàn)語料,包括《周易》《周禮》《孝經(jīng)》《論衡》《孫子兵法》《史記》《商君書》《墨子》《莊子》《公孫龍子》《孟子》《論語》《禮記》《戰(zhàn)國策》《尚書》《道德經(jīng)》。通過人工摘錄的方式,以編碼、中文句子、英文和典籍名稱4個字段存儲在Excel 中,樣例見圖1,構(gòu)建完成古-英典籍平行語料庫。
圖1 數(shù)據(jù)摘錄樣例
本研究的古文分詞標(biāo)準(zhǔn)主要參照南京農(nóng)業(yè)大學(xué)領(lǐng)域知識關(guān)聯(lián)中心制訂的《南京農(nóng)業(yè)大學(xué)古漢語分詞與詞性標(biāo)注規(guī)范》。該規(guī)范以國家標(biāo)準(zhǔn)《漢語信息處理詞匯》《現(xiàn)代漢語語料庫加工——詞語切分與詞性標(biāo)注規(guī)范與手冊》《南京農(nóng)業(yè)大學(xué)領(lǐng)域知識關(guān)聯(lián)研究中心語料標(biāo)注及校對規(guī)范》《南京農(nóng)業(yè)大學(xué)古漢語詞性標(biāo)記集(NACP)標(biāo)準(zhǔn)規(guī)范》為基礎(chǔ),以信息處理應(yīng)用為目的,根據(jù)古漢語的特點(diǎn)及規(guī)律,規(guī)定古漢語的分詞與詞性標(biāo)注原則。最終語料庫中源語言即古文標(biāo)注后的樣例(源自《孟子·梁惠王上》)如下所示:
孟子/nr見/v梁惠王/nr,/w王/nr立/v於/p沼/n上/f,/w 顧/v 鴻雁/n 麋鹿/n,/w 曰/v:/w“/w 賢/n者/r亦/d樂/v此/r乎/y?/w”/w
在數(shù)據(jù)準(zhǔn)備階段,將已進(jìn)行分詞的語料使用句末終點(diǎn)符如句號、問號等對句子進(jìn)行切分,并將每一個句子作為一行輸入。按照語料斷句,以{B,E,I,S}為標(biāo)記集合,B代表句首字,E代表句尾字,I代表當(dāng)句子長度大于3時的中間字,S代表單字成句。訓(xùn)練語料摘錄樣例如表1。
表1 訓(xùn)練語料摘錄樣例
實(shí)驗(yàn)中,以隨機(jī)的順序?qū)?shù)據(jù)集分為10份,其中9份作為訓(xùn)練集,1份為測試集,并使用十折交叉驗(yàn)證(10-fold cross-validation)方法增大數(shù)據(jù)集,輪流將十份數(shù)據(jù)中九份作為訓(xùn)練數(shù)據(jù),增強(qiáng)實(shí)驗(yàn)準(zhǔn)確性,減小誤差。預(yù)測情況與真實(shí)情況之間的混淆矩陣見表2。
表2 混淆矩陣
評價模型分詞水平常用評價指標(biāo)包括3個:精確率P(Precision)、召回率R(Recall)以及調(diào)和平均值F1(F1-score)。其中,準(zhǔn)確率和召回率分別體現(xiàn)了模型分詞的精確程度和全面程度,而調(diào)和平均值綜合了兩者的優(yōu)點(diǎn),避免二者差距過大的情況,能更客觀評價分詞結(jié)果,是實(shí)驗(yàn)中關(guān)鍵的評價指標(biāo),所用3個計算公式如下:
本實(shí)驗(yàn)選取的實(shí)驗(yàn)工具與環(huán)境為Pytorch1.4.0與Python3.7。在實(shí)驗(yàn)中,SikuBERT 模型的超參數(shù)均調(diào)整至最佳狀態(tài)。表3展示模型在任務(wù)環(huán)境下最佳狀態(tài)的主要超參數(shù)設(shè)置。
表3 實(shí)驗(yàn)主要超參數(shù)設(shè)置
根據(jù)本次實(shí)驗(yàn)十折交叉結(jié)果,記錄了每組的準(zhǔn)確率、召回率和調(diào)和平均值作為判斷模型性能的標(biāo)準(zhǔn),如表4所示。
表4 十組數(shù)據(jù)測驗(yàn)的準(zhǔn)確率、召回率和F1值
為便于比較,選擇觀察結(jié)果較為直觀的柱狀圖來反映本次實(shí)驗(yàn)?zāi)P偷目傮w性能,以十折交叉十組實(shí)驗(yàn)組次為橫軸,各組的各項指標(biāo)平均值為縱軸,圍繞模型訓(xùn)練結(jié)果制成圖2。
圖2 十折模型指標(biāo)平均值
通過對十折交叉整體調(diào)和平均值的比較分析,可知本實(shí)驗(yàn)的詞性標(biāo)簽總體預(yù)測準(zhǔn)確率達(dá)89.64%、召回率達(dá)90.03%、F1值達(dá)89.83%。實(shí)驗(yàn)證明,SikuBERT模型的整體效果均比較優(yōu)越。為進(jìn)一步分析實(shí)驗(yàn)結(jié)果,以第六組實(shí)驗(yàn)為例(表5),具體分析詞性自動標(biāo)注結(jié)果。其中,標(biāo)簽w(標(biāo)點(diǎn)符號)、y(語氣詞)、u(助詞)、r(代詞)、m(數(shù)詞)、p(介詞)、d(副詞)的識別準(zhǔn)確率均達(dá)到90%以上,標(biāo)簽c(連詞)、n(普通名詞)、v(一般動詞)的識別準(zhǔn)確率達(dá)到88%左右,而由于標(biāo)簽j(兼詞)、i(詞綴)、q(量詞)存在有效識別數(shù)量較少的問題,在本文中的研究意義不大,忽略不計。
表5 第六組實(shí)驗(yàn)的準(zhǔn)確率、召回率和F1值
從上述實(shí)驗(yàn)結(jié)果可知,SikuBERT模型在古文典籍文本詞性自動標(biāo)注方面取得了較理想的效果。相比傳統(tǒng)機(jī)器學(xué)習(xí)模型及常見的深度學(xué)習(xí)模型,SikuBERT模型在詞性自動標(biāo)注這一下游任務(wù)上效果有較大提升,更適應(yīng)海量規(guī)模的典籍任務(wù)處理,助推數(shù)字人文研究向縱深發(fā)展。
基于python語言,使用PyQt5圖形界面編程,構(gòu)建單機(jī)版“SIKU-BERT典籍智能處理系統(tǒng)”。該平臺1.0版本實(shí)現(xiàn)了文本分類、自動分詞與詞性自動標(biāo)注、自動斷句、實(shí)體自動識別等功能,能輔助減少數(shù)字人文研究者在文本處理上的消耗。在構(gòu)建“SIKU-BERT 典籍智能處理系統(tǒng)”(單機(jī)版)詞性自動標(biāo)注功能時,首先利用《漢語大詞典》的分詞文本對SikuBERT的訓(xùn)練集進(jìn)行擴(kuò)充,提升模型對非史籍文本分詞的準(zhǔn)確性;然后,基于分詞文本進(jìn)行詞性自動標(biāo)注。通過對代碼的整合,實(shí)現(xiàn)單句詞性自動標(biāo)注、單文本文件詞性自動標(biāo)注和多文本文件詞性自動標(biāo)注功能,以適用于不同規(guī)模文本的處理。軟件中的分詞按鈕通過PyQt5的信號發(fā)送功能與作為槽函數(shù)的分詞函數(shù)相連接,分詞函數(shù)的參數(shù)見表6。
表6 詞性標(biāo)注函數(shù)的參數(shù)和功能
在以上參數(shù)中,inputpath和outputpath用于接受用戶輸入的待處理文件路徑和處理后輸出的文件路徑,輸入文件中每個序列的長度一般控制在512以下,對于單個過長的序列則截斷為多個子序列。軟件能夠以CPU和GPU兩種方式運(yùn)行,從而最大限度地利用計算資源。圖3 為“SIKU-BERT典籍智能處理系統(tǒng)”主界面截圖,用戶單擊“單文本模式”和“語料庫模式”按鈕后即可跳轉(zhuǎn)至詞性自動標(biāo)注界面。
圖3 SIKU-BERT古文智能處理平臺主界面
在單文本模式下,用戶只需在界面左側(cè)“原始文本”導(dǎo)入待處理語料,單擊詞性標(biāo)注按鈕,系統(tǒng)即可在右側(cè)自動生成古籍文本詞性標(biāo)注結(jié)果。如圖4所示,選取《史記·陳涉世家》中的部分文本內(nèi)容作為樣例,能看到在右側(cè)的處理結(jié)果中,幾乎正確地切分所有人名、地名、官職等單字詞與雙字詞,并且對切分的字詞標(biāo)注出相對應(yīng)的不同詞性標(biāo)簽,適用于對一般古籍的處理。
圖4 SIKU-BERT古文智能處理平臺“單文本模式”詞性自動標(biāo)注示例
當(dāng)用戶需要處理大規(guī)模文本時,可選擇“語料庫模式”進(jìn)入系統(tǒng)(如圖5所示),單擊瀏覽按鈕選取待處理文件夾和輸出文件夾,再點(diǎn)擊詞性標(biāo)注按鈕,即可自動調(diào)用Siku-BERT詞性自動標(biāo)注模型以實(shí)現(xiàn)對批量文本的詞性標(biāo)注任務(wù)。
圖5 SIKU-BERT古文智能處理平臺“語料庫模式”詞性自動標(biāo)注示例
為驗(yàn)證SIKU-BERT古文智能處理平臺“詞性自動標(biāo)注”功能的實(shí)用性,以二十四史文本為語料,在“語料庫模式”下做了進(jìn)一步的詞性自動標(biāo)注及應(yīng)用分析。限于篇幅,僅展示名詞自動標(biāo)注的頻次結(jié)果,如表7所示。
表7 SIKU-BERT古文智能處理平臺對二十四史文本名詞自動標(biāo)注結(jié)果的頻次統(tǒng)計
名詞的自動標(biāo)注、統(tǒng)計與分析對還原和理解歷史事件的重要性不言而喻。以地名為例,通過頻次分析可知哪些地域?yàn)楸冶貭幹?,見圖6。
圖6 SIKU-BERT古文智能處理平臺對二十四史文本地名的自動標(biāo)注結(jié)果頻次統(tǒng)計(前10位)
頻次排在首位的“河南”非指今日中國的省份,而是多指古代河套以南地區(qū)。如《史記·蒙恬列傳》載:“秦已並天下,乃使蒙恬將三十萬眾北逐戎狄,收河南?!崩迷~性自動標(biāo)注技術(shù),基于頻次統(tǒng)計和古籍文本細(xì)致比讀,可以幫助更好地挖掘和理解歷史。而以時間名詞為例,通過頻次分析,可知?dú)v史上權(quán)力更迭與事件頻發(fā)的時間段(如圖7所示),從而開展更為深入的史學(xué)知識挖掘與分析。
圖7 SIKU-BERT古文智能處理平臺對二十四史文本時間名詞的自動標(biāo)注結(jié)果頻次統(tǒng)計(前10位)
從“元年”“二年”“三年”“四年”之類的時間名詞可知,王朝更替或權(quán)力更迭初期往往發(fā)生重要?dú)v史事件。更為有趣的是,“七月”“三月”“二月”3個月份也是歷史上事件多發(fā)時間段,個中規(guī)律值得跨學(xué)科合作下的深度挖掘。綜上可知,詞性自動標(biāo)注作為基礎(chǔ)工作對從量化分析角度實(shí)現(xiàn)更好的數(shù)字人文研究具有重要助益。
面向數(shù)字人文研究的復(fù)雜需求,本文構(gòu)建SikuBERT預(yù)訓(xùn)練模型并針對其在古籍文本詞性自動標(biāo)注方面的效能展開實(shí)驗(yàn),驗(yàn)證了其良好性能,展示了所開發(fā)的“SIKU-BERT典籍智能處理系統(tǒng)”詞性自動標(biāo)注功能模塊的設(shè)計理念及應(yīng)用。后續(xù)研究應(yīng)擴(kuò)大作為研究對象的古籍文本數(shù)量,進(jìn)一步檢驗(yàn)和提升SikuBERT預(yù)訓(xùn)練模型在古漢語詞性自動標(biāo)注中的性能。同時,深入研究與詞性密切相關(guān)的更多特征項,推進(jìn)詞性自動標(biāo)注工作向更深層次發(fā)展,并與相關(guān)學(xué)科學(xué)者展開合作,推出更具深度的數(shù)字人文研究成果。
注釋
①在漢語語法研究、辭書編纂等領(lǐng)域,“詞類”和“詞性”兩個術(shù)語的異同曾引發(fā)不少討論與爭鳴,本文傾向于萬眾(2020)的觀點(diǎn):“詞類”和“詞性”實(shí)為一個問題的兩面,“詞類”是就宏觀角度而言,針對詞的整體,確定類別,而“詞類”則是就微觀角度而言,針對詞的個體,進(jìn)行歸類。自然語言處理領(lǐng)域的詞性自動標(biāo)注本質(zhì)上就是利用計算機(jī)技術(shù)實(shí)現(xiàn)語詞自動歸類的問題。詳見:萬眾.詞類標(biāo)注還是詞性標(biāo)注[J].漢字文化,2020(13):118-121.
②其他基于統(tǒng)計的詞性自動標(biāo)注方法還有神經(jīng)元網(wǎng)絡(luò)、決策樹、線性分離網(wǎng)絡(luò)標(biāo)注模型、SVMTool等。限于篇幅,本文不詳細(xì)展開。