• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于BERT+BiLSTM+CRF模型與新預(yù)處理方法的古籍自動標(biāo)點(diǎn)

    2022-09-22 05:59:38瑤,顧
    軟件導(dǎo)刊 2022年9期
    關(guān)鍵詞:斷句標(biāo)點(diǎn)古文

    王 瑤,顧 磊

    (南京郵電大學(xué)計算機(jī)學(xué)院軟件學(xué)院網(wǎng)絡(luò)空間安全學(xué)院,江蘇南京 210023)

    0 引言

    中華文明源遠(yuǎn)流長,流傳下很多古籍文本,涵蓋了政治、歷史、哲學(xué)、文學(xué)、醫(yī)學(xué)等多方面內(nèi)容。通過對古籍文本進(jìn)行整理和學(xué)習(xí),現(xiàn)代人能夠了解并學(xué)習(xí)古人的智慧,更加準(zhǔn)確地認(rèn)識歷史。中文古籍文本一般不添加標(biāo)點(diǎn)符號[1]。韓愈在《師說》中云:“彼童子之師,授之書而習(xí)其句讀者?!北闶钦f古代孩子不僅要學(xué)習(xí)字詞,還要學(xué)習(xí)斷句?,F(xiàn)代人習(xí)慣在寫作過程中加入標(biāo)點(diǎn)符號幫助理解語義,在閱讀古籍文本時便會遇到諸多困難。因此,對古籍文本進(jìn)行斷句和標(biāo)點(diǎn)是人們學(xué)習(xí)和理解歷史文化的基礎(chǔ)環(huán)節(jié)[2]。

    1 相關(guān)研究

    傳統(tǒng)的古文斷句和標(biāo)點(diǎn)方法主要分為基于規(guī)則的方法和基于統(tǒng)計的方法兩種。例如,黃建年等[3]采用基于規(guī)則的方法對農(nóng)業(yè)古籍文本進(jìn)行斷句和標(biāo)點(diǎn),但需要語言專家針對目標(biāo)文本制定復(fù)雜的規(guī)則,不僅耗費(fèi)大量人力物力,還需要不斷修改和完善規(guī)則,且僅適用于目標(biāo)文本,移植性很差?;谝?guī)則的方法存在較多不足,研究人員開始嘗試采用基于統(tǒng)計的方法進(jìn)行古文斷句和標(biāo)點(diǎn)。例如,陳天瑩等[4]提出古文句子切分算法,通過n-gram 提取上下文信息;黃瀚萱[5]采用字標(biāo)注的形式,通過條件隨機(jī)場模型(Conditional Random Field,CRF)進(jìn)行古文斷句,性能優(yōu)于隱馬爾可夫模型(Hidden Markov Model,HMM)模型;張開旭等[6]將古文斷句問題看作是一個序列標(biāo)注問題,將CRF模型應(yīng)用于古文自動斷句和標(biāo)點(diǎn)任務(wù)中;Huang 等[7]將雙向長短時記憶網(wǎng)絡(luò)(Bi-directional Long-Short Term Memory,BiLSTM)+CRF 模型應(yīng)用于自然語言處理的基準(zhǔn)序列標(biāo)記數(shù)據(jù)集工作中,發(fā)現(xiàn)該模型可有效利用上下文內(nèi)容。然而,這些模型對連續(xù)文本的內(nèi)在聯(lián)系和語境信息學(xué)習(xí)并不充分,雖然提高了自動斷句和標(biāo)點(diǎn)性能,但離實際應(yīng)用還有很大距離。

    隨著自然語言處理技術(shù)的發(fā)展,研究人員嘗試將基于深度學(xué)習(xí)的方法應(yīng)用于古籍文本的處理中,主要應(yīng)用在斷句方面。例如,Wang 等[8]采用神經(jīng)網(wǎng)絡(luò)語言模型(Neural Network Language Model,NNLM)進(jìn)行古文斷句實驗,得到了與CRF 模型相媲美的性能;王博立等[9]采用基于GRU(Gated Recurrent unit)的雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)進(jìn)行古文斷句,取得比傳統(tǒng)方法更高的F1 值;HAN 等[10]提出一種基于字根嵌入的BiLSTM+CRF 模型進(jìn)行古文自動斷句,該模型可更好地學(xué)習(xí)連續(xù)文本的內(nèi)在聯(lián)系和語境信息;俞敬松等[11]將深層語言模型BERT(Bidirectional Encoder Representation from Transformers)用于古文斷句,采用二元標(biāo)記法在大規(guī)模語料庫上進(jìn)行訓(xùn)練,整體斷句正確率達(dá)90%左右;胡韌奮等[12]在BERT 模型的基礎(chǔ)上加入卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)模型和CRF 模型進(jìn)行斷句,分別在詩、詞和古文3 種不同數(shù)據(jù)集上進(jìn)行訓(xùn)練和測試,結(jié)果較BERT+微調(diào)模型性能有所提升。

    然而,相較于斷句,對古籍文本進(jìn)行標(biāo)點(diǎn)面臨著更大困難。傳統(tǒng)的機(jī)器學(xué)習(xí)和深度學(xué)習(xí)方法大都基于監(jiān)督學(xué)習(xí)設(shè)計,現(xiàn)代標(biāo)點(diǎn)符號的體系結(jié)構(gòu)并不能完全適用于古文。為此,本文將深層語言模型BERT 與BiLSTM+CRF 相結(jié)合用于古籍自動標(biāo)點(diǎn),同時對文本數(shù)據(jù)進(jìn)行以段落分行為格式的預(yù)處理,與以標(biāo)點(diǎn)分行為格式的預(yù)處理方法相比,可使模型更好地學(xué)習(xí)古文的語義和上下文之間的聯(lián)系。然后將本文模型與BiLSTM+CRF、BERT+CNN、BERT+CRF、BERT+微調(diào)等已應(yīng)用于現(xiàn)代文處理和古文斷句的深度學(xué)習(xí)模型進(jìn)行性能比較。

    2 用于文本處理的基本深度學(xué)習(xí)模型

    2.1 BiLSTM 模型

    傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)模型中,輸入的信息是沒有順序的,但在自然語言處理領(lǐng)域中經(jīng)常需要將詞匯映射成詞向量,然后輸入到神經(jīng)網(wǎng)絡(luò)。單詞不同的排列順序可能會導(dǎo)致語句意義的天差地別。為解決長距離句子信息的捕獲問題,Zaremba 等[13]提出了RNN 模型,但該模型會帶來梯度消失和梯度爆炸的問題。為解決該問題,Hochreiter等[14]提出長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)模型,該模型的整體邏輯與RNN 類似,都會經(jīng)過一個閉合的隱藏中間單元,但該模型引入了3 個門控單元解決梯度消失和爆炸問題。LSTM 模型通過訓(xùn)練過程可以學(xué)到記憶哪些信息和遺忘哪些信息,因此可以很好地捕捉較長距離的依賴關(guān)系,但其只能編碼從前到后的信息,并不能獲取當(dāng)前位置后面的信息。為解決這個問題,Dyer等[15]在LSTM 模型的基礎(chǔ)上提出BiLSTM 模型,其由前向LSTM和后向LSTM 組合而成,在自然語言處理任務(wù)中常被用于建模上下文信息。該模型既能編碼從前向后的信息,也能編碼從后向前的信息,可以更好地捕捉雙向的語義依賴。

    2.2 CRF模型

    CRF 是自然語言處理領(lǐng)域中的基礎(chǔ)模型,廣泛應(yīng)用于分詞、命名實體識別和詞性標(biāo)注等場景。CRF 是一個無向概率圖模型,通過建立概率模型分割和標(biāo)記序列數(shù)據(jù)[16]。CRF 將條件模型的優(yōu)點(diǎn)與隨機(jī)場模型的全局歸一化相結(jié)合,可獲得全局最優(yōu)結(jié)果。由于全局訓(xùn)練比較復(fù)雜,該模型僅訓(xùn)練正確選擇相鄰標(biāo)簽情況下的單個標(biāo)簽決策,最大程度地減少了誤差。

    2.3 BERT模型

    2018 年,Devlin 等[17]提出基于Transformer 的預(yù)訓(xùn)練語言模型BERT。與傳統(tǒng)語言模型不同,BERT 模型不是使用從左到右或從右到左的語言模型進(jìn)行預(yù)訓(xùn)練,而是使用Taylor 等[18]提出的完型填空程序和下一句預(yù)測任務(wù)進(jìn)行預(yù)訓(xùn)練,通過這兩個任務(wù)可以分別捕捉到詞語和句子級別的表示,從而實現(xiàn)真正意義上的雙向。

    BERT 模型結(jié)構(gòu)如圖1 所示[19]。模型輸入為文本,位于圖1 的第①部分。輸入文本后,需要對文本進(jìn)行向量表示,具體操作流程為圖1 的第②部分。模型的輸入向量(Input Embeddings,IE)除了從字向量表中查詢得到的字向量(Token Embeddings,TE)外,還加入了文本向量(Segment Embeddings,SE)和位置向量(Position Embeddings,PE)。SE 用于刻畫文本的全局語義信息,并且與字的語義信息相融合;PE 用于區(qū)分不同位置的字所攜帶的語義信息之間的差異。模型最終向量表示為:

    輸入向量經(jīng)過12 層的Transformer Encoder 進(jìn)行學(xué)習(xí),即圖1 的第③部分。Transformer Encoder 的結(jié)構(gòu)位于圖1右側(cè),圖中Nx=6 表示由6 個相同的層組成,每層由一個多頭注意力機(jī)制(Multi-Head Attention)和層歸一化(Add &Norm)加上一個前饋網(wǎng)絡(luò)(Feed Forward)和層歸一化(Add&Norm)組合而成,且多頭注意力機(jī)制和前饋網(wǎng)絡(luò)均有各自的殘差網(wǎng)絡(luò)(Residual Connection)。多頭注意力機(jī)制是將注意力機(jī)制操作多遍,將每次經(jīng)過注意力機(jī)制學(xué)習(xí)得到的結(jié)果組合得到最終輸出。注意力機(jī)制有Query、Key 和Value 3 個向量表示,其中Query 向量由目標(biāo)字線性轉(zhuǎn)換得到,Key 向量由上下文各字線性轉(zhuǎn)換得到,Value 由目標(biāo)字和上下文各字的原始向量表示得到。注意力機(jī)制首先通過計算Query 和Key 的相似度作為權(quán)重,然后加權(quán)融合目標(biāo)字和上下文各字的Value 向量作為注意力機(jī)制的輸出。注意力機(jī)制可以區(qū)分輸入的不同部分對輸出的影響,多頭注意力機(jī)制有助于幫助網(wǎng)絡(luò)捕捉到更豐富的特征和信息。前饋網(wǎng)絡(luò)將經(jīng)過注意力機(jī)制層后輸出的多個向量分別輸入到一個全連接層中。殘差連接將輸入與輸出相加,可有效避免在反向傳播過程中梯度連乘導(dǎo)致的梯度消失問題。層歸一化將輸入轉(zhuǎn)化為均值為0、方差為1 的數(shù)據(jù),以減少偏差,防止梯度消失和爆炸。最終,經(jīng)過12 層Transformer Encoder 的學(xué)習(xí)后可以得到模型的輸出向量,即圖1 的第④部分。輸出向量經(jīng)過損失函數(shù)和真值比較,將結(jié)果反饋給第③部分。

    Fig.1 BERT model architecture圖1 BERT模型結(jié)構(gòu)

    BERT 模型相較于傳統(tǒng)深度學(xué)習(xí)模型實現(xiàn)了從淺層雙向模型到深度雙向模型的突破性改變。傳統(tǒng)語言模型進(jìn)行訓(xùn)練時分別通過編碼前向和后向信息達(dá)到雙向,這種淺層連接效果遠(yuǎn)低于深度雙向模型。為使模型更好地學(xué)習(xí)前向和后向信息,BERT 模型提出了完型填空任務(wù)和下一句預(yù)測任務(wù),這兩項任務(wù)主要由12 層Transformer Encoder完成。在完型填空任務(wù)中,BERT 模型在向量表示部分會隨機(jī)遮蓋掉15%的字,然后根據(jù)上下文預(yù)測被遮蓋的字,被迫增加對上下文的記憶。為提高模型的遷移能力,BERT 模型會將80%被遮蓋的詞替換成[MASK]標(biāo)簽,10%用其他單詞隨機(jī)替換,10%保留原詞,使得模型在訓(xùn)練時需要關(guān)注到每個詞。為使模型能夠理解句子之間的聯(lián)系,BERT 模型增加了下一句預(yù)測任務(wù),使其具備抽象連續(xù)長序列特征的能力,其中50%的數(shù)據(jù)存在先后關(guān)系,是真實的下一句;另外50%是從語料中隨機(jī)拼湊而來,不具備先后關(guān)系,不是真正的下一句。同時,BERT 模型可以在大量未標(biāo)記數(shù)據(jù)[20]上預(yù)先進(jìn)行訓(xùn)練,然后針對特定任務(wù)進(jìn)行微調(diào)得到最終結(jié)果。

    3 數(shù)據(jù)預(yù)處理格式改進(jìn)

    本文采用的文本數(shù)據(jù)均從網(wǎng)上下載而來,不能直接使用,需要對其進(jìn)行清洗和預(yù)處理后才能送入BERT 模型。數(shù)據(jù)預(yù)處理是在數(shù)據(jù)轉(zhuǎn)化為輸入向量之前完成的,其不僅有利于模型訓(xùn)練和測試,還可以使其更好地學(xué)習(xí)古文的語義信息。

    模型通常將每行數(shù)據(jù)作為一個單元進(jìn)行處理,一個處理單元包含的信息越多,模型獲得的信息也就越多。進(jìn)行斷句和標(biāo)點(diǎn)前需要對古文的每個字進(jìn)行分類。本文吸取前人經(jīng)驗,選擇較為簡潔的二元標(biāo)簽組對數(shù)據(jù)集進(jìn)行標(biāo)記。二元標(biāo)簽組只能區(qū)分句子的開頭和其他部分,開頭用[B]標(biāo)簽標(biāo)記,其他部分用[I]標(biāo)簽標(biāo)記?,F(xiàn)有古文標(biāo)點(diǎn)數(shù)據(jù)集中的標(biāo)點(diǎn)較為雜亂,包含很多特殊的標(biāo)點(diǎn)符號,且數(shù)量較少,使得模型不易學(xué)習(xí)。為此,本文選取7 個常用標(biāo)點(diǎn)符號進(jìn)行學(xué)習(xí),其他符號省略。7 個常用標(biāo)點(diǎn)符號分別為逗號(,)、句號(。)、問號(?)、感嘆號(?。?、冒號(:)、分號(;)、頓號(、),對應(yīng)的標(biāo)點(diǎn)集為{(,),(。),(?),(!),(:),(;),(、)}。結(jié)合對開頭和其他部分的標(biāo)記,標(biāo)點(diǎn)對應(yīng)的分類標(biāo)簽分別為{[B_,],[I_,],[B_。],[I_。],[B_?],[I_?],[B_?。?,[I_?。?,[B_:],[I_:],[B_;],[I_;],[B_、],[I_、]}。

    用于古文信息處理的深度學(xué)習(xí)模型通常按照標(biāo)點(diǎn)符號分行進(jìn)行數(shù)據(jù)預(yù)處理,將該種方法以PreA 表示。如表1所示,PreA 只要遇到標(biāo)點(diǎn)便進(jìn)行分行,例如“已上五符,書投酒中,傾火穴傾符酒,咒曰:奔盧奔盧陀禹,念三徧”依據(jù)標(biāo)點(diǎn)符號可分成6 行,每行只有1 個標(biāo)點(diǎn)符號。此外,本文還設(shè)計了新的預(yù)處理方法,即按照段落分行,該種方法以PreB 表示。如表2 所示,“已上五符,書投酒中,傾火穴傾符酒,咒曰:奔盧奔盧陀禹,念三徧”依據(jù)段落進(jìn)行分行后只能處于一行,不能進(jìn)行換行。

    PreA 使得模型每次只學(xué)習(xí)1 個標(biāo)點(diǎn)符號及其前面的文本,不能很好地學(xué)習(xí)上下文之間的關(guān)聯(lián),獲取到的文本語義和關(guān)聯(lián)信息較少。PreB 不僅使模型學(xué)習(xí)到上下文信息,還可獲得文本語義和一些關(guān)聯(lián)信息。

    Table 1 Data preprocessing in the form of punctuation branch(PreA)表1 以標(biāo)點(diǎn)分行為格式的數(shù)據(jù)預(yù)處理(PreA)

    Table 2 Data preprocessing in the format of paragraphs and branches(PreB)表2 以段落分行為格式的數(shù)據(jù)預(yù)處理(PreB)

    4 基于深度學(xué)習(xí)模型的古文自動標(biāo)點(diǎn)模型

    本文進(jìn)行對比實驗使用的5 種深度學(xué)習(xí)模型結(jié)構(gòu)如圖2 所示,其輸入均為文本,輸出均為向量。Dropout 機(jī)制能夠提高模型性能,有效防止過擬合,因此本文在所有模型中均添加了Dropout機(jī)制[21]。

    BiLSTM+CRF 模型結(jié)構(gòu)如圖2 中①所示,其將輸入送入BiLSTM 層中,再將BiLSTM 的輸出送入CRF 層中,直接使用CRF 的損失函數(shù),從而找出最有可能的標(biāo)簽。BERT+微調(diào)模型結(jié)構(gòu)如圖2 中②所示,其將BERT 模型的輸出傳入一個全連接層得到每個標(biāo)點(diǎn)標(biāo)簽的可能性,然后送入Softmax 層,Softmax 層再將全連接層輸出的可能性全部映射到(0,1)區(qū)間上,使映射后的所有值累計和為1,最后選取映射后值最大的結(jié)點(diǎn),從而找到最有可能的標(biāo)點(diǎn)標(biāo)簽。BERT+CNN 模型結(jié)構(gòu)如圖2 中③所示,其引入CNN 模型,將BERT 的輸出直接送入到100 個寬度為3 的卷積核中進(jìn)行再次學(xué)習(xí),得到的輸出傳入全連接層得到每個標(biāo)點(diǎn)標(biāo)簽的可能性,再傳入Softmax 層,以找到最有可能的標(biāo)點(diǎn)標(biāo)簽。BERT+CRF 模型結(jié)構(gòu)如圖2 中④所示,其在BERT 中引入CRF 模型,將BERT 的輸出直接送入CRF 層中。該模型舍棄了BERT+微調(diào)模型中的全連接層和Softmax 層,直接使用CRF 的損失函數(shù),從而找出最有可能的標(biāo)簽。CRF層能進(jìn)一步提高模型預(yù)測準(zhǔn)確率,學(xué)習(xí)標(biāo)點(diǎn)標(biāo)記之間的聯(lián)系,規(guī)范預(yù)測結(jié)果。本文模型BERT+BiLSTM+CRF 結(jié)構(gòu)如圖2 中⑤所示,其將BERT 的輸出直接送入BiLSTM 層,再將BiLSTM 的輸出送入CRF 層中。該模型亦舍棄了BERT+微調(diào)模型中的全連接層和Softmax 層,直接使用CRF 的損失函數(shù),以找出最有可能的標(biāo)簽。BiLSTM 和CRF 層相結(jié)合能達(dá)到互補(bǔ)的效果,既能夠?qū)W習(xí)上下文之間的關(guān)聯(lián)信息,又可以學(xué)習(xí)標(biāo)點(diǎn)標(biāo)記之間的聯(lián)系。

    Fig.2 Structure of automatic punctuation models for ancient Chinese based on deep learning圖2 基于深度學(xué)習(xí)模型的古文自動標(biāo)點(diǎn)結(jié)構(gòu)

    5 實驗結(jié)果與分析

    5.1 數(shù)據(jù)集

    由于沒有開源的處理好的古文標(biāo)點(diǎn)數(shù)據(jù)集,本文從殆知閣(http://www.daizhige.org/)下載古文,并進(jìn)行數(shù)據(jù)清洗和整理。殆知閣中包括易藏、儒藏、道藏、佛藏、子藏、史藏、詩藏、易藏和藝藏多個領(lǐng)域古文,但文本并沒有全部進(jìn)行斷句和標(biāo)點(diǎn),且不同類別文本的標(biāo)點(diǎn)效果也不同。本文采用標(biāo)點(diǎn)質(zhì)量較好的道藏作為訓(xùn)練集和測試集。為進(jìn)一步測試模型和預(yù)處理方法PreB 的性能,本文還選取了史藏的部分內(nèi)容作為測試集,史藏測試集的大小與道藏測試集類似。本文所有訓(xùn)練集和測試集均無重復(fù)內(nèi)容,所有測試集均未參與預(yù)訓(xùn)練任務(wù)。具體標(biāo)點(diǎn)訓(xùn)練集和測試集規(guī)模大小如表3所示。

    Table 3 Punctuation training and test set size表3 標(biāo)點(diǎn)訓(xùn)練集與測試集規(guī)模

    5.2 實驗配置

    硬件環(huán)境:64 位Ubuntu18.04 系統(tǒng),Intel Silver 4210@2.10GHz40 處理器,128GB內(nèi)存,GeForce RTX 2080 Ti 顯卡。軟件環(huán)境:Python3.6,TensorFlow1.14.0。

    以BERT+微調(diào)模型作為基線模型,采用12 層Transformer 模型,hidden_size 設(shè)為768,num_attention_heads 設(shè)為12。按標(biāo)點(diǎn)分行的數(shù)據(jù)集最大序列長度為64,按段落分行的數(shù)據(jù)集最大序列長度為512。對于其他4 個模型,為了特征抽取,CNN 選取100 個寬度為3 的卷積核,CRF 層使用默認(rèn)設(shè)置,BiLSTM 使用的lstm_size 為768。

    5.3 評價標(biāo)準(zhǔn)

    使用準(zhǔn)確率(P)、召回率(R)和調(diào)和平均值F1 作為模型評價指標(biāo)。由于標(biāo)點(diǎn)標(biāo)簽有多個,并且每個標(biāo)簽的學(xué)習(xí)結(jié)果不同,其中關(guān)于逗號(,)和句號(。)的數(shù)據(jù)集較多,學(xué)習(xí)效果優(yōu)于其他標(biāo)點(diǎn)符號。因此,考慮到標(biāo)點(diǎn)標(biāo)簽的不平衡性,采用微平均(micro)對模型進(jìn)行評價,該指標(biāo)適用于數(shù)據(jù)分布不平衡的情況[11],具體評價公式為:

    式中,TP為標(biāo)點(diǎn)標(biāo)簽預(yù)測正確的數(shù)量,F(xiàn)P為標(biāo)點(diǎn)標(biāo)簽預(yù)測錯誤的數(shù)量,F(xiàn)N為標(biāo)點(diǎn)標(biāo)簽沒有被預(yù)測出的數(shù)量。

    5.4 實驗結(jié)果

    標(biāo)點(diǎn)質(zhì)量較高的道藏數(shù)據(jù)集按PreA 方法進(jìn)行數(shù)據(jù)預(yù)處理,將處理好的數(shù)據(jù)送入模型,得到的實驗結(jié)果如表4所示。為測試模型的泛化能力,本文還選取了與道藏測試集大小相似的史藏數(shù)據(jù)集,同樣按PreA 方法進(jìn)行測試,得到的實驗結(jié)果如表5所示。

    Table 4 Results of Taoist sutra dataset(preprocessing method:PreA)表4 道藏數(shù)據(jù)集測試結(jié)果(預(yù)處理方法:PreA)

    Table 5 Results of history sutra dataset(preprocessing method:PreA)表5 史藏數(shù)據(jù)集測試結(jié)果(預(yù)處理方法:PreA)

    由表4 可知,BERT+BiLSTM+CRF 模型在道藏測試集上的測試結(jié)果最優(yōu),F(xiàn)1 值達(dá)到77.46%;BiLSTM+CRF 模型在道藏測試集上的測試結(jié)果最差,F(xiàn)1 值僅為58.25%。可以看出,在BiLSTM+CRF 模型的基礎(chǔ)上增加BERT 模型能夠提高準(zhǔn)確率。由表5 可知,BERT+BiLSTM+CRF 模型在史藏測試集上的測試結(jié)果最優(yōu),F(xiàn)1 值達(dá)到63.95%;BiLSTM+CRF 模型在史藏測試集上的測試結(jié)果最差,F(xiàn)1 值僅為52.81%??梢钥闯觯贐iLSTM+CRF 模型的基礎(chǔ)上增加BERT 模型能夠改善泛化能力。

    此外,本文還嘗試采用PreB 方法進(jìn)行數(shù)據(jù)預(yù)處理,以期模型能夠更好地學(xué)習(xí)文本的語義信息。采用PreB 方法預(yù)處理標(biāo)點(diǎn)質(zhì)量較高的道藏數(shù)據(jù)集,結(jié)果如表6 所示。為了進(jìn)一步考察按照PreB 方法進(jìn)行數(shù)據(jù)預(yù)處理后訓(xùn)練出的模型的泛化性,本文還選取了與道藏數(shù)據(jù)集大小相似的史藏數(shù)據(jù)集進(jìn)行測試,結(jié)果如表7所示。

    由表6 可知,BERT+微調(diào)模型在道藏測試集上的測試結(jié)果最優(yōu),F(xiàn)1 值達(dá)到85.46%;BiLSTM+CRF 模型在道藏測試集上的測試結(jié)果最差,F(xiàn)1 值僅為77.97%。由表7 可知,BERT+CRF 模型在史藏測試集上的測試結(jié)果最優(yōu),F(xiàn)1 值達(dá)到78.56%;BiLSTM+CRF 模型在史藏測試集上的測試結(jié)果最差,F(xiàn)1 值僅為70.14%。對比表4 和表6 結(jié)果可以發(fā)現(xiàn),使用PreB 方法進(jìn)行數(shù)據(jù)預(yù)處理得到的結(jié)果優(yōu)于使用PreA方法的結(jié)果,最高F1 值提升了8%左右,說明使用PreB 方式進(jìn)行數(shù)據(jù)預(yù)處理可使模型更好地學(xué)習(xí)文本信息及其內(nèi)在聯(lián)系。對比表5 和表7 結(jié)果可以發(fā)現(xiàn),使用PreB 方法進(jìn)行數(shù)據(jù)預(yù)處理后模型的泛化效果優(yōu)于使用PreA 方法,最高F1值提高了14%左右。

    Table 6 Results of Taoist sutra dataset(preprocessing method:PreB)表6 道藏數(shù)據(jù)集測試結(jié)果(預(yù)處理方法:PreB)

    Table 7 Results of history sutra dataset(preprocessing method:PreB)表7 史藏數(shù)據(jù)集測試結(jié)果(預(yù)處理方法:PreB)

    5.5 案例應(yīng)用

    從道藏數(shù)據(jù)集中選取兩個標(biāo)點(diǎn)案例進(jìn)行預(yù)測,預(yù)測文本與訓(xùn)練語料無任何關(guān)系。采用不同數(shù)據(jù)預(yù)處理方式訓(xùn)練得到的模型進(jìn)行標(biāo)點(diǎn),標(biāo)點(diǎn)標(biāo)錯的位置采用▲標(biāo)記。案例1標(biāo)點(diǎn)結(jié)果如表8所示,案例2標(biāo)點(diǎn)結(jié)果如表9所示。

    Table 8 Prediction results of Taoist sutra dataset punctuation case 1表8 道藏數(shù)據(jù)集標(biāo)點(diǎn)案例1預(yù)測結(jié)果

    Table 9 Prediction results of Taoist sutra dataset punctuation case 2表9 道藏數(shù)據(jù)集標(biāo)點(diǎn)案例2預(yù)測結(jié)果

    由表8 可知,使用PreB 方法進(jìn)行訓(xùn)練和預(yù)測的結(jié)果優(yōu)于PreA。由表9 可知,相較于BERT+CNN、BERT+CRF 和BERT+BiLSTM+CRF 模型,BERT+微調(diào)模型對于數(shù)據(jù)量較少的標(biāo)點(diǎn)符號預(yù)測效果較差,例如頓號(、)。然而,BERT+BiLSTM+CRF 模型在長文本數(shù)據(jù)的學(xué)習(xí)上相較于BERT+微調(diào)模型并沒有表現(xiàn)出更好的效果,反而會影響數(shù)據(jù)量較多的標(biāo)點(diǎn)符號學(xué)習(xí)。在日常生活中需要使用到很多標(biāo)點(diǎn),有些不經(jīng)常被使用,數(shù)據(jù)量較少。后續(xù)如果引入更多類型的標(biāo)點(diǎn)符號,BERT+BiLSTM+CRF 模型可能會取得更好的標(biāo)記效果。

    6 結(jié)語

    本文在BERT 模型的基礎(chǔ)上加入BiLSTM+CRF 模型學(xué)習(xí)古籍文本語義信息與標(biāo)點(diǎn)標(biāo)簽的規(guī)范信息,同時提出按段落分行的數(shù)據(jù)預(yù)處理方法,使得一個數(shù)據(jù)處理單元能包含更多信息,模型能夠更好地學(xué)習(xí)到文本的語義和上下文關(guān)聯(lián)等信息。雖然使用按段落分行的數(shù)據(jù)預(yù)處理方法會使BERT+BiLSTM+CRF 模型的訓(xùn)練結(jié)果略遜于BERT+微調(diào)模型,但通過應(yīng)用案例可以發(fā)現(xiàn),在一些標(biāo)簽數(shù)量較少的標(biāo)點(diǎn)符號中,BERT+BiLSTM+CRF 模型的學(xué)習(xí)效果更好。后續(xù)可進(jìn)一步增加古文常用的標(biāo)點(diǎn)標(biāo)簽數(shù)量,以驗證BERT+BiLSTM+CRF 模型的性能。同時,也可以進(jìn)一步增加標(biāo)點(diǎn)質(zhì)量較差的數(shù)據(jù)集,以提高模型的泛化性能。

    猜你喜歡
    斷句標(biāo)點(diǎn)古文
    中古文學(xué)劄叢之二(五題)
    國學(xué)(2021年0期)2022-01-18 05:58:20
    標(biāo)點(diǎn)可有可無嗎
    《遼史》標(biāo)點(diǎn)辨誤四則
    小小標(biāo)點(diǎn)真厲害
    古文中走出的“超能力者”
    稱象
    文言斷句判斷法
    讀《隸定古文疏證》札記
    “斷句” “密碼”費(fèi)人解(二則)
    中華詩詞(2017年3期)2017-11-27 03:44:18
    妙用標(biāo)點(diǎn)巧斷句
    国产精品一区二区在线观看99| 在现免费观看毛片| 女的被弄到高潮叫床怎么办| 秋霞伦理黄片| 国产成人精品久久久久久| 99香蕉大伊视频| www.精华液| 搡老乐熟女国产| 久久久精品94久久精品| 黄片无遮挡物在线观看| 婷婷色综合大香蕉| 又大又黄又爽视频免费| 亚洲国产av影院在线观看| 99香蕉大伊视频| 欧美bdsm另类| 啦啦啦在线免费观看视频4| 麻豆精品久久久久久蜜桃| 日本91视频免费播放| 精品酒店卫生间| 国产精品无大码| 黑人猛操日本美女一级片| 亚洲欧美清纯卡通| 久久国产精品男人的天堂亚洲| 黑丝袜美女国产一区| 看非洲黑人一级黄片| 丰满迷人的少妇在线观看| 亚洲欧美一区二区三区国产| 亚洲人成网站在线观看播放| 亚洲一区二区三区欧美精品| 成人漫画全彩无遮挡| 亚洲五月色婷婷综合| 秋霞伦理黄片| 91国产中文字幕| 欧美精品av麻豆av| 妹子高潮喷水视频| 国产在线免费精品| 日韩制服骚丝袜av| 丝袜美足系列| av线在线观看网站| 你懂的网址亚洲精品在线观看| 国产麻豆69| xxxhd国产人妻xxx| 国产深夜福利视频在线观看| 国产av精品麻豆| 26uuu在线亚洲综合色| 天美传媒精品一区二区| 精品99又大又爽又粗少妇毛片| 亚洲在久久综合| 91国产中文字幕| 亚洲情色 制服丝袜| 亚洲欧美日韩另类电影网站| 在线精品无人区一区二区三| 免费播放大片免费观看视频在线观看| 99九九在线精品视频| 韩国精品一区二区三区| 中文字幕人妻丝袜制服| av免费在线看不卡| videossex国产| 丝瓜视频免费看黄片| 人人妻人人澡人人爽人人夜夜| 免费在线观看黄色视频的| 免费观看性生交大片5| 婷婷色av中文字幕| 久久久国产精品麻豆| 99热国产这里只有精品6| 久久99热这里只频精品6学生| 性色av一级| 99re6热这里在线精品视频| 91国产中文字幕| 日韩成人av中文字幕在线观看| 老汉色∧v一级毛片| 精品人妻熟女毛片av久久网站| 91国产中文字幕| 欧美日韩视频高清一区二区三区二| 一区二区三区激情视频| 岛国毛片在线播放| 大码成人一级视频| 最近2019中文字幕mv第一页| 欧美日本中文国产一区发布| 亚洲av男天堂| 国产 精品1| 在线观看免费视频网站a站| 91午夜精品亚洲一区二区三区| 欧美中文综合在线视频| 久久久久久免费高清国产稀缺| 国产毛片在线视频| 久久精品国产自在天天线| 国产av国产精品国产| 18禁动态无遮挡网站| 国产成人精品福利久久| 99热网站在线观看| 亚洲国产色片| a级片在线免费高清观看视频| 免费人妻精品一区二区三区视频| 卡戴珊不雅视频在线播放| 99久久人妻综合| 久久国产精品大桥未久av| 人人妻人人澡人人爽人人夜夜| 精品久久久久久电影网| 亚洲四区av| 成年女人在线观看亚洲视频| 国产精品无大码| 日日摸夜夜添夜夜爱| 欧美成人午夜免费资源| 国产成人精品久久二区二区91 | 女人精品久久久久毛片| 日本欧美国产在线视频| 欧美+日韩+精品| 日本色播在线视频| 国产在视频线精品| 国产又色又爽无遮挡免| 又大又黄又爽视频免费| 国产精品嫩草影院av在线观看| 美女视频免费永久观看网站| 精品人妻一区二区三区麻豆| 十八禁高潮呻吟视频| 久久久精品免费免费高清| 免费高清在线观看日韩| 哪个播放器可以免费观看大片| 边亲边吃奶的免费视频| 男女边摸边吃奶| 亚洲av男天堂| 久久综合国产亚洲精品| 亚洲综合精品二区| 如何舔出高潮| 美女午夜性视频免费| videosex国产| 成人毛片a级毛片在线播放| 亚洲精品久久久久久婷婷小说| 性少妇av在线| 国产亚洲最大av| 亚洲精品国产av成人精品| 建设人人有责人人尽责人人享有的| 少妇精品久久久久久久| 美女高潮到喷水免费观看| 日韩伦理黄色片| 亚洲综合精品二区| 秋霞伦理黄片| 免费观看a级毛片全部| 男男h啪啪无遮挡| 亚洲av综合色区一区| 麻豆精品久久久久久蜜桃| 亚洲三区欧美一区| 伊人久久大香线蕉亚洲五| 十八禁网站网址无遮挡| 天堂中文最新版在线下载| 日产精品乱码卡一卡2卡三| 交换朋友夫妻互换小说| 波多野结衣一区麻豆| 一边亲一边摸免费视频| 久久 成人 亚洲| a 毛片基地| 女人高潮潮喷娇喘18禁视频| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 美女主播在线视频| 一级毛片电影观看| 国产精品久久久久久av不卡| 日韩中文字幕欧美一区二区 | av国产精品久久久久影院| 亚洲国产色片| 欧美激情极品国产一区二区三区| 欧美日韩亚洲国产一区二区在线观看 | 寂寞人妻少妇视频99o| av又黄又爽大尺度在线免费看| 在现免费观看毛片| 亚洲精品久久成人aⅴ小说| 日韩人妻精品一区2区三区| 久久影院123| 久久精品久久久久久久性| 久久精品国产亚洲av涩爱| 中文字幕人妻熟女乱码| 亚洲国产欧美网| 午夜影院在线不卡| 国产精品无大码| 国产免费视频播放在线视频| 久热这里只有精品99| 国产精品一国产av| 亚洲国产最新在线播放| 久久久久久人妻| 人人妻人人澡人人看| 男女边吃奶边做爰视频| av在线播放精品| 免费人妻精品一区二区三区视频| 成人影院久久| 一边摸一边做爽爽视频免费| 日韩欧美一区视频在线观看| 美女大奶头黄色视频| 777米奇影视久久| 美女国产高潮福利片在线看| 久久精品aⅴ一区二区三区四区 | 叶爱在线成人免费视频播放| 亚洲国产av影院在线观看| 久久97久久精品| 欧美精品亚洲一区二区| tube8黄色片| 亚洲一码二码三码区别大吗| 91久久精品国产一区二区三区| 国产精品99久久99久久久不卡 | 日韩一区二区视频免费看| 最近最新中文字幕大全免费视频 | 成人免费观看视频高清| 一区二区av电影网| 啦啦啦中文免费视频观看日本| 999精品在线视频| 亚洲经典国产精华液单| 一区在线观看完整版| 天美传媒精品一区二区| 人妻少妇偷人精品九色| 精品亚洲成a人片在线观看| 国产成人精品福利久久| 日韩伦理黄色片| 成人亚洲精品一区在线观看| 欧美成人午夜免费资源| 亚洲国产看品久久| 人人妻人人爽人人添夜夜欢视频| 亚洲熟女精品中文字幕| 熟女少妇亚洲综合色aaa.| 男女边吃奶边做爰视频| 男女下面插进去视频免费观看| 如日韩欧美国产精品一区二区三区| 啦啦啦在线观看免费高清www| 欧美人与性动交α欧美软件| 老女人水多毛片| 在线天堂中文资源库| 免费大片黄手机在线观看| 精品国产乱码久久久久久男人| 蜜桃在线观看..| 日本欧美视频一区| 永久免费av网站大全| www.精华液| 黄网站色视频无遮挡免费观看| videos熟女内射| 精品人妻熟女毛片av久久网站| 看非洲黑人一级黄片| 咕卡用的链子| 男女无遮挡免费网站观看| 午夜福利在线观看免费完整高清在| 精品一区二区三区四区五区乱码 | 精品人妻偷拍中文字幕| 在线看a的网站| 国产97色在线日韩免费| 亚洲欧洲国产日韩| 夫妻性生交免费视频一级片| 欧美精品一区二区大全| 中国三级夫妇交换| 最近最新中文字幕免费大全7| 欧美国产精品va在线观看不卡| 在线观看人妻少妇| 欧美日韩一区二区视频在线观看视频在线| 国产成人91sexporn| 9191精品国产免费久久| 午夜精品国产一区二区电影| 亚洲成人av在线免费| 在线观看三级黄色| 97人妻天天添夜夜摸| 青春草视频在线免费观看| 人成视频在线观看免费观看| 久久午夜综合久久蜜桃| 国产成人欧美| 伦精品一区二区三区| 亚洲一码二码三码区别大吗| 国产淫语在线视频| 女人被躁到高潮嗷嗷叫费观| 免费看av在线观看网站| 久久久久久久国产电影| 国产亚洲精品第一综合不卡| 秋霞伦理黄片| 日韩一本色道免费dvd| 国产精品亚洲av一区麻豆 | av视频免费观看在线观看| 欧美xxⅹ黑人| 91国产中文字幕| 国产成人精品在线电影| 久久久久国产一级毛片高清牌| a级毛片黄视频| 18+在线观看网站| 观看av在线不卡| 可以免费在线观看a视频的电影网站 | 97人妻天天添夜夜摸| videos熟女内射| 99国产综合亚洲精品| 国产亚洲最大av| 国产爽快片一区二区三区| 亚洲中文av在线| 亚洲精品乱久久久久久| 天堂俺去俺来也www色官网| 成人亚洲欧美一区二区av| 大码成人一级视频| videossex国产| 日本91视频免费播放| 精品福利永久在线观看| 欧美日韩成人在线一区二区| 精品人妻在线不人妻| 九草在线视频观看| av免费在线看不卡| 秋霞在线观看毛片| 看十八女毛片水多多多| 国产亚洲最大av| 国产深夜福利视频在线观看| 永久免费av网站大全| av一本久久久久| 婷婷成人精品国产| 黄色一级大片看看| 亚洲美女视频黄频| 国产人伦9x9x在线观看 | 国产又色又爽无遮挡免| 交换朋友夫妻互换小说| 亚洲国产av新网站| 亚洲国产欧美网| 日日啪夜夜爽| 熟女电影av网| 欧美中文综合在线视频| av卡一久久| 日本猛色少妇xxxxx猛交久久| 男人爽女人下面视频在线观看| 午夜免费观看性视频| 在线观看免费日韩欧美大片| 啦啦啦中文免费视频观看日本| 国产精品久久久久久精品古装| 久久女婷五月综合色啪小说| 大片电影免费在线观看免费| 丝袜在线中文字幕| 亚洲国产精品一区二区三区在线| 在线观看国产h片| 亚洲伊人色综图| 国产精品国产三级专区第一集| 日韩欧美精品免费久久| 性少妇av在线| 亚洲国产精品成人久久小说| 国产又色又爽无遮挡免| 国产黄频视频在线观看| 日韩免费高清中文字幕av| 午夜福利,免费看| 七月丁香在线播放| 最近的中文字幕免费完整| av有码第一页| 欧美国产精品一级二级三级| 亚洲精品中文字幕在线视频| 叶爱在线成人免费视频播放| 国产精品一区二区在线不卡| 日韩一卡2卡3卡4卡2021年| 欧美日韩一区二区视频在线观看视频在线| 婷婷色综合大香蕉| 好男人视频免费观看在线| 欧美日韩亚洲高清精品| 午夜福利在线观看免费完整高清在| 男女国产视频网站| 久久精品国产a三级三级三级| 成人毛片60女人毛片免费| 91精品国产国语对白视频| 一区福利在线观看| 国产成人免费观看mmmm| 久久久久国产精品人妻一区二区| 香蕉丝袜av| 久久久久久久久久久久大奶| 午夜免费鲁丝| 天天躁狠狠躁夜夜躁狠狠躁| 亚洲精品久久久久久婷婷小说| 日日爽夜夜爽网站| 秋霞伦理黄片| 亚洲一区二区三区欧美精品| 91精品三级在线观看| 成年人免费黄色播放视频| 欧美精品一区二区免费开放| 国产成人免费无遮挡视频| 亚洲精华国产精华液的使用体验| 一本色道久久久久久精品综合| 久久久久久人妻| 亚洲美女黄色视频免费看| a 毛片基地| 国产精品av久久久久免费| 青青草视频在线视频观看| 男女无遮挡免费网站观看| 亚洲美女视频黄频| 美女视频免费永久观看网站| 大话2 男鬼变身卡| 久久 成人 亚洲| tube8黄色片| 日韩av不卡免费在线播放| 一本久久精品| 秋霞伦理黄片| 欧美 日韩 精品 国产| 少妇人妻精品综合一区二区| 男女无遮挡免费网站观看| 欧美日韩视频精品一区| 大片免费播放器 马上看| 日韩精品免费视频一区二区三区| 亚洲欧洲国产日韩| 国产精品国产三级国产专区5o| 90打野战视频偷拍视频| 国产精品免费大片| 丰满饥渴人妻一区二区三| 欧美激情高清一区二区三区 | 又大又黄又爽视频免费| 午夜免费鲁丝| 下体分泌物呈黄色| 91午夜精品亚洲一区二区三区| 亚洲av电影在线观看一区二区三区| 久久久久久久亚洲中文字幕| 视频在线观看一区二区三区| 91精品国产国语对白视频| 美女午夜性视频免费| 视频在线观看一区二区三区| 亚洲精品国产av成人精品| 九草在线视频观看| √禁漫天堂资源中文www| 日韩一区二区三区影片| 黑丝袜美女国产一区| 一边亲一边摸免费视频| 国产无遮挡羞羞视频在线观看| 99国产综合亚洲精品| 成人18禁高潮啪啪吃奶动态图| 天堂俺去俺来也www色官网| 国产在线免费精品| 日韩制服骚丝袜av| 咕卡用的链子| 日韩欧美一区视频在线观看| 这个男人来自地球电影免费观看 | 日韩不卡一区二区三区视频在线| 国语对白做爰xxxⅹ性视频网站| 少妇精品久久久久久久| 亚洲精品aⅴ在线观看| 人人妻人人添人人爽欧美一区卜| 国产亚洲精品第一综合不卡| 91aial.com中文字幕在线观看| 亚洲婷婷狠狠爱综合网| 国产成人精品一,二区| 黄片无遮挡物在线观看| 中文字幕精品免费在线观看视频| 99国产精品免费福利视频| 一级毛片电影观看| 在线观看一区二区三区激情| 久久久久久伊人网av| 18禁动态无遮挡网站| 亚洲美女黄色视频免费看| 9热在线视频观看99| 少妇的逼水好多| 婷婷色综合大香蕉| 在线 av 中文字幕| 精品人妻一区二区三区麻豆| av有码第一页| 中文精品一卡2卡3卡4更新| 国产一级毛片在线| 老司机影院毛片| 久久这里只有精品19| 色婷婷久久久亚洲欧美| 看免费成人av毛片| 一区二区三区精品91| 性色avwww在线观看| 亚洲av在线观看美女高潮| 狠狠婷婷综合久久久久久88av| av免费观看日本| 久久午夜综合久久蜜桃| 精品99又大又爽又粗少妇毛片| 午夜福利一区二区在线看| 男女下面插进去视频免费观看| 久久精品久久精品一区二区三区| 99热国产这里只有精品6| 国产老妇伦熟女老妇高清| www.av在线官网国产| 日韩三级伦理在线观看| 久久精品国产鲁丝片午夜精品| 99香蕉大伊视频| 一二三四在线观看免费中文在| 久久久欧美国产精品| 婷婷色综合大香蕉| 久久精品久久精品一区二区三区| 日韩制服丝袜自拍偷拍| 久久99一区二区三区| 伦理电影免费视频| 精品亚洲乱码少妇综合久久| 国产av精品麻豆| 黑人猛操日本美女一级片| 亚洲成人一二三区av| 女性生殖器流出的白浆| 一级毛片 在线播放| 少妇熟女欧美另类| 黄频高清免费视频| 男女国产视频网站| 久久久a久久爽久久v久久| 性高湖久久久久久久久免费观看| 亚洲内射少妇av| 亚洲国产成人一精品久久久| 欧美激情极品国产一区二区三区| av片东京热男人的天堂| 欧美日韩精品网址| 伦理电影大哥的女人| 精品久久蜜臀av无| 丝袜在线中文字幕| 欧美日韩一区二区视频在线观看视频在线| av网站在线播放免费| 亚洲图色成人| 中文天堂在线官网| 日韩免费高清中文字幕av| 久久国产精品男人的天堂亚洲| 日本av免费视频播放| 国产片特级美女逼逼视频| 国产一区二区三区综合在线观看| 午夜久久久在线观看| 亚洲精品在线美女| 老鸭窝网址在线观看| 毛片一级片免费看久久久久| 蜜桃在线观看..| 久久久久国产一级毛片高清牌| 国产无遮挡羞羞视频在线观看| 黄频高清免费视频| 久久ye,这里只有精品| 丁香六月天网| 日韩中字成人| 黄网站色视频无遮挡免费观看| 亚洲精品视频女| 卡戴珊不雅视频在线播放| 亚洲精品一二三| 少妇的丰满在线观看| 少妇熟女欧美另类| 国产在线免费精品| 高清av免费在线| 国产一区有黄有色的免费视频| 日韩精品有码人妻一区| 老司机亚洲免费影院| 伦理电影大哥的女人| 久久久久人妻精品一区果冻| 18禁观看日本| 国产精品偷伦视频观看了| 欧美日韩精品网址| 中文字幕另类日韩欧美亚洲嫩草| 免费观看性生交大片5| 人妻一区二区av| 一级片'在线观看视频| 女人高潮潮喷娇喘18禁视频| 69精品国产乱码久久久| 我要看黄色一级片免费的| 99国产精品免费福利视频| 各种免费的搞黄视频| 精品99又大又爽又粗少妇毛片| 亚洲av中文av极速乱| 王馨瑶露胸无遮挡在线观看| 国产探花极品一区二区| 中文字幕最新亚洲高清| 午夜影院在线不卡| 色婷婷av一区二区三区视频| 亚洲成人一二三区av| 日本午夜av视频| 下体分泌物呈黄色| 色网站视频免费| 91精品国产国语对白视频| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | www.精华液| 国产xxxxx性猛交| 亚洲人成电影观看| 欧美成人午夜精品| 大香蕉久久成人网| 美女福利国产在线| 精品国产一区二区三区四区第35| 精品久久久久久电影网| 9热在线视频观看99| 岛国毛片在线播放| 青春草亚洲视频在线观看| 国产在线视频一区二区| av天堂久久9| 80岁老熟妇乱子伦牲交| 中国三级夫妇交换| 新久久久久国产一级毛片| 波多野结衣一区麻豆| 韩国av在线不卡| 亚洲av欧美aⅴ国产| 日本欧美国产在线视频| 狠狠婷婷综合久久久久久88av| 国产1区2区3区精品| 亚洲男人天堂网一区| 久久久久人妻精品一区果冻| 秋霞伦理黄片| 一本色道久久久久久精品综合| 亚洲精品中文字幕在线视频| 电影成人av| 亚洲四区av| 大话2 男鬼变身卡| 天天躁日日躁夜夜躁夜夜| 91精品三级在线观看| 久久热在线av| 日韩精品免费视频一区二区三区| 大片电影免费在线观看免费| 亚洲欧美色中文字幕在线| 亚洲av福利一区| 久久国产精品男人的天堂亚洲| 极品人妻少妇av视频| av线在线观看网站| 黄片无遮挡物在线观看| 少妇人妻精品综合一区二区| 永久免费av网站大全| 99久国产av精品国产电影| 国产成人精品在线电影| 午夜日韩欧美国产| 老汉色av国产亚洲站长工具| 青青草视频在线视频观看| 黄色一级大片看看| 午夜老司机福利剧场| 亚洲欧美成人精品一区二区| 美女xxoo啪啪120秒动态图| 在线观看免费视频网站a站| 国产精品 欧美亚洲| 午夜福利乱码中文字幕| 有码 亚洲区| 久久婷婷青草| www.熟女人妻精品国产| 免费在线观看完整版高清| 久久午夜综合久久蜜桃| 91精品三级在线观看| 91精品国产国语对白视频| 国产在线免费精品| 久久午夜福利片| 满18在线观看网站| 国产精品99久久99久久久不卡 | 日韩,欧美,国产一区二区三区| 日韩成人av中文字幕在线观看|