• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于改進(jìn)BERT的電力領(lǐng)域中文分詞方法

    2024-01-09 04:00:04夏飛陳帥琦華珉蔣碧鴻
    計算機(jī)應(yīng)用 2023年12期
    關(guān)鍵詞:層數(shù)分詞編碼器

    夏飛,陳帥琦,華珉,蔣碧鴻

    基于改進(jìn)BERT的電力領(lǐng)域中文分詞方法

    夏飛1,陳帥琦1,華珉2*,蔣碧鴻3

    (1.上海電力大學(xué) 自動化工程學(xué)院,上海 200090; 2.國網(wǎng)上海電力公司 電力科學(xué)研究院,上海 200437; 3.上海電力大學(xué) 圖書館 上海 200090)(?通信作者電子郵箱hmhzgb@163.com)

    針對電力領(lǐng)域中文文本包含大量專有詞時分詞效果不佳的問題,提出一種基于改進(jìn)BERT (Bidirectional Encoder Representation from Transformers)的電力領(lǐng)域中文分詞(CWS)方法。首先,構(gòu)建分別涵蓋通用、領(lǐng)域詞的詞典,并設(shè)計雙詞典匹配融合機(jī)制將詞特征直接融入BERT模型,使模型更有效地利用外部知識;其次,通過引入DEEPNORM方法提高模型對于特征的提取能力,并使用貝葉斯信息準(zhǔn)則(BIC)確定模型的最佳深度,使BERT模型穩(wěn)定加深至40層;最后,采用ProbSparse自注意力機(jī)制層替換BERT模型中的經(jīng)典自注意力機(jī)制層,并利用粒子群優(yōu)化(PSO)算法確定采樣因子的最優(yōu)值,在降低模型復(fù)雜度的同時確保模型性能不變。在人工標(biāo)注的電力領(lǐng)域?qū)@谋緮?shù)據(jù)集上進(jìn)行了分詞性能測試。實驗結(jié)果表明,所提方法在該數(shù)據(jù)集分詞任務(wù)中的F1值達(dá)到了92.87%,相較于隱馬爾可夫模型(HMM)、多標(biāo)準(zhǔn)分詞模型METASEG(pre-training model with META learning for Chinese word SEGmentation)與詞典增強(qiáng)型BERT(LEBERT)模型分別提高了14.70、9.89與3.60個百分點,驗證了所提方法有效提高了電力領(lǐng)域中文文本的分詞質(zhì)量。

    中文分詞;領(lǐng)域分詞;改進(jìn)BERT;電力文本;深度學(xué)習(xí);自然語言處理

    0 引言

    電力領(lǐng)域的文本數(shù)據(jù)這類非結(jié)構(gòu)化數(shù)據(jù)包含大量運(yùn)行經(jīng)驗,對它進(jìn)行分析可以為電力運(yùn)行提供支持[1]。電力領(lǐng)域中文文本分詞是自然語言處理技術(shù)范疇內(nèi)中文分詞(Chinese Word Segmentation, CWS)任務(wù)的一個分支,它的目的是將整段的電力領(lǐng)域文本正確拆分成詞的集合,為后續(xù)電力文本挖掘、知識圖譜構(gòu)建等基于詞級語料的電力領(lǐng)域自然語言處理任務(wù)提供基礎(chǔ)數(shù)據(jù)[2-3],因此,電力文本分詞的質(zhì)量直接影響后續(xù)任務(wù)的質(zhì)量。

    CWS任務(wù)一直面臨分詞標(biāo)準(zhǔn)選擇、分詞歧義和未登錄詞(Out-Of-Vocabulary, OOV)識別的問題[4]。CWS通常被視為序列標(biāo)注任務(wù)。在近20年的發(fā)展中,CWS經(jīng)歷了隱馬爾可夫模型(Hidden Markov Model,HMM)、條件隨機(jī)場(Conditional Random Field, CRF)等基于統(tǒng)計的方法[5-6],以及長短期記憶(Long Short-Term Memory, LSTM)網(wǎng)絡(luò)、BERT(Bidirectional Encoder Representation from Transformers)等基于深度神經(jīng)網(wǎng)絡(luò)模型的方法[7-8],準(zhǔn)確率逐步提升。目前,分詞標(biāo)準(zhǔn)選擇與分詞歧義的問題隨著更多標(biāo)準(zhǔn)的提出與深度神經(jīng)網(wǎng)絡(luò)模型的大規(guī)模應(yīng)用得到有效緩解,未登錄詞成為影響分詞準(zhǔn)確性的最重要的因素[4]。

    未登錄詞指的是分詞任務(wù)中遇到但模型訓(xùn)練語料中沒有涉及的詞。在對未登錄詞的研究中發(fā)現(xiàn),56%~72%的未登錄詞為專有詞[9];因此,采用面向通用場景的語料庫設(shè)計的分詞手段應(yīng)用于特定領(lǐng)域時通常效果較差。為此,研究者們開始探索針對領(lǐng)域文本分詞任務(wù)的方法。

    針對領(lǐng)域文本的分詞方法一般通過改進(jìn)通用分詞模型、結(jié)合領(lǐng)域詞典、采用遷移學(xué)習(xí)等方式獲得更好的領(lǐng)域分詞性能。文獻(xiàn)[10]中在雙向長短期記憶(Bidirectional LSTM, Bi-LSTM)網(wǎng)絡(luò)模型中添加了詞典信息并取得了較好的效果,證明了在神經(jīng)網(wǎng)絡(luò)模型中添加詞典對指導(dǎo)拆分領(lǐng)域?qū)S性~的有效性;文獻(xiàn)[11]中在自適應(yīng)HMM的基礎(chǔ)上添加領(lǐng)域詞典和互信息,構(gòu)建了對石油領(lǐng)域文本的分詞模型;文獻(xiàn)[12]中設(shè)計了一種利用未標(biāo)記和部分標(biāo)記數(shù)據(jù)訓(xùn)練的Bi-LSTM網(wǎng)絡(luò)分詞模型,在跨領(lǐng)域CWS任務(wù)中取得了良好的效果;文獻(xiàn)[13]中基于Bi-LSTM網(wǎng)絡(luò)和遷移學(xué)習(xí)設(shè)計了領(lǐng)域自適應(yīng)的分詞方法;文獻(xiàn)[14]中使用雙向門控循環(huán)單元(Bidirectional Gated Recurrent Unit, Bi-GRU)代替多頭注意力機(jī)制中的位置編碼,設(shè)計了面向領(lǐng)域的分詞模型;文獻(xiàn)[15]中通過設(shè)計新詞發(fā)現(xiàn)機(jī)制自動標(biāo)注新領(lǐng)域語料,并用它訓(xùn)練門控卷積神經(jīng)網(wǎng)絡(luò)(Gated Convolutional Neural Network, GCNN)分詞模型,在多個領(lǐng)域的測試中取得了較好的成績。

    目前,面向電力領(lǐng)域文本的自然語言處理技術(shù)研究中缺乏對電力領(lǐng)域中文文本分詞任務(wù)的研究,現(xiàn)有研究大多使用基于規(guī)則或統(tǒng)計的方法實現(xiàn)分詞。文獻(xiàn)[16]中使用經(jīng)過電力專業(yè)詞典增強(qiáng)的HMM對電力設(shè)備缺陷記錄進(jìn)行分詞以構(gòu)建知識圖譜;文獻(xiàn)[17]中利用HMM與Viterbi算法輔以領(lǐng)域詞典進(jìn)行分詞,再依據(jù)分詞結(jié)果構(gòu)建Bi-LSTM分類器,實現(xiàn)變壓器故障文本句子分類;文獻(xiàn)[18]中采用串頻統(tǒng)計等方法實現(xiàn)分詞,用于后續(xù)電力領(lǐng)域命名實體識別;文獻(xiàn)[19]中設(shè)計了包含大量領(lǐng)域詞匯的預(yù)設(shè)詞庫,通過正向逆向最大匹配的方法獲取低粒度電力詞匯。基于規(guī)則與統(tǒng)計的分詞方法存在分詞歧義、粒度混亂和對未登錄詞錯誤分詞的問題,且對領(lǐng)域詞典質(zhì)量有較高要求,分詞效果不理想,會對后續(xù)任務(wù)造成嚴(yán)重影響。在與分詞任務(wù)同屬序列標(biāo)注任務(wù)的電力領(lǐng)域命名實體識別中,深度學(xué)習(xí)技術(shù)得到了廣泛應(yīng)用。文獻(xiàn)[20]中使用經(jīng)過電力領(lǐng)域語料預(yù)訓(xùn)練的電力BERT模型作為字嵌入的編碼方式,之后通過Bi-LSTM網(wǎng)絡(luò)與CRF輸出序列標(biāo)注;文獻(xiàn)[21]中使用多個雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(Bidirectional Recurrent Neural Network, Bi-RNN)創(chuàng)建多個單一實體識別器,最后利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)分析結(jié)果,輸出最終的電力實體信息。以上述文獻(xiàn)為代表的電力領(lǐng)域命名實體識別工作雖然同為序列標(biāo)注任務(wù),但它們僅針對電力實體詞匯的識別,應(yīng)用在電力文本的整體分詞任務(wù)時,效果較差,無法解決依賴詞級語料的模型的語料問題;同時,BERT模型的特征提取能力與表示能力較強(qiáng),但目前基于BERT的領(lǐng)域文本序列標(biāo)注方法(包含分詞與命名實體識別)大多僅作為動態(tài)字嵌入的獲取方式,而將特征提取工作交予送入了字嵌入與詞典等外部信息的后續(xù)模型(例如Bi-LSTM),這樣的模型設(shè)計將外部知識表示與字嵌入獲取過程隔離,沒有充分利用外部知識以及BERT模型的特征提取能力與表示能力,提高了模型復(fù)雜度。

    綜上,目前面向電力領(lǐng)域的分詞方法研究較少,分詞手段性能落后,嚴(yán)重制約了模型性能。為了實現(xiàn)以高準(zhǔn)確率切分電力領(lǐng)域文本詞匯的目的,本文受詞典增強(qiáng)型BERT (Lexicon Enhanced BERT, LEBERT)模型[22]的啟發(fā),以電力領(lǐng)域?qū)@谋緸閷嶒瀸ο筮M(jìn)行了研究,提出了面向電力領(lǐng)域的CWS深度神經(jīng)網(wǎng)絡(luò)模型。

    本文的主要工作內(nèi)容如下:

    1)構(gòu)建了面向電力領(lǐng)域的領(lǐng)域詞典,設(shè)計了包含領(lǐng)域詞典與通用詞典的雙詞典匹配融合機(jī)制,將外部知識信息直接集成到BERT內(nèi)部,強(qiáng)化了語料特征并緩解了未登錄詞問題。

    2)引入DEEPNORM方法[23],將BERT模型穩(wěn)定加深至40層,避免了傳統(tǒng)深層BERT模型面臨的增量爆炸問題,提高了模型對特征的提取能力;結(jié)合貝葉斯信息準(zhǔn)則(Bayesian Information Criterion, BIC)對模型性能、時間等因素綜合評分,確定了模型最佳深度,防止模型過于復(fù)雜。

    3)為進(jìn)一步降低模型規(guī)模,采用ProbSparse自注意力機(jī)制[24]層替換了BERT模型中的經(jīng)典自注意力機(jī)制層,降低了模型的時間與空間復(fù)雜度;利用粒子群優(yōu)化(Particle Swarm Optimization,PSO)確定采樣因子的最優(yōu)值,在降低模型復(fù)雜度的同時確保了模型性能不變。

    1 融合領(lǐng)域詞典與通用詞典的CWS模型

    圖1 融合領(lǐng)域詞典與通用詞典的CWS模型

    1.1 雙詞典匹配融合機(jī)制

    1.1.1詞典建立與詞特征提取

    詞典作為分詞模型的重要組成部分,直接指導(dǎo)模型對于專有名詞的拆分。本文的具體思路為通過通用、領(lǐng)域兩個詞典為模型添加外部知識,其中:通用詞典有多個內(nèi)容豐富的高質(zhì)量開源詞典,選擇文獻(xiàn)[25]中制作的詞典與詞嵌入,該詞典具有完整的詞匯文本部分與詞嵌入部分,詞語總數(shù)約為882萬;對于領(lǐng)域詞典,目前缺乏成熟統(tǒng)一的電力領(lǐng)域開源詞典,需要構(gòu)建,選擇電力行業(yè)國標(biāo)[26]、現(xiàn)有電力詞匯書籍[27]等內(nèi)容作為主體,用人工總結(jié)的最新電力熱詞作為填充構(gòu)建電力領(lǐng)域詞典,包含的詞語總數(shù)約為15萬,可以基本滿足電力領(lǐng)域?qū)S忻~分詞的需要。

    1.1.2詞特征的融入

    由于詞嵌入的維度與模型字符特征的維度可能存在差異,為了使新加入的詞嵌入能夠與字符特征匹配,需要對詞嵌入進(jìn)行非線性變換,將它與字符特征統(tǒng)一維度:

    圖3 雙詞典匹配融合機(jī)制的結(jié)構(gòu)

    由于同一個字符可能涉及多個匹配的詞語,為防止引入歧義干擾,需要對結(jié)果進(jìn)行選擇。本文沿用雙線性注意力機(jī)制實現(xiàn)詞語挑選,基于字符特征獲取各詞嵌入的注意力得分,之后計算每個字符對應(yīng)的領(lǐng)域詞的加權(quán)和,即為領(lǐng)域詞特征:

    將獲得的領(lǐng)域詞特征與字符特征結(jié)合,并進(jìn)行層標(biāo)準(zhǔn)化:

    其中:LN代表LayerNorm,是用來進(jìn)行層標(biāo)準(zhǔn)化的經(jīng)典函數(shù)。

    同理,使用添加了領(lǐng)域詞特征的字符特征與通用詞嵌入計算雙線性注意力得分,構(gòu)建通用詞特征:

    然后將獲得的通用詞特征與添加了領(lǐng)域詞特征的字符特征融合,最后經(jīng)過dropout與層標(biāo)準(zhǔn)化,完成詞典信息的匹配添加。

    1.2 深層BERT

    1.2.1DEEPNORM方法

    雙詞典匹配融合機(jī)制將領(lǐng)域詞典信息與通用詞典信息融入BERT,給模型添加了更有效的外部知識,但也存在詞特征被稀釋的問題;另一方面,領(lǐng)域語料庫的規(guī)模通常因為文本數(shù)量與標(biāo)注成本問題而受到限制,因而需要提高模型對特征的提取能力。目前Transformer模型[28]正在向著大型化方向發(fā)展,對于基于Transformer的BERT模型,參數(shù)量意味著模型的寬度,而BERT編碼器層數(shù)則代表模型的深度,更深的模型可以在較窄的情況下獲得比寬而淺的模型更好的效果,因此,本文引入DEEPNORM方法[23]穩(wěn)定地增加BERT模型的層數(shù)。DEEPNORM方法的公式為:

    Tab.1 Values of and corresponding to SGD and Adam optimizers

    注:代表BERT編碼器的層數(shù)。

    1.2.2基于BIC的BERT編碼器層數(shù)確定方法

    雖然BERT編碼器的層數(shù)在一定范圍內(nèi)加深可以獲得更好的效果,但超過該范圍后模型的整體性能將下降。BIC是一種常用的判別準(zhǔn)則,用于評價模型性能。本文采用經(jīng)過改進(jìn)的BIC對不同深度的模型進(jìn)行評價,以確定模型中BERT編碼器層數(shù)的最優(yōu)值。最佳層數(shù)可以通過BIC評分結(jié)果得到。

    本文所述BIC公式為:

    1.3 基于ProbSparse 自注意力機(jī)制的模型簡化

    1.3.1ProbSparse 自注意力機(jī)制

    優(yōu)化后的BERT模型提升了特征提取的能力,但也帶來了時間復(fù)雜度與空間復(fù)雜度高的新問題。針對這一問題,本文引入ProbSparse自注意力機(jī)制[24]替換BERT編碼器中原本的自注意力機(jī)制,在幾乎不影響模型效果的前提下進(jìn)一步減少參數(shù)量,提高訓(xùn)練速度。

    最終,ProbSparse自注意力機(jī)制的公式可以表示為:

    1.3.2基于PSO的采樣因子確定方法

    采樣因子的選取對模型有直接影響:選取過大會削弱ProbSparse自注意力機(jī)制的模型簡化效果;選取過小則會造成特征丟失,降低模型性能。針對這一問題,本文建立了最優(yōu)化目標(biāo)函數(shù),利用PSO算法確定采樣因子的最佳取值。

    PSO算法粒子速度、位置的更新公式為:

    圖4 PSO算法優(yōu)化采樣因子的流程

    2 實驗與結(jié)果分析

    為了驗證本文模型的效果,搭建了基于Python的實驗環(huán)境,開展了大量實驗。計算機(jī)操作系統(tǒng)為Windows 10,CPU為AMD Ryzen5 3600,內(nèi)存32 GB,GPU為NVIDIA GEFORCE RTX 3090,顯存容量24 GB。

    在討論模型的最優(yōu)參數(shù)選擇時,由于采樣因子相較于BERT編碼器層數(shù)對模型性能的影響更大,因此在設(shè)置模型超參數(shù)之后,先確定采樣因子的最優(yōu)值,再討論BERT編碼器層數(shù)的優(yōu)選值。

    2.1 語料構(gòu)成與評價標(biāo)準(zhǔn)

    為充分體現(xiàn)模型性能,選取電力專業(yè)詞匯密集且涵蓋廣泛的電力領(lǐng)域?qū)@谋具M(jìn)行人工標(biāo)注制作語料庫。由于領(lǐng)域文本僅能靠人工標(biāo)注獲取,規(guī)模較小,且具有一定程度上的局限性,因此將領(lǐng)域語料庫與Bakeoff提供的微軟亞洲研究院(MicroSoft Research Asia, MSRA)語料庫、北京大學(xué)(PeKing University, PKU)語料庫等標(biāo)準(zhǔn)語料庫[29]的部分內(nèi)容進(jìn)行組合,使領(lǐng)域語料庫與標(biāo)準(zhǔn)語料庫的文本比例為1∶2。用于訓(xùn)練的語料庫具體構(gòu)成情況如表2所示。取領(lǐng)域語料庫的10%用于后續(xù)測試。

    在分詞規(guī)范方面,本文參照文獻(xiàn)[30],對于規(guī)范未涉及的專業(yè)領(lǐng)域詞匯,采用國標(biāo)等文件中提供的標(biāo)準(zhǔn)作為分詞規(guī)范。

    表2訓(xùn)練語料庫構(gòu)成情況

    Tab.2 Composition of training corpus

    2.2 模型構(gòu)建與超參數(shù)設(shè)置

    本文模型基于BERT模型構(gòu)建,其中,BERT模型的初始化采用huggingface[31]提供的中文BERT模型參數(shù)。通用詞典采用文獻(xiàn)[25]中制作的中文詞典,領(lǐng)域詞典使用Word2Vec方法訓(xùn)練詞嵌入。經(jīng)過測試,在可以取得最佳效果的BERT第1、2層編碼器之間插入雙詞典匹配融合機(jī)制。采用{B,M,E,S}四詞位進(jìn)行序列標(biāo)注,使用AdamW(Adam Weight decay)優(yōu)化器和最小化負(fù)對數(shù)似然損失函數(shù)對神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。損失函數(shù)公式為:

    2.3 采樣因子的確定實驗

    圖5 不同采樣因子的計算結(jié)果

    2.4 BERT編碼器層數(shù)的確定實驗

    表3模型性能與耗時的測試結(jié)果

    Tab.3 Test results of model performance and time consumption

    圖6 不同BERT編碼器層數(shù)的BIC評分結(jié)果

    由表3、圖6中的數(shù)據(jù)可知,當(dāng)BERT編碼器層數(shù)多于30時,模型1值的增長趨于平緩,在層數(shù)為35和40時,BIC評分結(jié)果達(dá)到最小。根據(jù)BIC的“吝嗇原理”,結(jié)果最小的模型為最佳模型。當(dāng)BERT編碼器層數(shù)為40時,模型不僅取得了最佳的BIC評分結(jié)果,還具有更大的1值,因此本文最終選擇BERT編碼器層數(shù)為40。

    2.5 分詞結(jié)果及分析

    在確定了模型的各項參數(shù)之后,對模型在電力領(lǐng)域?qū)@谋菊Z料上的分詞性能進(jìn)行了測試。由于近年來鮮有針對電力領(lǐng)域的CWS模型研究,為了驗證本文模型的效果,選取了多個具有代表性的模型進(jìn)行分詞結(jié)果比較,這些模型包括:多標(biāo)準(zhǔn)分詞模型METASEG(pre-training model with META learning for Chinese word SEGmentation)[33],電力領(lǐng)域自然語言處理研究常用分詞模型HMM(添加電力領(lǐng)域詞典輔助分詞)[32],以解決分詞問題為主的序列標(biāo)注模型ZEN(a BERT-based Chinese(Z) text encoder Enhanced by N-gram representations)[34]和LEBERT[22]。評測結(jié)果如表4所示。

    表4不同模型的分詞評測結(jié)果 單位:%

    Tab.4 Test results of word segmentation by different models unit:%

    通過對比可以發(fā)現(xiàn),在針對電力領(lǐng)域具有代表性的專利文本語料分詞任務(wù)中,本文模型與次優(yōu)的LEBERT相比,1值提高了3.60個百分點,相較于HMM、METASEG也分別提高了14.70和9.89個百分點。這驗證了本文模型在電力領(lǐng)域文本分詞上的優(yōu)勢。

    為了對比分詞效果,在表5中列出了各模型對幾個例句進(jìn)行分詞的結(jié)果比較。由表5可知,本文模型對于登錄詞的切分更準(zhǔn)確,對于未登錄詞,本文依賴更深的BERT神經(jīng)網(wǎng)絡(luò)能夠更好地將它們切分。例如對于短語“輸電線路”“電磁屏蔽”“能源交互”,其他模型更傾向于將它們切分為更細(xì)的粒度。同樣的,對于未登錄詞例如“纖維素基”“能量云”“風(fēng)雨水能”等,其他模型更傾向于將它們切分成“纖維素/基”“能量/云”“風(fēng)雨/水能”,本文模型則傾向于將它們作為一個整詞進(jìn)行切分。此類切分差異會對后續(xù)任務(wù)例如聚類、構(gòu)建知識圖譜等產(chǎn)生重要影響。

    表5不同模型分詞結(jié)果示例

    Tab.5 Examples of word segmentation results by different models

    注:加粗字為不同模型的具體分詞差異示例。

    除了分詞準(zhǔn)確性,還對ProbSparse自注意力機(jī)制(此處用PSAttn表示)加入前后模型(非PSAttn模型和PSAttn模型)的訓(xùn)練速度和顯存占用進(jìn)行了測試,以評測模型在降低算法復(fù)雜度方面的作用。測試時,設(shè)置顯存上限為16 GB,batch_size從1開始增加至顯存允許的最高值。為衡量不同batch_size下的模型精度,同時測試了不同batch_size下模型的1值,具體結(jié)果如表6所示。從結(jié)果看,ProbSparse自注意力機(jī)制的引入使得模型訓(xùn)練時間與顯存占用大幅減少,降低了對硬件的要求;同時,通過對比采用ProbSparse自注意力機(jī)制模型(PSAttn模型)與未采用模型(非PSAttn模型)的1值可以發(fā)現(xiàn),ProbSparse自注意力機(jī)制的引入并未對模型性能造成影響。由此可知,在保證分詞準(zhǔn)確性以外,本文模型由于引入了ProbSparse自注意力機(jī)制,可以降低模型的時間復(fù)雜度和空間復(fù)雜度。時間復(fù)雜度的降低直接縮減了模型訓(xùn)練所需時間;空間復(fù)雜度的降低允許模型以更大的batch_size或者在顯存容量更低的硬件條件下進(jìn)行訓(xùn)練。

    表6訓(xùn)練速度及顯存占用的測試結(jié)果

    Tab.6 Test results of training speed and memory consumption

    綜上所述,在電力領(lǐng)域文本的分詞任務(wù)中,本文提出的模型具有更好的性能,可以更準(zhǔn)確地切分詞語。

    3 結(jié)語

    本文針對電力領(lǐng)域分詞任務(wù)進(jìn)行了研究,并對目前存在的不足進(jìn)行了改進(jìn)。具體地,首先構(gòu)建了面向電力領(lǐng)域的領(lǐng)域詞典,并設(shè)計了用于更好地向BERT注入詞典信息的雙詞典匹配融合機(jī)制;其次引入了DEEPNORM方法穩(wěn)定增加BERT模型深度,提高了模型的特征提取能力,并使用BIC確定了BERT編碼器的最佳層數(shù),防止模型過于復(fù)雜;最后采用ProbSparse自注意力機(jī)制降低了深度BERT模型的時間與空間復(fù)雜度,并利用PSO算法確定了最優(yōu)采樣因子,確保了在降低復(fù)雜度的同時不改變模型性能。本文將標(biāo)準(zhǔn)語料與人工標(biāo)注的電力領(lǐng)域?qū)@谋鞠嗳诤?,制作了語料庫,并以此為依托設(shè)計了對比實驗,1值達(dá)到了92.87%,體現(xiàn)出了本文模型對電力領(lǐng)域中文文本內(nèi)的詞匯尤其是專業(yè)詞匯的拆分效果,在電力文本信息挖掘、知識圖譜構(gòu)建等電力領(lǐng)域自然語言處理任務(wù)中具有良好的應(yīng)用前景。

    在測試中,具有更深BERT編碼器層數(shù)的模型展現(xiàn)出了獲得更好效果的趨勢,但為了降低模型復(fù)雜度,本文未將DEEPNORM方法的潛力充分發(fā)揮。因此,如何在控制模型體積的前提下進(jìn)一步加深模型將是我們未來的研究方向。

    [1] 李剛,李銀強(qiáng),王洪濤,等.電力設(shè)備健康管理知識圖譜:基本概念、關(guān)鍵技術(shù)及研究進(jìn)展[J].電力系統(tǒng)自動化,2022,46(3):1-13.(LI G, LI Y Q, WANG H T, et al. Knowledge graph of power equipment health management: basic concepts, key technologies and research progress [J]. Automation of Electric Power Systems, 2022, 46(3): 1-13.)

    [2] 馮斌,張又文,唐昕,等.基于BiLSTM-Attention神經(jīng)網(wǎng)絡(luò)的電力設(shè)備缺陷文本挖掘[J].中國電機(jī)工程學(xué)報,2020,40(S1):1-10.(FENG B, ZHANG Y W, TANG X, et al. Power equipment defect record text mining based on BiLSTM-attention neural network [J]. Proceedings of the CSEE, 2020, 40(S1): 1-10.)

    [3] 許堯,馬歡,許旵鵬,等.智能變電站繼電保護(hù)智能運(yùn)維系統(tǒng)自動配置技術(shù)研究[J].電力系統(tǒng)保護(hù)與控制,2022,50(11):160-168.(XU Y, MA H, XU C P, et al. Self-configuration technology of an intelligent operation and maintenance system of intelligent substation relay protection [J]. Power System Protection and Control, 2022, 50(11): 160-168.)

    [4] 唐琳,郭崇慧,陳靜鋒.中文分詞技術(shù)研究綜述[J].數(shù)據(jù)分析與知識發(fā)現(xiàn),2020,4(Z1):1-17.(TANG L, GUO C H, CHEN J F. Review of Chinese word segmentation studies [J]. Data Analysis and Knowledge Discovery, 2020, 4(Z1): 1-17.)

    [5] 錢智勇,周建忠,童國平,等.基于HMM的楚辭自動分詞標(biāo)注研究[J].圖書情報工作,2014, 58(4): 105-110.(QIAN Z Y, ZHOU J Z, TONG G P, et al. Research on automatic word segmentation and pos tagging forbased on HMM [J]. Library and Information Service, 2014, 58(4): 105-110.)

    [6] 朱艷輝,劉璟,徐葉強(qiáng),等.基于條件隨機(jī)場的中文領(lǐng)域分詞研究[J].計算機(jī)工程與應(yīng)用,2016,52(15):97-100.(ZHU Y H, LIU J, XU Y Q, et al. Chinese word segmentation research based on conditional random field [J]. Computer Engineering and Applications, 2016, 52(15): 97-100.)

    [7] CHEN X, QIU X, ZHU C, et al. Long short-term memory neural networks for Chinese word segmentation [C]// Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2015: 1197-1206.

    [8] DEVLIN J, CHANG M-W, LEE K, et al. BERT: pre-training of deep bidirectional transformers for language understanding [C]// Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (Volume 1: Long and Short Papers). Stroudsburg, PA: Association for Computational Linguistics, 2019: 4171-4186.

    [9] SHEIKH I, ILLINA I, FOHR D, et al. OOV proper name retrieval using topic and lexical context models [C]// Proceedings of the 2015 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway: IEEE, 2015: 5291-5295.

    [10] ZHANG Q, LIU X, FU J. Neural networks incorporating dictionaries for Chinese word segmentation [C]// Proceedings of the 32nd AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2018: 5682-5689.

    [11] 宮法明,朱朋海.基于自適應(yīng)隱馬爾可夫模型的石油領(lǐng)域文檔分詞[J].計算機(jī)科學(xué),2018,45(6A):97-100.(GONG F M, ZHU P H. Word segmentation based on adaptive hidden Markov model in oilfield [J]. Computer Science, 2018, 45(6A): 97-100.)

    [12] ZHAO L J, ZHANG Q, WANG P, et al. Neural networks incorporating unlabeled and partially-labeled data for cross-domain Chinese word segmentation [C]// Proceedings of the 27th International Joint Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2018: 4602-4608.

    [13] 成于思,施云濤.基于深度學(xué)習(xí)和遷移學(xué)習(xí)的領(lǐng)域自適應(yīng)中文分詞[J].中文信息學(xué)報,2019,33(9):9-16,23.(CHENG Y S, SHI Y T. Domain adaption of Chinese word segmentation based on deep learning and transfer learning [J]. Journal of Chinese Information Processing, 2019, 33(9): 9-16,23.)

    [14] 崔志遠(yuǎn),趙爾平,雒偉群,等.面向?qū)I(yè)領(lǐng)域的多頭注意力中文分詞模型——以西藏畜牧業(yè)為例[J].中文信息學(xué)報,2021,35(7):72-80.(CUI Z Y, ZHAO E P, LUO W Q, et al. Multi-head attention for domain specific Chinese word segmentation model — a case study on Tibet’s animal husbandry [J]. Journal of Chinese Information Processing, 2021, 35(7): 72-80.)

    [15] 張軍,賴志鵬,李學(xué),等.基于新詞發(fā)現(xiàn)的跨領(lǐng)域中文分詞方法[J].電子與信息學(xué)報,2022,44(9):3241-3248.(ZHANG J, LAI Z P, LI X, et al. Cross-domain Chinese word segmentation based on new word discovery [J]. Journal of Electronics & Information Technology, 2022, 44(9): 3241-3248.)

    [16] 劉梓權(quán),王慧芳.基于知識圖譜技術(shù)的電力設(shè)備缺陷記錄檢索方法[J].電力系統(tǒng)自動化,2018,42(14):158-164.(LIU Z Q, WANG H F. Retrieval method for defect records of power equipment based on knowledge graph technology [J]. Automation of Electric Power Systems, 2018, 42(14): 158-164.)

    [17] 杜修明,秦佳峰,郭詩瑤,等.電力設(shè)備典型故障案例的文本挖掘[J].高電壓技術(shù),2018,44(4):1078-1084.(DU X M,QIN J F, GUO S Y, et al. Text mining of typical defects in power equipment [J]. High Voltage Engineering, 2018, 44(4): 1078-1084.)

    [18] 劉蔭,張凱,王惠劍,等.面向電力低資源領(lǐng)域的無監(jiān)督命名實體識別方法[J].中文信息學(xué)報,2022,36(6):69-79.(LIU Y, ZHANG K, WANG H J, et al. Unsupervised low-resource name entities recognition in electric power domain [J]. Journal of Chinese Information Processing, 2022, 36(6): 69-79.)

    [19] 劉文松,胡竹青,張錦輝,等.基于文本特征增強(qiáng)的電力命名實體識別[J].電力系統(tǒng)自動化,2022,46(21):134-142.(LIU W S, HU Z Q, ZHANG J H, et al. Named entity recognition for electric power industry based on enhanced text features [J]. Automation of Electric Power Systems, 2022, 46(21): 134-142.)

    [20] 蔣晨,王淵,胡俊華,等.基于深度學(xué)習(xí)的電力實體信息識別方法[J].電網(wǎng)技術(shù),2021,45(6):2141-2149.(JIANG C, WANG Y, HU J H, et al. Power entity information recognition based on deep learning [J]. Power System Technology, 2021, 45(6): 2141-2149.)

    [21] 田嘉鵬,宋輝,陳立帆,等.面向知識圖譜構(gòu)建的設(shè)備故障文本實體識別方法[J].電網(wǎng)技術(shù),2022,46(10):3913-3922.(TIAN J P, SONG H, CHEN L F, et al. Entity recognition approach of equipment failure text for knowledge graph construction [J]. Power System Technology, 2022, 46(10): 3913-3922.)

    [22] LIU W, FU X, ZHANG Y, et al. Lexicon enhanced Chinese sequence labeling using BERT adapter [C]// Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers). Stroudsburg, PA: Association for Computational Linguistics, 2021: 5847-5858.

    [23] WANG H, MA S, DONG L, et al. DeepNet: scaling Transformers to 1,000 layers [EB/OL]. (2022-03-01)[2022-03-23]. https://arxiv.org/pdf/2203.00555.pdf.

    [24] ZHOU H, ZHANG S, PENG J, et al. Informer: beyond efficient Transformer for long sequence time-series forecasting [C]// Proceedings of the 35th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2021: 11106-11115.

    [25] SONG Y, SHI S, LI J, et al. Directional skip-gram: explicitly distinguishing left and right context for word embeddings [C]// Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (Volume 2: Short Papers). Stroudsburg, PA: Association for Computational Linguistics, 2018: 175-180.

    [26] 國家發(fā)展和改革委員會. 電力行業(yè)詞匯:DL/T 1033—2006 [S].北京:中國電力出版社,2007:1-20.(National Development and Reform Commission. Electric power standard thesaurus: DL/T 1033—2006[S]. Beijing: China Electric Power Press, 2007:1-20.)

    [27] 楊善讓,趙曉彤,楊紹胤.英漢電力技術(shù)詞典[M].2版.北京:中國電力出版社,2014:1-1469.(YANG S R, ZHAO X T, YANG S Y. An English-Chinese Dictionary of Electric Power Technology [M]. 2nd edtion. Beijing: China Electric Power Press, 2014: 1-1469.)

    [28] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need [C]// Proceedings of the 31st Conference on Neural Information Processing Systems. Red Hook: Curran Associates Inc., 2017: 6000-6010.

    [29] EMERSON T. The second international Chinese word segmentation bakeoff[C]// Proceedings of the 4th SIGHAN Workshop on Chinese Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2005:123-133.

    [30] 俞士汶,段慧明,朱學(xué)鋒,等.北京大學(xué)現(xiàn)代漢語語料庫基本加工規(guī)范[J].中文信息學(xué)報,2002,16(5):49-64.(YU S W, DUAN H M, ZHU X F, et al. The basic processing of contemporary Chinese corpus at Peking University SPECIFICATION [J]. Journal of Chinese Information Processing, 2002, 16(5): 49-64.)

    [31] HUGGINGFACE. Transformers [CP/OL]. [2021-12-11]. https://github.com/huggingface/transformers.

    [32] 蔣衛(wèi)麗,陳振華,邵黨國,等.基于領(lǐng)域詞典的動態(tài)規(guī)劃分詞算法[J].南京理工大學(xué)學(xué)報,2019,43(1):63-71.(JIANG W L, CHEN Z H, SHAO D G, et al. Dynamic programming word segmentation algorithm based on domain dictionaries [J]. Journal of Nanjing University of Science and Technology, 2019, 43(1): 63-71.)

    [33] KE Z, SHI L, SUN S T, et al. Pre-training with meta learning for Chinese word segmentation [C]// Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg, PA: Association for Computational Linguistics, 2021: 5514-5523.

    [34] DIAO S, BAI J, SONG Y, et al. ZEN: pre-training Chinese text encoder enhanced by n-gram representations [C]// Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2020: 4729-4740.

    Chinese word segmentation method in electric power domain based on improved BERT

    XIA Fei1, CHEN Shuaiqi1, HUA Min2*, JIANG Bihong3

    (1,,200090,;2,,200437,;3,,200090,)

    To solve the problem of poor performance in segmenting a large number of proprietary words in Chinese text in electric power domain, an improved Chinese Word Segmentation (CWS) method in electric power domain based on improved BERT (Bidirectional Encoder Representations from Transformer) was proposed. Firstly, two lexicons were built covering general words and domain words respectively, and a dual-lexicon matching and integration mechanism was designed to directly integrate the word features into BERT model, enabling more effective utilization of external knowledge by the model. Then, DEEPNORM method was introduced to improve the model’s ability to extract features, and the optimal depth of the model was determined by Bayesian Information Criterion (BIC), which made BERT model stable up to 40 layers. Finally, the classical self-attention layer in BERT model was replaced by the ProbSparse self-attention layer, and the best value of sampling factor was determined by using Particle Swarm Optimization (PSO) algorithm to reduce the model complexity while ensuring the model performance. The test of word segmentation was carried out on a hand-labeled patent text dataset in electric power domain. Experimental results show that the proposed method achieves the F1 score of 92.87%, which is 14.70, 9.89 and 3.60 percentage points higher than those of the methods to be compared such as Hidden Markov Model (HMM), multi-standard word segmentation model METASEG(pre-training model with META learning for Chinese word SEGmentation)and Lexicon Enhanced BERT (LEBERT) model, verifying that the proposed method effectively improves the quality of Chinese text word segmentation in electric power domain.

    Chinese Word Segmentation (CWS); domain word segmentation; improved BERT (Bidirectional Encoder Representations from Transformer); electric power text; deep learning; natural language processing

    This work is partially supported by State Grid Science and Technology Project (52094020001A).

    XIA Fei, born in 1978, Ph. D., associate professor. His research interests include power data analysis, power image processing.

    CHEN Shuaiqi, born in 1997, M. S. candidate. His research interests include natural language processing.

    HUA Min, born in 1987, M. S., engineer. His research interests include scientific and technological information, data management and applications, digital transformation of energy.

    JIANG Bihong, born in 1981, M. S., librarian. His research interests include natural language processing, machine learning.

    TP391.1

    A

    1001-9081(2023)12-3711-08

    10.11772/j.issn.1001-9081.2022121897

    2022?12?26;

    2023?02?26;

    2023?03?02。

    國家電網(wǎng)科技項目(52094020001A)。

    夏飛(1978—),男,江西南昌人,副教授,博士,CCF高級會員,主要研究方向:電力數(shù)據(jù)分析、電力圖像處理;陳帥琦(1997—),男,山東泰安人,碩士研究生,主要研究方向:自然語言處理;華珉(1987—),男,上海人,工程師,碩士,主要研究方向:科技情報、數(shù)據(jù)管理與應(yīng)用、能源數(shù)字化轉(zhuǎn)型;蔣碧鴻(1981—),男,廣西博白人,館員,碩士,主要研究方向:自然語言處理、機(jī)器學(xué)習(xí)。

    猜你喜歡
    層數(shù)分詞編碼器
    填筑層數(shù)對土石壩應(yīng)力變形的影響研究
    上海發(fā)布藥品包裝物減量指南
    康復(fù)(2022年31期)2022-03-23 20:39:56
    結(jié)巴分詞在詞云中的應(yīng)用
    智富時代(2019年6期)2019-07-24 10:33:16
    MoS2薄膜電子性質(zhì)隨層數(shù)變化的理論研究
    電子制作(2019年11期)2019-07-04 00:34:50
    基于FPGA的同步機(jī)軸角編碼器
    基于PRBS檢測的8B/IOB編碼器設(shè)計
    值得重視的分詞的特殊用法
    JESD204B接口協(xié)議中的8B10B編碼器設(shè)計
    電子器件(2015年5期)2015-12-29 08:42:24
    住在哪一層
    多總線式光電編碼器的設(shè)計與應(yīng)用
    亚洲性夜色夜夜综合| 国产色视频综合| 久久久水蜜桃国产精品网| 2021天堂中文幕一二区在线观 | 一区二区三区激情视频| 正在播放国产对白刺激| 亚洲国产欧美日韩在线播放| 精品熟女少妇八av免费久了| 一级黄色大片毛片| 男女下面进入的视频免费午夜 | 国产一级毛片七仙女欲春2 | 日韩精品免费视频一区二区三区| 国语自产精品视频在线第100页| 国产成+人综合+亚洲专区| 久久久久精品国产欧美久久久| 午夜福利视频1000在线观看| 国产一区二区三区在线臀色熟女| 一级a爱片免费观看的视频| 欧美不卡视频在线免费观看 | 欧美乱妇无乱码| 亚洲精品国产精品久久久不卡| 婷婷六月久久综合丁香| 亚洲av第一区精品v没综合| 国内少妇人妻偷人精品xxx网站 | 久久中文看片网| 97碰自拍视频| 亚洲午夜精品一区,二区,三区| 免费在线观看日本一区| 久久久国产成人精品二区| 日韩大码丰满熟妇| 国产精品自产拍在线观看55亚洲| 亚洲精品色激情综合| 日韩成人在线观看一区二区三区| 午夜福利高清视频| 成人精品一区二区免费| 最近最新中文字幕大全电影3 | 亚洲欧美日韩高清在线视频| 国产97色在线日韩免费| 别揉我奶头~嗯~啊~动态视频| 久久亚洲真实| 制服丝袜大香蕉在线| 欧美黄色片欧美黄色片| www日本黄色视频网| 波多野结衣高清无吗| 欧美三级亚洲精品| 国产精品一区二区精品视频观看| 午夜激情av网站| 婷婷精品国产亚洲av| 国产精品乱码一区二三区的特点| 中文资源天堂在线| 99精品在免费线老司机午夜| 丰满人妻熟妇乱又伦精品不卡| 欧美黄色淫秽网站| 国产视频内射| 男人操女人黄网站| 青草久久国产| 亚洲精品久久国产高清桃花| 色精品久久人妻99蜜桃| 国产精品日韩av在线免费观看| 国产精品九九99| 国产欧美日韩精品亚洲av| 哪里可以看免费的av片| 变态另类丝袜制服| 亚洲国产欧洲综合997久久, | 在线观看免费午夜福利视频| 亚洲五月天丁香| 亚洲黑人精品在线| 久久亚洲真实| 中亚洲国语对白在线视频| 黄频高清免费视频| 极品教师在线免费播放| av在线天堂中文字幕| 美女高潮到喷水免费观看| 在线免费观看的www视频| 亚洲aⅴ乱码一区二区在线播放 | 国内揄拍国产精品人妻在线 | 国产成年人精品一区二区| 婷婷六月久久综合丁香| 波多野结衣av一区二区av| 每晚都被弄得嗷嗷叫到高潮| 亚洲最大成人中文| 国产1区2区3区精品| 欧美国产日韩亚洲一区| 久久草成人影院| 久9热在线精品视频| 久久天躁狠狠躁夜夜2o2o| 亚洲精华国产精华精| 夜夜爽天天搞| 欧美成人性av电影在线观看| 成人亚洲精品一区在线观看| 亚洲熟妇中文字幕五十中出| 18禁黄网站禁片免费观看直播| 国产成人欧美| 悠悠久久av| 999精品在线视频| 欧美日韩瑟瑟在线播放| 老司机深夜福利视频在线观看| 天堂影院成人在线观看| 精品国产乱子伦一区二区三区| 精品一区二区三区av网在线观看| 亚洲av电影不卡..在线观看| 亚洲成a人片在线一区二区| 最近在线观看免费完整版| 日韩大码丰满熟妇| a级毛片在线看网站| а√天堂www在线а√下载| 欧美成人性av电影在线观看| 精品久久久久久久毛片微露脸| 国产av一区二区精品久久| 精华霜和精华液先用哪个| 999久久久国产精品视频| 成人特级黄色片久久久久久久| 欧美成人午夜精品| 国产亚洲av高清不卡| 女同久久另类99精品国产91| 国产一区二区三区视频了| 国产99白浆流出| 国产一区二区三区视频了| 国产一区二区三区视频了| 国产精品综合久久久久久久免费| 亚洲国产欧美日韩在线播放| 悠悠久久av| 日本五十路高清| 亚洲第一av免费看| 亚洲国产看品久久| 亚洲激情在线av| 天堂√8在线中文| 久久久久久久午夜电影| or卡值多少钱| 欧美在线一区亚洲| 一级片免费观看大全| 免费看十八禁软件| 久久香蕉激情| 黄色片一级片一级黄色片| 精品熟女少妇八av免费久了| 麻豆国产av国片精品| 黄色片一级片一级黄色片| 久久精品国产99精品国产亚洲性色| 国产97色在线日韩免费| 人妻久久中文字幕网| 一本精品99久久精品77| 午夜免费鲁丝| 国产熟女xx| 手机成人av网站| 国产一区二区三区视频了| 少妇粗大呻吟视频| 国产精品影院久久| www日本黄色视频网| 久久99热这里只有精品18| 亚洲男人天堂网一区| 国产亚洲欧美在线一区二区| 在线天堂中文资源库| 91av网站免费观看| 视频在线观看一区二区三区| 好男人在线观看高清免费视频 | 少妇熟女aⅴ在线视频| 9191精品国产免费久久| 久久久久久久久中文| 欧美国产精品va在线观看不卡| 少妇 在线观看| 欧美成人午夜精品| 一级a爱视频在线免费观看| 久久香蕉精品热| 久久精品人妻少妇| 999久久久国产精品视频| 久久欧美精品欧美久久欧美| 日本五十路高清| 久久亚洲精品不卡| 深夜精品福利| 露出奶头的视频| 大型av网站在线播放| 老汉色av国产亚洲站长工具| 亚洲国产毛片av蜜桃av| 久久精品国产亚洲av香蕉五月| 久久中文看片网| 久久久水蜜桃国产精品网| 少妇裸体淫交视频免费看高清 | 亚洲精品一区av在线观看| 午夜影院日韩av| 国产精品香港三级国产av潘金莲| 国产在线观看jvid| 国产精品久久久久久精品电影 | 观看免费一级毛片| 精品久久久久久久人妻蜜臀av| 日本熟妇午夜| 精品少妇一区二区三区视频日本电影| 丝袜在线中文字幕| 在线观看一区二区三区| 亚洲久久久国产精品| 国产精品日韩av在线免费观看| 丝袜美腿诱惑在线| 亚洲精品久久国产高清桃花| 99精品久久久久人妻精品| 久久久久国产一级毛片高清牌| 国产在线精品亚洲第一网站| 欧美久久黑人一区二区| 伦理电影免费视频| 亚洲欧美日韩高清在线视频| 一级毛片高清免费大全| 国语自产精品视频在线第100页| 精品电影一区二区在线| 丁香欧美五月| 男女做爰动态图高潮gif福利片| 国产私拍福利视频在线观看| 日本免费a在线| 国产精华一区二区三区| 日本撒尿小便嘘嘘汇集6| 一卡2卡三卡四卡精品乱码亚洲| 免费观看精品视频网站| 美国免费a级毛片| 亚洲三区欧美一区| 精品一区二区三区视频在线观看免费| 每晚都被弄得嗷嗷叫到高潮| 久久国产乱子伦精品免费另类| 国产av一区二区精品久久| 宅男免费午夜| 99国产综合亚洲精品| 亚洲七黄色美女视频| 狠狠狠狠99中文字幕| 亚洲人成电影免费在线| 成人国语在线视频| 人人澡人人妻人| 99久久99久久久精品蜜桃| 少妇熟女aⅴ在线视频| 黄色 视频免费看| 精品久久久久久,| 宅男免费午夜| videosex国产| 色播亚洲综合网| 欧美日韩一级在线毛片| 亚洲国产精品久久男人天堂| 一本综合久久免费| 午夜福利高清视频| av欧美777| 变态另类丝袜制服| 十八禁人妻一区二区| bbb黄色大片| 亚洲欧美精品综合久久99| 日本一本二区三区精品| 精品高清国产在线一区| 一级a爱视频在线免费观看| 精品人妻1区二区| 欧美黄色片欧美黄色片| av有码第一页| 99久久无色码亚洲精品果冻| 亚洲人成伊人成综合网2020| 午夜福利成人在线免费观看| 我的亚洲天堂| 一本综合久久免费| 亚洲 欧美 日韩 在线 免费| 国产精品久久久av美女十八| 亚洲久久久国产精品| 欧美在线一区亚洲| 99久久精品国产亚洲精品| 亚洲天堂国产精品一区在线| 亚洲中文日韩欧美视频| 亚洲五月色婷婷综合| 人人妻人人澡欧美一区二区| 亚洲第一青青草原| 午夜亚洲福利在线播放| 久久午夜亚洲精品久久| 99久久精品国产亚洲精品| 欧美一级a爱片免费观看看 | 欧美最黄视频在线播放免费| 亚洲av五月六月丁香网| 男人舔女人的私密视频| 男人舔女人下体高潮全视频| 免费高清视频大片| 欧美日韩乱码在线| 国产精品久久视频播放| e午夜精品久久久久久久| 黄色a级毛片大全视频| 日韩精品中文字幕看吧| 999久久久国产精品视频| www日本黄色视频网| 免费在线观看完整版高清| 黄色视频,在线免费观看| 又大又爽又粗| 久久香蕉激情| 伦理电影免费视频| 在线观看午夜福利视频| 两性夫妻黄色片| 亚洲第一电影网av| 在线十欧美十亚洲十日本专区| 99久久久亚洲精品蜜臀av| 一级a爱片免费观看的视频| 变态另类丝袜制服| 国产精品 国内视频| 成年女人毛片免费观看观看9| 国产精品一区二区免费欧美| 欧美绝顶高潮抽搐喷水| 999久久久精品免费观看国产| 在线视频色国产色| 美女高潮到喷水免费观看| 久久亚洲真实| 国产成人欧美在线观看| 一级毛片女人18水好多| 动漫黄色视频在线观看| 亚洲精品久久成人aⅴ小说| а√天堂www在线а√下载| 99精品久久久久人妻精品| 99精品在免费线老司机午夜| 亚洲 欧美 日韩 在线 免费| 亚洲真实伦在线观看| 国产黄a三级三级三级人| 一本久久中文字幕| 精品久久蜜臀av无| 久久久久免费精品人妻一区二区 | 1024香蕉在线观看| 狠狠狠狠99中文字幕| 99久久国产精品久久久| 黄色a级毛片大全视频| 亚洲电影在线观看av| 亚洲,欧美精品.| 香蕉国产在线看| 亚洲精品国产一区二区精华液| 中文资源天堂在线| 成人av一区二区三区在线看| 国产精品,欧美在线| а√天堂www在线а√下载| e午夜精品久久久久久久| 日日摸夜夜添夜夜添小说| 国产午夜福利久久久久久| 久久精品国产清高在天天线| 亚洲国产欧美一区二区综合| 法律面前人人平等表现在哪些方面| 天天一区二区日本电影三级| 国产成人系列免费观看| 精品久久久久久久毛片微露脸| 制服丝袜大香蕉在线| 亚洲欧美激情综合另类| 精品一区二区三区av网在线观看| 中文字幕av电影在线播放| 中文字幕熟女人妻在线| 91狼人影院| 久久午夜福利片| 久久欧美精品欧美久久欧美| 人人妻人人澡人人爽人人夜夜 | 国产色爽女视频免费观看| 久久精品国产亚洲av涩爱 | 欧美激情久久久久久爽电影| 99久久九九国产精品国产免费| 91av网一区二区| 日本爱情动作片www.在线观看 | av.在线天堂| 99久久精品热视频| 日日干狠狠操夜夜爽| 精品日产1卡2卡| 国产亚洲精品av在线| 国产精品综合久久久久久久免费| a级毛片免费高清观看在线播放| 久久国内精品自在自线图片| 人妻久久中文字幕网| 亚洲电影在线观看av| 99久久中文字幕三级久久日本| 午夜老司机福利剧场| 丝袜喷水一区| 悠悠久久av| 亚洲精品粉嫩美女一区| 久久国内精品自在自线图片| 欧美另类亚洲清纯唯美| 久久精品国产亚洲av涩爱 | 91久久精品电影网| 天堂√8在线中文| 成人午夜高清在线视频| 一级av片app| 看黄色毛片网站| 色哟哟哟哟哟哟| 国产男人的电影天堂91| 午夜激情福利司机影院| 18+在线观看网站| 91av网一区二区| 毛片一级片免费看久久久久| 中文字幕免费在线视频6| 精品福利观看| 国产精品人妻久久久影院| 给我免费播放毛片高清在线观看| 国产精品野战在线观看| 国产av在哪里看| 欧美zozozo另类| 欧美一级a爱片免费观看看| 日本黄色视频三级网站网址| 黑人高潮一二区| 狂野欧美白嫩少妇大欣赏| 国产亚洲精品综合一区在线观看| 一级a爱片免费观看的视频| 最近手机中文字幕大全| av专区在线播放| 97人妻精品一区二区三区麻豆| 色播亚洲综合网| 中文在线观看免费www的网站| 国产极品精品免费视频能看的| 亚洲熟妇中文字幕五十中出| 麻豆精品久久久久久蜜桃| 三级经典国产精品| 哪里可以看免费的av片| 老司机午夜福利在线观看视频| 晚上一个人看的免费电影| 91狼人影院| 免费电影在线观看免费观看| 少妇熟女欧美另类| 亚洲av二区三区四区| 久久久精品欧美日韩精品| 人妻久久中文字幕网| 一个人看的www免费观看视频| 麻豆国产97在线/欧美| 人妻久久中文字幕网| 麻豆久久精品国产亚洲av| 欧美一区二区亚洲| 精品日产1卡2卡| 全区人妻精品视频| or卡值多少钱| 别揉我奶头 嗯啊视频| 日本黄大片高清| 亚洲精品国产成人久久av| 亚洲欧美精品综合久久99| 亚洲成人av在线免费| 天堂动漫精品| 日本撒尿小便嘘嘘汇集6| 小蜜桃在线观看免费完整版高清| 搡老岳熟女国产| 日本欧美国产在线视频| 在线国产一区二区在线| 少妇被粗大猛烈的视频| 精品一区二区三区视频在线| 国产精品乱码一区二三区的特点| 日本精品一区二区三区蜜桃| 午夜激情欧美在线| 网址你懂的国产日韩在线| 我要看日韩黄色一级片| 又爽又黄a免费视频| 日本五十路高清| 日韩欧美精品免费久久| 免费一级毛片在线播放高清视频| av国产免费在线观看| 久久九九热精品免费| 搞女人的毛片| 我的女老师完整版在线观看| 日韩 亚洲 欧美在线| 亚洲av二区三区四区| 国产黄a三级三级三级人| 欧美中文日本在线观看视频| 欧美日韩综合久久久久久| 国产精品三级大全| 欧美国产日韩亚洲一区| 午夜福利高清视频| 18禁在线无遮挡免费观看视频 | 在线免费观看的www视频| 国产欧美日韩一区二区精品| 免费看光身美女| 波多野结衣高清作品| 国产精品久久久久久久久免| 亚洲经典国产精华液单| 有码 亚洲区| 欧洲精品卡2卡3卡4卡5卡区| 美女大奶头视频| 哪里可以看免费的av片| 人妻久久中文字幕网| 1000部很黄的大片| 99九九线精品视频在线观看视频| 蜜桃久久精品国产亚洲av| 婷婷精品国产亚洲av在线| 日本a在线网址| 亚洲av成人精品一区久久| 91av网一区二区| 精品一区二区三区视频在线| 两性午夜刺激爽爽歪歪视频在线观看| 国产男人的电影天堂91| 精品久久久久久成人av| 久久欧美精品欧美久久欧美| 亚洲五月天丁香| 18+在线观看网站| 香蕉av资源在线| 99热全是精品| 亚洲成人av在线免费| 日韩强制内射视频| 精品人妻一区二区三区麻豆 | 国国产精品蜜臀av免费| 国产av一区在线观看免费| 国产精品福利在线免费观看| 国产亚洲av嫩草精品影院| 国语自产精品视频在线第100页| 变态另类丝袜制服| 校园春色视频在线观看| 男人舔奶头视频| 高清毛片免费观看视频网站| 免费看光身美女| a级毛片免费高清观看在线播放| 天堂影院成人在线观看| 村上凉子中文字幕在线| 国产淫片久久久久久久久| 亚洲av五月六月丁香网| 舔av片在线| 亚洲在线观看片| 久久精品国产亚洲av香蕉五月| 久久久久性生活片| 国产亚洲精品久久久久久毛片| 国产精品女同一区二区软件| 国产成人a区在线观看| 最新中文字幕久久久久| 热99re8久久精品国产| 国产亚洲精品久久久久久毛片| 91久久精品国产一区二区成人| 91在线观看av| 五月玫瑰六月丁香| 欧美国产日韩亚洲一区| 久久国产乱子免费精品| 国产人妻一区二区三区在| 国产黄片美女视频| 久久久久久大精品| 精品久久久久久久久久免费视频| 日日啪夜夜撸| 给我免费播放毛片高清在线观看| 欧美不卡视频在线免费观看| 一夜夜www| 麻豆一二三区av精品| 在线免费观看的www视频| 99热这里只有精品一区| 亚洲乱码一区二区免费版| 午夜激情福利司机影院| 国产高清视频在线播放一区| 毛片女人毛片| 在线天堂最新版资源| 久久韩国三级中文字幕| 欧美绝顶高潮抽搐喷水| 嫩草影院精品99| 亚洲av中文字字幕乱码综合| 精品久久久久久久久av| 成熟少妇高潮喷水视频| 国产精品无大码| 午夜激情欧美在线| 91久久精品电影网| 日本欧美国产在线视频| 一级黄色大片毛片| 卡戴珊不雅视频在线播放| 搞女人的毛片| 日本a在线网址| 欧美人与善性xxx| 色综合站精品国产| 国产色爽女视频免费观看| 久久久久久伊人网av| 又爽又黄a免费视频| 色噜噜av男人的天堂激情| 日韩av在线大香蕉| av在线亚洲专区| 露出奶头的视频| 欧美潮喷喷水| 99在线人妻在线中文字幕| 国产色爽女视频免费观看| 国产精品av视频在线免费观看| 亚洲一区高清亚洲精品| 大型黄色视频在线免费观看| 别揉我奶头~嗯~啊~动态视频| 国产午夜福利久久久久久| 一边摸一边抽搐一进一小说| 在线观看66精品国产| 丝袜美腿在线中文| 看免费成人av毛片| 日本爱情动作片www.在线观看 | 国产精品日韩av在线免费观看| 老女人水多毛片| 久久久成人免费电影| 国产91av在线免费观看| 亚洲成人中文字幕在线播放| 老司机福利观看| 在线观看一区二区三区| 色视频www国产| 一级a爱片免费观看的视频| 成人二区视频| 国产一区二区三区av在线 | 亚洲成a人片在线一区二区| 久久欧美精品欧美久久欧美| 精品无人区乱码1区二区| 波多野结衣高清无吗| 男人和女人高潮做爰伦理| 午夜福利在线观看免费完整高清在 | 欧美绝顶高潮抽搐喷水| 综合色丁香网| 看片在线看免费视频| 亚洲美女视频黄频| 欧美极品一区二区三区四区| 国产真实伦视频高清在线观看| 亚洲欧美日韩高清专用| 人人妻人人澡人人爽人人夜夜 | 色哟哟·www| 久久久精品大字幕| 国产私拍福利视频在线观看| 国产精品一二三区在线看| 色在线成人网| 国产精品一二三区在线看| 人人妻,人人澡人人爽秒播| 午夜爱爱视频在线播放| 在线观看av片永久免费下载| 最近的中文字幕免费完整| 91午夜精品亚洲一区二区三区| 少妇熟女欧美另类| 日本与韩国留学比较| 国产精品一二三区在线看| 精华霜和精华液先用哪个| 精品久久久久久成人av| 九九久久精品国产亚洲av麻豆| 日本一本二区三区精品| 日韩三级伦理在线观看| 国内精品久久久久精免费| 色综合站精品国产| 熟妇人妻久久中文字幕3abv| 久久韩国三级中文字幕| 国产老妇女一区| 日本欧美国产在线视频| 悠悠久久av| 免费在线观看成人毛片| 2021天堂中文幕一二区在线观| 一卡2卡三卡四卡精品乱码亚洲| 菩萨蛮人人尽说江南好唐韦庄 | 欧美又色又爽又黄视频|