• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合多語(yǔ)義特征的命名實(shí)體識(shí)別方法

    2022-07-29 08:49:20左亞堯陳皓宇陳致然洪嘉偉陳坤
    計(jì)算機(jī)應(yīng)用 2022年7期
    關(guān)鍵詞:集上字符命名

    左亞堯,陳皓宇,陳致然,洪嘉偉,陳坤

    融合多語(yǔ)義特征的命名實(shí)體識(shí)別方法

    左亞堯*,陳皓宇,陳致然,洪嘉偉,陳坤

    (廣東工業(yè)大學(xué) 計(jì)算機(jī)學(xué)院,廣州 510006)( ? 通信作者電子郵箱yyzuo@gdut.edu.cn)

    針對(duì)語(yǔ)言普遍存在的字符間非線性關(guān)系,為捕獲更豐富的語(yǔ)義特征,提出了一種基于圖卷積神經(jīng)網(wǎng)絡(luò)(GCN)和自注意力機(jī)制的命名實(shí)體識(shí)別(NER)方法。首先,借助深度學(xué)習(xí)方法有效提取字符特征的能力,采用GCN學(xué)習(xí)字符間的全局語(yǔ)義特征,并且采用雙向長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(BiLSTM)提取字符的上下文依賴(lài)特征;其次,融合以上特征并引入自注意力機(jī)制計(jì)算其內(nèi)部重要度;最后,使用條件隨機(jī)場(chǎng)(CRF)從融合特征中解碼出最優(yōu)的編碼序列,并以此作為實(shí)體識(shí)別的結(jié)果。實(shí)驗(yàn)結(jié)果表明,與單一采用BiLSTM和CRF的方法相比,所提方法在微軟亞洲研究院(MSRA)數(shù)據(jù)集和BioNLP/NLPBA 2004數(shù)據(jù)集上的精確率分別至少提高了2.39%和15.2%??梢?jiàn)該方法在中文和英文數(shù)據(jù)集上都具備良好的序列標(biāo)注能力,且泛化能力較強(qiáng)。

    命名實(shí)體識(shí)別;序列標(biāo)注;自注意力機(jī)制;圖卷積網(wǎng)絡(luò);雙向長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)

    0 引言

    命名實(shí)體識(shí)別(Named Entity Recognition, NER)是自然語(yǔ)言處理領(lǐng)域的重要研究方向之一,其目的是識(shí)別文本數(shù)據(jù)中的具有特定意義的實(shí)體,如人名、地名、機(jī)構(gòu)名、組織名等,在關(guān)系抽取、信息檢索、機(jī)器翻譯等任務(wù)中有著重要作用。因其基石性地位,國(guó)內(nèi)外學(xué)者圍繞命名實(shí)體識(shí)別的性能、普適性和面向語(yǔ)系等不同方面做了較多研究,并利用監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)或無(wú)監(jiān)督學(xué)習(xí)等不同手段,衍生出一批從特征工程到深度學(xué)習(xí)的方法。

    作為序列標(biāo)注的子任務(wù),命名實(shí)體識(shí)別一般可以抽象為三層結(jié)構(gòu):特征表示層、特征編碼層和標(biāo)簽解碼層。其中編碼層可采用隨機(jī)初始化字符編碼或預(yù)訓(xùn)練編碼;特征編碼層可采用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)或循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)學(xué)習(xí)上下文編碼信息;標(biāo)簽解碼層可采用條件隨機(jī)場(chǎng)(Conditional Random Field, CRF)解碼出實(shí)體識(shí)別結(jié)果的序列。

    近年來(lái),Huang等[1]所構(gòu)建的雙向長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(Bidirectional Long Short-Term Memory network, BiLSTM)-CRF模型取得突破性成果,其F1在CoNLL2003數(shù)據(jù)集上達(dá)90.10%,成為實(shí)現(xiàn)命名實(shí)體識(shí)別任務(wù)的代表方法。該方法證明了BiLSTM在學(xué)習(xí)字符上下文信息方面的優(yōu)越性,并且CRF充分考慮全局特征后在解碼時(shí)具有一定優(yōu)勢(shì),后續(xù)有許多方法都在此基礎(chǔ)上進(jìn)行改進(jìn)。

    為了提高識(shí)別效果,學(xué)者們著手研究如何輸入更豐富的特征。Song等[2]通過(guò)對(duì)比多種詞嵌入方法,最后選擇以Word2Vec為詞嵌入;Luo等[3]針對(duì)BiLSTM連續(xù)性和單一輸入的特點(diǎn),提出了分層語(yǔ)義表示增強(qiáng)模型,通過(guò)融合句子級(jí)信息和文檔級(jí)信息,使模型能夠充分利用全局信息;Gajendran等[4]考慮了字符級(jí)和單詞級(jí)的特征,提出雙向命名實(shí)體識(shí)別(Bidirectional Named Entity Recognition, BNER)神經(jīng)網(wǎng)絡(luò),在沒(méi)有大量標(biāo)注數(shù)據(jù)的情況下取得了較好的效果。

    相對(duì)于英文語(yǔ)系,中文命名實(shí)體識(shí)別通常采用字符作為觀測(cè)序列。其原因在于,中文的詞邊界不明顯,前序工作所產(chǎn)生的分詞誤差將給后續(xù)實(shí)體識(shí)別任務(wù)帶來(lái)噪聲。故在通用領(lǐng)域數(shù)據(jù)集中,相比基于詞匯的方法,基于字符的命名實(shí)體識(shí)別通常有較好的表現(xiàn)。文獻(xiàn)[5]基于中文的字符級(jí)表示構(gòu)建BiLSTM-CRF神經(jīng)網(wǎng)絡(luò),在微軟亞洲研究院(MicroSoft Research Asia, MSRA)數(shù)據(jù)集上取得F1值90.95%的性能結(jié)果。

    基于字符的方法雖然沒(méi)有引入噪聲,但同樣丟失了詞匯信息等特征,而詞匯邊界對(duì)實(shí)體切分有著重要作用。因此,學(xué)者開(kāi)始研究詞匯增強(qiáng)的方法。例如,文獻(xiàn)[6]在字符特征的基礎(chǔ)上引入詞性特征,而文獻(xiàn)[7]從漢字的特點(diǎn)出發(fā),將字形特征以五筆編碼的形式用于信息增強(qiáng)。這些方法通過(guò)在原有字符的基礎(chǔ)上改進(jìn)模型,使其可以接收詞匯信息的輸入,從而提高識(shí)別精度。Lattice LSTM[8]是最先提出的詞匯增強(qiáng)命名實(shí)體識(shí)別方法,其通過(guò)詞典匹配句子獲取詞匯節(jié)點(diǎn),再將詞匯節(jié)點(diǎn)加入原有BiLSTM,形成一個(gè)有向無(wú)環(huán)圖,以此融合詞匯信息。但該方法由于增加了個(gè)數(shù)不定的詞匯節(jié)點(diǎn),無(wú)法并行化處理,計(jì)算性能相對(duì)較低。同時(shí)因?yàn)锽iLSTM本身特點(diǎn),模型只能獲取到以當(dāng)前字符為結(jié)尾的線性詞匯信息,且前向和后向不能共享,故容易產(chǎn)生詞匯信息沖突。

    對(duì)于引入的詞匯信息等外部特征,為避免RNN類(lèi)算法在順序計(jì)算過(guò)程中造成信息丟失,使模型根據(jù)信息重要程度分配不同權(quán)重,從而更關(guān)注實(shí)體相關(guān)的字符,學(xué)者采用注意力機(jī)制選擇輸入的特征。在中文問(wèn)答任務(wù)[9]、多粒度實(shí)體識(shí)別[10]中以及信息安全領(lǐng)域?qū)嶓w識(shí)別[11]的實(shí)驗(yàn)表明,注意力的引入可以幫助快速提取數(shù)據(jù)的重要特征。由于這些方法需要依賴(lài)外部信息,故模型容易出現(xiàn)泛化能力不強(qiáng)的情況。

    作為注意力機(jī)制的一種變體,自注意力機(jī)制更擅長(zhǎng)捕捉特征的內(nèi)部相關(guān)性,減少模型對(duì)外部特征的依賴(lài)。在許多領(lǐng)域任務(wù)都取得較好效果的Transformer[12],正是利用自注意力(Self-Attention)機(jī)制學(xué)習(xí)文本表示中的關(guān)聯(lián)信息。文獻(xiàn)[13]中同樣利用Self-Attention關(guān)注學(xué)習(xí)到的詞向量,得到句子的內(nèi)部表示,進(jìn)而實(shí)現(xiàn)法律文書(shū)中的實(shí)體識(shí)別。在文本應(yīng)用中,通過(guò)Self-Attention計(jì)算字符間的相互影響,可以彌補(bǔ)BiLSTM在遠(yuǎn)距離依賴(lài)捕獲上的不足。

    綜上所述,采用字作為輸入BiLSTM-CRF模型是當(dāng)前的主流方法,為捕獲更豐富的語(yǔ)義特征,Lattice LSTM將詞典匹配的詞匯與字節(jié)點(diǎn)首尾相連,實(shí)驗(yàn)表明實(shí)體識(shí)別效果有所提升;但該方法只能看到前序信息,無(wú)法捕捉遠(yuǎn)距離的依賴(lài)關(guān)系,導(dǎo)致模型過(guò)于重視局部特征,且運(yùn)行效率低下。圖卷積網(wǎng)絡(luò)(Graph Convolutional Network, GCN)則是以圖網(wǎng)絡(luò)的方法聚合的局部信息,但需要復(fù)雜的模型結(jié)構(gòu),且相應(yīng)的詞典并非時(shí)??傻?。針對(duì)上述問(wèn)題,提出一種融合多語(yǔ)義特征的命名實(shí)體識(shí)別模型(Self-Attention-BiLSTM-GCN-CRF, BGCN),采用隨機(jī)初始化向量作為字符嵌入,BiLSTM作為編碼層,學(xué)習(xí)字符之間的上下文信息;通過(guò)GCN學(xué)習(xí)字符的全局語(yǔ)義信息,即遠(yuǎn)距離依賴(lài)關(guān)系,并將其與上下文信息一起經(jīng)過(guò)自注意力融合。在兩個(gè)數(shù)據(jù)集上的對(duì)比實(shí)驗(yàn)表明,精度優(yōu)于現(xiàn)有的BiLSTM-CRF模型。

    1 相關(guān)工作

    1.1 BiLSTM-CRF模型

    在命名實(shí)體識(shí)別研究中,深度學(xué)習(xí)已被證實(shí)是自動(dòng)學(xué)習(xí)和提取深度特征的有效工具。對(duì)于特征表示,學(xué)者們大多選用符號(hào)、詞性、詞邊界、上下文和語(yǔ)義等,設(shè)計(jì)相應(yīng)的組合特征。

    對(duì)于特征編碼,為了能分別捕獲過(guò)去和將來(lái)的信息,學(xué)者改進(jìn)長(zhǎng)短時(shí)記憶(Long Short-Term Memory, LSTM)網(wǎng)絡(luò),提出了BiLSTM,該模型將每個(gè)序列向前和向后呈現(xiàn)為兩個(gè)單獨(dú)的隱藏狀態(tài),再將兩個(gè)隱藏狀態(tài)連接起來(lái)形成最終輸出。

    對(duì)于特征解碼,CRF是用于解決序列標(biāo)注問(wèn)題的主流判別式模型。為了適應(yīng)各自領(lǐng)域,學(xué)者就原有CRF進(jìn)行相關(guān)改進(jìn),如Chen等[14]提出級(jí)聯(lián)CRF;Sun等[15]利用CRF完成多視圖序列標(biāo)注。因?yàn)榭紤]了上下文標(biāo)簽的關(guān)系,借助特征表示層提取的特征,CRF可較好地完成序列標(biāo)注任務(wù)。

    基于BiLSTM-CRF這一主流模型,各行業(yè)領(lǐng)域產(chǎn)生了許多應(yīng)用,包括自動(dòng)提取客戶(hù)咨詢(xún)問(wèn)題序列中的實(shí)體特征[16]、微博評(píng)論[17]、生物信息領(lǐng)域[18]和社會(huì)突發(fā)事件[19]的實(shí)體識(shí)別,以及惡意軟件名稱(chēng)[20]。縱觀序列標(biāo)注的相關(guān)研究可以發(fā)現(xiàn),以BiLSTM-CRF模型為核心的端到端模型在序列標(biāo)注任務(wù)上可以取得不錯(cuò)的效果,該模型可以有效完成實(shí)體識(shí)別任務(wù)。該組合模型的結(jié)構(gòu)如圖1所示。

    圖1 BiLSTM-CRF模型

    1.2 圖卷積神經(jīng)網(wǎng)絡(luò)

    近幾年,圖卷積網(wǎng)絡(luò)(Graph Convolutional Network, GCN)的成功推動(dòng)了自然語(yǔ)言處理領(lǐng)域相關(guān)研究的發(fā)展。許多深度學(xué)習(xí)任務(wù),如語(yǔ)義分隔、文本分類(lèi)和動(dòng)作識(shí)別,由以往使用歐氏數(shù)據(jù)的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)和RNN方法轉(zhuǎn)變?yōu)槭褂梅菤W氏數(shù)據(jù)的GNN[21]方法。模型利用循環(huán)神經(jīng)結(jié)構(gòu)傳播周?chē)?jié)點(diǎn)的信息,經(jīng)過(guò)迭代到達(dá)一個(gè)穩(wěn)定的不動(dòng)點(diǎn),從而得到目標(biāo)節(jié)點(diǎn)的向量表示。在GNN的推動(dòng)下,通過(guò)借鑒CNN、RNN等神經(jīng)網(wǎng)絡(luò)的思想,相關(guān)學(xué)者定義和設(shè)計(jì)了用于處理圖結(jié)構(gòu)數(shù)據(jù)的GCN,并將之應(yīng)用于分類(lèi)任務(wù)[22]。

    現(xiàn)有實(shí)驗(yàn)證明GCN具有強(qiáng)大的特征提取能力,能提取圖結(jié)構(gòu)的數(shù)據(jù)特征并應(yīng)用在關(guān)系分類(lèi)、標(biāo)簽分類(lèi)等領(lǐng)域上。本文利用現(xiàn)有GCN對(duì)圖結(jié)構(gòu)數(shù)據(jù)的處理能力來(lái)提取遠(yuǎn)距離的字符間的特征。

    2 BGCN模型

    本文結(jié)合自注意力機(jī)制、GCN模型、BiLSTM模型和CRF模型特點(diǎn),采用GCN模型提取字符之間全局語(yǔ)義特征,并融合BiLSTM模型學(xué)習(xí)的字符序列間的依賴(lài)關(guān)系特征,再將其輸入到自注意力層中關(guān)注特征的內(nèi)部重要度后輸入CRF模型來(lái)進(jìn)行解碼得到最優(yōu)編碼序列。本文將從模型構(gòu)建、全局語(yǔ)義學(xué)習(xí)、上下文語(yǔ)義學(xué)習(xí)、語(yǔ)義融合、CRF解碼和算法描述等方面來(lái)介紹模型。

    2.1 模型構(gòu)建

    該模型首先利用滑動(dòng)窗口構(gòu)建共現(xiàn)矩陣的方法來(lái)處理語(yǔ)料獲得候選詞語(yǔ),根據(jù)點(diǎn)互信息(Pointwise Mutual Information, PMI)計(jì)算字符之間的關(guān)聯(lián)度,進(jìn)而構(gòu)成字符鄰接矩陣;之后,將語(yǔ)料數(shù)據(jù)編碼為字符向量輸入到BiLSTM模型學(xué)習(xí)得到上下文特征向量,并將字符鄰接矩陣及特征矩陣輸入GCN得到全局語(yǔ)義特征向量,最后融合兩者并經(jīng)過(guò)多頭自注意力關(guān)注后輸入到CRF中進(jìn)行序列標(biāo)注。其整體流程如圖2所示。

    圖2 BGCN模型流程

    2.2 全局語(yǔ)義學(xué)習(xí)

    其中,每層GCN能夠?qū)W習(xí)到一階距離的節(jié)點(diǎn)信息,通過(guò)疊加多層GCN可使圖中每個(gè)節(jié)點(diǎn)都可以學(xué)習(xí)到全局范圍的特征信息,其傳播過(guò)程如式(6)所示:

    2.3 上下文語(yǔ)義學(xué)習(xí)

    LSTM是一種特殊的RNN,能夠?qū)W習(xí)長(zhǎng)距離依賴(lài)的關(guān)系,一定程度上可緩解RNN中梯度消失的問(wèn)題。LSTM單元由輸入門(mén)、更新門(mén)、遺忘門(mén)和記憶單元4部分組成,其中記憶單元的作用是對(duì)信息進(jìn)行管理和保存,而三個(gè)門(mén)的作用是控制記憶單元中信息的更新變化。BiLSTM由前向LSTM與后向LSTM組成,可以更好地捕捉雙向的語(yǔ)義依賴(lài)信息,故本文采用BiLSTM捕獲字符的上下文語(yǔ)義依賴(lài)特征。LSTM模型的單元結(jié)構(gòu)如圖3所示。

    圖3 LSTM單元結(jié)構(gòu)

    LSTM單元在時(shí)刻的傳播公式如式(8)~(13)所示:

    2.4 語(yǔ)義融合

    其中:、、是在訓(xùn)練中學(xué)習(xí)得到的權(quán)重矩陣。

    2.5 CRF解碼

    CRF是一種概率無(wú)向圖模型,其原理是計(jì)算給定序列中的最優(yōu)聯(lián)合概率分布,從而優(yōu)化整個(gè)序列,而不是單獨(dú)求出每個(gè)時(shí)刻的最優(yōu)解后,再進(jìn)行拼接。本文使用CRF模型約束注意力層提取的特征向量,進(jìn)而解碼得到最優(yōu)標(biāo)注序列。

    在訓(xùn)練過(guò)程中采用最大似然估計(jì)方法對(duì)CRF模型進(jìn)行參數(shù)優(yōu)化,其對(duì)數(shù)似然函數(shù)如式(21)所示:

    2.6 算法描述

    基于上述各模塊,本文提出融合多特征的命名實(shí)體識(shí)別算法,整體由3個(gè)部分組成,分別為全局語(yǔ)義特征的學(xué)習(xí)模塊、上下文特征的學(xué)習(xí)模塊和序列解碼模塊。其中,句子融合語(yǔ)義通過(guò)GCN和BiLSTM捕獲并融合,CRF所生成的標(biāo)注采用最大似然方法進(jìn)行更新。

    算法1 融合多特征的命名實(shí)體識(shí)別算法。

    2) 重復(fù)以下操作,直到完成訓(xùn)練輪數(shù):

    ③根據(jù)式(13)計(jì)算得到上下文特征向量;

    ④融合全局語(yǔ)義特征向量和上下文特征向量, 并根據(jù)式(14)計(jì)算融合特征向量的內(nèi)部重要度;

    3) 根據(jù)學(xué)到的模型,預(yù)測(cè)測(cè)試集中的句子對(duì)應(yīng)的標(biāo)注序列。

    算法1描述了融合多特征的命名實(shí)體識(shí)別算法。整個(gè)算法分為三個(gè)部分:全局語(yǔ)義特征的學(xué)習(xí)和上下文特征的學(xué)習(xí),以及利用最大似然估計(jì)對(duì)CRF所生成的標(biāo)注進(jìn)行更新。

    3 實(shí)驗(yàn)結(jié)果與分析

    將BGCN模型在各數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),并與其他方法比較;分析不同參數(shù)配置對(duì)模型性能的影響,以及去除注意力層后的模型效果。

    3.1 實(shí)驗(yàn)語(yǔ)料

    1) MSRA:微軟亞洲研究院2006年SIGHAN命名實(shí)體識(shí)別語(yǔ)料庫(kù),由50 729條中文命名實(shí)體識(shí)別標(biāo)注數(shù)據(jù)組成,包括地點(diǎn)、機(jī)構(gòu)和人物。SIGHAN(Special Interest Group for Chinese Language Processing of the Association for Computational Linguistics)是國(guó)際計(jì)算語(yǔ)言學(xué)會(huì)(ACL)中文語(yǔ)言處理小組的簡(jiǎn)稱(chēng)。

    2) BioNLP/NLPBA(Biomedical Natural Language Processing/Natural Language Processing in Biomedical Applications) 2004數(shù)據(jù)集:來(lái)自GENIA版本3.02語(yǔ)料的2000MEDLINE摘要,該摘要由生物醫(yī)學(xué)術(shù)語(yǔ){human, transcription factor, blood cell}組成。經(jīng)處理后僅使用蛋白質(zhì)(protein)、DNA、RNA、細(xì)胞系(cell line)和細(xì)胞類(lèi)型(cell type)等命名實(shí)體。

    3.2 數(shù)據(jù)處理

    MSRA和BioNLP/NLPBA 2004是公開(kāi)數(shù)據(jù)集,并且已經(jīng)給出詞性標(biāo)注,但需將其詞性標(biāo)注轉(zhuǎn)換為BIO(Begin Inside Other)系統(tǒng),其中B表示命名實(shí)體的首字符,I表示除命名實(shí)體首字符外的其他實(shí)體字符,O表示非命名實(shí)體字符。其中,MSRA數(shù)據(jù)集有3個(gè)實(shí)體類(lèi)別,如表1所示;BioNLP/NLPBA 2004數(shù)據(jù)集有5個(gè)實(shí)體類(lèi)別,如表2所示。

    表1MSRA實(shí)體標(biāo)簽

    Tab.1 MSRA entity labels

    表2BioNLP/NLPBA 2004實(shí)體標(biāo)簽

    Tab.2 BioNLP/NLPBA 2004 entity labels

    將帶有實(shí)體標(biāo)簽的數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集與測(cè)試集,數(shù)據(jù)集的劃分情況如表3所示。

    表3數(shù)據(jù)集劃分情況

    Tab.3 Dataset division condition

    3.3 實(shí)驗(yàn)設(shè)置

    表4模型參數(shù)設(shè)置

    Tab.4 Model parameter setting

    3.4 實(shí)驗(yàn)環(huán)境及評(píng)價(jià)指標(biāo)

    本文的實(shí)驗(yàn)環(huán)境及配置如表5所示。

    表5軟硬件環(huán)境

    Tab.5 Software and hardware environments

    本文使用3個(gè)指標(biāo)作為評(píng)價(jià)標(biāo)準(zhǔn):實(shí)體標(biāo)簽精確率(Precision,)、實(shí)體標(biāo)簽的召回率(Recall,)和綜合評(píng)價(jià)指標(biāo)F1值(1)。計(jì)算公式如式(23)~(25)所示:

    3.5 實(shí)驗(yàn)結(jié)果

    為了驗(yàn)證模型參數(shù)設(shè)置的有效性,在MSRA數(shù)據(jù)集上對(duì)不同滑動(dòng)窗口的模型,以及不同初始向量維度的模型分別進(jìn)行實(shí)驗(yàn),如圖5、圖6所示。結(jié)果表明,當(dāng)滑動(dòng)窗口大小取5,初始化向量維度為100時(shí),模型的F1值達(dá)到最大值93.76%。

    圖5 不同大小滑動(dòng)窗口的效果對(duì)比

    圖6 不同嵌入向量維度的效果對(duì)比

    實(shí)驗(yàn)使用Pytorch深度學(xué)習(xí)框架,在MSRA和BioNLP/NLPBA 2004數(shù)據(jù)集進(jìn)行訓(xùn)練,并利用測(cè)試集進(jìn)行測(cè)試。BGCN模型與其他模型的對(duì)比結(jié)果如表6、7所示。

    表6MSRA數(shù)據(jù)集上的對(duì)比結(jié)果 單位:%

    Tab.6 Comparison results on MSRA dataset unit:%

    表7BioNLP/NLPBA 2004數(shù)據(jù)集上的對(duì)比結(jié)果 單位:%

    Tab.7 Comparison results on BioNLP/NLPBA dataset unit:%

    在中文數(shù)據(jù)集MSRA上,BGCN模型的F1值較文獻(xiàn) [23]、文獻(xiàn)[24]、文獻(xiàn)[25]、文獻(xiàn)[5]和文獻(xiàn)[6]的最優(yōu)值提高了2.83%,召回率較之最優(yōu)值提高了2.79%,精確率較之最優(yōu)值提高了2.39%。通過(guò)相關(guān)對(duì)比可以發(fā)現(xiàn),BGCN模型在中文命名實(shí)體識(shí)別任務(wù)上也領(lǐng)先于文中提及的其他模型。

    在英文數(shù)據(jù)集BioNLP/NLPBA 2004上,BGCN模型F1值比文獻(xiàn)[26]、文獻(xiàn)[2]和文獻(xiàn)[27]等的最優(yōu)值提高了8.49%,精確率比其提高了15.20%,召回率比其提高了13.27%。實(shí)驗(yàn)結(jié)果表明,BGCN模型能夠?qū)W習(xí)到更有用的語(yǔ)義特征,在英文命名實(shí)體識(shí)別任務(wù)表現(xiàn)上比現(xiàn)有模型優(yōu)越。

    從圖7和圖8中可以看出,BGCN模型在MSRA數(shù)據(jù)集上只需要8輪即可達(dá)到收斂,在BioNLP/NLPBA 2004數(shù)據(jù)集上則需要25輪達(dá)到收斂,這從側(cè)面反映了BGCN模型時(shí)間性能的優(yōu)越性。相對(duì)于中文數(shù)據(jù)集,模型在英文數(shù)據(jù)集上難收斂的原因是英文數(shù)據(jù)集需抽取的實(shí)體類(lèi)型有5類(lèi)而中文數(shù)據(jù)集只有3類(lèi)。這反映了實(shí)體類(lèi)型的增加會(huì)使得抽取任務(wù)難度倍增,也體現(xiàn)了BGCN模型在處理復(fù)雜的實(shí)體抽取問(wèn)題上,具有較優(yōu)的泛化能力。

    為了驗(yàn)證BGCN組合模型的有效性,將模型的自注意力層去除,并在BioNLP/NLPBA 2004數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),訓(xùn)練過(guò)程如圖9。實(shí)驗(yàn)表明,去除自注意力層的模型(BiLSTM-GCN-CRF)雖然能較快收斂,但其對(duì)文本深層特征的學(xué)習(xí)不夠充分,在測(cè)試集上F1值為76.80%;而帶有自注意力層的BGCN模型,由于需要學(xué)習(xí)的參數(shù)較多,雖然前期分?jǐn)?shù)增長(zhǎng)較慢,但在第15輪后分?jǐn)?shù)迅速爬升,收斂后F1值為79.00%,較前者提升了2.2個(gè)百分點(diǎn)。

    圖7 MSRA驗(yàn)證集訓(xùn)練效果

    圖8 BioNLP/NLPBA 2004 驗(yàn)證集訓(xùn)練效果

    圖9 BGCN去除自注意力層前后效果對(duì)比

    4 結(jié)語(yǔ)

    本文針對(duì)不同語(yǔ)系下黏著程度和語(yǔ)序不一的特點(diǎn),提出一種新穎的命名實(shí)體識(shí)別模型BGCN。實(shí)驗(yàn)結(jié)果表明,模型對(duì)不同語(yǔ)言習(xí)慣的中文和英文語(yǔ)料均能捕獲豐富的語(yǔ)義特征,精確率比傳統(tǒng)序列模型和圖模型有明顯的提升。同時(shí),在實(shí)體類(lèi)別數(shù)量不同的語(yǔ)料上,雖在時(shí)間性能稍有不足,但能取得較優(yōu)的精度,表現(xiàn)出較好的泛化能力。下一步將考慮在其他語(yǔ)言的語(yǔ)料上進(jìn)行測(cè)試,改進(jìn)實(shí)體分類(lèi)方法,以降低時(shí)間消耗,進(jìn)一步提高模型泛化能力。

    [1] HUANG Z H, XU W, YU K. Bidirectional LSTM-CRF models for sequence tagging[EB/OL]. (2015-08-09) [2020-05-01].https://arxiv.org/pdf/1508.01991.pdf.

    [2] SONG H J, JO B C, PARK C Y, et al. Comparison of named entity recognition methodologies in biomedical documents[J]. Biomedical Engineering Online, 2018, 17: No.158.

    [3] LUO Y, XIAO F S, ZHAO H. Hierarchical contextualized representation for named entity recognition[C]// Proceedings of the 2020 AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2020: 8441-8448.

    [4] GAJENDRAN S, MANJULA D, SUGUMARAN V. Character level and word level embedding with bidirectional LSTM-Dynamic recurrent neural network for biomedical named entity recognition from literature[J]. Journal of Biomedical Informatics, 2020, 112(1): No.103609.

    [5] DONG C H, ZHANG J J, ZONG C Q, et al. Character-based LSTM-CRF with radical-level features for Chinese named entity recognition[C]// Proceedings of the 2016 International Conference on Computer Processing of Oriental Languages/2016 National CCF Conference on Natural Language Processing and Chinese Computing, LNCS 10102. Cham: Springer, 2016: 239-250.

    [6] 張海楠,伍大勇,劉悅,等. 基于深度神經(jīng)網(wǎng)絡(luò)的中文命名實(shí)體識(shí)別[J]. 中文信息學(xué)報(bào), 2017, 31(4):28-35.(ZHANG H N, WU D Y, LIU Y, et al. Chinese named entity recognition based on deep neural network[J]. Journal of Chinese Information Processing, 2017, 31(4):28-35.)

    [7] 劉宇瀚,劉常健,徐睿峰,等. 結(jié)合字形特征與迭代學(xué)習(xí)的金融領(lǐng)域命名實(shí)體識(shí)別[J]. 中文信息學(xué)報(bào), 2020, 34(11): 74-83.(LIU Y H, LIU C J, XU R F, et al. Utilizing glyph feature and iterative learning for named entity recognition in finance text[J]. Journal of Chinese Information Processing, 2020, 34(11): 74-83.)

    [8] ZHANG Y, YANG J. Chinese NER using lattice LSTM[C]// Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Stroudsburg, PA: Association for Computational Linguistics, 2018: 1554-1564.

    [9] YU X M, FENG W Z, WANG H, et al. An attention mechanism and multi-granularity-based Bi-LSTM model for Chinese Q&A system[J]. Soft Computing, 2020, 24(8):5831-5845.

    [10] DAI J H, FENG C, BAI X F, et al. AERNs: attention-based entity region networks for multi-grained named entity recognition[C]// Proceedings of the IEEE 31st International Conference on Tools with Artificial Intelligence. Piscataway: IEEE, 2019: 408-415.

    [11] 張晗,郭淵博,李濤. 結(jié)合GAN與BiLSTM-Attention-CRF的領(lǐng)域命名實(shí)體識(shí)別[J]. 計(jì)算機(jī)研究與發(fā)展, 2019, 56(9):1851-1858.(ZHANG H, GUO Y B, LI T. Domain named entity recognition combining GAN and BiLSTM-Attention-CRF[J]. Journal of Computer Research and Development, 2019, 56(9):1851-1858.)

    [12] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017: 6000-6010.

    [13] 王得賢,王素格,裴文生,等. 基于JCWA-DLSTM的法律文書(shū)命名實(shí)體識(shí)別方法[J]. 中文信息學(xué)報(bào), 2020, 34(10): 51-58.(WANG D X, WANG S G, PEI W S, et al. Named entity recognition based on JCWA-DLSTM for legal instruments[J]. Journal of Chinese Information Processing, 2020, 34(10): 51-58.)

    [14] CHEN X Y, SHI S H, ZHAN S Y, et al. Named entity recognition of Chinese electronic medical records based on cascaded conditional random field[C]// Proceedings of the IEEE 4th International Conference on Big Data Analytics. Piscataway: IEEE, 2019: 364-368.

    [15] SUN X L, SUN S L, YIN M Z, et al. Hybrid neural conditional random fields for multi-view sequence labeling[J]. Knowledge-Based Systems, 2020, 189: No.105151.

    [16] LIU J M, SUN C, YUAN Y. The BERT-BiLSTM-CRF question event information extraction method[C]// Proceedings of the IEEE 3rd International Conference on Electronic Information and Communication Technology. Piscataway: IEEE, 2020: 729-733.

    [17] HU J M, ZHENG X. Opinion extraction of government microblog comments via BiLSTM-CRF model [C]// Proceedings of the 2020 ACM/IEEE Joint Conference on Digital Libraries. New York: ACM, 2020: 473-475.

    [18] YANG X M, GAO Z H, LI Y M, et al. Bidirectional LSTM-CRF for biomedical named entity recognition[C]// Proceedings of the 14th International Conference on Natural Computation, Fuzzy Systems and Knowledge Discovery. Piscataway: IEEE, 2018: 239-242.

    [19] 胡慧君,王聰,代建華,等.基于BiLSTM-CRF 的社會(huì)突發(fā)事件研判方法[J]. 中文信息學(xué)報(bào), 2022, 36(3):154-161. (HU H J, WANG C, DAI J H,et al. Social emergency event judgement based on BiLSTM-CRF[J]. Journal of Chinese Information Processing, 2022, 36(3):154-161.)

    [20] 古雪梅,劉嘉勇,程芃森,等. 基于增強(qiáng) BiLSTM-CRF 模型的推文惡意軟件名稱(chēng)識(shí)別[J]. 計(jì)算機(jī)科學(xué), 2020, 47(2): 245-250.(GU X M, LIU J Y, CHENG P S, et al. Malware name recognition in tweets based on enhanced BiLSTM-CRF model[J]. Computer Science, 2020, 47(2): 245-250.)

    [21] WU Z H, PAN S R, CHEN F W, et al. A comprehensive survey on graph neural networks[J]. IEEE Transactions on Neural Networks and Learning Systems, 2021, 32(1): 4-24.

    [22] YAO L, MAO C S, LUO Y. Graph convolutional networks for text classification[C]// Proceedings of the 33rd AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2019: 7370-7377.

    [23] ZHOU J S, HE L, DAI X Y, et al. Chinese named entity recognition with a multi-phase model[C]// Proceedings of the 5th SIGHAN Workshop on Chinese Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2006: 213-216.

    [24] CHEN A T, PENG F C, SHAN R, et al. Chinese named entity recognition with conditional probabilistic models[C]// Proceedings of the 5th SIGHAN Workshop on Chinese Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2006: 173-176.

    [25] ZHOU J H, QU W G, ZHANG F. Chinese named entity recognition via joint identification and categorization[J]. Chinese Journal of Electronics, 2013, 22(2):225-230.

    [26] YIMAM S M, BIEMANN C, MAJNARIC L, et al. An adaptive annotation approach for biomedical entity and relation recognition[J]. Brain Informatics, 2016, 3:157-168.

    [27] SONG Y, KIM E, LEE G G, et al. POSBIOTM-NER in the shared task of BioNLP/NLPBA2004[C]// Proceedings of the 2004 International Joint Workshop on Natural Language Processing in Biomedicine and its Applications. [S.l.]: COLING, 2004:103-106.

    ZUO Yayao, born in 1974, Ph. D., associate professor. His research interests include temporal information processing, data mining, natural language processing.

    CHEN Haoyu, born in 1995, M.S. candidate. His research interests include natural language processing, deep learning.

    CHEN Zhiran, born in 1996, M. S. candidate. His research interests include natural language processing, machine learning.

    HONG Jiawei, born in 1999. His research interests include natural language processing, image recognition.

    CHEN Kun, born in 2001. Her research interests include data mining, natural language processing.

    Named entity recognition method combining multiple semantic features

    ZUO Yayao*, CHEN Haoyu, CHEN Zhiran, HONG Jiawei, CHEN Kun

    (,,510006,)

    Aiming at the common non-linear relationship between characters in languages, in order to capture richer semantic features, a Named Entity Recognition (NER) method based on Graph Convolutional Network (GCN) and self-attention mechanism was proposed. Firstly, with the help of the effective extraction ability of character features of deep learning methods, the GCN was used to learn the global semantic features between characters, and the Bidirectional Long Short-Term Memory network (BiLSTM) was used to extract the context-dependent features of the characters. Secondly, the above features were fused and their internal importance was calculated by introducing a self-attention mechanism. Finally, the Conditional Random Field (CRF) was used to decode the optimal coding sequence from the fused features, which was used as the result of entity recognition. Experimental results show that compared with the method that only uses BiLSTM or CRF, the proposed method has the recognition precision increased by 2.39% and 15.2% respectively on MicroSoft Research Asia (MSRA) dataset and Biomedical Natural Language Processing/Natural Language Processing in Biomedical Applications (BioNLP/NLPBA) 2004 dataset, indicating that this method has good sequence labeling capability on both Chinese and English datasets, and has strong generalization capability.

    Named Entity Recognition (NER); sequence labeling; self-attention mechanism; Graph Convolution Network (GCN); Bidirectional Long Short-Term Memory network (BiLSTM)

    This work is partially supported by Natural Science Foundation of Guangdong Province (501190013).

    TP391.1 文

    A

    1001-9081(2022)07-2001-08

    10.11772/j.issn.1001-9081.2021050861

    2021?05?25;

    2021?09?09;

    2021?10?12。

    廣東省自然科學(xué)基金資助項(xiàng)目(501190013)。

    左亞堯(1974—),男,湖北荊州人,副教授,博士,主要研究方向:時(shí)態(tài)信息處理、數(shù)據(jù)挖掘、自然語(yǔ)言處理; 陳皓宇(1995—),男,廣東廣州人,碩士研究生,主要研究方向:自然語(yǔ)言處理、深度學(xué)習(xí); 陳致然(1996—),男,廣東汕尾人,碩士研究生,主要研究方向:自然語(yǔ)言處理、機(jī)器學(xué)習(xí); 洪嘉偉(1999—),男,廣東普寧人,主要研究方向:自然語(yǔ)言處理、圖像識(shí)別; 陳坤(2001—),女,廣東梅州人,主要研究方向:數(shù)據(jù)挖掘、自然語(yǔ)言處理。

    猜你喜歡
    集上字符命名
    尋找更強(qiáng)的字符映射管理器
    命名——助力有機(jī)化學(xué)的學(xué)習(xí)
    Cookie-Cutter集上的Gibbs測(cè)度
    鏈完備偏序集上廣義向量均衡問(wèn)題解映射的保序性
    字符代表幾
    一種USB接口字符液晶控制器設(shè)計(jì)
    電子制作(2019年19期)2019-11-23 08:41:50
    消失的殖民村莊和神秘字符
    有一種男人以“暖”命名
    東方女性(2018年3期)2018-04-16 15:30:02
    為一條河命名——在白河源
    復(fù)扇形指標(biāo)集上的分布混沌
    欧美成人一区二区免费高清观看| avwww免费| av国产免费在线观看| 国产精品三级大全| 麻豆成人午夜福利视频| 赤兔流量卡办理| 小说图片视频综合网站| 最新中文字幕久久久久| 国产精品久久久久久av不卡| 国产成人aa在线观看| 久久人妻av系列| 国语自产精品视频在线第100页| 欧美日韩在线观看h| or卡值多少钱| 午夜爱爱视频在线播放| 亚洲人成网站高清观看| 国产免费男女视频| 午夜影院日韩av| 淫秽高清视频在线观看| 国产日本99.免费观看| 国产欧美日韩精品一区二区| 欧美+亚洲+日韩+国产| 国产亚洲91精品色在线| 精品欧美国产一区二区三| 尤物成人国产欧美一区二区三区| 欧美区成人在线视频| 久久婷婷人人爽人人干人人爱| 日本爱情动作片www.在线观看 | 国产精品国产高清国产av| 欧美+亚洲+日韩+国产| 国产一区二区在线av高清观看| 美女cb高潮喷水在线观看| 在线播放国产精品三级| 在线观看66精品国产| 男人舔女人下体高潮全视频| 嫩草影院入口| 亚洲人成网站在线播| 两性午夜刺激爽爽歪歪视频在线观看| 无遮挡黄片免费观看| 97在线视频观看| 精品一区二区三区视频在线| a级一级毛片免费在线观看| 国产极品精品免费视频能看的| 久久精品国产清高在天天线| 欧美成人a在线观看| 女的被弄到高潮叫床怎么办| 亚洲av二区三区四区| 看非洲黑人一级黄片| 日韩成人av中文字幕在线观看 | 九九久久精品国产亚洲av麻豆| 亚洲欧美日韩卡通动漫| 久久久久精品国产欧美久久久| 一个人看的www免费观看视频| 少妇被粗大猛烈的视频| 午夜老司机福利剧场| 日韩欧美三级三区| 亚洲精品国产成人久久av| 国产淫片久久久久久久久| 亚洲第一电影网av| 三级男女做爰猛烈吃奶摸视频| 亚洲欧美成人综合另类久久久 | av在线天堂中文字幕| 日本撒尿小便嘘嘘汇集6| 联通29元200g的流量卡| 蜜臀久久99精品久久宅男| 久久久久久久午夜电影| 久久草成人影院| 日韩国内少妇激情av| 国产真实伦视频高清在线观看| 偷拍熟女少妇极品色| aaaaa片日本免费| 国产亚洲精品综合一区在线观看| 亚洲成人精品中文字幕电影| 欧美成人a在线观看| 99久久成人亚洲精品观看| 欧美区成人在线视频| 久久久久久久久久黄片| 午夜精品在线福利| 91在线观看av| 亚洲自拍偷在线| 观看美女的网站| 欧美中文日本在线观看视频| 久久鲁丝午夜福利片| 18禁黄网站禁片免费观看直播| 一夜夜www| 欧美成人免费av一区二区三区| 两性午夜刺激爽爽歪歪视频在线观看| 亚洲av.av天堂| 亚洲高清免费不卡视频| 联通29元200g的流量卡| 欧美日本亚洲视频在线播放| av视频在线观看入口| 蜜桃久久精品国产亚洲av| 三级经典国产精品| 亚洲av免费在线观看| 国内精品宾馆在线| 国产精品人妻久久久久久| 嫩草影视91久久| 噜噜噜噜噜久久久久久91| 桃色一区二区三区在线观看| 三级经典国产精品| 十八禁网站免费在线| av女优亚洲男人天堂| 小蜜桃在线观看免费完整版高清| 日产精品乱码卡一卡2卡三| 亚洲精品粉嫩美女一区| 99在线视频只有这里精品首页| 精品久久久久久久久久久久久| 女同久久另类99精品国产91| 一级毛片电影观看 | 欧美性猛交╳xxx乱大交人| 国产69精品久久久久777片| 欧美绝顶高潮抽搐喷水| 99久久中文字幕三级久久日本| 1024手机看黄色片| 看黄色毛片网站| 欧美日本亚洲视频在线播放| 高清毛片免费观看视频网站| 免费观看精品视频网站| 欧美日韩精品成人综合77777| 亚洲aⅴ乱码一区二区在线播放| 别揉我奶头 嗯啊视频| 免费无遮挡裸体视频| 久久亚洲精品不卡| 国产片特级美女逼逼视频| 亚洲第一电影网av| 亚洲精品日韩在线中文字幕 | 成年女人毛片免费观看观看9| 伦理电影大哥的女人| 午夜福利18| 色噜噜av男人的天堂激情| 99riav亚洲国产免费| 午夜精品一区二区三区免费看| 日韩人妻高清精品专区| 亚洲国产精品成人综合色| 亚洲不卡免费看| 亚洲电影在线观看av| 天堂√8在线中文| 国产中年淑女户外野战色| 看黄色毛片网站| 日本五十路高清| 麻豆国产97在线/欧美| 成人性生交大片免费视频hd| 亚洲国产日韩欧美精品在线观看| avwww免费| 久久国内精品自在自线图片| 99久久精品一区二区三区| 2021天堂中文幕一二区在线观| 少妇的逼好多水| 色视频www国产| 少妇高潮的动态图| 欧美一区二区国产精品久久精品| 国产av一区在线观看免费| 亚洲精品一卡2卡三卡4卡5卡| 深夜精品福利| 欧美成人精品欧美一级黄| .国产精品久久| 久久人人爽人人爽人人片va| 老司机福利观看| 黄色一级大片看看| 亚洲av免费在线观看| 99热全是精品| 夜夜看夜夜爽夜夜摸| 国产国拍精品亚洲av在线观看| 别揉我奶头~嗯~啊~动态视频| 亚洲三级黄色毛片| 婷婷六月久久综合丁香| 久久久久国内视频| 伦精品一区二区三区| 精品一区二区免费观看| 精品人妻熟女av久视频| 成人高潮视频无遮挡免费网站| 日韩制服骚丝袜av| 成人av在线播放网站| 亚洲性久久影院| 日日撸夜夜添| 99在线视频只有这里精品首页| 国产精品亚洲美女久久久| 色综合亚洲欧美另类图片| 国产成人aa在线观看| 久久久久国产网址| 天堂√8在线中文| 免费看日本二区| 日本黄色视频三级网站网址| av在线天堂中文字幕| 久久精品国产鲁丝片午夜精品| 国产成人精品久久久久久| 最近视频中文字幕2019在线8| 成人鲁丝片一二三区免费| 国产亚洲精品久久久久久毛片| 国产黄a三级三级三级人| 国产日本99.免费观看| 国产高清不卡午夜福利| 免费观看人在逋| 真实男女啪啪啪动态图| 婷婷色综合大香蕉| 非洲黑人性xxxx精品又粗又长| 黄色配什么色好看| 一级毛片电影观看 | 午夜福利在线观看吧| 亚洲丝袜综合中文字幕| 久久久久久久久大av| 午夜爱爱视频在线播放| 国产亚洲精品久久久久久毛片| 久久久精品欧美日韩精品| 在线播放国产精品三级| 美女大奶头视频| 日本欧美国产在线视频| 色综合色国产| 我要看日韩黄色一级片| 淫妇啪啪啪对白视频| 97人妻精品一区二区三区麻豆| 国模一区二区三区四区视频| 国产成人freesex在线 | 国语自产精品视频在线第100页| 色哟哟·www| 蜜桃亚洲精品一区二区三区| 欧美+亚洲+日韩+国产| 午夜福利在线观看吧| 亚洲成av人片在线播放无| 一进一出好大好爽视频| 美女高潮的动态| 你懂的网址亚洲精品在线观看 | 国产一区二区亚洲精品在线观看| 国产大屁股一区二区在线视频| 大型黄色视频在线免费观看| 最近手机中文字幕大全| 国语自产精品视频在线第100页| 91久久精品国产一区二区三区| 国产乱人偷精品视频| 亚洲精品日韩在线中文字幕 | 国产又黄又爽又无遮挡在线| 亚洲成人中文字幕在线播放| 国产精品美女特级片免费视频播放器| 国产极品精品免费视频能看的| 亚洲七黄色美女视频| 日本在线视频免费播放| 美女大奶头视频| 久久久国产成人免费| 看十八女毛片水多多多| 在线观看美女被高潮喷水网站| 国产在线精品亚洲第一网站| 91av网一区二区| 久久国内精品自在自线图片| 三级男女做爰猛烈吃奶摸视频| 美女xxoo啪啪120秒动态图| 老女人水多毛片| 午夜福利在线在线| 男插女下体视频免费在线播放| 国产在线男女| www日本黄色视频网| 美女cb高潮喷水在线观看| 日韩在线高清观看一区二区三区| 97碰自拍视频| 少妇裸体淫交视频免费看高清| 啦啦啦观看免费观看视频高清| 最新中文字幕久久久久| 99久国产av精品| 欧美一区二区精品小视频在线| 成人无遮挡网站| 欧美人与善性xxx| 国产黄a三级三级三级人| 亚洲第一电影网av| avwww免费| 日本撒尿小便嘘嘘汇集6| 亚洲一区二区三区色噜噜| 日日干狠狠操夜夜爽| 亚洲在线自拍视频| 国产精品国产三级国产av玫瑰| 久久99热6这里只有精品| 两个人的视频大全免费| 在线观看午夜福利视频| 又黄又爽又免费观看的视频| 深爱激情五月婷婷| АⅤ资源中文在线天堂| 亚洲人成网站在线播| av在线观看视频网站免费| 好男人在线观看高清免费视频| 人人妻人人澡人人爽人人夜夜 | 国产 一区 欧美 日韩| 国产一区二区三区av在线 | 国产伦精品一区二区三区四那| 久久亚洲精品不卡| 如何舔出高潮| av在线观看视频网站免费| 亚洲av免费高清在线观看| 人人妻人人澡人人爽人人夜夜 | 天堂av国产一区二区熟女人妻| 免费电影在线观看免费观看| 亚洲精品乱码久久久v下载方式| 免费看a级黄色片| av女优亚洲男人天堂| 熟女电影av网| 亚洲va在线va天堂va国产| 日韩欧美在线乱码| 日本精品一区二区三区蜜桃| 观看免费一级毛片| 久久精品国产亚洲av香蕉五月| 美女高潮的动态| 日韩人妻高清精品专区| 18禁裸乳无遮挡免费网站照片| 特级一级黄色大片| 免费看美女性在线毛片视频| 国内精品久久久久精免费| 看非洲黑人一级黄片| 麻豆av噜噜一区二区三区| 在线观看av片永久免费下载| 麻豆国产av国片精品| av天堂中文字幕网| 美女内射精品一级片tv| 一个人看视频在线观看www免费| 男女边吃奶边做爰视频| 亚洲丝袜综合中文字幕| 国产av不卡久久| 精品人妻一区二区三区麻豆 | 99热6这里只有精品| 亚洲中文字幕一区二区三区有码在线看| 免费搜索国产男女视频| 网址你懂的国产日韩在线| 最近视频中文字幕2019在线8| 美女被艹到高潮喷水动态| 久久中文看片网| 亚洲精品乱码久久久v下载方式| 亚洲精品成人久久久久久| 日本黄色片子视频| 国产一区二区三区av在线 | 久久久久久久久久成人| 一级毛片久久久久久久久女| 国产精品99久久久久久久久| 免费观看人在逋| 97超碰精品成人国产| 国产av不卡久久| 国产成人a区在线观看| 国产蜜桃级精品一区二区三区| 精品久久久久久成人av| 午夜a级毛片| 欧美中文日本在线观看视频| 搡老岳熟女国产| 免费看av在线观看网站| 久久人人精品亚洲av| 麻豆乱淫一区二区| 婷婷精品国产亚洲av在线| 在线免费十八禁| av在线蜜桃| 久久国内精品自在自线图片| 不卡一级毛片| 成人性生交大片免费视频hd| ponron亚洲| 欧美色视频一区免费| 国产成人精品久久久久久| 禁无遮挡网站| 免费在线观看影片大全网站| 简卡轻食公司| 午夜福利高清视频| 可以在线观看的亚洲视频| 三级男女做爰猛烈吃奶摸视频| 岛国在线免费视频观看| 亚洲天堂国产精品一区在线| 日本免费一区二区三区高清不卡| 久久6这里有精品| 免费人成在线观看视频色| av天堂在线播放| 美女内射精品一级片tv| 人人妻人人看人人澡| 精品久久久久久久久亚洲| 亚洲最大成人手机在线| 亚洲欧美成人精品一区二区| 久久久久久伊人网av| 97超级碰碰碰精品色视频在线观看| 亚洲专区国产一区二区| 有码 亚洲区| 九九爱精品视频在线观看| 97碰自拍视频| 午夜老司机福利剧场| 久久精品国产亚洲av涩爱 | 国内揄拍国产精品人妻在线| 乱系列少妇在线播放| 一个人看的www免费观看视频| 91久久精品国产一区二区三区| 国产aⅴ精品一区二区三区波| 亚洲精品日韩av片在线观看| 最近在线观看免费完整版| 在线观看66精品国产| 成人特级av手机在线观看| 看黄色毛片网站| or卡值多少钱| 伦精品一区二区三区| 国产黄色小视频在线观看| 欧美绝顶高潮抽搐喷水| 国产成人a∨麻豆精品| 在线观看66精品国产| 亚洲五月天丁香| 婷婷精品国产亚洲av| 六月丁香七月| 午夜福利在线观看免费完整高清在 | 久久99热这里只有精品18| 最近的中文字幕免费完整| 国产亚洲精品av在线| 99久久精品一区二区三区| 亚洲av成人精品一区久久| 国产高清激情床上av| 一级av片app| ponron亚洲| 欧美zozozo另类| 欧美高清成人免费视频www| 亚洲自偷自拍三级| 尤物成人国产欧美一区二区三区| 午夜a级毛片| 99热全是精品| 国产免费一级a男人的天堂| 97热精品久久久久久| 国产伦一二天堂av在线观看| 久久精品综合一区二区三区| 亚洲图色成人| 国产三级在线视频| 久久午夜亚洲精品久久| 精品少妇黑人巨大在线播放 | 国内久久婷婷六月综合欲色啪| 国产男靠女视频免费网站| 三级毛片av免费| 国产免费一级a男人的天堂| 美女cb高潮喷水在线观看| 日韩精品中文字幕看吧| 中国国产av一级| 免费一级毛片在线播放高清视频| 日日撸夜夜添| 欧美成人免费av一区二区三区| 午夜福利在线在线| 国产精品嫩草影院av在线观看| 欧美绝顶高潮抽搐喷水| 亚洲精品国产成人久久av| 国内精品久久久久精免费| 久久中文看片网| 欧美国产日韩亚洲一区| 亚洲欧美日韩无卡精品| 99热6这里只有精品| 国产中年淑女户外野战色| 日本熟妇午夜| 熟女电影av网| 在线免费十八禁| 悠悠久久av| 日日摸夜夜添夜夜添小说| 少妇的逼好多水| 91在线观看av| 岛国在线免费视频观看| 成人特级黄色片久久久久久久| 日韩亚洲欧美综合| 在线观看av片永久免费下载| 一级av片app| 搡女人真爽免费视频火全软件 | 一级毛片aaaaaa免费看小| 免费电影在线观看免费观看| 久久久精品大字幕| 乱人视频在线观看| 大香蕉久久网| 久久久久九九精品影院| 99久久久亚洲精品蜜臀av| 少妇人妻精品综合一区二区 | 九九久久精品国产亚洲av麻豆| 国产高清三级在线| 久久久精品欧美日韩精品| 国内精品一区二区在线观看| 毛片女人毛片| 又粗又爽又猛毛片免费看| 夜夜夜夜夜久久久久| 男女下面进入的视频免费午夜| 在线播放国产精品三级| 99在线人妻在线中文字幕| 国产精品人妻久久久久久| 岛国在线免费视频观看| 亚洲欧美精品自产自拍| 日本黄色片子视频| 久久久久久久久大av| 国产伦精品一区二区三区四那| 日本免费a在线| 亚洲精品一卡2卡三卡4卡5卡| 老司机影院成人| 欧美日本亚洲视频在线播放| 精品久久久久久久久久久久久| 亚洲精品粉嫩美女一区| 少妇熟女aⅴ在线视频| 性色avwww在线观看| 中文字幕av成人在线电影| 极品教师在线视频| 免费不卡的大黄色大毛片视频在线观看 | 久久人人精品亚洲av| 别揉我奶头 嗯啊视频| 哪里可以看免费的av片| 成人永久免费在线观看视频| 国产成人影院久久av| 亚洲激情五月婷婷啪啪| 女的被弄到高潮叫床怎么办| 国产一区亚洲一区在线观看| 亚洲无线观看免费| 99riav亚洲国产免费| 国产三级中文精品| 免费黄网站久久成人精品| 黑人高潮一二区| 午夜日韩欧美国产| 免费搜索国产男女视频| 老熟妇仑乱视频hdxx| 免费看日本二区| 国产精品国产三级国产av玫瑰| 18+在线观看网站| 国产精品久久久久久av不卡| ponron亚洲| 亚洲av不卡在线观看| 亚洲一级一片aⅴ在线观看| 赤兔流量卡办理| 色播亚洲综合网| 寂寞人妻少妇视频99o| 欧美丝袜亚洲另类| 久久精品国产亚洲av香蕉五月| 国产欧美日韩精品一区二区| 一区二区三区四区激情视频 | 少妇的逼好多水| 少妇熟女aⅴ在线视频| 99久国产av精品国产电影| 亚洲美女黄片视频| 又黄又爽又刺激的免费视频.| 欧美性猛交╳xxx乱大交人| 日本成人三级电影网站| 久久人人爽人人片av| 日韩制服骚丝袜av| 久久久欧美国产精品| 91久久精品国产一区二区成人| 成人av一区二区三区在线看| 欧美极品一区二区三区四区| 床上黄色一级片| 国产成人freesex在线 | av国产免费在线观看| 天堂网av新在线| 亚洲av第一区精品v没综合| 身体一侧抽搐| 老司机午夜福利在线观看视频| 日本精品一区二区三区蜜桃| 日韩国内少妇激情av| 国产欧美日韩一区二区精品| 深夜a级毛片| av在线老鸭窝| 搡老妇女老女人老熟妇| 我的老师免费观看完整版| 亚洲欧美精品综合久久99| 波多野结衣高清作品| 日本熟妇午夜| 午夜爱爱视频在线播放| 久久这里只有精品中国| 免费av观看视频| 国产成人影院久久av| 国产精品福利在线免费观看| 久久久a久久爽久久v久久| 欧美日韩乱码在线| 麻豆久久精品国产亚洲av| 成熟少妇高潮喷水视频| 久久久久久久午夜电影| av天堂中文字幕网| 夜夜夜夜夜久久久久| 黑人高潮一二区| 日本熟妇午夜| 久99久视频精品免费| avwww免费| 亚洲中文日韩欧美视频| 欧美成人a在线观看| 久久久午夜欧美精品| 国内久久婷婷六月综合欲色啪| 我要看日韩黄色一级片| 免费观看在线日韩| 女的被弄到高潮叫床怎么办| 国产精品日韩av在线免费观看| av天堂中文字幕网| 日本黄色片子视频| 国产亚洲91精品色在线| 精品福利观看| 狂野欧美白嫩少妇大欣赏| 日韩制服骚丝袜av| 亚洲性久久影院| 亚洲欧美日韩高清专用| 热99在线观看视频| 久久亚洲国产成人精品v| 亚洲四区av| 国产一区二区在线观看日韩| 小蜜桃在线观看免费完整版高清| 插阴视频在线观看视频| 日本色播在线视频| 看片在线看免费视频| 美女内射精品一级片tv| 色在线成人网| 啦啦啦韩国在线观看视频| 亚洲五月天丁香| 久久人人精品亚洲av| 99精品在免费线老司机午夜| 美女内射精品一级片tv| 色在线成人网| 欧美潮喷喷水| videossex国产| 少妇人妻一区二区三区视频| 日韩一区二区视频免费看| 午夜福利在线观看吧| 哪里可以看免费的av片| 嫩草影院精品99| 亚洲精华国产精华液的使用体验 | 嫩草影视91久久| 亚洲成a人片在线一区二区| 男人舔女人下体高潮全视频| 国产乱人偷精品视频| 在线免费观看的www视频| 老女人水多毛片| a级毛片免费高清观看在线播放| 看免费成人av毛片| 最后的刺客免费高清国语| 久久久久久九九精品二区国产| aaaaa片日本免费| 日韩精品有码人妻一区| 大又大粗又爽又黄少妇毛片口| 国产一区二区亚洲精品在线观看|