• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法

    2023-10-24 14:16:12吳中海
    中文信息學(xué)報(bào) 2023年7期
    關(guān)鍵詞:語(yǔ)言方法模型

    薛 平,李 影,2,吳中海,2

    (1. 北京大學(xué) 軟件與微電子學(xué)院,北京 100871;2. 北京大學(xué) 軟件工程國(guó)家工程研究中心,北京 100871)

    0 引言

    作為自然語(yǔ)言處理領(lǐng)域的重要任務(wù)之一,關(guān)系抽取旨在識(shí)別文本中實(shí)體對(duì)之間的語(yǔ)義關(guān)系,例如在句子“哈爾濱是黑龍江省會(huì)”中,關(guān)系抽取方法可以提取出“哈爾濱”和“黑龍江”的語(yǔ)義關(guān)系是“位于”。抽取得到的實(shí)體關(guān)系三元組被用于知識(shí)圖譜構(gòu)建[1]、智能問(wèn)答系統(tǒng)[2]、對(duì)話(huà)內(nèi)容理解[3]等下游任務(wù),并應(yīng)用在多個(gè)領(lǐng)域,包括醫(yī)療[4]、金融[5]、法律[6]等。近年來(lái)隨著深度學(xué)習(xí)方法的快速發(fā)展,關(guān)系抽取任務(wù)取得了長(zhǎng)足的進(jìn)步,大量基于深度學(xué)習(xí)的關(guān)系抽取方法被提出。Liu等人[7]在2013年首次提出基于深度學(xué)習(xí)的關(guān)系抽取方法,使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)文本進(jìn)行特征提取。之后,陸續(xù)有研究者提出基于循環(huán)神經(jīng)網(wǎng)絡(luò)[8-12]、基于圖神經(jīng)網(wǎng)絡(luò)的方法[13-14]等等。但上述關(guān)系抽取的研究工作,主要集中于英文領(lǐng)域,以單詞序列作為輸入。而在中文自然語(yǔ)言中,單詞與單詞之間沒(méi)有分隔符,使用英文領(lǐng)域的關(guān)系抽取的方法需要先進(jìn)行分詞處理,而分詞過(guò)程中產(chǎn)生的錯(cuò)誤,會(huì)影響關(guān)系抽取任務(wù)的結(jié)果。為了避免錯(cuò)誤傳遞,目前大部分的中文關(guān)系抽取方法都是以字符序列作為輸入。

    基于字符序列的中文關(guān)系抽取方法,雖然可以避免分詞處理所帶來(lái)的錯(cuò)誤傳遞問(wèn)題,但卻忽略了文本中單詞所包含的高級(jí)別語(yǔ)義信息。例如“哈爾濱是黑龍江省會(huì)”中,“哈爾濱”“省會(huì)”等詞所表示的城市的語(yǔ)義可以幫助推理出“位于”關(guān)系。目前,如何在中文字符序列中融合單詞信息是中文關(guān)系抽取任務(wù)的主要研究?jī)?nèi)容之一,相關(guān)工作可以劃分為基于詞典的方法(lexicon-based)和基于預(yù)訓(xùn)練的方法(pretrain-based)。如圖1(a)所示,基于詞典的方法通過(guò)將文本匹配固定的詞典,獲得文本中所有可能存在的單詞,然后通過(guò)Lattice-LSTM[15]或Flat-Lattice[16]等網(wǎng)絡(luò)將單詞信息動(dòng)態(tài)地編碼進(jìn)字符序列中;而基于預(yù)訓(xùn)練的方法,如圖1(b)所示,使用自然語(yǔ)言處理領(lǐng)域中流行的預(yù)訓(xùn)練語(yǔ)言模型,在大規(guī)模的語(yǔ)料中進(jìn)行語(yǔ)言模型的訓(xùn)練。在訓(xùn)練的過(guò)程中通過(guò)全詞遮蔽(Whole-Word-Mask)等方法[17],將單詞信息在預(yù)訓(xùn)練的過(guò)程中編碼進(jìn)模型,然后在中文關(guān)系抽取的任務(wù)上進(jìn)行微調(diào)(Fine-Tune)。

    圖1 基于詞典的方法和基于預(yù)訓(xùn)練的方法

    預(yù)訓(xùn)練語(yǔ)言模型如BERT[18],在大規(guī)模語(yǔ)料上進(jìn)行遮蔽語(yǔ)言模型的訓(xùn)練。得益于復(fù)雜的模型結(jié)構(gòu)和海量的訓(xùn)練數(shù)據(jù),預(yù)訓(xùn)練語(yǔ)言模型可以對(duì)訓(xùn)練語(yǔ)料中的語(yǔ)言知識(shí)進(jìn)行準(zhǔn)確的刻畫(huà)。相比于基于詞典的方法,其包含的語(yǔ)言知識(shí)使得模型具有更好的泛化能力,能夠抽取到更加準(zhǔn)確的關(guān)系。但預(yù)訓(xùn)練語(yǔ)言模型的參數(shù)規(guī)模非常龐大,大部分的預(yù)訓(xùn)練語(yǔ)言模型都包含上億的參數(shù),在現(xiàn)實(shí)場(chǎng)景應(yīng)用中需要消耗大量的存儲(chǔ)資源和計(jì)算資源。

    為了避免預(yù)訓(xùn)練語(yǔ)言模型高昂的模型開(kāi)銷(xiāo),同時(shí)利用其包含的語(yǔ)言知識(shí),本文提出基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法,其核心是采用多任務(wù)學(xué)習(xí)結(jié)構(gòu),在中文關(guān)系抽取模型基礎(chǔ)上,訓(xùn)練一個(gè)語(yǔ)言模型來(lái)擬合預(yù)訓(xùn)練語(yǔ)言模型,學(xué)習(xí)預(yù)訓(xùn)練模型包含的語(yǔ)言知識(shí)。具體來(lái)說(shuō),我們使用輕量化的基于循環(huán)神經(jīng)網(wǎng)絡(luò)的關(guān)系抽取模型作為基準(zhǔn)模型,同時(shí)以該循環(huán)神經(jīng)網(wǎng)絡(luò)訓(xùn)練一個(gè)雙向語(yǔ)言模型。不同于一般的語(yǔ)言模型以下個(gè)字符作為標(biāo)簽訓(xùn)練,我們使用預(yù)訓(xùn)練語(yǔ)言模型的輸出作為訓(xùn)練標(biāo)簽,使雙向語(yǔ)言模型去擬合預(yù)訓(xùn)練語(yǔ)言模型,從而來(lái)學(xué)習(xí)其包含的語(yǔ)言知識(shí)。得益于多任務(wù)學(xué)習(xí)中的參數(shù)共享機(jī)制,雙向語(yǔ)言模型學(xué)習(xí)到的語(yǔ)言知識(shí)可以對(duì)中文關(guān)系抽取模型進(jìn)行增強(qiáng),避免了預(yù)訓(xùn)練模型的高昂開(kāi)銷(xiāo),同時(shí)有效利用預(yù)訓(xùn)練語(yǔ)言模型中的語(yǔ)言知識(shí)。

    與我們方法類(lèi)似的是基于知識(shí)蒸餾的模型壓縮方法[19],同樣是使用輕量化的模型學(xué)習(xí)復(fù)雜模型的知識(shí),但這兩種方法的結(jié)構(gòu)與所涉及的知識(shí)類(lèi)型是不同的。知識(shí)蒸餾方法是使用復(fù)雜的老師模型在相關(guān)任務(wù)的數(shù)據(jù)集上先行進(jìn)行學(xué)習(xí),然后再將學(xué)習(xí)到的數(shù)據(jù)集內(nèi)數(shù)據(jù)分布相關(guān)的知識(shí)蒸餾到輕量化的學(xué)生模型中,其中老師模型和學(xué)生模型都是關(guān)系抽取模型。而基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法則是在關(guān)系抽取模型的基礎(chǔ)上同時(shí)學(xué)習(xí)一個(gè)雙向語(yǔ)言模型,通過(guò)雙向語(yǔ)言模型來(lái)擬合預(yù)訓(xùn)練語(yǔ)言模型,來(lái)學(xué)習(xí)預(yù)訓(xùn)練模型中包含的語(yǔ)言知識(shí)。

    本文的貢獻(xiàn)主要包括:

    (1) 針對(duì)基于預(yù)訓(xùn)練語(yǔ)言模型的中文關(guān)系抽取方法參數(shù)多及開(kāi)銷(xiāo)大的問(wèn)題,提出了基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法,采用多任務(wù)學(xué)習(xí)結(jié)構(gòu),訓(xùn)練雙向語(yǔ)言模型從預(yù)訓(xùn)練語(yǔ)言模型學(xué)習(xí)語(yǔ)言知識(shí),在高效抽取實(shí)體關(guān)系的同時(shí)避免了預(yù)訓(xùn)練模型的高昂開(kāi)銷(xiāo)。與知識(shí)蒸餾等壓縮模型方法不同的是,本文提出的方法通過(guò)擬合預(yù)訓(xùn)練語(yǔ)言模型學(xué)習(xí)語(yǔ)言知識(shí),突破了數(shù)據(jù)集的限制,提高了模型的泛化能力;

    (2) 在三個(gè)中文關(guān)系抽取數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),證明本文提出的方法可以有效地提高基準(zhǔn)模型的效果,超過(guò)了目前基于詞典的方法。與基于預(yù)訓(xùn)練語(yǔ)言模型的方法相比,本文提出的方法使用其大約1%的參數(shù)量即可達(dá)到其95%的性能。

    本文組織結(jié)構(gòu)如下: 第1節(jié)介紹相關(guān)工作;第2節(jié)給出中文關(guān)系抽取任務(wù)的定義和基準(zhǔn)模型;第3節(jié)介紹基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法;第4節(jié)給出實(shí)驗(yàn)結(jié)果和分析;第5節(jié)總結(jié)本文工作。

    1 相關(guān)工作

    目前,基于深度學(xué)習(xí)的關(guān)系抽取方法成為主流。Liu等人[7]在2013年首次探索了深度學(xué)習(xí)方法在關(guān)系抽取任務(wù)中的應(yīng)用,提出基于卷積神經(jīng)網(wǎng)絡(luò)的關(guān)系抽取方法。之后,Zeng等人[20]在該方法的基礎(chǔ)上加入了位置向量,用來(lái)表示文本中實(shí)體的位置信息。卷積神經(jīng)網(wǎng)絡(luò)的局限在于只能提取文本序列局部的特征信息。為了捕捉到全局的特征,在2015年,Zhang[8]等人使用循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)文本和實(shí)體進(jìn)行特征提取,以捕捉文本序列中的全局特征。在之后,為了進(jìn)一步對(duì)文本進(jìn)行表示,Zhang[13]等人引入了額外的基于單詞構(gòu)建的依存句法樹(shù),使用圖神經(jīng)網(wǎng)絡(luò)[21]提取依存句法樹(shù)的特征,來(lái)提高關(guān)系抽取任務(wù)的結(jié)果。

    在中文關(guān)系抽取領(lǐng)域,為了避免分詞錯(cuò)誤導(dǎo)致的錯(cuò)誤傳遞問(wèn)題,主要工作都是字符級(jí)別的關(guān)系抽取方法,以字符序列作為輸入。Zhang等人[22]指出了中文文本中分詞錯(cuò)誤問(wèn)題導(dǎo)致的錯(cuò)誤傳遞現(xiàn)象,提出了基于詞典的方法并設(shè)計(jì)了在字符序列動(dòng)態(tài)融合單詞信息的Lattice-LSTM網(wǎng)絡(luò)。之后,Li等人[15]提出了MG-Lattice,在Lattice-LSTM的基礎(chǔ)上融合了多粒度的信息,進(jìn)一步提高中文關(guān)系抽取任務(wù)的準(zhǔn)確率。Lattice-LSTM雖然可以動(dòng)態(tài)地融合單詞信息,但是由于模型結(jié)構(gòu)的限制,無(wú)法并行計(jì)算。為此,Zeng等人[16]使用可以并行計(jì)算的Flat-Lattice網(wǎng)路來(lái)動(dòng)態(tài)地融合單詞信息到字符序列中。

    近些年,預(yù)訓(xùn)練語(yǔ)言模型BERT[18]被提出,大幅提高了大部分自然語(yǔ)言任務(wù)的指標(biāo)。預(yù)訓(xùn)練語(yǔ)言模型在大規(guī)模的語(yǔ)料上進(jìn)行遮蔽語(yǔ)言模型的學(xué)習(xí),然后在特定的任務(wù)上進(jìn)行微調(diào)(Fine-Tune)。得益于在大規(guī)模語(yǔ)料中學(xué)習(xí)到的語(yǔ)言知識(shí),目前,大部分的自然語(yǔ)言處理任務(wù)中最優(yōu)的模型都是基于BERT或BERT的變體。同樣地,基于預(yù)訓(xùn)練語(yǔ)言模型的中文關(guān)系抽取方法也得到了更優(yōu)的結(jié)果。但預(yù)訓(xùn)練語(yǔ)言模型包含的參數(shù)量非常龐大,大部分的預(yù)訓(xùn)練語(yǔ)言模型都包含上億的參數(shù),在現(xiàn)實(shí)世界的實(shí)際應(yīng)用中,需要耗費(fèi)大量的計(jì)算資源和存儲(chǔ)資源。目前,針對(duì)預(yù)訓(xùn)練語(yǔ)言模型的壓縮,有知識(shí)蒸餾[23]、模型剪枝[24]、模型量化[25]等方法。與這些方法不同,本文提出的基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法,直接學(xué)習(xí)預(yù)訓(xùn)練語(yǔ)言模型中包含的語(yǔ)言知識(shí),使用這部分語(yǔ)言知識(shí)來(lái)增強(qiáng)中文關(guān)系抽取模型,相比于知識(shí)蒸餾等方法學(xué)習(xí)數(shù)據(jù)集相關(guān)的知識(shí),語(yǔ)言知識(shí)能夠突破數(shù)據(jù)集的限制,有效地提高模型的泛化能力。

    2 中文關(guān)系抽取

    本節(jié)介紹中文關(guān)系抽取的任務(wù)定義和中文關(guān)系抽取任務(wù)的基準(zhǔn)模型。

    2.1 任務(wù)定義

    中文關(guān)系抽取一般被定義成分類(lèi)問(wèn)題,根據(jù)輸入的文本和其中包含的實(shí)體對(duì),對(duì)實(shí)體對(duì)之間的語(yǔ)義關(guān)系進(jìn)行分類(lèi)。將輸入的文本表示為字符序列s=c1,…,cT,其中T表示字符序列的長(zhǎng)度。字符序列中包含兩個(gè)實(shí)體,將其表示為頭實(shí)體ehead和尾實(shí)體etail。中文關(guān)系抽取任務(wù)的目的是根據(jù)字符序列s,提取出頭實(shí)體ehead和尾實(shí)體etail之間的語(yǔ)義關(guān)系r∈R,其中R表示關(guān)系類(lèi)型的集合。

    2.2 基準(zhǔn)模型

    本文使用的基準(zhǔn)模型是基于循環(huán)神經(jīng)網(wǎng)絡(luò)的中文關(guān)系抽取模型,如圖2所示,包括嵌入層、編碼層和分類(lèi)層。

    圖2 基于LSTM的中文關(guān)系抽取模型

    嵌入層:首先,將字符序列映射到特征空間,得到每一個(gè)字符對(duì)應(yīng)的向量表示。

    (1)

    (2)

    (5)

    編碼層:編碼層使用雙向的LSTM(Long Short-Term Memory)[26]網(wǎng)絡(luò)作為編碼器,接收來(lái)自嵌入層的字符序列的特征表示,計(jì)算全局的上下文相關(guān)特征。每個(gè)方向的LSTM網(wǎng)絡(luò)根據(jù)上個(gè)時(shí)間步的輸出特征和當(dāng)前時(shí)間步的輸入來(lái)計(jì)算當(dāng)前時(shí)間步的輸出特征。

    (6)

    (7)

    (8)

    分類(lèi)層:分類(lèi)層在獲得編碼層的特征后,首先將其映射到關(guān)系特征空間,然后使用Softmax方法獲得對(duì)應(yīng)關(guān)系集合R中關(guān)系類(lèi)別r的概率分布。

    P(r|s,ehead,etail)=Softmax(Woh+bo)

    (9)

    其中,P(r|s,ehead,etail)表示抽取得到的關(guān)系類(lèi)別的概率分布,Wo和bo是分類(lèi)層的訓(xùn)練參數(shù)。最后,使用交叉熵函計(jì)算中文關(guān)系抽取模型的目標(biāo)函數(shù)Lre。

    Lre=-log(P(r|s,ehead,etail))

    (10)

    3 基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法

    本節(jié)介紹本文所提出的基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法,包括雙向語(yǔ)言模型和語(yǔ)言模型增強(qiáng)兩個(gè)部分。首先介紹在基準(zhǔn)模型的結(jié)構(gòu)之上構(gòu)造雙向語(yǔ)言模型,其次介紹以預(yù)訓(xùn)練語(yǔ)言模型對(duì)雙向語(yǔ)言模型進(jìn)行增強(qiáng)。

    3.1 雙向語(yǔ)言模型

    為了學(xué)習(xí)預(yù)訓(xùn)練語(yǔ)言模型中包含的語(yǔ)言知識(shí),首先在基于循環(huán)神經(jīng)網(wǎng)絡(luò)的基準(zhǔn)關(guān)系抽取模型的基礎(chǔ)上構(gòu)造一個(gè)雙向語(yǔ)言模型。

    以前向語(yǔ)言模型為例,根據(jù)前t-1個(gè)字符來(lái)預(yù)測(cè)第t個(gè)字符的概率分布?;诙嗳蝿?wù)學(xué)習(xí)的結(jié)構(gòu),雙向語(yǔ)言模型和中文關(guān)系抽取模型共享嵌入層和編碼層的參數(shù)。如圖3左半部分所示, 語(yǔ)言模型層對(duì)LSTM網(wǎng)絡(luò)的輸出進(jìn)行非線(xiàn)性特征映射,然后計(jì)算下個(gè)字符的概率分布。

    圖3 基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法

    3.2 語(yǔ)言模型增強(qiáng)

    在中文關(guān)系抽取模型的基礎(chǔ)上訓(xùn)練雙向語(yǔ)言模型的目的是通過(guò)雙向語(yǔ)言模型來(lái)擬合預(yù)訓(xùn)練語(yǔ)言模型,從而學(xué)習(xí)預(yù)訓(xùn)練語(yǔ)言模型中包含的語(yǔ)言知識(shí)。基于多任務(wù)學(xué)習(xí)的參數(shù)共享機(jī)制,通過(guò)雙向語(yǔ)言模型學(xué)習(xí)到的語(yǔ)言知識(shí)可以對(duì)中文關(guān)系抽取模型進(jìn)行增強(qiáng)。

    學(xué)習(xí)預(yù)訓(xùn)練語(yǔ)言模型中包含的語(yǔ)言知識(shí)的本質(zhì),是使中文關(guān)系抽取模型學(xué)習(xí)更多樣的關(guān)系表達(dá),增加中文關(guān)系抽取模型的泛化能力。比如,當(dāng)我們對(duì)“哈爾濱是黑龍江省會(huì)”中的“是”進(jìn)行遮蔽,得到“哈爾濱[MASK]黑龍江省會(huì)”。然后使用預(yù)訓(xùn)練語(yǔ)言模型進(jìn)行預(yù)測(cè)時(shí),預(yù)測(cè)結(jié)果包含“是”“為”“,”等,用預(yù)測(cè)結(jié)果替換回遮蔽字符,可以得到“哈爾濱是黑龍江省會(huì)”“哈爾濱為黑龍江省會(huì)”和“哈爾濱,黑龍江省會(huì)”等多種組合。這些組合均表達(dá)了“哈爾濱”和“黑龍江”兩個(gè)實(shí)體之間的“位于”關(guān)系,但是后兩種表達(dá)是數(shù)據(jù)集內(nèi)不包含的。基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法可以看作是一種自動(dòng)的數(shù)據(jù)增強(qiáng)(Data Augmentation)[27]方法,通過(guò)預(yù)訓(xùn)練語(yǔ)言模型中的語(yǔ)言知識(shí)來(lái)對(duì)數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng),對(duì)每一條數(shù)據(jù),生成多種不同但表達(dá)同樣關(guān)系語(yǔ)義的文本,使中文關(guān)系抽取模型在訓(xùn)練過(guò)程中學(xué)習(xí)到多樣的關(guān)系表達(dá)。

    本文使用的預(yù)訓(xùn)練語(yǔ)言模型是BERT-wwm[28]。BERT-wwm是一個(gè)12層深度的Transformers模型,在大規(guī)模的中文語(yǔ)料上進(jìn)行遮蔽語(yǔ)言模型的訓(xùn)練,對(duì)輸入文本進(jìn)行部分字符的遮蔽,替換為固定的遮蔽符,通過(guò)被遮蔽字符的上下文信息來(lái)預(yù)測(cè)被遮蔽的字符。同時(shí)在訓(xùn)練的過(guò)程中,通過(guò)全詞遮蔽(Whole-Word-Mask)的處理,在基于字符序列的預(yù)訓(xùn)練語(yǔ)言模型的訓(xùn)練中融合單詞信息。

    對(duì)已經(jīng)預(yù)訓(xùn)練好的BERT-wwm模型,輸入包含遮蔽符的字符序列,可以得到被遮蔽的字符預(yù)測(cè)結(jié)果,表示為概率分布。如圖3右半部分所示,對(duì)于字符序列“哈爾濱是黑龍江省會(huì)”中的“是”進(jìn)行遮蔽,替換為遮蔽符“[MASK]”,輸入到BERT-wwm模型中。通過(guò)BERT-wwm的預(yù)測(cè),被遮蔽的字符可能為“是”“為”“,”等,括號(hào)內(nèi)是其預(yù)測(cè)的概率值。BERT-wwm對(duì)該遮蔽字符的預(yù)測(cè)結(jié)果是其包含的語(yǔ)言知識(shí)的具體表現(xiàn),本質(zhì)上是其對(duì)大規(guī)模訓(xùn)練語(yǔ)料的統(tǒng)計(jì)結(jié)果。我們將BERT-wwm對(duì)字符ct的預(yù)測(cè)形式化為PBERT(ct)。

    PBERT(ct)=BERT(…,ct-1,mask,ct+1,…)

    (15)

    其中,mask表示遮蔽符[MASK]。為了使雙向語(yǔ)言模型擬合BERT-wwm,如圖3所示,將BERT-wwm對(duì)字符ct的預(yù)測(cè)分布作為雙向語(yǔ)言模型的訓(xùn)練標(biāo)簽。我們通過(guò)KL散度(Kullback-Leibler divergence)來(lái)擬合雙向語(yǔ)言模型和預(yù)訓(xùn)練語(yǔ)言模型對(duì)字符預(yù)測(cè)的概率分布,作為雙向語(yǔ)言模型的目標(biāo)函數(shù)。

    (16)

    (17)

    (18)

    其中,λ表示雙向語(yǔ)言模型目標(biāo)函數(shù)的權(quán)重,通過(guò)調(diào)整λ來(lái)平衡多任務(wù)學(xué)習(xí)結(jié)構(gòu)中兩部分模型的訓(xùn)練過(guò)程。

    4 實(shí)驗(yàn)分析

    本節(jié)通過(guò)實(shí)驗(yàn)驗(yàn)證證明基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法的效果。首先在4.1節(jié)中描述實(shí)驗(yàn)中使用的數(shù)據(jù)集和評(píng)估指標(biāo)。在4.2節(jié)對(duì)實(shí)驗(yàn)環(huán)境設(shè)置進(jìn)行描述,包括方法中使用的工具和重要的超參數(shù)。然后在4.3節(jié)中,與多種基線(xiàn)方法進(jìn)行多維度的比較。最后在4.4節(jié),對(duì)本文提出的方法進(jìn)行消融實(shí)驗(yàn)。

    4.1 實(shí)驗(yàn)數(shù)據(jù)與評(píng)價(jià)指標(biāo)

    本文使用三個(gè)中文關(guān)系抽取數(shù)據(jù)集作為實(shí)驗(yàn)數(shù)據(jù),分別是SanWen(1)https://github.com/lancopku/Chinese-Literature-NER-RE-Dataset、ACE2005(2)https://catalog.ldc.upenn.edu/LDC2006T06和ACE2004(3)https://catalog.ldc.upenn.edu/LDC2005T09。其中,SanWen是根據(jù)文學(xué)數(shù)據(jù)構(gòu)建的,一共包含10類(lèi)關(guān)系,并按照一定比例被劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。ACE2005和ACE2004數(shù)據(jù)集是新聞?lì)I(lǐng)域的關(guān)系抽取數(shù)據(jù)集,分別包含18類(lèi)和19類(lèi)關(guān)系,對(duì)于ACE2005和ACE2004數(shù)據(jù)集的劃分,我們和Li等人[15]的研究工作保持一致,我們隨機(jī)選取其75%的數(shù)據(jù)訓(xùn)練,使用剩下的25%的數(shù)據(jù)進(jìn)行驗(yàn)證。數(shù)據(jù)集的統(tǒng)計(jì)信息如表1所示。

    表1 實(shí)驗(yàn)數(shù)據(jù)集統(tǒng)計(jì)

    為衡量不同中文關(guān)系抽取方法在上述數(shù)據(jù)集上的效果,我們使用分類(lèi)任務(wù)中的F1(%)值和AUC(%)值作為評(píng)價(jià)指標(biāo)。

    4.2 實(shí)驗(yàn)設(shè)置

    本文使用PyTorch深度學(xué)習(xí)庫(kù)來(lái)實(shí)現(xiàn)本文的方法,為了與相關(guān)工作進(jìn)行合理的比較,實(shí)驗(yàn)環(huán)境中涉及的大部分超參數(shù)都和Li等人[15]研究工作中使用的保持一致。我們使用Li等人[15]工作中預(yù)訓(xùn)練的100維字符向量對(duì)嵌入層參數(shù)進(jìn)行初始化,相對(duì)位置向量的維度設(shè)為10維,在訓(xùn)練開(kāi)始時(shí)進(jìn)行隨機(jī)初始化,兩者在訓(xùn)練過(guò)程中進(jìn)行更新。編碼層使用雙向LSTM,每個(gè)方向的LSTM的隱藏層維度設(shè)為200。同時(shí),我們對(duì)嵌入層和編碼器的輸出特征分別進(jìn)行Dropout,比例為0.5。

    在語(yǔ)言模型增強(qiáng)的部分,我們使用在中文維基數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練的BERT-wwm模型。預(yù)訓(xùn)練語(yǔ)言模型的輸出結(jié)果是所有字符上的概率預(yù)測(cè),其中只有部分字符是有意義的預(yù)測(cè)結(jié)果,其余則沒(méi)有意義。為了減少無(wú)意義字符對(duì)結(jié)果的影響,需要對(duì)預(yù)訓(xùn)練語(yǔ)言模型的預(yù)測(cè)結(jié)果進(jìn)行截?cái)?每個(gè)字符的預(yù)測(cè)結(jié)果按輸出值的大小取前100個(gè)預(yù)測(cè)結(jié)果,根據(jù)截?cái)嗪蟮妮敵鲋抵匦掠?jì)算這100個(gè)字符的概率分布,作為雙向語(yǔ)言模型的標(biāo)簽。

    對(duì)于模型的訓(xùn)練,我們使用Adam優(yōu)化器[29],學(xué)習(xí)率設(shè)為0.000 5。在訓(xùn)練過(guò)程中,雙向語(yǔ)言模型目標(biāo)函數(shù)的權(quán)重λ設(shè)為0.01。重要超參數(shù)的值如表2所示。

    表2 實(shí)驗(yàn)相關(guān)超參數(shù)

    4.3 實(shí)驗(yàn)結(jié)果

    本節(jié)將基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法與多個(gè)基線(xiàn)模型進(jìn)行對(duì)比實(shí)驗(yàn),證明基于語(yǔ)言模型增強(qiáng)的方法能夠有效降低預(yù)訓(xùn)練語(yǔ)言模型的開(kāi)銷(xiāo)。在4.3.1節(jié),與非預(yù)訓(xùn)練模型進(jìn)行對(duì)比;在4.3.2節(jié),與預(yù)訓(xùn)練模型在關(guān)系抽取任務(wù)指標(biāo)和模型參數(shù)量上進(jìn)行對(duì)比。

    4.3.1 與非預(yù)訓(xùn)練模型的對(duì)比結(jié)果

    首先,與非預(yù)訓(xùn)練的模型做對(duì)比實(shí)驗(yàn),首先實(shí)現(xiàn)了兩種經(jīng)典的關(guān)系抽取模型,分別是Zeng等人[20]提出的基于CNN的關(guān)系抽取模型和Zhang等人[9]提出的基于LSTM的關(guān)系抽取模型。同時(shí),我們也和兩種目前流行的基于詞典的中文關(guān)系抽取方法進(jìn)行對(duì)比,分別是Li等人[15]提出的MG-Lattice模型和Zeng等人[16]提出的Flat-Lattice模型。其中,考慮到ACE2005數(shù)據(jù)集隨機(jī)劃分可能造成的數(shù)據(jù)分布不一致,我們使用MG-Lattice方法公開(kāi)的源代碼進(jìn)行實(shí)驗(yàn),獲得實(shí)驗(yàn)結(jié)果。Flat-Lattice方法則使用其論文中給出的結(jié)果進(jìn)行對(duì)比。與非預(yù)訓(xùn)練模型的對(duì)比結(jié)果如表3所示。

    表3 與非預(yù)訓(xùn)練模型的對(duì)比結(jié)果 (單位: %)

    (1) 首先,我們可以觀察到,基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法,在表中表示為“LSTM+語(yǔ)言模型增強(qiáng)”,在三個(gè)數(shù)據(jù)集的F1值和AUC值均達(dá)到了最高。在SanWen數(shù)據(jù)集上,與目前最好的基于詞典的中文關(guān)系抽取模型Flat-Lattice相比,F1值提高了2.53%,AUC值提高了6.74%,在其他數(shù)據(jù)集上也有相應(yīng)的提升。

    (2) LSTM+語(yǔ)言模型增強(qiáng)與LSTM模型相比,僅增加了以預(yù)訓(xùn)練模型的預(yù)測(cè)結(jié)果作為訓(xùn)練標(biāo)簽的雙向語(yǔ)言模型。對(duì)比LSTM模型,LSTM+語(yǔ)言模型增強(qiáng)在三個(gè)數(shù)據(jù)集上的提升即是語(yǔ)言模型增強(qiáng)的效果。在SanWen數(shù)據(jù)集上,F1值提升了6.2%,AUC值提升了8.28%。證明了預(yù)訓(xùn)練語(yǔ)言模型的語(yǔ)言知識(shí)確實(shí)能夠?qū)χ形年P(guān)系抽取模型進(jìn)行增強(qiáng)。

    (3) 最后,我們通過(guò)模型的預(yù)測(cè)結(jié)果進(jìn)行示例分析,我們選擇LSTM方法和MG-Lattice方法與本文所提出的基于語(yǔ)言模型增強(qiáng)的方法進(jìn)行對(duì)比,示例結(jié)果如表4所示。我們?cè)赟anWen數(shù)據(jù)集中的測(cè)試集內(nèi)選擇了兩條文本作為示例,從預(yù)測(cè)結(jié)果中可以看出,LSTM方法與MG-Lattice方法預(yù)測(cè)出了錯(cuò)誤的關(guān)系類(lèi)型,而我們所提出的方法可以預(yù)測(cè)出正確的關(guān)系類(lèi)型。對(duì)于第二個(gè)示例,“當(dāng)包谷桿上長(zhǎng)出第一個(gè)包谷棒時(shí)”這條文本中,如果實(shí)體1是“包谷桿”,與實(shí)體2“包谷棒”的關(guān)系則是LSTM方法與MG-Lattice方法預(yù)測(cè)的“部分整體”。但實(shí)體1是“包谷桿上”,與實(shí)體2“包谷棒”的關(guān)系是“位于”。該示例結(jié)果證明本文所提出的基于語(yǔ)言模型增強(qiáng)的方法可以準(zhǔn)確地根據(jù)實(shí)體的細(xì)微差別識(shí)別出正確的關(guān)系類(lèi)型,具有更強(qiáng)的關(guān)系抽取能力。

    表4 模型預(yù)測(cè)結(jié)果對(duì)比

    4.3.2 與預(yù)訓(xùn)練模型的對(duì)比結(jié)果

    為了與基于預(yù)訓(xùn)練語(yǔ)言模型的方法進(jìn)行對(duì)比,我們實(shí)現(xiàn)了Livio等人[30]所提出的基于預(yù)訓(xùn)練語(yǔ)言模型的關(guān)系抽取方法,使用BERT-wwm預(yù)訓(xùn)練模型。同時(shí),為了比較不同參數(shù)規(guī)模下預(yù)訓(xùn)練語(yǔ)言模型的效果,我們分別取BERT-wwm的前6層的參數(shù)和前3層的參數(shù)進(jìn)行實(shí)驗(yàn)。同時(shí),我們也與Tang等人[23]提出的針對(duì)預(yù)訓(xùn)練語(yǔ)言模型的知識(shí)蒸餾方法進(jìn)行對(duì)比。除了比較三個(gè)數(shù)據(jù)集上的分類(lèi)指標(biāo),同時(shí)也比較模型的參數(shù)規(guī)模,表中表示為Parameter,含義為模型的參數(shù)量。與預(yù)訓(xùn)練模型的對(duì)比結(jié)果如表5所示。

    表5 與預(yù)訓(xùn)練模型的對(duì)比結(jié)果 (單位: %)

    (1) 我們可以從表中觀察到,BERT-wwm在三個(gè)數(shù)據(jù)集上均達(dá)到最好,LSTM+語(yǔ)言模型增強(qiáng)與BERT-wwm模型在F1值和AUC值上仍然有差距。但BERT-wwm的參數(shù)規(guī)模非常龐大,達(dá)到了102.27M(M表示百萬(wàn))。我們以BERT-wwm作為基準(zhǔn)(表示為100%),計(jì)算其他方法與其在性能和參數(shù)規(guī)模上的百分比。本文提出的基于語(yǔ)言模型增強(qiáng)的方法在三個(gè)數(shù)據(jù)集上的平均性能都可以達(dá)到BERT-wwm的95%,而參數(shù)規(guī)模僅為1.29M,為BERT-wwm的1.3%。實(shí)驗(yàn)證明了基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法可以在達(dá)到相似性能的同時(shí)大幅降低預(yù)訓(xùn)練模型的開(kāi)銷(xiāo)。

    (2) BERT-wwm (6層)和BERT-wwm (3層)分別僅使用BERT-wwm的部分參數(shù)??梢杂^察到,隨著層數(shù)的降低,基于預(yù)訓(xùn)練語(yǔ)言模型的方法在三個(gè)數(shù)據(jù)集上的指標(biāo)也隨之降低。在使用BERT-wwm (3層)進(jìn)行實(shí)驗(yàn)時(shí),LSTM+語(yǔ)言模型增強(qiáng)的方法在三個(gè)數(shù)據(jù)集上的指標(biāo)上已經(jīng)超過(guò)BERT-wwm (3層)方法。但BERT-wwm (3層)的參數(shù)規(guī)模仍然是LSTM+語(yǔ)言模型增強(qiáng)方法的30倍。證明相比于使用小規(guī)模的預(yù)訓(xùn)練語(yǔ)言模型,基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法是一個(gè)更優(yōu)的選擇。

    (3) 最后,我們與基于知識(shí)蒸餾的方法(表中表示為L(zhǎng)STM+知識(shí)蒸餾)相比,我們的方法在三個(gè)數(shù)據(jù)集上的指標(biāo)均超過(guò)基于知識(shí)蒸餾的方法。實(shí)驗(yàn)證明了相比于數(shù)據(jù)集內(nèi)的知識(shí),語(yǔ)言知識(shí)對(duì)于中文關(guān)系抽取任務(wù)的提升更大。

    4.4 消融實(shí)驗(yàn)

    本節(jié)對(duì)基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法進(jìn)行消融實(shí)驗(yàn),對(duì)方法中的模塊進(jìn)行消融,分析各個(gè)模塊帶來(lái)的性能提升。消融實(shí)驗(yàn)的結(jié)果如表6所示。首先,我們對(duì)來(lái)自預(yù)訓(xùn)練語(yǔ)言模型的增強(qiáng)進(jìn)行剝離,僅進(jìn)行標(biāo)準(zhǔn)的雙向語(yǔ)言模型訓(xùn)練,以下個(gè)字符作為標(biāo)簽,在表中表示為L(zhǎng)STM+語(yǔ)言模型??梢杂^察到,在剝離了預(yù)訓(xùn)練語(yǔ)言模型的預(yù)測(cè)結(jié)果時(shí),三個(gè)數(shù)據(jù)集的指標(biāo)均有所下降,在SanWen數(shù)據(jù)集上,F1值下降3.21%,AUC值下降3.74%。下降的結(jié)果即是來(lái)自預(yù)訓(xùn)練語(yǔ)言模型的語(yǔ)言知識(shí)對(duì)中文關(guān)系抽取任務(wù)的增強(qiáng)結(jié)果。

    表6 消融實(shí)驗(yàn)結(jié)果 (單位: %)

    之后,我們繼續(xù)剝離掉方法中基于多任務(wù)學(xué)習(xí)結(jié)構(gòu)中的語(yǔ)言模型的部分,方法退化為標(biāo)準(zhǔn)的基于LSTM的中文關(guān)系抽取方法。三個(gè)數(shù)據(jù)集的指標(biāo)繼續(xù)下降,下降的結(jié)果為基于多任務(wù)學(xué)習(xí)的語(yǔ)言模型帶來(lái)的提升,在SanWen數(shù)據(jù)集上,F1值下降2.99%,在AUC值上下降4.54%。在消融實(shí)驗(yàn)中,我們分別對(duì)基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取方法中的兩個(gè)核心模塊進(jìn)行消融,驗(yàn)證了每個(gè)模塊對(duì)中文關(guān)系抽取任務(wù)帶來(lái)的提升效果。

    5 總結(jié)

    針對(duì)預(yù)訓(xùn)練模型參數(shù)量多開(kāi)銷(xiāo)大的問(wèn)題,本文提出基于語(yǔ)言模型增強(qiáng)的中文關(guān)系抽取任務(wù),采用多任務(wù)學(xué)習(xí)結(jié)構(gòu),在中文關(guān)系抽取模型的基礎(chǔ)上訓(xùn)練雙向語(yǔ)言模型,以訓(xùn)練語(yǔ)言模型的預(yù)測(cè)結(jié)果作為訓(xùn)練標(biāo)簽,通過(guò)擬合預(yù)訓(xùn)練語(yǔ)言模型來(lái)學(xué)習(xí)預(yù)訓(xùn)練語(yǔ)言模型中包含的語(yǔ)言知識(shí)。預(yù)訓(xùn)練語(yǔ)言模型中的語(yǔ)言知識(shí)可以對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行自動(dòng)的數(shù)據(jù)增強(qiáng),使中文關(guān)系抽取模型在訓(xùn)練過(guò)程中學(xué)習(xí)到多樣化的關(guān)系表達(dá),提高中文關(guān)系抽取方法的性能和泛化能力。

    未來(lái)計(jì)劃對(duì)預(yù)訓(xùn)練語(yǔ)言模型中的語(yǔ)言知識(shí)進(jìn)行更細(xì)粒度的蒸餾,進(jìn)一步提升語(yǔ)言模型增強(qiáng)方法的性能。

    猜你喜歡
    語(yǔ)言方法模型
    一半模型
    重要模型『一線(xiàn)三等角』
    重尾非線(xiàn)性自回歸模型自加權(quán)M-估計(jì)的漸近分布
    語(yǔ)言是刀
    文苑(2020年4期)2020-05-30 12:35:30
    讓語(yǔ)言描寫(xiě)搖曳多姿
    累積動(dòng)態(tài)分析下的同聲傳譯語(yǔ)言壓縮
    可能是方法不對(duì)
    3D打印中的模型分割與打包
    用對(duì)方法才能瘦
    Coco薇(2016年2期)2016-03-22 02:42:52
    四大方法 教你不再“坐以待病”!
    Coco薇(2015年1期)2015-08-13 02:47:34
    亚洲精品日韩在线中文字幕 | 国产精品综合久久久久久久免费| 国产精品国产高清国产av| 国产精品99久久久久久久久| 国产精品不卡视频一区二区| 国产激情偷乱视频一区二区| 精品久久久久久久久久久久久| 亚洲最大成人手机在线| 91久久精品国产一区二区三区| 18禁黄网站禁片免费观看直播| 亚洲欧美精品自产自拍| 国产成人精品一,二区 | 成人永久免费在线观看视频| 中出人妻视频一区二区| 99热这里只有是精品在线观看| 国产成人影院久久av| av在线播放精品| 综合色丁香网| 一个人免费在线观看电影| 国产一区二区在线av高清观看| av免费在线看不卡| 91av网一区二区| 免费看a级黄色片| 91久久精品电影网| 在线a可以看的网站| 欧洲精品卡2卡3卡4卡5卡区| 日本撒尿小便嘘嘘汇集6| 人妻系列 视频| 日本一二三区视频观看| av在线天堂中文字幕| 一边亲一边摸免费视频| 国产成人91sexporn| avwww免费| 一区福利在线观看| 26uuu在线亚洲综合色| 蜜臀久久99精品久久宅男| 久久久午夜欧美精品| 小说图片视频综合网站| 国产精品乱码一区二三区的特点| 国产av一区在线观看免费| 色尼玛亚洲综合影院| 久久久久性生活片| 欧美成人a在线观看| 少妇猛男粗大的猛烈进出视频 | 国产av麻豆久久久久久久| 别揉我奶头 嗯啊视频| 亚洲精品456在线播放app| 青春草国产在线视频 | 人妻系列 视频| 中文字幕精品亚洲无线码一区| 美女高潮的动态| 成年免费大片在线观看| 欧美色视频一区免费| 欧美zozozo另类| 深爱激情五月婷婷| 深夜精品福利| 国产成年人精品一区二区| 国产精品免费一区二区三区在线| 99热网站在线观看| 少妇的逼好多水| 久久精品综合一区二区三区| 综合色丁香网| 亚洲婷婷狠狠爱综合网| 嫩草影院入口| 亚洲欧美中文字幕日韩二区| 青春草国产在线视频 | a级一级毛片免费在线观看| 国产伦一二天堂av在线观看| 五月伊人婷婷丁香| 成人无遮挡网站| 99久久成人亚洲精品观看| 在线观看66精品国产| 国产高清激情床上av| 日本爱情动作片www.在线观看| 久久精品国产99精品国产亚洲性色| 欧美激情国产日韩精品一区| www.色视频.com| 国产精品久久久久久av不卡| 日本一本二区三区精品| 国产三级中文精品| 69人妻影院| 一卡2卡三卡四卡精品乱码亚洲| 人妻制服诱惑在线中文字幕| 91麻豆精品激情在线观看国产| 男插女下体视频免费在线播放| 久久久a久久爽久久v久久| av.在线天堂| 久久人人爽人人爽人人片va| 亚洲成a人片在线一区二区| 内射极品少妇av片p| 免费观看a级毛片全部| 欧美激情在线99| 国产精品久久电影中文字幕| 精品一区二区三区人妻视频| 国产一区二区在线av高清观看| 精品无人区乱码1区二区| 亚洲无线观看免费| 九九久久精品国产亚洲av麻豆| 欧美成人精品欧美一级黄| 国产成人精品一,二区 | 精品欧美国产一区二区三| 久久精品人妻少妇| 国产熟女欧美一区二区| 亚洲激情五月婷婷啪啪| 婷婷六月久久综合丁香| 亚洲aⅴ乱码一区二区在线播放| 亚洲国产精品成人综合色| 亚洲欧美清纯卡通| 国产亚洲欧美98| 成人美女网站在线观看视频| 亚洲人成网站在线观看播放| www.av在线官网国产| .国产精品久久| 神马国产精品三级电影在线观看| 男的添女的下面高潮视频| 搡女人真爽免费视频火全软件| 国产黄片视频在线免费观看| 97热精品久久久久久| 午夜激情福利司机影院| 午夜福利成人在线免费观看| 亚洲国产精品国产精品| 国产色婷婷99| 白带黄色成豆腐渣| 日韩av不卡免费在线播放| 2021天堂中文幕一二区在线观| 日本免费一区二区三区高清不卡| 亚洲精品自拍成人| 国产私拍福利视频在线观看| 日本av手机在线免费观看| av女优亚洲男人天堂| 亚洲图色成人| 国产成人freesex在线| 国产 一区精品| 欧美性猛交╳xxx乱大交人| 老司机影院成人| 天堂影院成人在线观看| 久久久欧美国产精品| 国产午夜福利久久久久久| 高清午夜精品一区二区三区 | 久久精品久久久久久噜噜老黄 | 久久精品影院6| 99久久无色码亚洲精品果冻| 熟女人妻精品中文字幕| 国产一级毛片在线| 黄色欧美视频在线观看| 不卡视频在线观看欧美| 你懂的网址亚洲精品在线观看 | 波多野结衣高清作品| 日本一二三区视频观看| 内地一区二区视频在线| 内射极品少妇av片p| 亚洲av中文av极速乱| 久久精品国产亚洲av香蕉五月| 国产亚洲91精品色在线| 亚洲欧美日韩卡通动漫| 久久精品夜色国产| 乱码一卡2卡4卡精品| 国产老妇女一区| 黑人高潮一二区| 麻豆国产av国片精品| 亚洲人成网站高清观看| 欧美三级亚洲精品| 村上凉子中文字幕在线| 国产高清视频在线观看网站| 亚洲精品国产成人久久av| 男人的好看免费观看在线视频| 午夜激情欧美在线| 国产精品麻豆人妻色哟哟久久 | 99久久精品国产国产毛片| 国产一级毛片在线| 欧美变态另类bdsm刘玥| 国产亚洲精品久久久久久毛片| 最好的美女福利视频网| 国产一区二区亚洲精品在线观看| 日本一二三区视频观看| 免费黄网站久久成人精品| 国产伦在线观看视频一区| 91午夜精品亚洲一区二区三区| 精品一区二区免费观看| 黄色视频,在线免费观看| 久久久久网色| 丝袜喷水一区| 中文亚洲av片在线观看爽| 91久久精品电影网| 亚洲欧美日韩卡通动漫| 毛片女人毛片| 中出人妻视频一区二区| 在线播放国产精品三级| 国产探花在线观看一区二区| 欧美三级亚洲精品| 亚洲熟妇中文字幕五十中出| 午夜福利视频1000在线观看| 欧美3d第一页| 久久久久久久久中文| 免费观看在线日韩| avwww免费| 一区二区三区四区激情视频 | 不卡视频在线观看欧美| 亚洲成人中文字幕在线播放| 亚洲av免费在线观看| 日韩成人av中文字幕在线观看| 午夜爱爱视频在线播放| 真实男女啪啪啪动态图| 国产精品1区2区在线观看.| 亚洲美女视频黄频| 免费搜索国产男女视频| 直男gayav资源| 变态另类成人亚洲欧美熟女| 日韩欧美精品v在线| 久久久久久大精品| 一级黄片播放器| 国产激情偷乱视频一区二区| 成人毛片a级毛片在线播放| 国产精品国产三级国产av玫瑰| 岛国在线免费视频观看| 欧美3d第一页| 麻豆成人av视频| 久久人人精品亚洲av| 国产精品一区二区三区四区久久| 男人和女人高潮做爰伦理| 国产探花在线观看一区二区| 久久久午夜欧美精品| 亚洲精品国产成人久久av| 老司机影院成人| 国产综合懂色| 在线a可以看的网站| 少妇丰满av| 九色成人免费人妻av| 国产精品女同一区二区软件| 卡戴珊不雅视频在线播放| 国产精品一二三区在线看| a级一级毛片免费在线观看| 边亲边吃奶的免费视频| 亚州av有码| 男人和女人高潮做爰伦理| 国产大屁股一区二区在线视频| 一个人看的www免费观看视频| 亚洲真实伦在线观看| 一边亲一边摸免费视频| 日本欧美国产在线视频| 国产在视频线在精品| 夫妻性生交免费视频一级片| 波多野结衣高清无吗| 亚洲无线在线观看| 成人av在线播放网站| a级一级毛片免费在线观看| 少妇裸体淫交视频免费看高清| 99riav亚洲国产免费| 国产色婷婷99| 99久久久亚洲精品蜜臀av| 久久精品综合一区二区三区| 能在线免费观看的黄片| 不卡视频在线观看欧美| 色吧在线观看| 热99re8久久精品国产| 18+在线观看网站| 久久婷婷人人爽人人干人人爱| 国产真实乱freesex| 伦理电影大哥的女人| 亚洲欧洲日产国产| 日韩视频在线欧美| 日韩欧美三级三区| av黄色大香蕉| 一区福利在线观看| 国产精品伦人一区二区| 天天躁夜夜躁狠狠久久av| 日韩欧美精品免费久久| 国产精品一区二区三区四区免费观看| 成人漫画全彩无遮挡| 亚洲人成网站高清观看| 亚洲欧美成人综合另类久久久 | 观看免费一级毛片| 久久婷婷人人爽人人干人人爱| 国产亚洲欧美98| 12—13女人毛片做爰片一| 一区二区三区免费毛片| 伦理电影大哥的女人| 国产精品精品国产色婷婷| 欧美一级a爱片免费观看看| www日本黄色视频网| 国产精品美女特级片免费视频播放器| 国产极品精品免费视频能看的| 一区二区三区四区激情视频 | 岛国在线免费视频观看| 国产色爽女视频免费观看| 国产乱人视频| 九九热线精品视视频播放| 99热这里只有是精品在线观看| 久久久久国产网址| 亚洲欧美成人综合另类久久久 | 一区二区三区四区激情视频 | av在线观看视频网站免费| 国产视频首页在线观看| 国产日本99.免费观看| 国产日韩欧美在线精品| 熟女电影av网| 高清日韩中文字幕在线| 男人和女人高潮做爰伦理| 大又大粗又爽又黄少妇毛片口| 国产高潮美女av| 久久久久久大精品| 亚洲一区高清亚洲精品| 日韩国内少妇激情av| 日韩制服骚丝袜av| 国产精品嫩草影院av在线观看| 免费av观看视频| 亚洲国产欧美在线一区| 亚洲在线自拍视频| 亚洲18禁久久av| 亚洲久久久久久中文字幕| 亚洲自拍偷在线| 国产精品美女特级片免费视频播放器| 天堂中文最新版在线下载 | 精品少妇黑人巨大在线播放 | 色视频www国产| 日韩欧美 国产精品| 亚洲精品久久国产高清桃花| 婷婷精品国产亚洲av| av在线播放精品| 欧美变态另类bdsm刘玥| 亚洲精品国产成人久久av| 欧美最黄视频在线播放免费| 国产精品免费一区二区三区在线| 国产大屁股一区二区在线视频| 蜜臀久久99精品久久宅男| 亚洲欧美日韩卡通动漫| 精品少妇黑人巨大在线播放 | 久久久久久大精品| 久久精品国产亚洲av天美| 国内精品美女久久久久久| 国产黄a三级三级三级人| 欧美极品一区二区三区四区| 麻豆成人av视频| 国产成年人精品一区二区| 成年免费大片在线观看| 看免费成人av毛片| 久久亚洲精品不卡| 欧美色视频一区免费| 亚洲欧美成人精品一区二区| 深夜a级毛片| 一级毛片我不卡| 日本一本二区三区精品| 91av网一区二区| 亚洲七黄色美女视频| 免费看av在线观看网站| 夫妻性生交免费视频一级片| 欧美精品国产亚洲| 一级黄片播放器| 国产精品1区2区在线观看.| 少妇被粗大猛烈的视频| 午夜老司机福利剧场| 青春草视频在线免费观看| 国产精品福利在线免费观看| 日本一二三区视频观看| 中国美白少妇内射xxxbb| 国产伦精品一区二区三区视频9| 男人的好看免费观看在线视频| 麻豆国产97在线/欧美| 老司机影院成人| 黄色一级大片看看| 又粗又硬又长又爽又黄的视频 | 久久精品国产99精品国产亚洲性色| 国内精品一区二区在线观看| 久久99热这里只有精品18| 国产片特级美女逼逼视频| 亚洲无线观看免费| 日韩三级伦理在线观看| 男人狂女人下面高潮的视频| 午夜福利在线观看免费完整高清在 | 欧美日韩一区二区视频在线观看视频在线 | 在线国产一区二区在线| 男人舔奶头视频| 99九九线精品视频在线观看视频| 国产日本99.免费观看| 亚洲色图av天堂| 国产成年人精品一区二区| 男人狂女人下面高潮的视频| 老熟妇乱子伦视频在线观看| 亚洲自偷自拍三级| 亚洲五月天丁香| 啦啦啦观看免费观看视频高清| 欧美+亚洲+日韩+国产| 亚洲aⅴ乱码一区二区在线播放| 可以在线观看毛片的网站| 精品久久久久久久久亚洲| 国产人妻一区二区三区在| 国产精品99久久久久久久久| 亚州av有码| 午夜精品国产一区二区电影 | www.av在线官网国产| 国产成人福利小说| 色尼玛亚洲综合影院| 神马国产精品三级电影在线观看| 岛国在线免费视频观看| 小蜜桃在线观看免费完整版高清| 日本色播在线视频| 成人性生交大片免费视频hd| 免费看日本二区| 伦理电影大哥的女人| 国产一区二区激情短视频| 91精品国产九色| 2022亚洲国产成人精品| 欧美xxxx性猛交bbbb| 免费观看在线日韩| 亚洲aⅴ乱码一区二区在线播放| 国产av麻豆久久久久久久| www.色视频.com| 国产69精品久久久久777片| 国产精品综合久久久久久久免费| 欧美xxxx黑人xx丫x性爽| 国产精品不卡视频一区二区| 亚洲精品色激情综合| 亚洲精品456在线播放app| 日韩人妻高清精品专区| 69av精品久久久久久| 国产激情偷乱视频一区二区| av免费观看日本| 乱系列少妇在线播放| av福利片在线观看| 久久久精品欧美日韩精品| 国产精品永久免费网站| 久久99精品国语久久久| 嫩草影院入口| 国产精品电影一区二区三区| 国内揄拍国产精品人妻在线| 国产精品久久久久久久久免| 悠悠久久av| 亚洲aⅴ乱码一区二区在线播放| 国产探花在线观看一区二区| 日韩欧美精品v在线| 毛片女人毛片| 99热精品在线国产| 99国产极品粉嫩在线观看| 亚洲av熟女| 国产午夜精品一二区理论片| 亚洲av免费在线观看| 欧美成人精品欧美一级黄| 欧美又色又爽又黄视频| 亚洲va在线va天堂va国产| 欧美激情国产日韩精品一区| 丰满人妻一区二区三区视频av| 亚洲成a人片在线一区二区| 久久精品91蜜桃| 18+在线观看网站| 国产精品一二三区在线看| 国产高清三级在线| 亚洲成人中文字幕在线播放| 午夜福利在线观看吧| 韩国av在线不卡| 亚洲第一区二区三区不卡| 成人无遮挡网站| 内射极品少妇av片p| 亚洲国产欧美人成| 国产高清三级在线| 国产精品av视频在线免费观看| 久久人人爽人人片av| 边亲边吃奶的免费视频| 美女cb高潮喷水在线观看| 国产白丝娇喘喷水9色精品| 一级二级三级毛片免费看| 成人综合一区亚洲| 国产私拍福利视频在线观看| 亚洲久久久久久中文字幕| 黄片无遮挡物在线观看| 一进一出抽搐动态| 欧美区成人在线视频| 色播亚洲综合网| 免费av观看视频| 一级毛片电影观看 | 日本爱情动作片www.在线观看| 久久久久免费精品人妻一区二区| 久久久久久大精品| 国产欧美日韩精品一区二区| 搡女人真爽免费视频火全软件| 91精品国产九色| 亚洲成人精品中文字幕电影| 非洲黑人性xxxx精品又粗又长| 免费观看a级毛片全部| 午夜久久久久精精品| 亚洲精品粉嫩美女一区| 特大巨黑吊av在线直播| 亚洲av免费在线观看| 国产亚洲精品av在线| 国产精品久久久久久av不卡| 亚洲中文字幕一区二区三区有码在线看| 丝袜美腿在线中文| 国产精品国产高清国产av| 日韩成人伦理影院| 在线免费观看的www视频| 日本三级黄在线观看| 成人国产麻豆网| 国产91av在线免费观看| 深夜a级毛片| 日本黄色片子视频| 亚洲成人精品中文字幕电影| 亚洲一区高清亚洲精品| 亚洲精品自拍成人| 亚洲成a人片在线一区二区| 久久精品人妻少妇| 可以在线观看的亚洲视频| 日韩欧美 国产精品| 精品欧美国产一区二区三| 亚洲成人av在线免费| 美女cb高潮喷水在线观看| 变态另类成人亚洲欧美熟女| 能在线免费看毛片的网站| 亚洲最大成人中文| 淫秽高清视频在线观看| 亚洲在线观看片| 99久久中文字幕三级久久日本| 亚洲人成网站在线播| 久久精品国产自在天天线| 欧美另类亚洲清纯唯美| 日本色播在线视频| 国产精品蜜桃在线观看 | 久久久成人免费电影| 人妻久久中文字幕网| 色吧在线观看| 精品久久久久久久久久久久久| 国产成人91sexporn| 天堂影院成人在线观看| 亚洲欧美成人综合另类久久久 | 国产高清三级在线| 国产精品一区二区三区四区久久| 免费人成在线观看视频色| 国产一区二区激情短视频| 看黄色毛片网站| 久久久久久大精品| 国产伦在线观看视频一区| 久久综合国产亚洲精品| 久久久久久久久中文| 欧美精品国产亚洲| 亚洲国产日韩欧美精品在线观看| 欧美成人一区二区免费高清观看| 久久久久久九九精品二区国产| 欧美另类亚洲清纯唯美| 久久精品综合一区二区三区| av福利片在线观看| 99热这里只有是精品在线观看| 国产成人91sexporn| 国产精品不卡视频一区二区| 春色校园在线视频观看| 亚洲欧美精品专区久久| 一本精品99久久精品77| 偷拍熟女少妇极品色| 亚洲中文字幕日韩| 久久精品国产99精品国产亚洲性色| 国产精品,欧美在线| 91精品一卡2卡3卡4卡| 中国美女看黄片| 久久欧美精品欧美久久欧美| 亚洲天堂国产精品一区在线| av在线天堂中文字幕| 九九在线视频观看精品| 99热6这里只有精品| 日日撸夜夜添| 久久久久久久久久成人| 给我免费播放毛片高清在线观看| 亚洲自拍偷在线| 亚洲人成网站高清观看| av在线播放精品| 久久热精品热| 国产在视频线在精品| 激情 狠狠 欧美| 亚洲电影在线观看av| 中出人妻视频一区二区| АⅤ资源中文在线天堂| 久久久久久久久久久免费av| 久久人人爽人人片av| 国产精品免费一区二区三区在线| 亚洲性久久影院| 亚洲欧美日韩高清专用| 最新中文字幕久久久久| 日韩视频在线欧美| 毛片一级片免费看久久久久| 中文字幕av成人在线电影| 天堂影院成人在线观看| 精品免费久久久久久久清纯| 国产免费一级a男人的天堂| 人妻久久中文字幕网| 91久久精品国产一区二区三区| 女同久久另类99精品国产91| 免费看av在线观看网站| 国产黄a三级三级三级人| 网址你懂的国产日韩在线| 久久人人爽人人片av| 日韩三级伦理在线观看| 色综合色国产| 成人av在线播放网站| 色综合亚洲欧美另类图片| 中国美白少妇内射xxxbb| 老司机影院成人| 久久精品国产亚洲av香蕉五月| 国产午夜精品论理片| 亚洲国产色片| 亚洲综合色惰| 精品少妇黑人巨大在线播放 | 天堂av国产一区二区熟女人妻| 日韩欧美精品免费久久| 亚洲成人中文字幕在线播放| 麻豆一二三区av精品| 午夜老司机福利剧场| 18禁黄网站禁片免费观看直播| 国产在线男女| 男人的好看免费观看在线视频| 日韩中字成人| 91精品一卡2卡3卡4卡| 99在线视频只有这里精品首页| 日韩制服骚丝袜av| 一个人看视频在线观看www免费| 欧美xxxx性猛交bbbb| 爱豆传媒免费全集在线观看| 免费无遮挡裸体视频| 欧美色欧美亚洲另类二区| АⅤ资源中文在线天堂|