• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于MpBERT-BiGRU的中文知識圖譜補全

    2023-03-27 02:04:16張驍雄劉文杰劉姍姍
    計算機技術(shù)與發(fā)展 2023年3期
    關(guān)鍵詞:三元組池化圖譜

    田 昊,張驍雄,劉文杰,劉 瀏,3,劉姍姍,丁 鯤

    (1.國防科技大學(xué) 第六十三研究所,江蘇 南京 210007;2.南京信息工程大學(xué) 計算機與軟件學(xué)院,江蘇 南京 210044;3.宿遷學(xué)院,江蘇 宿遷 223800)

    0 引 言

    知識圖譜通常是表示實體和關(guān)系的語義關(guān)系圖,存儲形式為三元組,三元組由頭實體h,尾實體t,以及它們之間的關(guān)系r組成,通常用這些三元組來描述事實。相較于傳統(tǒng)數(shù)據(jù)庫,知識圖譜更加直觀,搜索能力更加優(yōu)秀[1]。因此,知識圖譜被廣泛應(yīng)用于金融、軍事、醫(yī)療等領(lǐng)域[2]。

    隨著知識圖譜的規(guī)模越來越大,其存儲的數(shù)據(jù)量增多,知識圖譜出現(xiàn)了圖譜稀疏和不完整問題,導(dǎo)致知識缺失現(xiàn)象發(fā)生,降低了圖譜質(zhì)量。如圖1所示,由三元組<約瑟夫·拜登,妻子,娜麗亞·亨特>、<娜麗亞·亨特,母子,博·拜登>以及<博·拜登,兄弟,亨特·拜登>,易得實體“約瑟夫·拜登”與實體“亨特·拜登”之間的關(guān)系為“父子”,但對于同樣的結(jié)構(gòu),知識圖譜可能就缺失了“威廉王子”和“路易斯王子”之間的關(guān)系。

    知識補全是一項解決知識缺失問題的技術(shù),目的是使知識圖譜更加完整。知識補全的質(zhì)量一定程度影響知識圖譜的存儲質(zhì)量,從而影響下游應(yīng)用的質(zhì)量,如問答、搜索等[3]。知識補全技術(shù)首先需要對知識圖譜進行表示和建模,然后預(yù)測各個三元組中缺失的部分,并判斷預(yù)測后的三元組是否有效合理[4]。在知識圖譜構(gòu)建過程中,知識補全技術(shù)是知識加工的重要組成部分,在學(xué)術(shù)界和工業(yè)界都具有一定的現(xiàn)實意義[5]。

    近年來,預(yù)訓(xùn)練語言模型在自然語言處理(Natural Language Processing,NLP)任務(wù)取得了良好的效果。例如,ELMo[6]借助雙向LSTM解決多義詞的表示問題,GPT[7]以Transformer的Decoder架構(gòu)完成分類、相似度等任務(wù);而BERT模型[8]綜合考慮ELMo雙向編碼和GPT使用Transformer編碼器的思路,采用Transformer雙向編碼器作為特征提取器,利用大量未標(biāo)記數(shù)據(jù)對模型進行預(yù)訓(xùn)練以獲取通用的語言表示,再利用少量的標(biāo)記數(shù)據(jù)進行微調(diào)以應(yīng)對具體任務(wù),解決了缺少大量高質(zhì)量標(biāo)記數(shù)據(jù)的問題,并有效地捕獲了上下文信息。考慮到BERT模型在多個NLP任務(wù)的優(yōu)異表現(xiàn),該文將BERT引入到知識補全任務(wù)中。

    不過BERT在進行知識補全任務(wù)時,存在以下問題。首先,傳統(tǒng)BERT一般采用[CLS]輸出值對序列進行表征,但當(dāng)序列信息過多積壓在[CLS]輸出值上時,會造成不同知識數(shù)據(jù)特征近似,影響模型表征能力,降低下游任務(wù)效果。有相關(guān)研究工作證實此觀點,例如Reimers等人[9]在sentence-bert模型中認為,BERT傳統(tǒng)表征序列的方法效果不佳,在語義文本相似性任務(wù)上的效果甚至不如GloVe,原因就在于[CLS]輸出值難以有效表征序列信息,特征信息易形成重疊堆積[10];其次,BERT并行化處理文本,僅依靠位置嵌入向量表示文本之間的位置關(guān)系[8],無法像串行的神經(jīng)網(wǎng)絡(luò)模型一樣按照時間戳建模位置信息,從而弱化了字詞位置信息。

    同時,就知識圖譜構(gòu)建過程而言,中文知識圖譜與英文知識圖譜在語法結(jié)構(gòu)、構(gòu)詞方法、句式邏輯結(jié)構(gòu)等方面存在差異[11],而中文語法結(jié)構(gòu)和語言邏輯更加靈活多變,同義詞、多義詞較多,中文文本的特征更加復(fù)雜,更易產(chǎn)生上述的特征重疊堆積問題[12],同時中文語序多變,語境相關(guān)性更強,相比英文更加依賴字詞間位置關(guān)系來表征文本語義,所以BERT在處理中文文本時問題更加突出。

    針對上述BERT的模型問題以及中文文本的語言特點,該文改進了BERT模型,提出了一種名為MpBERT-BiGRU的知識補全模型,采用平均池化(mean-pooling)策略,在[CLS]輸出值的基礎(chǔ)上,計算字詞級別隱層特征的均值,使用更合適的均值特征取代[CLS]輸出值,緩解傳統(tǒng)方法特征信息重疊堆積的問題,增強BERT對句子的表征能力;同時,MpBERT-BiGRU模型通過雙向門控循環(huán)單元網(wǎng)絡(luò)(Bidirectional Gated Recurrent Unit,BiGRU)增強均值特征,BiGRU可以串行化處理輸入序列,并采用兩層GRU學(xué)習(xí)上下文的字詞依賴關(guān)系,并且GRU簡化了長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)的門控結(jié)構(gòu),減少參數(shù)量的同時降低了過擬合風(fēng)險,提高了模型效率[13],這在時間消耗較大的知識補全任務(wù)中顯得尤為關(guān)鍵。

    為了研究MpBERT-BiGRU模型在中文數(shù)據(jù)集上的知識補全效果,以及以往的知識補全模型是否適用于中文語境,而目前大多數(shù)的知識補全研究都以英文數(shù)據(jù)集為主,如FB15K-237[14]、UMLS[15]和WN18RR[15]等,缺乏高質(zhì)量中文標(biāo)記數(shù)據(jù),該文結(jié)合UMLS數(shù)據(jù)集和ownthink數(shù)據(jù)集(http://www.ownthink.com/),并通過數(shù)據(jù)預(yù)處理,構(gòu)造了UMLS+ownthink中文數(shù)據(jù)集。

    主要貢獻如下:(1)構(gòu)建了中文數(shù)據(jù)集UMLS+ownthink,驗證知識補全模型在中文語料庫上的有效性;(2)提出了MpBERT-BiGRU模型,采用平均池化策略處理BERT模型輸出的特征向量,改進BERT模型表征三元組能力,并利用BiGRU學(xué)習(xí)序列位置關(guān)系,進一步增強特征向量表示能力;(3)驗證了MpBERT-BiGRU模型在中英文數(shù)據(jù)集上都有所提升,其中在UMLS+ownthink數(shù)據(jù)集上相較于以往方法,平均排名(Mean Rank,MR)指標(biāo)上提高10.39,前10命中率(Hit@10)指標(biāo)上提高4.63%。

    1 相關(guān)工作

    現(xiàn)有的知識補全技術(shù)主要包括三種方法,分別是知識嵌入模型、基于深度學(xué)習(xí)的補全模型和基于預(yù)訓(xùn)練語言模型的知識補全模型。

    1.1 知識嵌入模型

    知識嵌入模型思路類似于Word2Vector模型[16],使用向量來表示實體及其關(guān)系。Bordes等人[14]提出的TransE算法是經(jīng)典的知識嵌入算法,算法將實體間關(guān)系映射為兩個實體向量之間的變換關(guān)系,并調(diào)整向量表示以滿足h+r=t。隨后提出的TransH[17]、TransR[18]、TransD[19]等算法對TransE模型難以處理復(fù)雜關(guān)系的缺陷進行了改進,取得了較好的效果。Socher等人[20]提出了神經(jīng)張量網(wǎng)絡(luò)模型(Neural Tensor Network,NTN),利用實體名稱的平均詞向量表示每個實體,共享相似實體名稱中的文本信息,達到良好的鏈接預(yù)測效果。然而該模型的訓(xùn)練過程耗時較長[20],難以滿足特定的速度要求,無法簡單有效地處理大型知識圖譜。Yang等人[21]在NTN模型的基礎(chǔ)上,提出DistMult模型,使用對角矩陣簡化NTN模型的得分函數(shù),但是DistMult模型無法有效應(yīng)對非對稱關(guān)系。為此,Trouillon等人[22]提出的ComplEx模型在DistMult模型基礎(chǔ)上引入復(fù)數(shù)概念,將實體和關(guān)系映射到復(fù)數(shù)空間中,由于復(fù)數(shù)空間的共軛向量乘積不具有交換性,且保留了點積的優(yōu)勢,有效應(yīng)對非對稱關(guān)系。

    知識嵌入模型從結(jié)構(gòu)層面進行研究,可以有效應(yīng)對結(jié)構(gòu)性較強、語義較簡單的知識圖譜,達到良好效果。不過在許多知識圖譜中,由于實體與關(guān)系語義信息復(fù)雜且豐富,知識嵌入模型忽略了文本描述等外部信息,同時在應(yīng)對知識補全任務(wù)時NTN等模型訓(xùn)練時間長,成本消耗大,效率較低。

    1.2 基于深度學(xué)習(xí)的補全模型

    為了更好地應(yīng)用文本中的語義信息,許多研究都將深度學(xué)習(xí)模型應(yīng)用在知識圖譜補全中。Dettmers等人[15]提出名為ConvE的多層卷積網(wǎng)絡(luò)模型,該模型利用2D卷積進行鏈接預(yù)測,在公共數(shù)據(jù)集上取得了良好的性能。Nguyen等人[23]提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的嵌入模型ConvKB,該模型將每個三元組表示為一個三列矩陣,將三列矩陣輸入卷積神經(jīng)網(wǎng)絡(luò),生成不同的特征圖,該模型在鏈接預(yù)測任務(wù)中也取得了良好的性能。

    不過,ConvE模型在同一維度上的全局特征可能會丟失,影響模型補全性能,而ConvKB模型仍然將實體和關(guān)系視為獨立的元素,忽略其緊密聯(lián)系,導(dǎo)致關(guān)系隔離和特征丟失[24]。并且,基于深度學(xué)習(xí)的模型為了增強其泛化能力,需要在大規(guī)模標(biāo)記數(shù)據(jù)集上進行訓(xùn)練,但以現(xiàn)有的方法,獲取大規(guī)模的標(biāo)記數(shù)據(jù)十分費時費力,因此基于深度學(xué)習(xí)的模型局限性較大。

    1.3 預(yù)訓(xùn)練語言模型

    隨著預(yù)訓(xùn)練語言模型在NLP領(lǐng)域的應(yīng)用越來越廣泛,近年來已有研究使用預(yù)訓(xùn)練語言模型進行知識補全,取得了一定效果。

    Zha等人[25]利用一種稱為BERTRL的一體化解決方案推理實體間關(guān)系,借助預(yù)訓(xùn)練語言模型,通過將關(guān)系實例及其可能的推理路徑作為訓(xùn)練樣本對模型進行微調(diào),達到了良好的效果。Liu等人[26]提出了一種基于XLNet的補全模型,將知識補全任務(wù)轉(zhuǎn)化為分類和評分任務(wù),根據(jù)不同任務(wù)構(gòu)建三種基于XLNet的知識圖譜補全模型。Yao等人[27]提出了名為KG-BERT的框架,該框架將知識補全任務(wù)轉(zhuǎn)化為句子分類問題,通過三元組序列進行微調(diào)模型,在鏈接預(yù)測、三元組分類和關(guān)系預(yù)測任務(wù)中實現(xiàn)了先進的性能。

    不過基于預(yù)訓(xùn)練語言模型的知識補全模型存在一定問題,例如KG-BERT模型沒有證明在中文語境下的有效性,也沒有改進BERT輸出值以緩解[CLS]標(biāo)簽表征能力不足的問題,在處理字詞位置信息時,只采用了原始的位置編碼,無法完全有效地學(xué)習(xí)字詞位置信息。

    1.4 中文知識圖譜補全模型

    以往大多研究都以英文數(shù)據(jù)集為主,不過近年來,有關(guān)中文知識圖譜的知識補全工作逐漸增多。

    Zhang等人[28]提出BERT-KGC模型,該模型在KG-BERT模型[27]基礎(chǔ)上,融入實體類型信息,并根據(jù)專家制定的規(guī)則從公開數(shù)據(jù)源抽取中文文物實體,構(gòu)建中文文物知識圖譜數(shù)據(jù)集CCR20,驗證了模型在CCR20數(shù)據(jù)集上的有效性。Xie等人[29]以生成式Transformer模型為基礎(chǔ),提出GenKGC模型,將知識補全任務(wù)轉(zhuǎn)化為序列生成任務(wù),在中文知識圖譜AliopenKG500上取得了良好效果。不過,這些中文知識圖譜數(shù)據(jù)集大多沒有公開,并且上述方法并沒有根據(jù)中文特點,針對性地增強模型的特征表征能力和學(xué)習(xí)語序位置關(guān)系的能力。

    2 MpBERT-BiGRU模型

    針對現(xiàn)有BERT模型在知識補全任務(wù)上表征能力不足、字詞位置信息弱化的問題,以及中文文本易特征重疊堆積、依賴字詞間位置關(guān)系的特點,該文提出采用MpBERT-BiGRU模型完成知識補全任務(wù),其中BERT采用bert-base-chinese模型,以應(yīng)對中文知識圖譜語境,模型結(jié)構(gòu)如圖2所示。

    圖2 MpBERT-BiGRU模型架構(gòu)

    利用MpBERT-BiGRU模型進行知識補全的思路與先前的知識嵌入模型和深度學(xué)習(xí)模型的思路有所區(qū)別,主要是利用預(yù)訓(xùn)練語言模型進行初始編碼,然后經(jīng)過池化策略和神經(jīng)網(wǎng)絡(luò)增強特征信息,采用線性層輸出得分,將知識補全任務(wù)看做序列分類任務(wù)。該模型進行知識補全的主要流程為:

    (1)輸入層:將頭尾實體和關(guān)系表示為三段文本,并將三段文本輸入模型,其中頭尾實體文本為對應(yīng)的描述文本;

    (2)Bert編碼層:將輸入序列經(jīng)過BERT編碼和多頭自注意力機制等計算,得到包含上下文語義信息的初步特征向量;

    (3)平均池化層:利用平均池化策略,獲取Bert編碼層編碼后的特征向量均值,緩解[CLS]標(biāo)簽信息堆積、特征重疊的問題;

    (4)特征增強層:經(jīng)過BiGRU網(wǎng)絡(luò),利用串行化神經(jīng)網(wǎng)絡(luò)處理池化后的特征,充分學(xué)習(xí)中文文本字詞間位置關(guān)系,進一步增強特征信息;

    (5)輸出層:通過線性分類層和激活函數(shù)處理BiGRU的強化特征,得到一個二分類得分結(jié)果,即將知識補全任務(wù)轉(zhuǎn)化為分類任務(wù),合理有效的三元組的得分較高。

    2.1 輸入層

    (1)

    圖3 增加實體描述的輸入序列

    2.2 Bert編碼層

    Bert編碼層主要以BertModel為基礎(chǔ),BertModel由BertEmbeddings和BertEncoder組成,BertEmbedd-ings負責(zé)對三元組輸入進行初始編碼,得到的向量由BertEncoder進一步進行語義信息融入。

    定義L為輸入序列Seq(h,r,t)的長度,H為模型的隱藏層大小。BertEmbeddings負責(zé)處理序列化輸入,將輸入序列Seq(h,r,t)轉(zhuǎn)化為三種嵌入矩陣,分別是詞嵌入矩陣Ew、位置嵌入矩陣Ep和類型嵌入矩陣Et,其中Ew是每個字的嵌入值,Ep代表每個字的位置信息,Et用來區(qū)分三元組不同部分。再將3種嵌入矩陣求和,合并成輸出的嵌入矩陣X,如式(2)所示。

    X=Ew+Ep+Et=(x1,x2,…,xL)T

    (2)

    其中,xi(i=1,2,…,L)是每個字的向量表示,xi維度為H×1,X維度為L×H。

    BertEncoder是BertModel的編碼層,BertEncoder主要由N層BertLayer組成,每層BertLayer由BertAttention、BertIntermediate和BertOutput組成,BertLayer結(jié)構(gòu)如圖4所示。

    圖4 BertLayer架構(gòu)

    (3)

    (4)

    (5)

    再將Q和K矩陣相乘,進行縮放點積操作,通過softmax函數(shù)并與V矩陣相乘,得到第i頭的注意力權(quán)重分量Yi,如式(6)所示,連接n頭注意力權(quán)重分量,得到多頭注意力權(quán)重Y,如式(7)所示。

    (6)

    Y=(Y1,Y2,…,Yn)

    (7)

    其中,Yi維度為H×d,Y維度為L×H。

    BertSelfOutput層將BertSelfAttention層輸出的Y經(jīng)線性層、Dropout層和LayerNorm層歸一化,得到整個BertAttention層的輸出A,如式(8)和式(9)所示。

    (8)

    (9)

    其中,參數(shù)矩陣Wdrp維度為H×H,偏置向量bdrp維度為1×H,αdrp∈[0,1)為Dropout率,A維度為L×H。

    BertIntermediate層包含線性層和激活函數(shù),將A的維度從L×H擴大到L×S,如式(10)所示。

    U=gelu(AWInt+bInt)

    (10)

    其中,參數(shù)矩陣WInt維度為H×S,偏置向量bInt維度為1×S,U維度為L×S。

    BertOutput層和BertSelfOutput層類似,由線性層、Dropout層和LayerNorm層組成,線性層將矩陣U由維度L×S縮小到維度L×H,然后歸一化得到BertLayer的輸出,再將這個輸出作為輸入到下一層的BertLayer中,經(jīng)過N層的BertLayer疊加,得到充分融合上下文語義信息的特征矩陣Z,如式(11)和式(12)所示。

    (11)

    (12)

    其中,參數(shù)矩陣Wdrp′維度為S×H,偏置向量bdrp′維度為1×H,αdrp′∈[0,1)為dropout率,Z維度為L×H。

    2.3 平均池化層

    (1)傳統(tǒng)BERT以[CLS]標(biāo)簽表征序列的思路為:

    設(shè)特征矩陣Z在每個維度i(i=1,2,…,H)的第一個位置的隱層值h(i,0)為[CLS]標(biāo)簽值,并以各個維度的[CLS]標(biāo)簽值拼接為序列表征向量E'=(h(1,0),h(2,0),…,h(H,0))。

    (2)采用的平均池化策略的主要思路為:

    (13)

    (14)

    2.4 特征增強層

    特征增強層由兩個GRU子網(wǎng)絡(luò)組成,分別進行前向傳播和后向傳播。GRU利用更新門控制當(dāng)前時刻t對前一時刻t-1的信息接收程度,并通過重置門控制對前一時刻t-1的信息忽略程度,單向GRU網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

    圖5 GRU網(wǎng)絡(luò)結(jié)構(gòu)

    rt=σ(ht-1Wr+etWr+br)

    (15)

    (16)

    zt=σ(ht-1Wz+etWz+bz)

    (17)

    (18)

    E=(h1,h2,…,ht,…,hH)

    (19)

    2.5 輸出層

    (20)

    其中,W為模型2×H的參數(shù)矩陣,Sco是一個二維向量,由兩部分Sco1,Sco2∈[0,1]組成,且Sco1+Sco2=1。

    微調(diào)階段,由于數(shù)據(jù)集中的三元組都是事實,這些事實組成真樣本集D+,因此需要采用替換法構(gòu)造負樣本D-,具體做法如下:(1)對于真樣本三元組T=,隨機用實體集E中的另一個h'替換h,或另一個t'替換t,構(gòu)造了負樣本三元組T'=;(2)排除構(gòu)造的負樣本三元組T'仍然在真樣本集D+中的情況,那么負樣本集D-如式(21)所示。

    D-={(h',r,t)|h'∈E∧h'≠

    h∧(h',r,t)?D+}

    ∪{(h,r,t')|t'∈E∧t'≠

    t∧(h,r,t')?D+}

    (21)

    因此,給定正負樣本集D+和D-,計算二進制交叉熵損失函數(shù)L,如式(22)所示。

    (22)

    其中,yT∈{0,1}為三元組T的標(biāo)簽(負樣本或真樣本),Sco1,Sco2∈[0,1]分別是三元組T屬于兩種標(biāo)簽的概率得分。

    3 實驗分析

    3.1 數(shù)據(jù)集

    目前大多研究都使用FB15K-237[14]或WN18RR[15]等英文數(shù)據(jù)集,缺少合適的中文知識補全數(shù)據(jù)集。為驗證模型在中文數(shù)據(jù)集上的效果,該文構(gòu)建了數(shù)據(jù)集UMLS+ownthink,該數(shù)據(jù)集主要由中文UMLS數(shù)據(jù)集[15]和ownthink中文數(shù)據(jù)集的子數(shù)據(jù)集組成,并通過數(shù)據(jù)預(yù)處理、實體對齊等操作,解決了重復(fù)實體等問題。

    其中UMLS是一個主要以醫(yī)藥領(lǐng)域為基礎(chǔ)的知識圖譜,以<實體,關(guān)系,實體>的三元組形式存儲數(shù)據(jù),包含了135個醫(yī)藥領(lǐng)域?qū)嶓w和46個實體間關(guān)系,以及6 000多條三元組數(shù)據(jù),整個圖譜結(jié)構(gòu)性完整,緊密性良好,原數(shù)據(jù)集為英文數(shù)據(jù)集,該文對英文數(shù)據(jù)集進行了裁剪和中文加工,構(gòu)建了中文的UMLS數(shù)據(jù)集。

    ownthink數(shù)據(jù)集是一個擁有億級三元組的通用領(lǐng)域知識圖譜,但由于ownthink的存儲形式為<實體,屬性,值>,并不完全符合<實體,關(guān)系,實體>的三元組形式,加之原數(shù)據(jù)集稀疏性較大,數(shù)據(jù)構(gòu)成不規(guī)范、值缺失等,因此根據(jù)“所屬國家”“界”“軟件語言”等屬性,從龐大的ownthink數(shù)據(jù)集中抽取了部分高質(zhì)量數(shù)據(jù)形成ownthink數(shù)據(jù)集的子集,再按照子集的實體名稱,將實體的描述文本從ownthink數(shù)據(jù)集中抽出,將子數(shù)據(jù)集和描述文本加入中文UMLS數(shù)據(jù)集,融合組成UMLS+ownthink。

    表1展示了ownthink數(shù)據(jù)集、ownthink子集、中文UMLS數(shù)據(jù)集以及所用的UMLS+ownthink數(shù)據(jù)集統(tǒng)計信息。

    表1 中文數(shù)據(jù)集統(tǒng)計

    3.2 基線模型

    為驗證和測試MpBERT-BiGRU模型的有效性,將如下模型作為基線模型:TransE模型[14],由Bordes等人于2013年提出,將實體間關(guān)系表示為實體間的平移向量;TransH模型[17],于2014年由Wang等人提出,改進了TransE模型,將三元組映射到基于關(guān)系的超平面;TransD模型[19],由Ji等人于2015年提出,模型提供兩種動態(tài)投影矩陣來投影實體;DistMult模型[21],由Yang等人于2015年提出,采用對角矩陣替代關(guān)系矩陣,簡化了模型復(fù)雜度;ComplEx模型[22],于2016年由Trouillon等人提出,引入復(fù)數(shù)概念,較好地處理了非對稱關(guān)系嵌入;KG-BERT模型[27]由Yao等人在2019年提出,將預(yù)訓(xùn)練語言模型應(yīng)用于英文知識補全任務(wù)。

    3.3 實驗設(shè)置

    實驗部分采用Pytorch框架實現(xiàn),實驗環(huán)境為24G顯存的GeForce RTX 3090 GPU,模型的BertModel部分選擇bert-base-chinese模型,參數(shù)總數(shù)量為110 M,隱層大小為768,BertLayer層數(shù)為12,多頭注意力機制頭的數(shù)目為12。

    經(jīng)過實驗調(diào)整,模型的超參數(shù)設(shè)置:最大輸入序列長度為30,訓(xùn)練批次為5,批處理大小為256,激活函數(shù)為gelu,Adam優(yōu)化器的學(xué)習(xí)率為5×10-5,dropout率為0.1。

    3.4 實驗任務(wù)及評估指標(biāo)

    鏈接預(yù)測是知識補全領(lǐng)域的典型任務(wù)之一,用于評估知識補全效果,給定三元組,由頭(尾)實體和關(guān)系預(yù)測缺失的尾(頭)實體。設(shè)真樣本集為D+,實體集為E,則對于每個目標(biāo)三元組T=∈D+,使用E中其他實體替換目標(biāo)三元組的頭尾實體,與目標(biāo)三元組合并組成集合,如式(23)式(24)所示。通過模型計算中各個三元組的得分,確定目標(biāo)三元組的排名。

    (23)

    (24)

    鏈接預(yù)測的主要評估指標(biāo)為平均排名(Mean Rank,MR)和前k命中率(Hit@k)。MR指目標(biāo)三元組的平均排名,此指標(biāo)越小代表模型性能越好;Hit@k指目標(biāo)三元組排名在前k名的比率,此指標(biāo)越大代表模型性能越好。實驗排除了替換后的其余正確三元組對目標(biāo)三元組排名的影響,使用Filtered Mean Rank和Filtered Hits@k指標(biāo),分別表示刪去了其他正確三元組后目標(biāo)三元組的平均排名和刪去了其他正確三元組后目標(biāo)三元組在前k個三元組中出現(xiàn)的概率。

    3.5 鏈接預(yù)測實驗

    在中文數(shù)據(jù)集UMLS+ownthink上的鏈接預(yù)測實驗結(jié)果如表2所示。該文使用開源知識圖譜嵌入工具包OpenKE[30]對TransE模型[14]、TransH模型[17]、TransD模型[19]、DistMult模型[21]、ComplEx模型[22]進行鏈接預(yù)測實驗,KG-BERT模型[27]在原模型基礎(chǔ)上,將英文BERT模型bert-base-cased更改為bert-base-chinese模型進行鏈接預(yù)測實驗。

    表2 中文數(shù)據(jù)集鏈接預(yù)測實驗結(jié)果

    實驗結(jié)果表明,提出的MpBERT-BiGRU模型在UMLS+ownthink中文數(shù)據(jù)集取得了最優(yōu)的指標(biāo)效果。具體分析如下:

    (1)在MR指標(biāo)上,MpBERT-BiGRU模型相較于第二名KG-BERT模型提高了10.39(提升了21.07%),相較于第三名TransH模型更是提高了808.55(提升了95.41%),而KG-BERT模型相較于第三名TransH模型也提升了798.16(提升了94.18%),說明在模型的平均性能上,預(yù)訓(xùn)練語言模型提升十分明顯,這得益于預(yù)訓(xùn)練語言模型獨特的訓(xùn)練機制和融入的實體知識信息;在Hit@10、Hit@3和Hit@1指標(biāo)上,MpBERT-BiGRU模型相較于第二名KG-BERT模型,分別提高了4.63百分點(提升了8.13%)、4.77百分點(提升了10.48%)、4.2百分點(提升了11.37%),這說明在預(yù)測目標(biāo)三元組時,MpBERT-BiGRU模型都有更大幾率預(yù)測正確;這說明了該模型利用BERT模型結(jié)合平均池化策略和BiGRU的方法相比較原始BERT補全模型,取得了一定進步;

    (2)DistMult模型和ComplEx模型采用雙線性乘法運算,比較依賴實體相似性特征,因此在應(yīng)對UMLS+ownthink這種多實體少關(guān)系的稀疏圖譜時,難以發(fā)揮其優(yōu)勢,在MR和Hit@10上表現(xiàn)并不突出,不過在Hit@1上表現(xiàn)良好;

    (3)Trans系列模型相較于DistMult模型和ComplEx模型,采用了向量平移方法,針對稀疏圖譜時可以捕捉實體信息,有效地進行實體和關(guān)系建模,因此在中文數(shù)據(jù)集上的Hit@10的指標(biāo)比DistMult模型和ComplEx模型都好,尤其是TransH模型根據(jù)不同的關(guān)系構(gòu)建對應(yīng)的超平面,將三元組映射到不同超平面上,在關(guān)系較少時,可以有效建模三元組。不過,Trans系列模型在Hit@1指標(biāo)上表現(xiàn)不佳,說明了Trans系列模型在面對較多候選實體時,難以做出準確預(yù)測,模型有一定局限性。

    3.6 消融實驗

    3.6.1 池化策略對比

    表3 BERT池化策略對比實驗結(jié)果

    表4 BERT-BiGRU池化策略對比實驗結(jié)果

    (25)

    (26)

    實驗結(jié)果表明,無論是否有BiGRU模塊,平均池化策略在MR、Hit@3、Hit@1指標(biāo)上都有所提高,具體分析如下:

    (1)不疊加BiGRU的BERT模型在采用平均池化策略后(即MpBERT模型),在MR指標(biāo)上相比第二名提高了0.32,基本持平,不過在Hit@3和Hit@1指標(biāo)上相比第二名分別提高1.04百分點和2.85百分點,說明平均池化策略有助于BERT模型預(yù)測出正確三元組;

    (2)疊加了BiGRU的BERT模型在采用平均池化策略后(即MpBERT-BiGRU模型),在MR、Hit@3和Hit@1指標(biāo)上相比第二名分別提高了1.0、1.65百分點和0.28百分點,說明平均池化策略的有效性,總體上改善了模型對三元組序列的表征能力,提升了鏈接預(yù)測的實驗效果。

    3.6.2 特征增強策略對比

    為了驗證BiGRU網(wǎng)絡(luò)增強特征的有效性,對BERT疊加不同的神經(jīng)網(wǎng)絡(luò)模型(BERT-RNN、BERT-BiLSTM、BERT-BiGRU)進行鏈接預(yù)測對比實驗,并舍棄平均池化策略以排除其影響,鏈接預(yù)測實驗結(jié)果如表5所示。同時,為了驗證GRU運行效率比LSTM更高,設(shè)置不同訓(xùn)練批次,對比了BERT-BiGRU模型與BERT-BiLSTM模型實驗時長,如圖6所示。

    表5 不同神經(jīng)網(wǎng)絡(luò)模塊實驗結(jié)果

    圖6 不同神經(jīng)網(wǎng)絡(luò)模塊實驗時長

    實驗表明,BiGRU網(wǎng)絡(luò)在實驗效果和運行時間方面都取得了良好的效果,具體分析如下:

    (1)BERT-BiGRU模型相較于無BiGRU網(wǎng)絡(luò)的BERT模型,MR提高7.71,Hit@10提高3.87百分點,Hit@3提高1.9百分點,Hit@1提高0.82百分點,說明了疊加了BiGRU網(wǎng)絡(luò)的BERT模型在總體性能上有所提高,BiGRU網(wǎng)絡(luò)有助于BERT預(yù)測正確實體,提高了知識補全效率;

    (2)BERT-BiGRU模型除了在Hit@1指標(biāo)略低于BERT-BiLSTM模型外,MR、Hit@10和Hit@3指標(biāo)相比于BERT-BiLSTM模型分別提高了12.75、3.75百分點和1.06百分點,而BERT-RNN模型在各項指標(biāo)上都不如BERT-BiGRU模型,在Hit@10、Hit@3和Hit@1指標(biāo)上甚至不如原BERT模型,說明了在鏈接預(yù)測任務(wù)中,BiGRU網(wǎng)絡(luò)相較于RNN或BiLSTM網(wǎng)絡(luò)更加有效;

    (3)不同神經(jīng)網(wǎng)絡(luò)模塊的實驗時長顯示,BERT-BiGRU模型相較于BERT-BiLSTM模型,在各個訓(xùn)練批次數(shù)下都具有更快的運行速度,訓(xùn)練用時較少,證明了BiGRU模塊較BiLSTM模塊效率更高;

    (4)對比表3和表4可知,采用不同池化策略的模型在疊加了BiGRU模塊之后,在各個指標(biāo)上都有一定提升,其中MpBERT-BiGRU模型相比MpBERT模型在4種指標(biāo)上分別提升了10.07、5.65百分點、3.3百分點和1.35百分點,說明BiGRU網(wǎng)絡(luò)是有效的,有助于模型預(yù)測正確的實體,改善模型的補全效果。

    4 結(jié)束語

    針對傳統(tǒng)BERT知識補全模型表征能力不足、字詞位置信息學(xué)習(xí)能力不足的問題,以及中文文本易特征重疊堆積、依賴字詞間位置關(guān)系的特點,提出名為MpBERT-BiGRU的中文知識圖譜補全模型,采用平均池化策略,緩解了傳統(tǒng)BERT模型將[CLS]標(biāo)簽輸出值作為表征向量,序列表征能力不足的問題,以及中文文本特征相似重合的問題,并且疊加BiGRU網(wǎng)絡(luò),充分學(xué)習(xí)中文文本字詞間位置關(guān)系,緩解BERT模型并行運算帶來的弱化位置信息的負面影響;同時模型將三元組轉(zhuǎn)化為文本序列,注入實體描述信息作為模型輸入,賦予實體具體的背景語義信息,疊加線性分類層,將知識補全任務(wù)看作句子分類任務(wù),利用預(yù)訓(xùn)練語言模型優(yōu)勢,克服傳統(tǒng)方法忽視語義特征的缺點,并使用少量標(biāo)記數(shù)據(jù)進行微調(diào)模型,減少數(shù)據(jù)收集處理成本和模型訓(xùn)練成本。

    為了驗證方法在中文語料庫的性能,構(gòu)建了UMLS+ownthink中文數(shù)據(jù)集,并在此語料庫上完成鏈接預(yù)測實驗和對應(yīng)消融實驗。結(jié)果表明,MpBERT-BiGRU模型性能相較于以往方法有一定提升,平均池化策略和BiGRU網(wǎng)絡(luò)具有一定合理性,驗證了MpBERT-BiGRU模型在中文語料庫上的知識補全是有效的。

    未來研究方向應(yīng)包含如下幾點:采用更適合的預(yù)訓(xùn)練語言模型替代BERT模型;針對Hit系列指標(biāo)不突出問題,采用更適合的池化策略,或考慮如何更好地融入實體間關(guān)系特征;該文研究的是靜態(tài)知識圖譜補全,下一步應(yīng)研究如何運用到動態(tài)知識圖譜補全領(lǐng)域。

    猜你喜歡
    三元組池化圖譜
    基于語義增強雙編碼器的方面情感三元組提取
    軟件工程(2024年12期)2024-12-28 00:00:00
    基于緊湊型雙線性網(wǎng)絡(luò)的野生茵識別方法研究
    無線電工程(2024年8期)2024-09-16 00:00:00
    基于帶噪聲數(shù)據(jù)集的強魯棒性隱含三元組質(zhì)檢算法*
    基于Sobel算子的池化算法設(shè)計
    卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
    繪一張成長圖譜
    關(guān)于余撓三元組的periodic-模
    基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識別研究
    補腎強身片UPLC指紋圖譜
    中成藥(2017年3期)2017-05-17 06:09:01
    主動對接你思維的知識圖譜
    视频区图区小说| 一本久久精品| 超色免费av| 亚洲性久久影院| 高清毛片免费看| 又黄又粗又硬又大视频| 一级片'在线观看视频| 人成视频在线观看免费观看| 久久精品熟女亚洲av麻豆精品| 最近2019中文字幕mv第一页| 亚洲色图综合在线观看| 99久久中文字幕三级久久日本| 一级片免费观看大全| 久久这里有精品视频免费| 九色亚洲精品在线播放| 黄色毛片三级朝国网站| 国产精品人妻久久久影院| 日本av免费视频播放| 最近中文字幕2019免费版| 日韩欧美一区视频在线观看| 久热久热在线精品观看| 美女内射精品一级片tv| 精品久久国产蜜桃| 亚洲综合色惰| 男人操女人黄网站| 美女脱内裤让男人舔精品视频| 亚洲国产看品久久| 免费黄色在线免费观看| av国产久精品久网站免费入址| 国产激情久久老熟女| 超色免费av| 亚洲成色77777| 久久精品熟女亚洲av麻豆精品| 亚洲图色成人| 婷婷色综合www| 国产精品免费大片| 日韩人妻精品一区2区三区| 国产精品人妻久久久久久| 蜜桃国产av成人99| 精品久久久精品久久久| 亚洲精品色激情综合| 黄片无遮挡物在线观看| 在线天堂中文资源库| 久久久国产欧美日韩av| 建设人人有责人人尽责人人享有的| 午夜福利影视在线免费观看| 久久热在线av| 国产成人91sexporn| 汤姆久久久久久久影院中文字幕| 视频在线观看一区二区三区| av网站免费在线观看视频| 日韩,欧美,国产一区二区三区| 丝袜喷水一区| 三级国产精品片| 夜夜骑夜夜射夜夜干| 免费大片18禁| 欧美bdsm另类| 色5月婷婷丁香| 水蜜桃什么品种好| 久久精品aⅴ一区二区三区四区 | 内地一区二区视频在线| 国产精品99久久99久久久不卡 | 纯流量卡能插随身wifi吗| 丰满少妇做爰视频| 国产亚洲午夜精品一区二区久久| 成人黄色视频免费在线看| 伦理电影大哥的女人| 国产xxxxx性猛交| 黄色 视频免费看| 久久国内精品自在自线图片| 国产激情久久老熟女| 成人手机av| 亚洲人成77777在线视频| 精品视频人人做人人爽| 激情视频va一区二区三区| 亚洲国产最新在线播放| 免费av中文字幕在线| 波多野结衣一区麻豆| 99精国产麻豆久久婷婷| 午夜免费观看性视频| 18禁动态无遮挡网站| 国产精品99久久99久久久不卡 | 久热这里只有精品99| 建设人人有责人人尽责人人享有的| 精品一区二区三区视频在线| 亚洲四区av| 一级毛片我不卡| 午夜老司机福利剧场| 亚洲欧美清纯卡通| 免费观看性生交大片5| 免费久久久久久久精品成人欧美视频 | av女优亚洲男人天堂| 一区二区三区四区激情视频| 亚洲情色 制服丝袜| 爱豆传媒免费全集在线观看| 草草在线视频免费看| tube8黄色片| 亚洲精品第二区| 国产精品嫩草影院av在线观看| 我要看黄色一级片免费的| 最近中文字幕高清免费大全6| 亚洲国产精品一区三区| 欧美bdsm另类| 街头女战士在线观看网站| 全区人妻精品视频| 久久狼人影院| 亚洲精品第二区| 我要看黄色一级片免费的| 午夜老司机福利剧场| 美国免费a级毛片| 热re99久久国产66热| 亚洲精品久久午夜乱码| 久久久久人妻精品一区果冻| 成人影院久久| 9色porny在线观看| 欧美另类一区| 黑人高潮一二区| 观看av在线不卡| av在线观看视频网站免费| 少妇的逼水好多| 欧美 日韩 精品 国产| 欧美精品亚洲一区二区| 国产精品秋霞免费鲁丝片| 午夜福利在线观看免费完整高清在| 欧美精品高潮呻吟av久久| 内地一区二区视频在线| 欧美丝袜亚洲另类| 天堂俺去俺来也www色官网| 欧美日韩亚洲高清精品| 飞空精品影院首页| 大香蕉97超碰在线| 欧美日韩国产mv在线观看视频| 天堂8中文在线网| 日本猛色少妇xxxxx猛交久久| 亚洲国产av影院在线观看| 亚洲色图 男人天堂 中文字幕 | 男女下面插进去视频免费观看 | 美国免费a级毛片| 国产成人av激情在线播放| 亚洲欧洲日产国产| 日日撸夜夜添| 久久久久久伊人网av| 国产精品免费大片| www.熟女人妻精品国产 | 国产欧美日韩一区二区三区在线| 韩国高清视频一区二区三区| 亚洲欧美中文字幕日韩二区| 97精品久久久久久久久久精品| 欧美3d第一页| 免费黄网站久久成人精品| 精品亚洲乱码少妇综合久久| 国产色爽女视频免费观看| 国产又爽黄色视频| av视频免费观看在线观看| 亚洲欧美成人精品一区二区| 亚洲三级黄色毛片| 18禁观看日本| 成年av动漫网址| 欧美97在线视频| 国产一区有黄有色的免费视频| 青春草视频在线免费观看| 免费看不卡的av| 精品人妻熟女毛片av久久网站| 人人妻人人爽人人添夜夜欢视频| 91精品三级在线观看| 久久久久国产网址| 国产有黄有色有爽视频| 国产精品国产三级专区第一集| 菩萨蛮人人尽说江南好唐韦庄| 久久久久精品久久久久真实原创| 精品午夜福利在线看| 欧美少妇被猛烈插入视频| 国产精品一区二区在线不卡| 日韩av免费高清视频| 日韩中文字幕视频在线看片| 亚洲av福利一区| 免费久久久久久久精品成人欧美视频 | 黄色配什么色好看| 亚洲国产日韩一区二区| 国产一区二区激情短视频 | 亚洲,一卡二卡三卡| 国产片特级美女逼逼视频| 日韩制服丝袜自拍偷拍| 深夜精品福利| 久久久久久久久久久免费av| 免费看光身美女| 99国产精品免费福利视频| 国产精品人妻久久久久久| 考比视频在线观看| 午夜免费男女啪啪视频观看| 国产精品不卡视频一区二区| 赤兔流量卡办理| kizo精华| a级片在线免费高清观看视频| 欧美97在线视频| 成人午夜精彩视频在线观看| 日韩电影二区| 美女中出高潮动态图| 午夜福利视频在线观看免费| 精品人妻一区二区三区麻豆| 精品亚洲乱码少妇综合久久| 自线自在国产av| 久热久热在线精品观看| 一本久久精品| 亚洲欧美清纯卡通| a级毛片黄视频| 99热6这里只有精品| 少妇熟女欧美另类| 国产69精品久久久久777片| 成人二区视频| 国产精品蜜桃在线观看| 亚洲精品中文字幕在线视频| 天天躁夜夜躁狠狠躁躁| 久久精品国产a三级三级三级| 99久久人妻综合| 精品人妻一区二区三区麻豆| 男人添女人高潮全过程视频| 国产又爽黄色视频| 久热这里只有精品99| 国产精品国产av在线观看| 在线观看免费视频网站a站| 免费看不卡的av| 免费观看在线日韩| 中文天堂在线官网| 母亲3免费完整高清在线观看 | 性色av一级| 男人舔女人的私密视频| 极品少妇高潮喷水抽搐| 一级爰片在线观看| 精品亚洲乱码少妇综合久久| 精品亚洲成国产av| 国产xxxxx性猛交| 日韩成人伦理影院| 国产精品一区www在线观看| 一级片'在线观看视频| 成人影院久久| 国产精品一区二区在线不卡| 免费大片18禁| 亚洲,一卡二卡三卡| 王馨瑶露胸无遮挡在线观看| 性色avwww在线观看| 我要看黄色一级片免费的| 最近的中文字幕免费完整| 美女国产高潮福利片在线看| 亚洲欧美日韩另类电影网站| 亚洲成人一二三区av| 日本91视频免费播放| 久久久久久久久久成人| av.在线天堂| 一区在线观看完整版| 高清av免费在线| 国产综合精华液| 欧美日韩国产mv在线观看视频| 欧美国产精品va在线观看不卡| 黄网站色视频无遮挡免费观看| av线在线观看网站| 精品人妻在线不人妻| www.av在线官网国产| 永久网站在线| 成人手机av| 日韩三级伦理在线观看| 9色porny在线观看| 精品卡一卡二卡四卡免费| 97人妻天天添夜夜摸| 乱码一卡2卡4卡精品| 色5月婷婷丁香| 制服丝袜香蕉在线| 久久99蜜桃精品久久| 国产成人精品婷婷| 亚洲成人手机| 久久人人爽人人片av| 80岁老熟妇乱子伦牲交| 国产免费一级a男人的天堂| 亚洲精品色激情综合| 亚洲色图综合在线观看| 人妻少妇偷人精品九色| 99久久人妻综合| kizo精华| 日本免费在线观看一区| 亚洲美女黄色视频免费看| 一本—道久久a久久精品蜜桃钙片| 亚洲,一卡二卡三卡| 一边摸一边做爽爽视频免费| 亚洲第一av免费看| 国产高清不卡午夜福利| 国产精品偷伦视频观看了| 亚洲国产av影院在线观看| 人人澡人人妻人| 中文字幕精品免费在线观看视频 | 成人免费观看视频高清| 22中文网久久字幕| 精品国产一区二区久久| 多毛熟女@视频| 国产免费视频播放在线视频| 一二三四在线观看免费中文在 | 国产不卡av网站在线观看| 精品熟女少妇av免费看| 国产黄色免费在线视频| 极品人妻少妇av视频| 国产精品一区二区在线不卡| 大香蕉97超碰在线| 女的被弄到高潮叫床怎么办| 日韩电影二区| 日韩熟女老妇一区二区性免费视频| 丝袜人妻中文字幕| 国产一区二区三区av在线| 最近最新中文字幕免费大全7| 免费大片18禁| 老司机影院成人| 国产欧美日韩一区二区三区在线| 欧美成人午夜精品| 亚洲伊人色综图| 久久久久久久亚洲中文字幕| 99re6热这里在线精品视频| 男女下面插进去视频免费观看 | 9热在线视频观看99| 日韩制服丝袜自拍偷拍| 国产午夜精品一二区理论片| 亚洲人成77777在线视频| 街头女战士在线观看网站| 日韩三级伦理在线观看| 免费观看性生交大片5| 老司机影院成人| 内地一区二区视频在线| 国产毛片在线视频| 精品福利永久在线观看| 久久这里只有精品19| 青春草亚洲视频在线观看| 99久久精品国产国产毛片| 久久久久久久国产电影| 宅男免费午夜| 香蕉国产在线看| 久久人人爽av亚洲精品天堂| 老司机影院成人| 国产亚洲精品第一综合不卡 | 日本wwww免费看| 在线观看三级黄色| 久久国内精品自在自线图片| 又黄又爽又刺激的免费视频.| 人人妻人人澡人人爽人人夜夜| 少妇被粗大猛烈的视频| 丝袜美足系列| 久久久久久人人人人人| 免费在线观看完整版高清| 大香蕉久久成人网| av天堂久久9| 少妇猛男粗大的猛烈进出视频| 亚洲精品第二区| 午夜福利乱码中文字幕| 22中文网久久字幕| 有码 亚洲区| 97精品久久久久久久久久精品| 亚洲国产毛片av蜜桃av| 精品熟女少妇av免费看| 久久久久视频综合| 最后的刺客免费高清国语| 久久精品国产鲁丝片午夜精品| 亚洲成色77777| 国产一区二区在线观看av| 99久久综合免费| 日本91视频免费播放| 交换朋友夫妻互换小说| 制服人妻中文乱码| 啦啦啦啦在线视频资源| 亚洲久久久国产精品| 国产熟女午夜一区二区三区| 天美传媒精品一区二区| 香蕉精品网在线| 亚洲国产日韩一区二区| 观看av在线不卡| 国产1区2区3区精品| 国产深夜福利视频在线观看| 国产一区二区激情短视频 | 色婷婷久久久亚洲欧美| 精品一品国产午夜福利视频| 寂寞人妻少妇视频99o| 免费不卡的大黄色大毛片视频在线观看| 五月天丁香电影| 天天影视国产精品| 亚洲av国产av综合av卡| 制服人妻中文乱码| 免费看av在线观看网站| 国产成人精品福利久久| 各种免费的搞黄视频| 国产免费一区二区三区四区乱码| 中文字幕制服av| 国产成人一区二区在线| 亚洲熟女精品中文字幕| 久久久久久久精品精品| 自线自在国产av| 日本-黄色视频高清免费观看| 九色成人免费人妻av| a级毛色黄片| 欧美老熟妇乱子伦牲交| 日韩人妻精品一区2区三区| 欧美性感艳星| av在线app专区| 国产福利在线免费观看视频| 多毛熟女@视频| 亚洲国产成人一精品久久久| 久久久国产精品麻豆| 五月玫瑰六月丁香| 美女国产高潮福利片在线看| 宅男免费午夜| 日本与韩国留学比较| 色视频在线一区二区三区| 婷婷成人精品国产| 十八禁网站网址无遮挡| 免费播放大片免费观看视频在线观看| 久久精品国产综合久久久 | 少妇人妻久久综合中文| 大香蕉97超碰在线| 精品一品国产午夜福利视频| 母亲3免费完整高清在线观看 | 国产熟女欧美一区二区| 十分钟在线观看高清视频www| 亚洲欧美中文字幕日韩二区| 在线观看免费视频网站a站| av网站免费在线观看视频| 男女高潮啪啪啪动态图| 青春草国产在线视频| 国产毛片在线视频| 五月伊人婷婷丁香| 美女福利国产在线| 高清毛片免费看| 婷婷色麻豆天堂久久| 国产高清国产精品国产三级| 丰满饥渴人妻一区二区三| 看免费成人av毛片| 国产成人91sexporn| 97人妻天天添夜夜摸| 日韩在线高清观看一区二区三区| 日本午夜av视频| 成人无遮挡网站| 精品一品国产午夜福利视频| 亚洲精品视频女| 国产精品女同一区二区软件| 黑人巨大精品欧美一区二区蜜桃 | 黄片播放在线免费| 女的被弄到高潮叫床怎么办| 免费女性裸体啪啪无遮挡网站| 久久午夜综合久久蜜桃| 男人添女人高潮全过程视频| 欧美bdsm另类| 国产黄色视频一区二区在线观看| 蜜桃在线观看..| 中文字幕人妻熟女乱码| 9191精品国产免费久久| 亚洲国产看品久久| 汤姆久久久久久久影院中文字幕| 人人妻人人添人人爽欧美一区卜| 91成人精品电影| 欧美精品人与动牲交sv欧美| 综合色丁香网| 男女午夜视频在线观看 | 免费观看无遮挡的男女| 欧美精品高潮呻吟av久久| 蜜臀久久99精品久久宅男| 国产成人免费无遮挡视频| 男人添女人高潮全过程视频| 亚洲天堂av无毛| 国产精品久久久久久av不卡| 亚洲精品一二三| 久久人人爽人人爽人人片va| 国产爽快片一区二区三区| 国产精品久久久久久久电影| 国产日韩一区二区三区精品不卡| 国产在线一区二区三区精| 亚洲av日韩在线播放| 久久99热这里只频精品6学生| 国产高清三级在线| 中文字幕人妻熟女乱码| 欧美日韩av久久| 少妇高潮的动态图| 亚洲精品色激情综合| 一边摸一边做爽爽视频免费| 国产片内射在线| 亚洲美女黄色视频免费看| 亚洲高清免费不卡视频| 夜夜爽夜夜爽视频| 亚洲av中文av极速乱| 国产免费视频播放在线视频| 亚洲三级黄色毛片| 国产欧美日韩综合在线一区二区| 日本欧美国产在线视频| 国产一区二区三区综合在线观看 | 狂野欧美激情性bbbbbb| 免费大片黄手机在线观看| av又黄又爽大尺度在线免费看| 性色av一级| 狠狠婷婷综合久久久久久88av| 91久久精品国产一区二区三区| 纯流量卡能插随身wifi吗| 制服丝袜香蕉在线| 免费大片18禁| 国产亚洲av片在线观看秒播厂| av在线观看视频网站免费| 春色校园在线视频观看| 高清视频免费观看一区二区| 大码成人一级视频| 如何舔出高潮| 视频在线观看一区二区三区| 下体分泌物呈黄色| 中文字幕另类日韩欧美亚洲嫩草| 免费观看性生交大片5| 欧美人与善性xxx| 国产高清国产精品国产三级| 新久久久久国产一级毛片| 亚洲美女黄色视频免费看| 我要看黄色一级片免费的| 久久久国产精品麻豆| 91在线精品国自产拍蜜月| 精品一品国产午夜福利视频| 视频区图区小说| 国产亚洲一区二区精品| 国产成人精品在线电影| 久久午夜综合久久蜜桃| 国产午夜精品一二区理论片| 日本wwww免费看| 亚洲精品成人av观看孕妇| 精品少妇黑人巨大在线播放| 国产男人的电影天堂91| 精品人妻一区二区三区麻豆| 91国产中文字幕| a级毛片黄视频| 满18在线观看网站| 亚洲成人手机| 亚洲,欧美,日韩| 高清av免费在线| 在线观看人妻少妇| 免费播放大片免费观看视频在线观看| 亚洲欧美一区二区三区国产| 色网站视频免费| 黄片播放在线免费| 18禁国产床啪视频网站| 黑人高潮一二区| 国产深夜福利视频在线观看| 国产精品国产三级专区第一集| 亚洲欧美中文字幕日韩二区| 香蕉丝袜av| 成人漫画全彩无遮挡| 久久久精品免费免费高清| 激情五月婷婷亚洲| 久久这里有精品视频免费| 成人国产av品久久久| 精品久久国产蜜桃| 亚洲精品一区蜜桃| 午夜av观看不卡| 国产精品99久久99久久久不卡 | 国产综合精华液| 赤兔流量卡办理| 五月玫瑰六月丁香| 高清在线视频一区二区三区| 国产精品一国产av| 一二三四在线观看免费中文在 | av片东京热男人的天堂| 亚洲成人一二三区av| 22中文网久久字幕| 中文字幕精品免费在线观看视频 | 丰满乱子伦码专区| tube8黄色片| 草草在线视频免费看| 欧美亚洲日本最大视频资源| 亚洲精品久久久久久婷婷小说| 日本欧美国产在线视频| 波野结衣二区三区在线| 两个人看的免费小视频| 久久这里有精品视频免费| 大码成人一级视频| 精品亚洲乱码少妇综合久久| 亚洲天堂av无毛| 青春草国产在线视频| 美女大奶头黄色视频| 春色校园在线视频观看| 夫妻性生交免费视频一级片| 久久国产亚洲av麻豆专区| 亚洲,欧美,日韩| 成人影院久久| 免费看不卡的av| 日本猛色少妇xxxxx猛交久久| 伊人久久国产一区二区| 看非洲黑人一级黄片| 亚洲精品中文字幕在线视频| 亚洲一区二区三区欧美精品| 精品一区二区三区视频在线| 日本-黄色视频高清免费观看| 王馨瑶露胸无遮挡在线观看| 亚洲国产日韩一区二区| 亚洲情色 制服丝袜| 80岁老熟妇乱子伦牲交| 国产精品三级大全| 男人添女人高潮全过程视频| 日韩中文字幕视频在线看片| 午夜福利视频在线观看免费| 美女国产视频在线观看| 亚洲少妇的诱惑av| 精品一区二区三区四区五区乱码 | 少妇猛男粗大的猛烈进出视频| 亚洲成色77777| 免费观看性生交大片5| 岛国毛片在线播放| 亚洲欧美日韩卡通动漫| 日韩熟女老妇一区二区性免费视频| 久久97久久精品| 国产欧美亚洲国产| 亚洲欧美日韩卡通动漫| 日韩熟女老妇一区二区性免费视频| 久久韩国三级中文字幕| 五月开心婷婷网| 在线观看免费高清a一片| 国产精品.久久久| 美女内射精品一级片tv| 久久精品人人爽人人爽视色| 国产免费一区二区三区四区乱码| 人人妻人人澡人人爽人人夜夜|