• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    解糾纏鄰域信息聚合的知識圖譜補全方法

    2024-05-24 04:45:35馬浩凱祁云嵩吳宇斌
    計算機應(yīng)用研究 2024年3期

    馬浩凱 祁云嵩 吳宇斌

    摘 要:針對現(xiàn)有基于圖神經(jīng)網(wǎng)絡(luò)的知識補全模型在處理知識圖譜異構(gòu)性上的不足,及大部分模型采用單一靜態(tài)實體表示方式導(dǎo)致的模型表達能力受限問題,提出一種基于圖注意力網(wǎng)絡(luò)的解糾纏鄰域信息聚合模型。首先,該模型通過學(xué)習(xí)每個實體的解糾纏表示,對實體的潛在影響因子進行多組件表示。其次,利用注意力機制,為兩個相連的實體選擇最具影響力的潛在影響因子作為連接要素。接著,通過關(guān)系感知注意力機制自適應(yīng)地聚合實體因子級的鄰域消息,有效地減少了在信息聚合過程中不相關(guān)信息的相互干擾,進而顯著增強了模型的語義表達能力。此外,為了使模型在評分過程中關(guān)注與給定關(guān)系最相關(guān)的實體組件,進一步引入了一個自適應(yīng)評分系數(shù),使模型能夠自適應(yīng)地感知給定的關(guān)系與實體不同組件的關(guān)聯(lián)度。實驗結(jié)果顯示,提出的模型在WN18RR和FB15K-237數(shù)據(jù)集的知識圖譜補全任務(wù)上相較其他先進基線模型表現(xiàn)更優(yōu),并顯著地增強了模型的表達能力。

    關(guān)鍵詞:知識圖譜補全; 圖神經(jīng)網(wǎng)絡(luò); 解糾纏鄰域信息; 注意力機制

    中圖分類號:TP391?? 文獻標(biāo)志碼:A

    文章編號:1001-3695(2024)03-018-0772-07

    doi:10.19734/j.issn.1001-3695.2023.07.0294

    Knowledge graph completion method for disentangledneighborhood information aggregation

    Ma Haokai, Qi Yunsong, Wu Yubin

    (School of Computer, Jiangsu University of Science & Technology, Zhenjiang Jiangsu 212000, China)

    Abstract:Addressing the shortcomings of existing knowledge completion models based on graph neural networks in handling the heterogeneity of knowledge graphs and the limitations posed by most models adoption of a single static entity representation, this paper introduced a model based on the graph attention mechanism for disentangled neighborhood information aggregation. Initially, this paper learnt the disentangled representation of each entity, providing a multi-component representation for the latent influential factors of entities. Using the attention mechanism, the model selected the most influential latent factors as connection elements for two connected entities. Subsequently, by leveraging a relation-aware attention mechanism, the model adaptively aggregated neighborhood messages at the entity factor level, effectively reducing interference from irrelevant information during aggregation and significantly enhancing the models semantic representation capability. Moreover, to focus on the most relevant entity component in the scoring process with a given relation, this paper introduced an adaptive scoring coefficient, enabling the model to perceive the relevance between the given relationship and various entity components adaptively. Experimental results on the WN18RR and FB15K-237 datasets indicate that the proposed model outperforms other advanced baseline models in knowledge graph completion tasks, substantially enhancing the models expressive power.

    Key words:knowledge graph completion; graph neural network; disentangled neighborhood information; attention mechanism

    0 引言

    知識圖譜(KG)是真實世界信息的結(jié)構(gòu)化映射,用于描述實體或概念間的關(guān)聯(lián)。KG的應(yīng)用遍及多個領(lǐng)域,如問答系統(tǒng)[1]、信息檢索[2]和基于內(nèi)容的推薦系統(tǒng)[3]等。隨著技術(shù)的發(fā)展,知識圖譜越來越普及,當(dāng)前流行的大型KG有WikiData[4]、Google KG[5]等,然而即使是這些擁有上百萬個實體和數(shù)十億個事實的大型知識圖譜也不可避免地存在知識不完整性問題。因此,知識圖譜補全(knowledge graph completion,KGC)技術(shù)被提出,用來解決KG中知識不完整性問題。目前,知識圖譜嵌入技術(shù)(knowledge graph embedding,KGE)已經(jīng)成為知識圖譜補全任務(wù)的主流方法。知識圖譜嵌入模型主要有平移距離模型[6~10]、雙線性模型[11~14]和神經(jīng)網(wǎng)絡(luò)模型[15~30]三類。平移距離模型以TransE[6]為代表,它以轉(zhuǎn)換關(guān)系將頭實體映射到尾實體,但對復(fù)雜關(guān)系和多語義問題處理能力有限,因此出現(xiàn)了TransG [7]、TransH[8]、TransR[9]、TransD[10]等改進模型。雙線性模型,如DistMult[11],以二維矩陣形式表示關(guān)系嵌入,但其不能對非對稱關(guān)系建模,后期研究者提出ComplEx[12]、Ana-logy[13]、SimplE[14]等模型以增強對非對稱關(guān)系建模的能力。

    平移距離模型[6~10]和雙線性模型[11~14]主要挖掘?qū)嶓w間的線性關(guān)系,對知識圖譜中的潛在信息挖掘能力不足。傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)模型[15,16,26]因能有效挖掘KG中的潛在信息,逐漸成為研究焦點,例如ConKB[15]、ConvE[16]等模型。其中ConvE[16]模型將頭實體和關(guān)系拼接重塑為二維矩陣,然后使用卷積濾波器對重塑的二維矩陣進行卷積操作,提取實體與關(guān)系交互的特征信息,并將特征信息傳遞到密集層,最后將輸出與尾實體的嵌入進行點積,從而得到事實三元組的得分。然而,傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)模型不能有效挖掘KG中的實體鄰域信息,而圖神經(jīng)網(wǎng)絡(luò)(graph neural network,GNN)[17~25,27~30]已經(jīng)被證明能夠有效挖掘?qū)嶓w的鄰域信息,因此,越來越多基于圖神經(jīng)網(wǎng)絡(luò)的知識圖譜嵌入模型被提出,最早的圖神經(jīng)網(wǎng)絡(luò)模型之一是圖卷積網(wǎng)絡(luò)(graph convolutional network,GCN)[17],它通過利用鄰域?qū)嶓w的信息來更新每個實體的表示。GCN考慮了實體與其一階鄰域?qū)嶓w之間的關(guān)系,取得了優(yōu)異的性能。隨后,提出了GraphSAGE[18],通過采樣鄰居節(jié)點的方式,使得模型在大規(guī)模圖上更具可擴展性。然而在圖卷積網(wǎng)絡(luò)模型中,分配給中心實體的所有鄰域?qū)嶓w的權(quán)值都是相等的,這顯然不利于捕獲節(jié)點之間的復(fù)雜關(guān)系。因此,研究人員將注意力機制與GCN[17]相結(jié)合,提出了圖注意力網(wǎng)絡(luò)(graph attention network,GAT)[19],GAT利用注意力機制為每個鄰居分配不同的權(quán)重,能夠更好地捕獲節(jié)點之間的復(fù)雜關(guān)系。在GAT的基礎(chǔ)上,KBGAT[20]將關(guān)系納入嵌入過程,能夠更好地捕捉實體和關(guān)系之間的復(fù)雜依賴關(guān)系。為了適應(yīng)知識圖譜具有異構(gòu)性的特點,RGHAT[21] 、MRGAT[22]和HRAN[23]模型開始關(guān)注關(guān)系對知識圖譜異構(gòu)性的影響。其中:RGHAT將實體的局部鄰域視為一個層次結(jié)構(gòu),使用注意力機制分層捕獲鄰域?qū)嶓w與關(guān)系的依賴程度,使實體聚合更加細粒度化,同時提高了模型的可解釋性;MRGAT設(shè)計了一種能夠適應(yīng)異構(gòu)多關(guān)系連接的不同情況的多關(guān)系圖注意網(wǎng)絡(luò),使模型能夠捕獲實體在不同關(guān)系下的語義信息;HRAN在不同關(guān)系路徑下通過關(guān)系特征計算該關(guān)系路徑的重要性,并利用關(guān)系路徑的重要性聚合實體特征,使模型能夠捕獲各種類型的語義信息。這些模型大多采用編碼器-解碼器框架,在編碼階段運用各種圖聚合機制傳播包含相鄰實體與關(guān)系的嵌入信息,在解碼階段對三元組打分。

    盡管基于編碼器-解碼器框架的GNN模型在知識圖譜補全領(lǐng)域取得了重大進展,但是,現(xiàn)有的GNN模型在編碼階段通常將具有不同影響因子的實體和關(guān)系嵌入到一個低維向量中,這會導(dǎo)致不同影響因子相互干擾,從而影響模型的語義表達能力。例如在圖1中,實體“Steve Jobs”的局部鄰域?qū)嶓w包含了不同的“主題”,如“family”“career”和“birth information”等,本文將這些“主題”視作實體“Steve Jobs”的潛在影響因子。在圖2中實體“Steve Jobs”和“Kobe Bryant”擁有相同的國籍,一般的GNN模型通常會使“Steve Jobs”與“Kobe Bryant”的嵌入表示更接近這種身份,然而在“career”方面,這兩個人卻表現(xiàn)出很大的差異。顯然,這種將具有不同影響因子的實體作為一個整體并利用向量相似性表達語義信息的靜態(tài)嵌入方法,會明顯影響知識補全的性能。

    因此,需要一種方法能夠分別考慮并表示這些不同的影響因子,從而提高模型的表達能力。通過研究發(fā)現(xiàn),解糾纏表示學(xué)習(xí)是解決上述問題的一種有效方法,它旨在將高維、復(fù)雜的數(shù)據(jù)表示分解為一系列獨立或弱相關(guān)的因子,使這些因子之間的數(shù)據(jù)互不干擾。解糾纏圖卷積網(wǎng)絡(luò)(disen-tangled graph convolutional networks,DisenGCN)[24] 即是基于這一思想提出的。DisenGCN通過鄰域路由機制調(diào)整每個鄰居的權(quán)重來捕捉不同的因子通道的特定信息,從而實現(xiàn)實體的解糾纏表示,極大地提高了模型的性能,證明了利用解糾纏學(xué)習(xí)提高模型的表達能力是可行的。然而,DisenGCN模型的鄰域路由機制更注重將鄰域?qū)嶓w識別到不同影響因子的表示空間中,在相同的影響因子下,鄰域?qū)嶓w的貢獻度僅由鄰域?qū)嶓w與中心實體在該因子中的相似度決定,忽略了與該因子中其他鄰域?qū)嶓w比較的過程。因此,本文希望設(shè)計出一種模型,在相同因子中能夠?qū)⒉煌徲驅(qū)嶓w與中心實體的相似度進行對比,從而確定在該因子下鄰域?qū)嶓w對中心實體的貢獻度。這一過程與傳統(tǒng)的基于GAT的模型相似,不同的是本文采用因子級對比來確定鄰域?qū)嶓w信息在信息聚合過程中的權(quán)值,這種做法能夠有效減少不相關(guān)鄰域信息產(chǎn)生的干擾。例如,將圖2中實體“Steve Jobs”和“Kobe Bryant”的職業(yè)信息與國籍信息聚合到各自對應(yīng)影響因子的表示空間下,即影響因子對應(yīng)的表示組件下,由于國籍信息與職業(yè)信息存在于不同的表示空間中,能夠有效避免兩者的國籍信息對職業(yè)信息造成的干擾。然而,在實現(xiàn)因子級鄰域信息聚合之前,面臨的一個關(guān)鍵挑戰(zhàn)是如何確定不同影響因子中具有哪些鄰域?qū)嶓w。本文觀察到,在知識圖譜中,中心實體與鄰域?qū)嶓w產(chǎn)生連接的原因是它們擁有相同潛在影響因子,所以兩個相連的實體在導(dǎo)致它們相連的潛在影響因子的表示空間中,要比在其他影響因子下更加相似,并且這種相似度差別越大越好。例如在圖1中,鄰域?qū)嶓w“Apple”與中心實體“Steve Jobs”在潛在影響因子“career”中要比在“family”中更相似?;谶@一觀察,本文利用中心實體與鄰域?qū)嶓w在不同潛在影響因子的表示空間中的相似度不同,選擇最大相似度的潛在影響因子作為中心實體與鄰域?qū)嶓w的連接因子,形成新的知識圖譜連接子圖,從而確定不同影響因子中有哪些與中心實體相連的鄰域?qū)嶓w。

    綜合上述過程,本文結(jié)合注意力機制提出了一種新的基于圖注意力網(wǎng)絡(luò)的解糾纏鄰域信息聚合模型(disentangled neighborhood information aggregation with graph attention network,DNIAGAT)來解決傳統(tǒng)知識圖譜補全模型表達能力不足的問題。DNIAGAT模型能夠根據(jù)知識圖譜中實體的性質(zhì)來學(xué)習(xí)其解糾纏表示,將實體的潛在影響因子分為多個組件表示,并在兩個相連的實體中選擇最重要的影響因子作為連接因子,確保每個組件相互獨立。在所選的連接因子中,運用關(guān)系感知注意力機制自適應(yīng)聚合目標(biāo)實體在該組件(連接因子)下對應(yīng)一階鄰域?qū)嶓w的嵌入信息。這種方法可以有效增強模型的表達能力,避免實體中不同的潛在影響因子相互干擾。此外,為了使模型在解碼的過程中能夠適用給定的關(guān)系,本文引入了一個關(guān)系感知注意力自適應(yīng)評分系數(shù),控制評分函數(shù)對于給定關(guān)系相近的分量表示給予更高的評價,提高模型的準(zhǔn)確率。

    1 相關(guān)技術(shù)

    1.1 解糾纏表示學(xué)習(xí)

    解糾纏表示學(xué)習(xí)(disentangled representation learning)旨在將高維、復(fù)雜的數(shù)據(jù)表示分解為一系列獨立或弱相關(guān)的因子。通過這種方式,模型能夠更好地捕獲潛在的數(shù)據(jù)結(jié)構(gòu),從而提高模型的語義表達能力和可解釋性。其核心思想是找到一種有效的方法將輸入數(shù)據(jù)的不同屬性或因子分離開來。解糾纏學(xué)習(xí)的目標(biāo)是通過編碼器將輸入數(shù)據(jù)映射到潛在表示空間,在此空間中,數(shù)據(jù)的每個維度代表一個獨立的因子,這意味著改變一個因子不會影響其他因子的表示。在圖1中,實體“Steve Jobs”的鄰居包含了不同的“主題”,如“family”“career”和“education”等。本文將每個主題視為實體的一個影響因子,實體的每一個組件對應(yīng)實體在該影響因子下的嵌入表示。在預(yù)測三元組時,需要關(guān)注一個與任務(wù)更相關(guān)的影響因子。假設(shè)在(Steve Jobs,work of,?)的預(yù)測任務(wù)中,所設(shè)計的模型應(yīng)該更多地關(guān)注“career”組件中的內(nèi)容,如“Apple”,而不是“family”組件中的內(nèi)容。

    1.2 圖注意力網(wǎng)絡(luò)

    圖注意力網(wǎng)絡(luò)(GAT)是圖神經(jīng)網(wǎng)絡(luò)的一個重要分支,它將注意力機制與圖卷積網(wǎng)絡(luò)(GCN)相結(jié)合,利用注意力機制為其鄰域?qū)嶓w分配不同的權(quán)重,根據(jù)不同的權(quán)重聚合鄰域?qū)嶓w的嵌入信息,從而生成實體新的嵌入表示。與傳統(tǒng)的圖卷積網(wǎng)絡(luò)相比,GAT的優(yōu)勢在于它可以為每對相鄰節(jié)點分配不同的權(quán)重,從而實現(xiàn)對鄰域信息的自適應(yīng)聚合。這使得模型可以在節(jié)點間的交互中為每個鄰居分配不同的重要性。研究表明,該方法可以有效挖掘?qū)嶓w鄰域潛在的隱藏信息,提高模型的表達能力。

    本文結(jié)合解糾纏表示學(xué)習(xí)的方法,在相同的潛在影響因子中引入GAT技術(shù),將不同鄰域?qū)嶓w與中心實體的相似度對比,確定在該因子下鄰域?qū)嶓w對中心實體的貢獻度,使得中心實體能夠自適應(yīng)地聚合在該因子下的鄰域?qū)嶓w信息,從而實現(xiàn)因子級鄰域信息的聚合。

    2 準(zhǔn)備工作

    本文用G=(E,R,T)表示知識圖譜,其中E和R分別表示實體集和關(guān)系集,包含知識圖譜中所有關(guān)系,T表示三元組集合,(h,r,t)∈T表示一個三元組,其中h,t∈E,r∈R,每個三元組表示實體h與實體t關(guān)系間存在關(guān)系r。知識圖補全的任務(wù)包括在知識圖G中推斷缺失的邊,即預(yù)測一個給定的頭部實體和關(guān)系查詢的目標(biāo)實體(h,r,?)。具體來說,該任務(wù)通常被定義為一個排名問題,目的是學(xué)習(xí)一個分數(shù)函數(shù)η(h,r,t),為有效的三元組分配比無效三元組更高的分數(shù)。這種通過已知三元組來預(yù)測未知三元組的任務(wù)也被稱為鏈接預(yù)測任務(wù),是知識圖譜補全任務(wù)中的一個子任務(wù)。

    3 本文方法

    3.1 模型框架

    基于圖注意力網(wǎng)絡(luò)的解糾纏鄰域信息聚合模型(DNIAGAT)遵循編碼器-解碼器框架。為解決傳統(tǒng)GAT模型在嵌入過程中將實體與關(guān)系信息描述為一個整體,從而導(dǎo)致模型語義表達能力不足的缺陷,DNIAGAT編碼器利用解糾纏表示學(xué)習(xí)的方法將每個實體表示分為K個不同的組件,每個組件負責(zé)實體在一個潛在影響因子下的鄰域?qū)嶓w信息聚合。DNIAGAT模型在編碼階段基于圖注意力網(wǎng)絡(luò)的思想,使用注意力機制聚合實體在不同組件(影響因子)下的相關(guān)鄰域?qū)嶓w信息。與DisenGCN模型相比,在聚合過程中,DNIAGAT模型利用注意力機制能夠自適應(yīng)地感知不同組件(影響因素)下鄰域?qū)嶓w的重要程度,這對提高模型的表達能力是非常重要的。在解碼階段,DNINAGAT模型選擇ConvE作為實體各個組件之間的評分函數(shù)。此外,在聚合各個組件評分的過程中,DNINAGAT模型還引入了一個關(guān)系感知自適應(yīng)評分系數(shù)來控制評分系統(tǒng),更加關(guān)注與給定關(guān)系相關(guān)的組件分量信息。圖3為實體e0局部鄰域信息在模型框架中的計算過程,編碼器部分包括解糾纏表示、鄰域信息聚合等模塊,解碼器包括評分函數(shù)、自適應(yīng)評分系數(shù)等模塊。圖中:(a)為e0與鄰域?qū)嶓w原始連接示意圖;(b)為e0在編碼器中聚合不同因子下鄰域?qū)嶓w組件信息的過程;(c)為e0與鄰域?qū)嶓w經(jīng)過解糾纏以及確立連接因子操作后,在不同因子下的實體連接示意圖;(d)為編碼器輸出實體新的解糾纏表示作為解碼器的輸入并計算e0所在三元組最終評分的過程。

    3.2 編碼器

    3.2.1 實體解糾纏表示

    在KG中,實體常常與多種語義相關(guān)。例如在圖1中,實體“Steve Jobs”與鄰域?qū)嶓w在家庭、職業(yè)等多個方面相關(guān)聯(lián)。本文DNIAGAT模型的主要目標(biāo)是學(xué)習(xí)實體的解糾纏表示,通過解糾纏讓實體的各種語義特征從一個復(fù)雜的特征向量中分解出來。將特征向量投影到不同的潛在空間中,使每個組件可以從初始實體節(jié)點特征中提取不同的語義。具體來說,對于每個實體e,本文希望它的嵌入由K個獨立的組件表示,即e=[e1,e2,…,ek],其中ek∈Euclid ExtraaBpd/k描述了實體e的第k個潛在影響因子對應(yīng)的語義特征。設(shè)計這種策略是基于一個觀察:每個潛在影響因子都與實體的一個特定語義屬性相對應(yīng),采用不同的投影矩陣W={W1,W2,…,Wk}來捕獲這些特定的語義屬性。具體過程為

    4 實驗及結(jié)果分析

    4.1 實現(xiàn)細節(jié)

    本文在NVIDIA RTX 4090上使用PyTorch框架實現(xiàn)DNIAGAT模型。采用編碼器-解碼器架構(gòu),具體模塊包括數(shù)據(jù)預(yù)處理、實體解糾纏表示、連接因子選擇、鄰域組件信息聚合、自適應(yīng)評分系數(shù)和預(yù)測層。所有參數(shù)通過Xavier初始化,確保了早期的穩(wěn)定訓(xùn)練。使用Adam優(yōu)化器,并采取學(xué)習(xí)率衰減策略,初始學(xué)習(xí)率為0.001,每10個epoch減少10%。本文選取交叉熵作為損失函數(shù),并引入了0.5的dropout和0.000 1權(quán)重的L2正則化防止過擬合。模型訓(xùn)練了300個epoch,每10個epoch基于驗證集效果進行了模型保存。將所得到的實驗結(jié)果與其他較為先進的基線模型作對比,來驗證本文模型的先進性。通過消融實驗,驗證解糾纏表示以及因子級圖注意力機制聚合鄰域信息的有效性。

    4.2 數(shù)據(jù)集

    本文實驗采用的數(shù)據(jù)集為WN18RR、FB15K-237,這兩個數(shù)據(jù)集是知識圖譜補全任務(wù)常用的數(shù)據(jù)集。WN18RR是從WordNet抽取的子集,包含了40 943個實體和11種關(guān)系。由于FB15K中包含大量的逆關(guān)系,這會影響關(guān)系學(xué)習(xí)的精度,所以本文采用的是FB15K的子集FB15K-237。FB15K-237從FB15K中抽取,并且只保留每對互逆關(guān)系中的一個關(guān)系,它包含了14 541個實體,237種關(guān)系。兩種數(shù)據(jù)集具體統(tǒng)計情況如表1所示。

    4.3 基線模型以及參數(shù)設(shè)置

    為了驗證DNIAGAT模型的先進性,將該模型與現(xiàn)有較為先進的基線模型進行了對比實驗?;€模型包括傳統(tǒng)的知識圖譜嵌入模型、神經(jīng)網(wǎng)絡(luò)模型。其中傳統(tǒng)的知識圖譜嵌入模型包括TransE[6]、DistMult[11],神經(jīng)網(wǎng)絡(luò)模型包括ConvE[16]、KBGAT[20]、R-GCN[25]、CompGCN[27]、InteractE[26]、TRAR[28]、LTE-GCE[29]、MVCL[30]。

    本文使用PyTorch實現(xiàn)了該模型,在模型中每個組件的嵌入維度為200,批處理大小batchsize設(shè)為{128,256,512,1024}。潛在影響因子K分別設(shè)為{2,4,6,8,10},參數(shù)γ值分別設(shè)置為{0.4,0.5,0.6,0.7,0.8},訓(xùn)練迭代輪數(shù)epoch設(shè)置為300。數(shù)據(jù)集FB15K-237、WN18RR的學(xué)習(xí)率分別設(shè)置為0.000 5、0.000 1。

    4.4 評估指標(biāo)

    本文選用MR(mean rank)、MRR(mean reciprocal rank)、hits@N作為模型的評估指標(biāo)。MR是正確實體或關(guān)系的平均排名,MRR是正確實體或關(guān)系倒敘的排名。hits@N是一種計算正確實體或關(guān)系前N名的評估方法,例如N為3時,表示正確實體或關(guān)系排在前3名的比例,本文采用hits@1、hits@3、hits@10三種方法,計算前1、3、10名正確實體和關(guān)系的比例。在上述的三個指標(biāo)中,MR越低、MRR或者hits@N越高,表明模型的實驗結(jié)果越好,進而說明模型的性能更優(yōu)越。

    4.5 實驗結(jié)果分析

    4.5.1 實驗結(jié)果與基線模型對比分析

    本文在不同的模型上對數(shù)據(jù)集WN18RR、FB15K-237進行了實驗,并將本文設(shè)計的DNIAGAT模型與其他基線模型的評估結(jié)果進行了對比分析,具體的實驗結(jié)果如表2所示。由表2可知,本文DNIAGAT模型的結(jié)果為所有設(shè)置參數(shù)中表現(xiàn)最好的結(jié)果。在表2中,粗體表示最優(yōu)的性能,帶下畫線的數(shù)據(jù)表示次優(yōu)的性能。可以發(fā)現(xiàn),在FB15K-237數(shù)據(jù)集上,DNIAGAT模型在MR、MRR、hits@1、hits@3、hits@10指標(biāo)中獲得了最好的性能,與其他最好的基線模型相比,在MRR、hits@1、hits@3、hits@10上性能分別提升了1.2%、1.1%、3.3%、1.7%。在WN18RR數(shù)據(jù)集上,DNIAGAT模型在MRR、hits@1、hits@3、hits@10上表現(xiàn)最佳,與最好的基線模型相比,分別提升了0.6%、1.4%、0.2%、1%。從表2可以發(fā)現(xiàn),DNIAGAT模型在多個評估指標(biāo)上都優(yōu)于最先進的基線模型,這表明DNIAGAT模型具備有效性和先進性。具體來說,DNIAGAT模型利用解糾纏表示學(xué)習(xí),將實體分為K個獨立組件表示,增強了模型的語義表達能力。在聚合鄰域信息時,每個組件通過關(guān)系注意力機制自適應(yīng)地聚合與該組件對應(yīng)影響因子相關(guān)的鄰域信息,這使得實體在聚合鄰域信息時能夠有效避免不相關(guān)鄰域信息的干擾,從而提升模型的性能。

    4.5.2 實驗結(jié)果具體實例分析

    本節(jié)結(jié)合FB15K-237數(shù)據(jù)集中實體在模型中解糾纏表示的具體實例,來研究解糾纏表示學(xué)習(xí)如何促進實體的嵌入,從而提高知識圖譜補全任務(wù)的準(zhǔn)確性。詳細的觀察結(jié)果如圖4所示。

    在鄰域信息聚合過程中,首先確定了中心實體與鄰域?qū)嶓w之間的連接因子,即在k因子中與中心實體相連的鄰域?qū)嶓w,每一個因子k表示實體的一個潛在影響因素,因此,因子k中的鄰域?qū)嶓w應(yīng)該與一個“主題”相關(guān)聯(lián)。然后,利用圖注意力機制自適應(yīng)聚合相同因子中與中心實體相連的鄰域?qū)嶓w信息。因此,在相同因子中,不同鄰域?qū)嶓w對應(yīng)的組件信息的貢獻度是不同的。在對預(yù)測三元組評分時,通過自適應(yīng)評分系數(shù)使模型在評分過程中能夠更加關(guān)注與給定關(guān)系最相關(guān)的實體組件。

    圖4(a)中給出了實體“Steve Jobs”在不同因子k中,貢獻度排名前2的鄰域?qū)嶓w。從圖4(a)中可以發(fā)現(xiàn),組件C1、C2、C3、C4中的實體集信息屬于同一個“主題”,例如在組件C1中,“Apple” 和“Pixar”實體都是“Steve Jobs”創(chuàng)辦的,它們都反映了“Steve Jobs”在“career”方面的信息,并且“Apple”比“Pixar”的貢獻度大得多,這說明利用圖注意力機制能夠捕獲到相同因子中不同實體組件信息的貢獻度。而在組件C2中,包含了實體“United States of America”和“San Francisco”,兩者都與“birth information”這一主題相關(guān)聯(lián)。因此,根據(jù)圖4(a)可以推測出組件C1、C2、C3、C4為“Steve Jobs”分別在“career”“birth information”“achievement”“family”四個不同“主題”中的解糾纏表示。圖4(b)給出了預(yù)測三元組(Steve Jobs,place_of_birth,?)在解碼器中不同因子k對應(yīng)組件的自適應(yīng)評分系數(shù),可以發(fā)現(xiàn)組件C2的自適應(yīng)評分系數(shù)值遠遠高于其他組件,這是因為“place_of_birth”與組件C2反映的主題更相關(guān),同時這一現(xiàn)象也充分驗證了本文對C2組件對應(yīng)“birth information”這一主題的推測。圖4(b)的結(jié)果證實了自適應(yīng)評分系數(shù)能夠使模型在評分過程中更加關(guān)注與給定關(guān)系最相關(guān)的實體組件。

    4.6 消融實驗

    為了進一步驗證實體解糾纏表示、關(guān)系信息、因子級圖注意力機制、自適應(yīng)評分系數(shù)對模型預(yù)測效果的影響。建立DNIAGAT的變體模型DNIAGAT-one、DNIAGAT-rel、DNIAGAT-gcn、DNIAGAT-sco。在DNIAGAT-one模型中設(shè)置因子數(shù)K值為1,使實體所有的信息都通過一個特征向量表示,從而使模型失去解糾纏表示的能力,其他部分與DNIAGAT模型一致。DNIAGAT-rel消去了關(guān)系投影矩陣、實體對應(yīng)的線性投影矩陣,實體對應(yīng)的組件信息不再投影到相應(yīng)的關(guān)系子空間中。其他部分與DNIAGAT模型一樣。DNIAGAT-gcn在聚合因子k中鄰域?qū)嶓w的組件信息時,不再采用圖注意力機制,而是采用圖卷積操作,即對因子中鄰域?qū)嶓w組件集合求和除平均值。其他步驟與DNIAGAT一樣。DNIAGAT-sco不再使用自適應(yīng)評分系數(shù),直接使用ConvE[16]作為解碼器生成三元組最終評分。將DNIAGAT模型與它的四個變體模型在數(shù)據(jù)集FB15K-237、WN18RR上分別進行了鏈接預(yù)測任務(wù)實驗,消融實驗結(jié)果如表3所示。

    從消融實驗的結(jié)果可以發(fā)現(xiàn),具備解糾纏表示學(xué)習(xí)能力的模型在兩個數(shù)據(jù)集上表現(xiàn)更好,并且改善較為明顯,這說明對實體進行解糾纏表示能夠提升知識圖譜補全任務(wù)的性能;利用特異性投影矩陣將實體的組件信息投影到對應(yīng)的關(guān)系子空間中,從而使模型融入關(guān)系信息,在不同數(shù)據(jù)集上各個評估指標(biāo)值都有所提升,說明融入關(guān)系信息對模型有促進作用。利用圖注意力機制的方法聚合因子中鄰域組件信息對比利用圖卷積操作的方法,在FB15K-237和WN18RR上的MRR、hits@3、hits@10指標(biāo)分別提升了0.5%、0.9%、1.2%、0.4%、0.6、0.5%。這說明利用圖注意力機制聚合因子中的鄰域組件信息是有效的;使用自適應(yīng)評分系數(shù)的模型比不使用自適應(yīng)評分系數(shù)的模型在兩個數(shù)據(jù)集上各項指標(biāo)更優(yōu)異,顯然,自適應(yīng)評分系數(shù)可以促進模型的性能。

    4.7 超參數(shù)分析

    為了驗證因子數(shù)量對模型性能的影響,在其他參數(shù)相同的情況下,設(shè)置不同的K值{2,4,6,8,10},分別在數(shù)據(jù)集WN18RR[22]與FB15K-237[23]上采用hits@3評估方法進行實驗,不同K值的表現(xiàn)如圖5所示。

    圖5 不同K值下hits@3評估方法的實驗結(jié)果

    Fig.5 Experimental results of hits@3 evaluation methodsat different K values

    從圖5中可以發(fā)現(xiàn):在數(shù)據(jù)集WN18RR上,K=6時,模型的性能表現(xiàn)最優(yōu);在數(shù)據(jù)集FB15K-237上,K=8時,模型的表現(xiàn)最優(yōu)。這表明隨著K值的增大,模型在知識補全任務(wù)上的表現(xiàn)會更優(yōu),將實體分為不同組件進行解糾纏表示的方法可以有效促進知識圖譜補全任務(wù)的質(zhì)量。然而,并不是K值越大越好,當(dāng)K值增大到一定區(qū)間時,模型的表現(xiàn)會呈現(xiàn)下降趨勢。從實驗結(jié)果可以發(fā)現(xiàn),K的值對模型性能的影響是巨大的。因此,設(shè)置合適的K值是本文模型的重點。

    5 結(jié)束語

    本文提出了一種新的基于圖注意力網(wǎng)絡(luò)的解糾纏鄰域信息聚合模型(DNIAGAT)來完成知識圖譜補全任務(wù)。該模型將實體嵌入分為K個組件表示,每個組件對應(yīng)一個實體的影響因子,選擇最重要的影響因子作為兩個實體的連接因子,使用注意力機制聚合實體在不同組件(影響因子)下的相關(guān)鄰域?qū)嶓w信息,并且在解碼過程中引入一個關(guān)系感知系數(shù)來控制評分系統(tǒng),使其更加關(guān)注與給定關(guān)系相關(guān)的組件分量信息,進一步分離了組件間的干擾信息。通過與基線模型對比的實驗,證明了DNIAGAT模型的先進性。未來將關(guān)注少關(guān)系知識圖譜的聚合方法,將其融合到DNIAGAT模型中,并改進DNIAGAT模型的算法,減少模型的計算量。

    參考文獻:

    [1]Huang Xiao, Zhang Jingyuan, Li Dingcheng, et al. Knowledge graph embedding based question answering[C]//Proc of the 12th ACM International Conference on Web Search and Data Mining. New York: ACM Press, 2019: 105-113.

    [2]Li Fangyi, Li Ying, Shang Changjing, et al. Fuzzy knowledge-based prediction through weighted rule interpolation[J]. IEEE Trans on Cybernetics, 2019,50(10): 4508-4517.

    [3]Wang Hongwei, Zhang Fuzheng, Wang Jialin, et al. Exploring high-order user preference on the knowledge graph for recommender systems[J]. ACM Trans on Information Systems, 2019,37(3): 1-26.

    [4]Vrandecˇic' D, Krtzsch M. WikiData: a free collaborative knowledgebase[J]. Communications of the ACM, 2014,57(10): 78-85.

    [5]Singhal A. Introducing the knowledge graph: things, not strings[EB/OL]. (2012)[2022-10-30]. https://blog.google/products/search/introducing-knowledge-graph-things-not/.

    [6]Antoine B, Nicolas U, Alberto G D, et al. Translating embeddings for modeling multi-relational data[C]//Proc of the 26th International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2013:2787-2795.

    [7]Xiao Han, Huang Minlie, Zhu Xiaoyan. TransG: a generative model for knowledge graph embedding[C]//Proc of the 54th Annual Mee-ting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computer Linguistics, 2016: 2316-2325.

    [8]Wang Zhen, Zhang Jianwen, Feng Jianlin, et al. Knowledge graph embedding by translating on hyperplanes[C]//Proc of the 28th AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2014:1112-1119.

    [9]Lin Yankai, Liu Zhiyuan, Sun Maosong, et al. Learning entity and relation embeddings for knowledge graph completion[C]//Proc of the 29th AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2015: 2181-2187.

    [10]Ji Guoliang, He Shizhu, Xu Liheng, et al. Knowledge graph embedding via dynamic mapping matrix[C]//Proc of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2015: 687-696.

    [11]Yang Bishan, Yih S, He Xiaodong, et al. Embedding entities and relations for learning and inference in knowledge bases[C]//Proc of International Conference on Learning Representations. 2015.

    [12]Trouillon T, Welbl J, Riedel S, et al. Complex embeddings for simple link prediction[C]//Proc of the 33rd International Conference on International Conference on Machine Learning.[S.l.]: JMLR. org, 2016: 2071-2080.

    [13]Liu Hanxiao, Wu Yuexin, Yang Yiming. Analogical inference for multi-relational embeddings[C]//Proc of the 34th International Conference on Machine Learning.[S.l.]: JMLR. org, 2017: 2168-2178.

    [14]Kazemi S M, Poole D. Simple embedding for link prediction in knowledge graphs[J]. Advances in Neural Information Proces-sing Systems, 2018,31: 4289-4300.

    [15]Nguyen D Q, Nguyen D Q, Nguyen T D, et al. A convolutional neural network-based model for knowledge base completion and its application to search personalization[J]. Semantic Web, 2019,10(5): 947-960.

    [16]Dettmers T, Minervini P, Stenetorp P, et al. Convolutional 2D know-ledge graph embeddings[C]//Proc of the 32nd AAAI Conference on Artificial Intelligence and the 30th Innovative Applications of Artificial Intelligence Conference and the 8th AAAI Symposium on Educational Advances in Artificial Intelligence. Palo Alto,CA: AAAI Press, 2018: 1811-1818.

    [17]Zhang Si, Tong Hanghang, Xu Jiejun, et al. Graph convolutional networks: a comprehensive review[J]. Computational Social Networks, 2019,6(1): 1-23.

    [18]Hamilton W L, Ying Z, Leskovec J. Inductive representation learning on large graphs[C]//Proc of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017:1025-1035.

    [19]Velickovic P, Cucurull G, Casanova A, et al. Graph attention networks[EB/OL]. (2017-10-30). https://arxiv.org/abs/1710.10903.

    [20]Nathani D, Chauhan J, Sharma C, et al. Learning attention-based embeddings for relation prediction in knowledge graphs[C]//Proc of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2019: 4710-4723.

    [21]Zhang Zhao, Zhuang Fuzhen, Zhu Hengshu, et al. Relational graph neural network with hierarchical attention for knowledge graph completion[C]//Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2020: 9612-9619.

    [22]Dai Guoquan, Wang Xizhao, Zou Xiaoying, et al. Multi-relational graph attention network for knowledge graph completion[J]. Neural Networks, 2022,154: 234-245.

    [23]Li Zhifei, Liu Hai, Zhang Zhaoli, et al. Learning knowledge graph embedding with heterogeneous relation attention networks[J]. IEEE Trans on Neural Networks and Learning Systems, 2022,33(8): 3961-3973.

    [24]Ma Jianxin, Cui Peng, Kuang Kun, et al. Disentangled graph convolutional networks[C]//Proc of the 36th International Conference on Machine Learning.[S. l. ] : PMLR, 2019: 4212-4221.

    [25]Schlichtkrull M, Kipf T N, Bloem P, et al. Modeling relational data with graph convolutional networks[C]//Proc of the 15th International Conference on Semantic Web. Berlin : Springer-Verlag, 2018: 593-607.

    [26]Vashishth S, Sanyal S, Nitin V, et al. InteractE: improving convolution based knowledge graph embeddings by increasing feature interactions[C]//Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2020: 3009-3016.

    [27]Vashishth S, Sanyal S, Nitin V, et al. Composition-based multi-relational graph convolutional networks[EB/OL]. (2019-11-08). https://arxiv.org/pdf/1911.03082.pdf.

    [28]Zhao Xiaojuan, Jia Yan, Li Aiping, et al. Target relational attention-oriented knowledge graph reasoning[J]. Neurocomputing, 2021, 461: 577-586.

    [29]Zhang Zhanqiu, Wang Jie, Ye Jieping, et al. Rethinking graph con-volutional networks in knowledge graph completion[C]//Proc of ACM Web Conference. New York: ACM Press, 2022: 798-807.

    [30]喬梓峰, 秦宏超, 胡晶晶,等. 融合多視圖對比學(xué)習(xí)的知識圖譜補全算法[J/OL]. 計算機科學(xué)與探索.[2023-08-06]. http://kns.cnki.net/kcms/detail/11.5602.TP.20230329.1546.002.html. (Qiao Zifeng, Qin Hongchao, Hu Jingjing, et al. Knowledge graph completion algorithm fused with multi-view contrastive learning[J/OL]. Computer Science and Exploration.[2023-08-06]. http://kns.cnki.net/kcms/detail/11.5602.TP.20230329.)

    成人一区二区视频在线观看| 亚洲一区二区三区欧美精品| 亚洲天堂av无毛| 在线观看三级黄色| 黄色怎么调成土黄色| 久久久久国产精品人妻一区二区| 午夜免费男女啪啪视频观看| 只有这里有精品99| 欧美国产精品一级二级三级 | 王馨瑶露胸无遮挡在线观看| 国产无遮挡羞羞视频在线观看| 国产成人精品一,二区| 99re6热这里在线精品视频| 日韩欧美 国产精品| 五月伊人婷婷丁香| 久久久久久久精品精品| 人妻系列 视频| 直男gayav资源| 伦精品一区二区三区| 亚洲av欧美aⅴ国产| 国产伦精品一区二区三区视频9| 久久影院123| 国产精品熟女久久久久浪| 国产一级毛片在线| 精品少妇黑人巨大在线播放| 亚洲欧美一区二区三区黑人 | 久久久久久久久久人人人人人人| 国产精品99久久久久久久久| 亚洲av二区三区四区| 青春草视频在线免费观看| 一个人免费看片子| 欧美日韩在线观看h| 国产黄频视频在线观看| 少妇人妻一区二区三区视频| 一区在线观看完整版| av天堂中文字幕网| 国产精品一区二区三区四区免费观看| 联通29元200g的流量卡| 久久亚洲国产成人精品v| 网址你懂的国产日韩在线| 人体艺术视频欧美日本| av网站免费在线观看视频| 国产 一区精品| 九九久久精品国产亚洲av麻豆| 日韩大片免费观看网站| av一本久久久久| 五月天丁香电影| 久久久久久人妻| 亚洲国产精品999| 欧美精品人与动牲交sv欧美| 日韩av免费高清视频| 91精品伊人久久大香线蕉| 国产精品伦人一区二区| 国产成人一区二区在线| 一区二区三区精品91| 国产精品欧美亚洲77777| 国内精品宾馆在线| 成人美女网站在线观看视频| 日本-黄色视频高清免费观看| 99久久精品热视频| 国产免费视频播放在线视频| 亚洲不卡免费看| 久久鲁丝午夜福利片| 蜜臀久久99精品久久宅男| 国产精品免费大片| 亚洲精品成人av观看孕妇| 精品久久久噜噜| 精品国产露脸久久av麻豆| 亚洲美女视频黄频| 日韩欧美精品免费久久| 久久精品国产a三级三级三级| 日韩,欧美,国产一区二区三区| 这个男人来自地球电影免费观看 | 最新中文字幕久久久久| 免费观看无遮挡的男女| 老熟女久久久| 久久女婷五月综合色啪小说| 国产精品国产三级国产av玫瑰| 毛片一级片免费看久久久久| 极品少妇高潮喷水抽搐| 国产熟女欧美一区二区| 国产精品人妻久久久影院| 插阴视频在线观看视频| av在线老鸭窝| 午夜福利网站1000一区二区三区| 国产精品免费大片| 久久久久性生活片| 亚洲,欧美,日韩| 国产亚洲5aaaaa淫片| 精品一区在线观看国产| 国产无遮挡羞羞视频在线观看| 97超碰精品成人国产| 亚洲激情五月婷婷啪啪| 视频中文字幕在线观看| 蜜桃亚洲精品一区二区三区| 国产欧美亚洲国产| 九九久久精品国产亚洲av麻豆| 成人无遮挡网站| 中文在线观看免费www的网站| 波野结衣二区三区在线| 中文精品一卡2卡3卡4更新| 久久久色成人| 精品一区二区三卡| 这个男人来自地球电影免费观看 | 国产亚洲最大av| 少妇熟女欧美另类| 精品少妇黑人巨大在线播放| 国产黄频视频在线观看| 国产欧美另类精品又又久久亚洲欧美| 麻豆精品久久久久久蜜桃| 婷婷色综合www| 国产亚洲av片在线观看秒播厂| 联通29元200g的流量卡| 亚洲精品中文字幕在线视频 | 麻豆国产97在线/欧美| 97热精品久久久久久| 亚洲av综合色区一区| 欧美日韩亚洲高清精品| 国产精品不卡视频一区二区| 欧美三级亚洲精品| 汤姆久久久久久久影院中文字幕| 国产精品一及| 青青草视频在线视频观看| 婷婷色综合www| 国产欧美日韩一区二区三区在线 | 一级片'在线观看视频| 一级a做视频免费观看| 日本爱情动作片www.在线观看| 国产片特级美女逼逼视频| 99热这里只有精品一区| 成人午夜精彩视频在线观看| 久久女婷五月综合色啪小说| 街头女战士在线观看网站| 国产国拍精品亚洲av在线观看| 毛片一级片免费看久久久久| 国产69精品久久久久777片| 国产淫语在线视频| 亚洲经典国产精华液单| 亚洲欧美精品专区久久| 多毛熟女@视频| 在现免费观看毛片| 久久精品国产亚洲av天美| 一个人看视频在线观看www免费| 男女啪啪激烈高潮av片| 婷婷色av中文字幕| 日韩成人av中文字幕在线观看| 在现免费观看毛片| 男人添女人高潮全过程视频| 亚洲av欧美aⅴ国产| av免费在线看不卡| 一级毛片我不卡| 免费黄频网站在线观看国产| 日日摸夜夜添夜夜添av毛片| 日韩一本色道免费dvd| 亚州av有码| 欧美日韩国产mv在线观看视频 | 亚洲精品日韩在线中文字幕| 美女xxoo啪啪120秒动态图| 人妻系列 视频| 国产伦在线观看视频一区| 婷婷色麻豆天堂久久| 国产精品一及| 能在线免费看毛片的网站| 如何舔出高潮| 日韩在线高清观看一区二区三区| 美女脱内裤让男人舔精品视频| 国产真实伦视频高清在线观看| 国产亚洲午夜精品一区二区久久| 亚洲精品日本国产第一区| 久久久久久久久久久丰满| 国产精品99久久久久久久久| 中文天堂在线官网| 日韩大片免费观看网站| 99久久精品国产国产毛片| 国产精品麻豆人妻色哟哟久久| 99视频精品全部免费 在线| 少妇人妻久久综合中文| 啦啦啦视频在线资源免费观看| 欧美成人精品欧美一级黄| 高清视频免费观看一区二区| 亚洲精品aⅴ在线观看| 啦啦啦在线观看免费高清www| 美女cb高潮喷水在线观看| 亚洲图色成人| 插逼视频在线观看| 一级毛片 在线播放| 亚洲精品国产av成人精品| 蜜桃久久精品国产亚洲av| 日日摸夜夜添夜夜添av毛片| 汤姆久久久久久久影院中文字幕| 丰满迷人的少妇在线观看| 最近的中文字幕免费完整| 中国美白少妇内射xxxbb| 亚洲精品乱码久久久久久按摩| 爱豆传媒免费全集在线观看| 一区二区三区乱码不卡18| 久久久久久久亚洲中文字幕| av.在线天堂| 少妇人妻久久综合中文| 18禁裸乳无遮挡免费网站照片| 日日啪夜夜爽| 高清午夜精品一区二区三区| 各种免费的搞黄视频| 最近手机中文字幕大全| 中文字幕久久专区| 你懂的网址亚洲精品在线观看| 亚洲av男天堂| 亚洲婷婷狠狠爱综合网| 又黄又爽又刺激的免费视频.| 一个人看的www免费观看视频| 精品久久久久久电影网| 久久6这里有精品| 欧美成人午夜免费资源| 国产高清不卡午夜福利| 日日撸夜夜添| 亚洲精品国产av成人精品| 国产亚洲一区二区精品| 欧美日本视频| 一区二区三区精品91| 亚洲内射少妇av| 国产精品熟女久久久久浪| 国产亚洲av片在线观看秒播厂| av天堂中文字幕网| 精品久久久久久电影网| 亚洲成人手机| 精品99又大又爽又粗少妇毛片| 成人高潮视频无遮挡免费网站| 久久国产乱子免费精品| 国产av国产精品国产| 亚洲人成网站在线播| 亚洲色图av天堂| 草草在线视频免费看| 天天躁日日操中文字幕| 高清在线视频一区二区三区| 一级毛片黄色毛片免费观看视频| 日韩中文字幕视频在线看片 | 三级经典国产精品| 五月玫瑰六月丁香| 熟妇人妻不卡中文字幕| 街头女战士在线观看网站| 一本一本综合久久| 亚洲成人av在线免费| 一级毛片久久久久久久久女| 午夜视频国产福利| 搡女人真爽免费视频火全软件| 乱系列少妇在线播放| 看免费成人av毛片| 久久综合国产亚洲精品| 黄色欧美视频在线观看| 精品国产三级普通话版| 少妇熟女欧美另类| 午夜福利网站1000一区二区三区| 久久午夜福利片| 中国美白少妇内射xxxbb| 97超视频在线观看视频| 直男gayav资源| 日产精品乱码卡一卡2卡三| 夜夜骑夜夜射夜夜干| 精品少妇黑人巨大在线播放| 色哟哟·www| 亚洲美女搞黄在线观看| 深夜a级毛片| 在线免费十八禁| .国产精品久久| 一级二级三级毛片免费看| 久久国产精品男人的天堂亚洲 | 久久国产亚洲av麻豆专区| av又黄又爽大尺度在线免费看| 美女cb高潮喷水在线观看| 在线观看人妻少妇| 亚洲成色77777| 国产一区二区三区av在线| 免费人妻精品一区二区三区视频| 啦啦啦视频在线资源免费观看| 中文字幕人妻熟人妻熟丝袜美| 22中文网久久字幕| 我要看日韩黄色一级片| 91午夜精品亚洲一区二区三区| 一级毛片电影观看| 欧美3d第一页| 免费观看在线日韩| 欧美日韩视频高清一区二区三区二| 蜜桃久久精品国产亚洲av| 久久av网站| 菩萨蛮人人尽说江南好唐韦庄| 一区二区三区免费毛片| 一级毛片aaaaaa免费看小| av国产免费在线观看| 在现免费观看毛片| 18+在线观看网站| 少妇被粗大猛烈的视频| 午夜福利影视在线免费观看| 又黄又爽又刺激的免费视频.| 欧美日韩在线观看h| av国产久精品久网站免费入址| 成年女人在线观看亚洲视频| 欧美bdsm另类| 亚洲精品日本国产第一区| 国产一区二区三区综合在线观看 | 一本色道久久久久久精品综合| 国产精品嫩草影院av在线观看| 国产av一区二区精品久久 | 婷婷色综合www| 久久久欧美国产精品| 日韩制服骚丝袜av| 好男人视频免费观看在线| 日韩视频在线欧美| 久久精品国产自在天天线| 久久久色成人| 内射极品少妇av片p| 国产精品人妻久久久影院| 蜜桃亚洲精品一区二区三区| 在线看a的网站| 欧美zozozo另类| 另类亚洲欧美激情| 国产成人91sexporn| 少妇人妻精品综合一区二区| 日韩国内少妇激情av| 又粗又硬又长又爽又黄的视频| 如何舔出高潮| 纵有疾风起免费观看全集完整版| 久久6这里有精品| 久久毛片免费看一区二区三区| 97超视频在线观看视频| 亚洲人与动物交配视频| 日韩在线高清观看一区二区三区| 少妇人妻久久综合中文| 久久久久精品性色| 国产精品99久久久久久久久| 国产伦精品一区二区三区视频9| 日本一二三区视频观看| 中国美白少妇内射xxxbb| 日韩精品有码人妻一区| 美女cb高潮喷水在线观看| 久久毛片免费看一区二区三区| 亚洲欧美精品专区久久| 18禁在线无遮挡免费观看视频| 精品久久久噜噜| 亚洲精品aⅴ在线观看| 舔av片在线| 国产无遮挡羞羞视频在线观看| 亚洲成人av在线免费| 国产精品免费大片| 亚洲成人一二三区av| 一级毛片黄色毛片免费观看视频| av一本久久久久| 亚洲精品国产av蜜桃| 人妻夜夜爽99麻豆av| 一级毛片久久久久久久久女| 成年av动漫网址| 亚洲av日韩在线播放| 少妇裸体淫交视频免费看高清| 99久久人妻综合| 国产亚洲5aaaaa淫片| 免费观看的影片在线观看| 亚洲最大成人中文| 午夜激情久久久久久久| 女的被弄到高潮叫床怎么办| 少妇丰满av| 国产精品伦人一区二区| 在线观看一区二区三区| 久久久久久久国产电影| 最新中文字幕久久久久| 亚洲国产精品国产精品| 97超视频在线观看视频| 精品视频人人做人人爽| 一级毛片电影观看| 人妻一区二区av| 一级毛片久久久久久久久女| 看免费成人av毛片| 王馨瑶露胸无遮挡在线观看| 夜夜看夜夜爽夜夜摸| 六月丁香七月| 一级毛片黄色毛片免费观看视频| 亚洲精品日本国产第一区| 在线看a的网站| 男人爽女人下面视频在线观看| 大话2 男鬼变身卡| 国产精品99久久99久久久不卡 | 免费av不卡在线播放| 美女内射精品一级片tv| 久久久精品免费免费高清| 少妇被粗大猛烈的视频| 麻豆成人午夜福利视频| 99国产精品免费福利视频| 日韩三级伦理在线观看| 欧美成人午夜免费资源| 国产精品偷伦视频观看了| 中文乱码字字幕精品一区二区三区| 色综合色国产| 国产亚洲最大av| 亚洲第一av免费看| 亚洲怡红院男人天堂| 狂野欧美白嫩少妇大欣赏| 波野结衣二区三区在线| 我要看日韩黄色一级片| 精品久久久噜噜| 亚洲美女视频黄频| 久久99热6这里只有精品| 日本-黄色视频高清免费观看| 啦啦啦中文免费视频观看日本| 久热这里只有精品99| 亚洲国产精品专区欧美| 成人二区视频| 交换朋友夫妻互换小说| 大片免费播放器 马上看| 亚洲欧美成人精品一区二区| 丰满人妻一区二区三区视频av| 如何舔出高潮| 国产乱人视频| 国产精品久久久久成人av| 亚洲最大成人中文| 国产精品一区二区在线不卡| 精品久久久噜噜| 久久精品久久久久久噜噜老黄| 国产乱来视频区| 边亲边吃奶的免费视频| 嫩草影院入口| 久久鲁丝午夜福利片| 人人妻人人添人人爽欧美一区卜 | 日韩欧美 国产精品| 亚洲综合精品二区| 成人免费观看视频高清| 在线观看美女被高潮喷水网站| 小蜜桃在线观看免费完整版高清| 色吧在线观看| 女的被弄到高潮叫床怎么办| 91午夜精品亚洲一区二区三区| 国产在视频线精品| 内射极品少妇av片p| 日韩不卡一区二区三区视频在线| 婷婷色综合www| 免费看光身美女| 伦理电影免费视频| 精品一区二区三卡| 亚洲美女视频黄频| 国产一级毛片在线| 男人舔奶头视频| 国内精品宾馆在线| 黑丝袜美女国产一区| 午夜免费鲁丝| 蜜桃在线观看..| 国产国拍精品亚洲av在线观看| 精品亚洲成a人片在线观看 | 干丝袜人妻中文字幕| 在线观看av片永久免费下载| 国内精品宾馆在线| 人体艺术视频欧美日本| 午夜福利视频精品| 日本黄色日本黄色录像| 成人18禁高潮啪啪吃奶动态图 | 亚洲精品乱久久久久久| 亚洲图色成人| 99热国产这里只有精品6| 成人国产麻豆网| 国产片特级美女逼逼视频| 成人亚洲欧美一区二区av| 久久青草综合色| 国产伦理片在线播放av一区| 有码 亚洲区| 涩涩av久久男人的天堂| 最新中文字幕久久久久| 性色av一级| 最黄视频免费看| 精品亚洲成a人片在线观看 | 亚洲三级黄色毛片| 欧美性感艳星| 欧美日韩综合久久久久久| 老司机影院成人| 免费高清在线观看视频在线观看| 亚洲精品乱码久久久v下载方式| 精品午夜福利在线看| 国产又色又爽无遮挡免| 久久国产亚洲av麻豆专区| 亚洲第一区二区三区不卡| 少妇人妻精品综合一区二区| 又大又黄又爽视频免费| 美女中出高潮动态图| 久久人人爽av亚洲精品天堂 | 人妻少妇偷人精品九色| 欧美日韩视频精品一区| av在线老鸭窝| 偷拍熟女少妇极品色| 夫妻性生交免费视频一级片| 国产成人aa在线观看| 观看av在线不卡| 亚洲国产毛片av蜜桃av| 国产精品一区二区在线不卡| 久久女婷五月综合色啪小说| 乱系列少妇在线播放| 免费观看a级毛片全部| 高清毛片免费看| 国产精品秋霞免费鲁丝片| 亚洲国产成人一精品久久久| 久久婷婷青草| 久久精品人妻少妇| 最近手机中文字幕大全| 亚洲国产日韩一区二区| 我要看日韩黄色一级片| 国产午夜精品一二区理论片| 丰满乱子伦码专区| 少妇的逼水好多| 日韩强制内射视频| 18+在线观看网站| 我要看日韩黄色一级片| 91精品一卡2卡3卡4卡| 久久ye,这里只有精品| 亚洲欧美成人精品一区二区| 国产亚洲最大av| 91精品一卡2卡3卡4卡| 青春草亚洲视频在线观看| 久久久欧美国产精品| 久久ye,这里只有精品| 亚洲精品一二三| 青春草亚洲视频在线观看| 欧美日本视频| 视频中文字幕在线观看| 看免费成人av毛片| 国产精品久久久久久av不卡| 少妇高潮的动态图| 国产免费视频播放在线视频| av天堂中文字幕网| 狂野欧美激情性bbbbbb| 亚洲怡红院男人天堂| 少妇的逼水好多| 91精品国产国语对白视频| 国产免费一级a男人的天堂| 国产v大片淫在线免费观看| 在线观看三级黄色| 亚洲欧美日韩东京热| 女性被躁到高潮视频| 一区在线观看完整版| 国产色婷婷99| 久久青草综合色| 两个人的视频大全免费| 亚洲av不卡在线观看| xxx大片免费视频| 一个人看视频在线观看www免费| 亚洲精品国产av成人精品| 亚洲精品久久久久久婷婷小说| av线在线观看网站| 狂野欧美激情性xxxx在线观看| av福利片在线观看| 麻豆乱淫一区二区| 日日撸夜夜添| 亚洲,欧美,日韩| 国产精品久久久久成人av| 亚洲精品,欧美精品| 又爽又黄a免费视频| 99九九线精品视频在线观看视频| av.在线天堂| 国产一级毛片在线| 免费久久久久久久精品成人欧美视频 | 建设人人有责人人尽责人人享有的 | 卡戴珊不雅视频在线播放| 国产永久视频网站| 国产在线一区二区三区精| 国产精品爽爽va在线观看网站| 国产av精品麻豆| 久久久久性生活片| 久久久成人免费电影| 亚洲av中文字字幕乱码综合| 丰满少妇做爰视频| 亚洲美女黄色视频免费看| 久久久久久久亚洲中文字幕| 国产av国产精品国产| 久久精品人妻少妇| 在线观看人妻少妇| 观看美女的网站| 交换朋友夫妻互换小说| 熟妇人妻不卡中文字幕| a级毛片免费高清观看在线播放| 久久国产精品大桥未久av | 80岁老熟妇乱子伦牲交| 午夜免费鲁丝| 国产永久视频网站| 中文在线观看免费www的网站| 人人妻人人添人人爽欧美一区卜 | 亚洲欧美清纯卡通| 日本午夜av视频| 亚洲丝袜综合中文字幕| 97热精品久久久久久| 国产亚洲5aaaaa淫片| 精品久久久噜噜| 国产精品久久久久久av不卡| 亚洲精品,欧美精品| 黄色欧美视频在线观看| 毛片一级片免费看久久久久| 只有这里有精品99| 亚洲三级黄色毛片| 精品久久久久久久末码| 国产精品无大码| 老女人水多毛片| 嫩草影院新地址| 日韩av在线免费看完整版不卡| 老女人水多毛片| 久久6这里有精品| 汤姆久久久久久久影院中文字幕| 一级爰片在线观看| 国产精品久久久久久av不卡| 日日啪夜夜撸| 中文字幕久久专区| av国产久精品久网站免费入址| 成人黄色视频免费在线看| a级一级毛片免费在线观看| 亚洲综合精品二区| 精品国产乱码久久久久久小说| 久久久欧美国产精品| 热99国产精品久久久久久7| 一区二区av电影网| 高清视频免费观看一区二区| 水蜜桃什么品种好| 一本色道久久久久久精品综合| 五月开心婷婷网| 欧美丝袜亚洲另类|