• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    知識(shí)圖譜多跳問(wèn)答推理研究進(jìn)展、挑戰(zhàn)與展望

    2021-06-09 13:20:44杜會(huì)芳王昊奮史英慧王萌
    大數(shù)據(jù) 2021年3期
    關(guān)鍵詞:三元組圖譜實(shí)體

    杜會(huì)芳,王昊奮,史英慧,王萌

    1. 同濟(jì)大學(xué)設(shè)計(jì)創(chuàng)意學(xué)院,上海 200092;

    2. 東南大學(xué)網(wǎng)絡(luò)空間與安全學(xué)院,江蘇 無(wú)錫 214100;

    3. 東南大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院,江蘇 南京 211189

    1 引言

    1.1 背景介紹

    隨著大數(shù)據(jù)時(shí)代的來(lái)臨,幫助用戶在海量信息中快速找到想要的信息尤為重要。知識(shí)圖譜(knowledge graph,KG)以三元組的形式結(jié)構(gòu)化存儲(chǔ)海量信息,一個(gè)三元組可以表示為,其中eh表示頭實(shí)體,et表示尾實(shí)體,r表示頭實(shí)體與尾實(shí)體之間存在的關(guān)系。知識(shí)圖譜三元組之間也存在關(guān)聯(lián)關(guān)系,如上述三元組中的頭實(shí)體eh可能是另外一個(gè)三元組的尾實(shí)體。知識(shí)圖譜把海量互聯(lián)網(wǎng)信息表達(dá)成客觀世界可認(rèn)知的語(yǔ)義表示,具有強(qiáng)大的語(yǔ)義表達(dá)、存儲(chǔ)和表達(dá)能力[1],在工業(yè)界和學(xué)術(shù)界得到了廣泛關(guān)注和研究應(yīng)用。智能問(wèn)答系統(tǒng)[2]旨在針對(duì)用戶提出的復(fù)雜信息需求,允許用戶用自然語(yǔ)言問(wèn)句的形式提問(wèn),并為用戶直接返回精準(zhǔn)的答案。得益于知識(shí)圖譜技術(shù)的快速發(fā)展,基于知識(shí)圖譜的問(wèn)答(knowledge graph based question answering,KGQA)技術(shù)利用其豐富的結(jié)構(gòu)化語(yǔ)義信息,能夠深入理解用戶的問(wèn)題,并給出準(zhǔn)確的答案[3],為用戶提供7×24小時(shí)的智能問(wèn)答服務(wù),在醫(yī)療、教育、金融等多個(gè)領(lǐng)域凸顯出重要的應(yīng)用價(jià)值[4-6]。

    傳統(tǒng)KGQA以實(shí)體、屬性等單一具體對(duì)象為主,而在實(shí)際應(yīng)用場(chǎng)景中,用戶不再滿足于單跳的知識(shí)問(wèn)答,如在醫(yī)療領(lǐng)域中的咨詢問(wèn)題“常見(jiàn)的治療感冒藥物有哪些?”。用戶更多地傾向表達(dá)復(fù)雜的多跳問(wèn)答推理問(wèn)題,如“請(qǐng)問(wèn)伴有中耳炎并發(fā)癥的感冒能用哪種藥物治療?”。而知識(shí)圖譜多跳問(wèn)答(以下簡(jiǎn)稱多跳知識(shí)問(wèn)答)[7-8]即針對(duì)包含多跳關(guān)系的問(wèn)題,在知識(shí)圖譜上進(jìn)行多步推理,繼而推斷得到答案的一項(xiàng)任務(wù)。

    1.2 多跳知識(shí)問(wèn)答推理分類

    相比單跳問(wèn)答,多跳知識(shí)問(wèn)答需要在包含大量知識(shí)的知識(shí)圖譜中找到多個(gè)有關(guān)聯(lián)的三元組,并建模多跳長(zhǎng)路徑,這是更加具有挑戰(zhàn)性的任務(wù)。同時(shí)知識(shí)圖譜又是不完備的,長(zhǎng)路徑中任意一個(gè)三元組的不完整都會(huì)導(dǎo)致找不到正確的答案,這為多跳知識(shí)問(wèn)答帶來(lái)了更大的挑戰(zhàn)。為了解決沒(méi)有明顯答案的復(fù)雜多跳查詢問(wèn)題,模型需要基于知識(shí)圖譜已有知識(shí)進(jìn)行推理。作為多跳知識(shí)問(wèn)答的關(guān)鍵技術(shù)支撐,推理為知識(shí)圖譜智能問(wèn)答更快落地實(shí)際應(yīng)用發(fā)揮了重要作用。

    本文總結(jié)多跳知識(shí)問(wèn)答推理的最新研究方法,并將這些方法分為基于嵌入的多跳知識(shí)問(wèn)答推理、基于路徑的多跳知識(shí)問(wèn)答推理和基于邏輯的多跳知識(shí)問(wèn)答推理3類方法。其中,基于嵌入的多跳知識(shí)問(wèn)答推理方法是將知識(shí)圖譜元素(如實(shí)體、關(guān)系等)關(guān)聯(lián)到低維連續(xù)向量空間[9],然后通過(guò)定義得分函數(shù)或解碼器對(duì)目標(biāo)查詢對(duì)象進(jìn)行排名來(lái)得到答案。而基于路徑的多跳知識(shí)問(wèn)答推理方法首先需要確定問(wèn)題中的主題實(shí)體,然后在知識(shí)圖譜上隨機(jī)游走找到答案實(shí)體[10-11],代表性的工作有路徑排序算法(path ranking approach,PRA)。關(guān)于基于邏輯的多跳知識(shí)問(wèn)答推理方法,本文將重點(diǎn)介紹以一階邏輯為主的熱點(diǎn)研究方法。圖1所示為基于知識(shí)圖譜的多跳問(wèn)答推理方法分類,接下來(lái)綜述這些分類中最新方法的研究進(jìn)展、基本思路和存在的挑戰(zhàn)等。

    2 基于嵌入的多跳知識(shí)問(wèn)答推理

    基于嵌入的多跳知識(shí)問(wèn)答推理方法是將問(wèn)題和候選答案轉(zhuǎn)化為公共向量空間中的語(yǔ)義向量表示來(lái)進(jìn)行操作的方法,基于嵌入的具體操作方法可以分為基于語(yǔ)義匹配的方法、基于圖神經(jīng)網(wǎng)絡(luò)的方法和基于記憶網(wǎng)絡(luò)的方法。

    (1)基于語(yǔ)義匹配的方法

    本類方法首先計(jì)算問(wèn)題和候選答案分布式表示之間的語(yǔ)義匹配,然后通過(guò)排序候選答案來(lái)得到最終答案。Bordes A等人[12]將問(wèn)題和知識(shí)圖譜三元組用嵌入的方式表示來(lái)表達(dá)特征的語(yǔ)義。然而,與翻譯模型TransE[13]、TransH[14]、TransR[15]等 關(guān)注嵌入表示的模型類似,這些方法只能回答簡(jiǎn)單問(wèn)題[12,16-17]。為了實(shí)現(xiàn)多跳問(wèn)答推理以及應(yīng)對(duì)多跳知識(shí)高效建模的挑戰(zhàn),很多基于語(yǔ)義匹配的方法被提出。Bordes A等人[18]在原來(lái)三元組表示方法[12]的基礎(chǔ)上做了改進(jìn),通過(guò)對(duì)知識(shí)圖譜中的問(wèn)答路徑和周圍子圖進(jìn)行編碼得到語(yǔ)義更加豐富的表示來(lái)推理得到答案。Dong L等人[19]提出的多列卷積神經(jīng)網(wǎng)絡(luò)(multi-column convolutional neural network,MCCNN)模型進(jìn)一步地利用具有更強(qiáng)學(xué)習(xí)能力的神經(jīng)網(wǎng)絡(luò)模型來(lái)學(xué)習(xí)答案路徑、答案背景信息以及答案類型的分布式表示,并理解問(wèn)題,在不使用手動(dòng)特征及詞庫(kù)等的條件下,在問(wèn)答數(shù)據(jù)集WebQuestions[20]上取得了不錯(cuò)的結(jié)果。其中,答案路徑是答案節(jié)點(diǎn)和被詢問(wèn)實(shí)體之間的一組關(guān)系;答案上下文指的是連接到答案路徑的單跳實(shí)體和關(guān)系;答案類型是如人名、日期等的類型。Hao Y C等人[21]認(rèn)為MC-CNN模型沒(méi)有充分并合理地考慮候選答案的相關(guān)信息來(lái)訓(xùn)練問(wèn)題嵌入的表示,提出了Cross-Attention機(jī)制的神經(jīng)網(wǎng)絡(luò)模型來(lái)學(xué)習(xí)知識(shí)圖譜的全局信息,取得了更好的結(jié)果。但是以上幾種方法只能完成淺層多跳知識(shí)問(wèn)答推理,對(duì)復(fù)雜長(zhǎng)路徑多跳問(wèn)題的處理能力依然不足。

    圖1 基于知識(shí)圖譜的多跳問(wèn)答推理方法分類

    Saxena A等人[22]提出的EmbedKGQA模型通過(guò)基于知識(shí)圖譜嵌入模型進(jìn)行鏈接預(yù)測(cè)來(lái)緩解多跳問(wèn)答面臨的數(shù)據(jù)不完整問(wèn)題,使其具有可以在復(fù)雜長(zhǎng)路徑上的多跳推理能力。EmbedKGQA模型使用C omplEx模型[23]將知識(shí)圖譜中的實(shí)體和關(guān)系嵌入復(fù)數(shù)向量空間,同時(shí)采用ComplEx的打分函數(shù)φ預(yù)測(cè)答案。具體而言,對(duì)于一個(gè)給定的問(wèn)題q,首先使用RoBERTa[24]模型編碼初始向量,然后通過(guò)一個(gè)前饋神經(jīng)網(wǎng)絡(luò)將該向量表示投射到復(fù)數(shù)嵌入向量空間。問(wèn)題q和其主題實(shí)體h以及知識(shí)圖譜中的任一實(shí)體a可以構(gòu)成三元組,其嵌入向量分別表示為q、h和a,如果a是q的目標(biāo)答案實(shí)體,則將(h,q,a)視為正樣本,并且使,否則將(h,q,a)視為負(fù)樣本,并使,負(fù)樣本可通 過(guò)將正樣 本中的答案實(shí)體替換為知識(shí)圖譜中其他非答案實(shí)體來(lái)獲得。EmbedKGQA使用大量的正負(fù)樣本訓(xùn)練數(shù)據(jù)學(xué)習(xí)問(wèn)題和實(shí)體的嵌入向量表示,在推理階段則在嵌入空間中通過(guò)打分函數(shù)選擇得分最高的實(shí)體作為可能的目標(biāo)答案。

    He G L等人[25]認(rèn)為多跳知識(shí)問(wèn)答推理算法只接收最終答案的反饋會(huì)使學(xué)習(xí)不穩(wěn)定或無(wú)效,學(xué)習(xí)推理過(guò)程中的監(jiān)督信號(hào)也非常重要,同時(shí)也能提升模型的可解釋性。由此,He G L等人提出了一種創(chuàng)新的Teacher-Student模型。Teacher-Student框架最早由Hinton G[26]等人提出,用來(lái)做知識(shí)蒸餾,其中復(fù)雜的Teacher模型的預(yù)測(cè)被視為“軟標(biāo)簽”,一個(gè)輕量級(jí)Student模型被用于訓(xùn)練擬合軟標(biāo)簽。后來(lái),一些Teacher-Student框架的研究逐漸被應(yīng)用到問(wèn)答任務(wù)中[27]來(lái)加快模型的推理速度。在He G L等人[25]提出的模型中,Student網(wǎng)絡(luò)的目標(biāo)是找到問(wèn)題的正確答案,而Teacher網(wǎng)絡(luò)試圖學(xué)習(xí)預(yù)測(cè)過(guò)程中的監(jiān)督信號(hào),以提高學(xué)生網(wǎng)絡(luò)的推理能力。Teacher網(wǎng)絡(luò)利用了正向和逆向雙向推理產(chǎn)生可靠的中間監(jiān)督信號(hào)來(lái)增強(qiáng)中間實(shí)體分布表示學(xué)習(xí)。在3個(gè)公開(kāi)的數(shù)據(jù)集上證明了該模型的有效性。

    基于語(yǔ)義匹配的方法多采用弱監(jiān)督學(xué)習(xí),減少了人工標(biāo)注的工作量,同時(shí)該方法能夠反映出用戶問(wèn)題和知識(shí)圖譜知識(shí)的相似語(yǔ)義,為多跳推理問(wèn)答的實(shí)現(xiàn)做了很好的基礎(chǔ)。如何讓基于語(yǔ)義匹配的方法學(xué)到更豐富和全面的知識(shí)圖譜信息是這種方法的關(guān)鍵。另外,增強(qiáng)表示方法的可解釋性也是重要的考慮因素。

    (2)基于圖神經(jīng)網(wǎng)絡(luò)的方法

    圖卷積神經(jīng)網(wǎng)絡(luò)(graph convolutional network,GCN)[28]通過(guò)聚合知識(shí)圖譜中每個(gè)實(shí)體的鄰居實(shí)體來(lái)傳遞消息。GCN因?yàn)槠湓趫D結(jié)構(gòu)上的有效性和可伸縮性而受到廣泛利用,它是多跳推理方法采用的復(fù)雜圖神經(jīng)網(wǎng)絡(luò)的基礎(chǔ),如圖2所示。Schlichtkrull M等人[29]提出關(guān)系圖卷積網(wǎng)絡(luò)(relational graph convolutional network,R-GCN),最早將圖卷積神經(jīng)網(wǎng)絡(luò)用于知識(shí)圖譜鏈接預(yù)測(cè)的研究任務(wù),通過(guò)聚合特定關(guān)系來(lái)擴(kuò)展GCN,使其適用于編碼多關(guān)系圖來(lái)預(yù)測(cè)多跳問(wèn)題的答案。R-GCN模型整體是一個(gè)encoderdecoder架構(gòu),encoder通過(guò)圖卷積神經(jīng)網(wǎng)絡(luò)將實(shí)體的鄰域信息進(jìn)行聚合,更新實(shí)體的表示;decoder基于更新后的實(shí)體表示,采用打分函數(shù)來(lái)預(yù)測(cè)邊。然而,該模型缺乏透明度,無(wú)法為關(guān)系選擇提供可解釋的依據(jù)。相比R-GCN,Teru K等人[30]提出的GraIL框架采用一種基于注意力機(jī)制的多關(guān)系圖神經(jīng)網(wǎng)絡(luò)模型來(lái)解決在知識(shí)圖譜上進(jìn)行歸納式關(guān)系預(yù)測(cè)的問(wèn)題。該注意力機(jī)制不僅和兩個(gè)相鄰實(shí)體以及它們之間的關(guān)系有關(guān),也和需要被預(yù)測(cè)的目標(biāo)關(guān)系有關(guān)。最終利用兩個(gè)目標(biāo)實(shí)體的表示、子圖的表示以及預(yù)測(cè)關(guān)系的表示進(jìn)行打分,將最高得分作為預(yù)測(cè)結(jié)果。歸納學(xué)習(xí)方法GraIL顯式編碼知識(shí)圖譜中的規(guī)則以及利用的注意力機(jī)制增強(qiáng)了模型的可解釋性。

    圖2 圖卷積神經(jīng)網(wǎng)絡(luò)

    近年來(lái),BERT(bidirectional encoder representations from transformers)[31]、 RoBERTa等預(yù)訓(xùn)練語(yǔ)言模型在智能問(wèn)答等自然語(yǔ)言處理(natural language processing,NLP)任務(wù)中取得了巨大的成功。但是預(yù)訓(xùn)練模型的知識(shí)是隱式學(xué)習(xí)的,無(wú)法明確表示出來(lái),因此無(wú)法提供可解釋的預(yù)測(cè)。為了利用預(yù)訓(xùn)練模型學(xué)習(xí)到的豐富知識(shí),并且結(jié)合知識(shí)圖譜中的顯式知識(shí)提高可解釋性,許多預(yù)訓(xùn)練模型結(jié)合知識(shí)圖譜的問(wèn)答模型[32-34]被提出,F(xiàn)eng Y L等人[33]提出的多跳圖關(guān)系網(wǎng)絡(luò)(multi-hop graph relation network,MHGRN)模型就是其中一種。MHGRN模型是一種新穎的多跳圖關(guān)系網(wǎng)絡(luò)模型,它結(jié)合了基于路徑的模型,具有可解釋性和基于GNN模型擴(kuò)展性強(qiáng)的優(yōu)點(diǎn),利用圖神經(jīng)網(wǎng)絡(luò)通過(guò)在實(shí)體之間傳遞消息來(lái)編碼結(jié)構(gòu)化信息,同時(shí)為了進(jìn)一步使模型具有顯式建模關(guān)系路徑的能力,將圖分解為路徑,并類似Lin B Y等人[32]提出的知識(shí)感知型圖神經(jīng)網(wǎng)絡(luò)(knowledge-aware graph network,KagNet)采用長(zhǎng)短期記憶(long shortterm memory,LSTM)網(wǎng)絡(luò)[35]對(duì)限定連接長(zhǎng)度的問(wèn)題實(shí)體和答案實(shí)體的所有路徑進(jìn)行編碼,然后通過(guò)注意力機(jī)制聚合所有路徑嵌入來(lái)預(yù)測(cè)結(jié)果。

    傳統(tǒng)智能問(wèn)答解決方法是單獨(dú)從知識(shí)圖譜或者文本中推斷出答案。文本雖然是非結(jié)構(gòu)化的知識(shí),但是可以提供豐富的上下文信息,將文本與知識(shí)圖譜結(jié)構(gòu)化的優(yōu)勢(shì)結(jié)合是最新的研究熱點(diǎn)。

    GRAFT-Net(graphs of relations among facts and text network)[36]和PullNet(pull network)[37]將外部文本語(yǔ)料庫(kù)和知識(shí)圖譜結(jié)合起來(lái)完成多跳問(wèn)答任務(wù)。GRAFT-Net將Wikipedia語(yǔ)料庫(kù)中的文檔和知識(shí)圖譜中的實(shí)體建模作為節(jié)點(diǎn),將實(shí)體和文檔的鏈接關(guān)系(句子中包含此實(shí)體名詞)以及知識(shí)圖譜中實(shí)體之間存在的關(guān)系建模為邊,構(gòu)建問(wèn)題子圖,以執(zhí)行多跳推理。具體而言,GRAFT-Net從問(wèn)題出發(fā),首先由問(wèn)題主題實(shí)體鏈接一些種子實(shí)體,再以種子實(shí)體為起點(diǎn),通過(guò)個(gè)性化頁(yè)面排名(personalized pagerank,PPR)[38]算法從它們的鄰居實(shí)體中取出PPR分?jǐn)?shù)最高的幾個(gè)實(shí)體及相關(guān)聯(lián)的邊,并將它們都加入問(wèn)題子圖中。同時(shí)從文本語(yǔ)料庫(kù)中檢索出5個(gè)與問(wèn)題高度相關(guān)的句子,并將可以鏈接到這些句子的實(shí)體一并加入問(wèn)題子圖中。最終問(wèn)題子圖由句子節(jié)點(diǎn)、實(shí)體節(jié)點(diǎn)以及句子和實(shí)體之間的鏈接關(guān)系、實(shí)體和實(shí)體之間的關(guān)系構(gòu)成。GRAFT-Net將實(shí)體節(jié)點(diǎn)隨機(jī)初始化為一個(gè)固定長(zhǎng)度的向量,然后基于圖卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)和更新問(wèn)題子圖中節(jié)點(diǎn)的向量表示,最后對(duì)問(wèn)題子圖中的實(shí)體節(jié)點(diǎn)進(jìn)行二分類來(lái)預(yù)測(cè)出哪些是答案實(shí)體,以完成推理過(guò)程。GRAFT-Net使用啟發(fā)式算法構(gòu)建的問(wèn)題子圖規(guī)模過(guò)大,并且很多時(shí)候可能不包含答案。PullNet同樣基于圖卷積網(wǎng)絡(luò),但不同于GRAFT-Net,PullNet不要求將整個(gè)子圖一步構(gòu)建完成,而是迭代式學(xué)習(xí)構(gòu)建的過(guò)程。PullNet迭代地構(gòu)建問(wèn)題子圖,初始子圖只包括問(wèn)題及其中的實(shí)體,每一次迭代時(shí),首先使用圖卷積網(wǎng)絡(luò)計(jì)算將子圖中的實(shí)體節(jié)點(diǎn)加入下一個(gè)迭代過(guò)程的概率,確定所有輸出概率大于設(shè)定閾值的實(shí)體,然后對(duì)每一個(gè)被選擇的實(shí)體,從文本語(yǔ)料庫(kù)檢索出相關(guān)的句子集合,從知識(shí)圖譜檢索出相關(guān)的三元組集合,將新檢索到的句子、三元組、句子中的實(shí)體以及三元組的頭實(shí)體和尾實(shí)體都視為新的節(jié)點(diǎn),將新節(jié)點(diǎn)之間的聯(lián)系視為新邊,用新節(jié)點(diǎn)和新邊更新問(wèn)題子圖。子圖構(gòu)建完成后,PullNet使用與GRAFT-Net相同的方法對(duì)節(jié)點(diǎn)進(jìn)行分類,找出最可能的答案實(shí)體。

    基于圖神經(jīng)網(wǎng)絡(luò)的方法在處理知識(shí)圖譜數(shù)據(jù)時(shí)具有更強(qiáng)的表達(dá)力,能夠充分考慮問(wèn)題中主題實(shí)體在圖譜中的相關(guān)實(shí)體和關(guān)系信息,但是依然存在實(shí)體鄰居信息稀疏時(shí)語(yǔ)義表示效果較差的挑戰(zhàn)。另外,隨著實(shí)體和關(guān)系不斷加入子圖中,計(jì)算成本和內(nèi)存消耗會(huì)迅速增加。盡管基于注意力機(jī)制的圖神經(jīng)網(wǎng)絡(luò)能夠自適應(yīng)地學(xué)習(xí)鄰居的重要性權(quán)重,但是依然不能完全解決此類問(wèn)題。

    (3)基于記憶網(wǎng)絡(luò)的方法

    傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)、LSTM網(wǎng)絡(luò)等深度學(xué)習(xí)模型使用隱藏層狀態(tài)作為其記憶模塊,但是這種方法產(chǎn)生的記憶力太短程,無(wú)法精確記住被轉(zhuǎn)化為稠密向量的長(zhǎng)路徑知識(shí)。Weston J等人[39]提出了一種可讀寫的外部記憶模塊,聯(lián)合記憶模塊保存場(chǎng)景信息,以實(shí)現(xiàn)長(zhǎng)期記憶的目標(biāo)。該方法中的記憶網(wǎng)絡(luò)包括I(input feature map)、G(generalization)、O(output feature map)、R(response)4個(gè)組件。I用來(lái)將輸入轉(zhuǎn)化為內(nèi)部特征向量表示;G用來(lái)更新記憶,并插入記憶槽中;O根據(jù)新的輸入和當(dāng)前的記憶狀態(tài)輸出特征映射表示;R把組件O的結(jié)果轉(zhuǎn)化為想要的輸出形式,如文本回答。該模型是本文接下來(lái)要介紹的復(fù)雜記憶網(wǎng)絡(luò)多跳知識(shí)問(wèn)答推理方法的基礎(chǔ),如圖3所示。

    基于Weston J等人[39]提出的記憶網(wǎng)絡(luò)模型,Miller A等人[40]提出了鍵值記憶網(wǎng)絡(luò)(key-value memory network,KVMemNN)模型,通過(guò)迭代更新存儲(chǔ)鍵值對(duì)(key-value)的記憶槽來(lái)完成多跳推理任務(wù)。此處的key指三元組中頭實(shí)體和關(guān)系的組合,value指尾實(shí)體。與Weston J等人[39]提出的記憶網(wǎng)絡(luò)相比,該模型能夠處理結(jié)構(gòu)復(fù)雜的知識(shí)圖譜知識(shí)。該模型通過(guò)以下過(guò)程完成一次迭代更新:首先使用向量表示用戶問(wèn)題和知識(shí)圖譜三元組,通過(guò)用戶問(wèn)題檢索知識(shí)圖譜得到相關(guān)子集,并作為鍵值記憶槽,然后計(jì)算每一個(gè)key和問(wèn)題的相關(guān)程度評(píng)分,根據(jù)評(píng)分對(duì)每個(gè)value加權(quán)求和,最后用得到的value向量更新問(wèn)題向量。經(jīng)過(guò)以上N步迭代后,對(duì)問(wèn)題向量進(jìn)行分類,最終得到多跳問(wèn)題的答案。KV-MemNN模型結(jié)構(gòu)簡(jiǎn)單,通用性強(qiáng),通過(guò)向量的迭代更新來(lái)進(jìn)行隱式推理。然而,復(fù)雜問(wèn)題需要進(jìn)行多次迭代表示,同時(shí)需要對(duì)應(yīng)構(gòu)造記憶槽,容易造成內(nèi)存不足以及訓(xùn)練時(shí)間慢等問(wèn)題。基于KVMemNN模型,Xu K等人[34]提出了一個(gè)新的用戶問(wèn)題表示更新機(jī)制,即在更新時(shí)不考慮問(wèn)題中已經(jīng)定位到的key值。該模型將問(wèn)題分解為針對(duì)記憶的查詢序列,基于上述更新機(jī)制,可以增強(qiáng)多跳復(fù)雜問(wèn)題的推理能力。但是上述方法對(duì)問(wèn)題和知識(shí)圖譜三元組分開(kāi)進(jìn)行編碼,忽略了兩者之間的交互作用。因此,Chen Y等人[41]提出了雙向注意記憶網(wǎng)絡(luò)模型,該模型利用注意機(jī)制捕捉問(wèn)題與知識(shí)圖譜信息之間的相關(guān)性,并利用此相關(guān)性增強(qiáng)問(wèn)題的表征來(lái)提高推理答案的能力。

    圖3 記憶網(wǎng)絡(luò)模型框架

    Das R等人[42]在2017年提出采用記憶網(wǎng)絡(luò)并基于通用模式在知識(shí)圖譜和文本上進(jìn)行多跳知識(shí)問(wèn)答推理,該框架通過(guò)將結(jié)構(gòu)化知識(shí)圖譜和非結(jié)構(gòu)化文本在一個(gè)公共嵌入空間中對(duì)齊,相比單獨(dú)使用知識(shí)圖譜或文本取得了更好的效果。動(dòng)態(tài)記憶網(wǎng)絡(luò)(dynamic memory network,DMN)模型和動(dòng)態(tài)記憶張量網(wǎng)絡(luò)(dynamic memory tensor network,DMTN)模型[43-44]采用動(dòng)態(tài)記憶網(wǎng)絡(luò),允許模型將注意力集中在之前迭代的輸入和結(jié)果上,形成情景記憶,然后在一個(gè)層次遞歸序列模型中推理得到答案。兩者不同的是,DMN采用門函數(shù)實(shí)現(xiàn)注意力機(jī)制,而DMTN采用的是神經(jīng)張量網(wǎng)絡(luò),以實(shí)現(xiàn)更好的推理效果。

    以上記憶網(wǎng)絡(luò)模型都取得了不錯(cuò)的效果,但是模型依然具有“黑盒”特性,可解釋性差。為了使多跳知識(shí)問(wèn)答推理過(guò)程更加可信,一些方法在保證模型準(zhǔn)確率的同時(shí)也嘗試增強(qiáng)模型的可解釋性。Zhou M T等人[45]提出的解釋推理網(wǎng)絡(luò)(interpretable reasoning network,IRN)是一種新穎的具有可解釋性的記憶網(wǎng)絡(luò)推理模型,它采用可解釋的逐跳推理過(guò)程來(lái)回答問(wèn)題。該模型可以動(dòng)態(tài)地決定輸入問(wèn)題的哪一部分應(yīng)該在哪一跳進(jìn)行分析,預(yù)測(cè)與當(dāng)前解析結(jié)果相對(duì)應(yīng)的關(guān)系,并利用預(yù)測(cè)的關(guān)系更新問(wèn)題表示和推理過(guò)程的狀態(tài),然后驅(qū)動(dòng)下一跳推理。該模型可以為推理分析和故障診斷提供可追蹤和可觀察的中間預(yù)測(cè),從而允許人工操作來(lái)預(yù)測(cè)最終答案,這個(gè)過(guò)程提高了模型的透明度和可信賴度。

    3 基于路徑的多跳知識(shí)問(wèn)答推理

    為了更好地建模多跳知識(shí),基于路徑的方法受到了廣泛關(guān)注。知識(shí)圖譜中的結(jié)構(gòu)化知識(shí)以三元組的形式存在,基于路徑的多跳知識(shí)問(wèn)答推理以用戶問(wèn)題中的主題實(shí)體為源實(shí)體,沿著知識(shí)圖譜多個(gè)三元組的頭實(shí)體、關(guān)系、尾實(shí)體的逐跳路徑進(jìn)行搜索,找到答案實(shí)體或者關(guān)系,通常包括3個(gè)階段:處理輸入問(wèn)題、對(duì)知識(shí)圖譜進(jìn)行推理、預(yù)測(cè)答案。以下將基于路徑的多跳知識(shí)問(wèn)答推理方法分為基于強(qiáng)化學(xué)習(xí)的方法、基于查詢圖的方法。

    (1)基于強(qiáng)化學(xué)習(xí)的方法

    路徑排序算法(path-ranking algorithm,PRA)[46]是一種有效的大規(guī)模知識(shí)圖譜推理路徑學(xué)習(xí)方法?;诼窂脚判蛩惴ǖ亩嗵R(shí)問(wèn)答推理方法的主要思想是利用實(shí)體之間的復(fù)雜路徑特征來(lái)學(xué)習(xí)隨機(jī)游走器,進(jìn)而推斷出答案。

    與PRA基于隨機(jī)游走的路徑查找模型不同,Xiong W H等人[47]提出的DeepPath是一種創(chuàng)新的可控多跳推理方法。該方法將路徑搜索轉(zhuǎn)化為強(qiáng)化學(xué)習(xí)過(guò)程,該過(guò)程允許通過(guò)控制所找到的路徑的屬性來(lái)減小搜索空間。模型如圖4所示,該強(qiáng)化學(xué)習(xí)方法包括兩部分:第一部分是被建模為馬爾可夫決策過(guò)程的外部環(huán)境,指定智能體和知識(shí)圖譜之間的動(dòng)態(tài)交互;第二部分是策略網(wǎng)絡(luò)智能體,將狀態(tài)向量映射到隨機(jī)策略中。在每一步中,通過(guò)與環(huán)境的交互,智能體學(xué)習(xí)選擇一個(gè)關(guān)系鏈接來(lái)擴(kuò)展推理路徑。為了更好地指導(dǎo)強(qiáng)化學(xué)習(xí)智能體學(xué)習(xí)到目標(biāo)關(guān)系路徑,與之前的研究相比,該方法更多地考慮了獎(jiǎng)勵(lì)的設(shè)置,在準(zhǔn)確性、多樣性和精確度3個(gè)方面采用獎(jiǎng)勵(lì)機(jī)制,監(jiān)督每一跳的行動(dòng),具體方式如下。

    圖4 DeepPath模型

    在環(huán)境設(shè)置中,強(qiáng)化學(xué)習(xí)智能體的決策數(shù)量包括正確決策的數(shù)量以及錯(cuò)誤決策的數(shù)量,總體數(shù)量很大。其中,錯(cuò)誤決策序列的數(shù)量會(huì)隨著路徑的長(zhǎng)度呈指數(shù)增長(zhǎng)。鑒于此挑戰(zhàn),DeepPath模型添加的第一個(gè)獎(jiǎng)勵(lì)函數(shù)定義如下:

    相比長(zhǎng)路徑,短路徑通常能提供更多可靠的推理證據(jù)。短路徑鏈條通過(guò)限制智能體與環(huán)境交互的長(zhǎng)度,提升推理的效率。因此,DeepPath定義高效獎(jiǎng)勵(lì)如下:

    知識(shí)圖譜中存在很多語(yǔ)義相似的實(shí)體,這導(dǎo)致智能體有可能尋找到具有相似語(yǔ)法和語(yǔ)義的路徑,這些路徑通常包含冗余信息。為了鼓勵(lì)智能體找到多樣化的路徑,DeepPath使用當(dāng)前路徑和已有路徑之間的余弦相似度定義一個(gè)多樣化獎(jiǎng)勵(lì)函數(shù):

    Meilicke C等人[48]提出的AnyBRUL(reinforced anytime bottom up rule learning)方法同樣利用強(qiáng)化學(xué)習(xí)對(duì)路徑進(jìn)行采樣,基于采樣路徑構(gòu)造基本規(guī)則,并將其推廣為抽象規(guī)則。DeepPath和AnyBRUL都要求首先對(duì)頭實(shí)體和尾實(shí)體之間的所有路徑進(jìn)行取樣,然后利用它們來(lái)評(píng)估尾實(shí)體是否為正確的答案,因此,它無(wú)法應(yīng)對(duì)找不到尾實(shí)體的情況。與DeepPath和AnyBRUL需要預(yù)先計(jì)算路徑的方式不同,有些方法通過(guò)給定的頭實(shí)體和查詢關(guān)系利用訓(xùn)練模型來(lái)獲得正確的答案實(shí)體。在這些模型中,Das R等人[49]在2018年提出的MINERVA(meandering in networks of entities to reach verisimilar answer)是一個(gè)代表性模型。與DeepPath不同的是,MINERVA的狀態(tài)由查詢關(guān)系和部分路徑的嵌入組成,在抽樣過(guò)程中不需要嵌入答案實(shí)體。

    強(qiáng)化學(xué)習(xí)模型通常采用一個(gè)0/1的硬獎(jiǎng)勵(lì)來(lái)監(jiān)督抽樣過(guò)程,指示抽樣實(shí)體是否為正確的答案實(shí)體。Lin X V等人[50]提出的RS(reward shaping)在最后一步采用基于正確答案實(shí)體和采樣實(shí)體之間的軟獎(jiǎng)勵(lì),而不是使用0/1的硬獎(jiǎng)勵(lì)。此外,受dropout技術(shù)的啟發(fā),RS模型在訓(xùn)練過(guò)程中為了避免選擇大量的重復(fù)路徑,緩解過(guò)擬合,采用了dropout技術(shù)。Shen Y L等人[51]提出的M-Walk引入了一種基于值的強(qiáng)化學(xué)習(xí)方法,并使用蒙特卡洛樹(shù)搜索來(lái)克服稀疏正獎(jiǎng)勵(lì)的挑戰(zhàn)。Chen W H等人[52]提出的DIVA將推理任務(wù)當(dāng)作一個(gè)由尋找路徑和答案推理組成的統(tǒng)一模型,其中路徑建模為隱變量,采用AEVB(autoencoding variational Bayes)[53]對(duì)模型進(jìn)行求解。

    基于強(qiáng)化學(xué)習(xí)的方法把多跳知識(shí)問(wèn)答推理任務(wù)當(dāng)作序列決策過(guò)程,只需一些目標(biāo)即可得到泛化能力較強(qiáng)的模型,無(wú)須大量的標(biāo)注語(yǔ)料。但是在面臨復(fù)雜的多跳知識(shí)推理場(chǎng)景時(shí),智能體的決策能力往往不足。

    (2)基于查詢圖的方法

    基于路徑排序的方法容易造成搜索空間爆炸,而基于查詢圖的方法是基于路徑方法的擴(kuò)展,與基于路徑的方法生成從主題實(shí)體到答案的路徑方式不同,基于查詢圖的方法使用圖來(lái)表示問(wèn)題,并圍繞主題實(shí)體擴(kuò)展出一個(gè)子圖,基于查詢圖的方法比基于路徑的方法更具表示能力。

    早期的基于語(yǔ)義解析的方法 將自然語(yǔ)言問(wèn)題轉(zhuǎn)換為結(jié)構(gòu)化的查詢(如SPARQL查詢),在知識(shí)圖譜上執(zhí)行查詢可以得到問(wèn)題的答案。Reddy S等人[54]等人充分使用了組合范疇語(yǔ)法(combinatory categorial grammar,CCG)的表示能力,并提出Graph Parser模型來(lái)解析問(wèn)題,受此啟發(fā),Yih W T等人[20]在2015年定義了查詢圖的概念,并提出了一個(gè)分階段的查詢圖生成(staged query graph generation,STAGG)模型來(lái)處理知識(shí)圖譜問(wèn)答,查詢圖可以直接匹配為問(wèn)題的邏輯形式,進(jìn)而翻譯成查詢,因此語(yǔ)義解析問(wèn)題可歸結(jié)為查詢圖生成問(wèn)題。STAGG定義了3個(gè)階段來(lái)生成查詢圖:首先,使用現(xiàn)有的實(shí)體鏈接工具獲取候選主題實(shí)體,并對(duì)其評(píng)分;然后,STAGG探索主題實(shí)體和答案節(jié)點(diǎn)之間的所有關(guān)系路徑,為了限制搜索空間,它僅在下一跳的節(jié)點(diǎn)是一個(gè)復(fù)合類型(compound value type,CVT)節(jié)點(diǎn)時(shí),探索長(zhǎng)度為2的路徑,否則只考慮長(zhǎng)度為1的路徑,使用深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)所有關(guān)系路徑進(jìn)行打分,以判斷當(dāng)前選擇的關(guān)系與問(wèn)題的匹配程度;最后,根據(jù)啟發(fā)式規(guī)則將約束節(jié)點(diǎn)附加到關(guān)系路徑上。在這3個(gè)階段的每個(gè)階段,都使用對(duì)數(shù)線性模型對(duì)當(dāng)前的部分查詢圖進(jìn)行評(píng)分,并輸出最佳的最終查詢圖來(lái)查詢知識(shí)圖譜。STAGG有效地使用了知識(shí)圖譜中的信息來(lái)裁剪語(yǔ)義解析空間,從而簡(jiǎn)化了任務(wù)難度。

    針對(duì)STAGG無(wú)法回答涵蓋復(fù)雜約束的問(wèn)題,Bao J W等人[55]擴(kuò)展了約束類型和運(yùn)算符,新增了類型約束以及顯式和隱式時(shí)間約束等,將多重約束問(wèn)題轉(zhuǎn)化為多重約束查詢圖(multi-constraint query graph,MulCG)來(lái)實(shí)現(xiàn)推理,MulCG仍然遵循STAGG的框架,但提供了更多規(guī)則,以應(yīng)對(duì)復(fù)雜問(wèn)題。STAGG和MulCG等方法都要求首先將問(wèn)題中的候選主題實(shí)體鏈接到知識(shí)圖譜的實(shí)體上,實(shí)體鏈接的質(zhì)量將影響后續(xù)的推理效果。Yu M等人[56]將知識(shí) 圖譜問(wèn)答分為實(shí)體鏈接和關(guān)系檢測(cè)兩個(gè)關(guān)鍵的子任務(wù),并提出了一個(gè)殘差學(xué)習(xí)增強(qiáng)的分級(jí)的雙向LSTM(hierarchical residual bidirectional LSTM,HRBiLSTM)用于關(guān)系檢測(cè)。對(duì)于實(shí)體鏈接,他們觀察到,在SimpleQuestions數(shù)據(jù)集上主題實(shí)體識(shí)別的Top-1準(zhǔn)確率只有72.7%,因此在由實(shí)體鏈接器產(chǎn)生初始的候選主題實(shí)體后,又將問(wèn)題文本輸入HR-BiLSTM中,HR-BiLSTM對(duì)問(wèn)題以及在知識(shí)圖譜中與候選主題實(shí)體相關(guān)聯(lián)的關(guān)系進(jìn)行不同抽象級(jí)別的編碼,并計(jì)算兩者的相似度得分,僅保留與那些得分較高的關(guān)系相關(guān)聯(lián)的候選主題實(shí)體。在確定了新的主題實(shí)體后,同樣使用HR-BiLSTM選擇新的關(guān)系,以逐步地生成查詢。在處理問(wèn)題約束時(shí),HRBiLSTM也遵循STAGG中的慣例。

    為了限制搜索空間,STAGG只能探索2跳之內(nèi)的路徑,無(wú)法回答涉及更多跳推理的問(wèn)題。Lan Y S等人[57]改進(jìn)了STAGG方法,使其可以應(yīng)對(duì)更長(zhǎng)的關(guān)系路徑,即在擴(kuò)展路徑的同時(shí)加入約束,而不是只在建立關(guān)系路徑之后再添加約束,如此可以有效地縮減搜索空間,改進(jìn)的分級(jí)查詢圖生成方法可以同時(shí)處理包含約束的問(wèn)答和涉及多跳的問(wèn)答,該方法在WebQuestionsSP(WebQSP)[58]系列數(shù)據(jù)集上取得了優(yōu)異的表現(xiàn)。

    基于路徑的多跳知識(shí)問(wèn)答推理方法具有較好的可解釋性。但只能處理關(guān)系型知識(shí),在處理屬性型、事實(shí)型知識(shí)時(shí),建模復(fù)雜。

    4 基于邏輯的多跳知識(shí)問(wèn)答推理

    基于符號(hào)邏輯規(guī)則的方法因其準(zhǔn)確率高、可解釋性強(qiáng)等優(yōu)點(diǎn),在多跳知識(shí)問(wèn)答推理研究中被廣泛探討。其中,作為邏輯規(guī)則的主要方法,或結(jié)合概率邏輯方法,或結(jié)合知識(shí)嵌入方法,一階邏輯近幾年已成為研究熱點(diǎn)。本節(jié)重點(diǎn)介紹基于一階邏輯的多跳知識(shí)推理方法的思路。

    結(jié)合一階邏輯的自然性和概率邏輯模型的不確定性優(yōu)點(diǎn),馬爾可夫邏輯網(wǎng)絡(luò)方法已被證明在知識(shí)圖推理上的有效性[59-60]。然而,在大規(guī)模知識(shí)圖譜上由于三元組之間的復(fù)雜結(jié)構(gòu),以上方法推理過(guò)程困難,效率較低?;谧⒁饬C(jī)制的圖神經(jīng)網(wǎng)絡(luò)擅長(zhǎng)處理高度復(fù)雜的圖問(wèn)題,Vardhan V H等人[61]提出的概率邏輯圖注意力網(wǎng)絡(luò)(probabilistic logic graph attention network,pGAT)用變分EM算法優(yōu)化了由馬爾可夫邏輯網(wǎng)絡(luò)定義的所有可能三元組的聯(lián)合分布。這有助于模型有效地結(jié)合一階邏輯和圖注意力網(wǎng)絡(luò)。該推理模型的提出為多跳知識(shí)問(wèn)答提供了有利的參考。

    近年來(lái),為了解決知識(shí)圖譜存在的規(guī)模龐大和不完整問(wèn)題,邏輯規(guī)則與知識(shí)嵌入相結(jié)合的研究[61-66]受到很多關(guān)注。圖查詢嵌入(graph query embedding,GQE)[62]、Query2Box[67]以及BetaE[63]等方法將查詢表示成有向無(wú)環(huán)的計(jì)算圖,計(jì)算圖指明了在知識(shí)圖譜上進(jìn)行多跳推理以獲得目標(biāo)答案的步驟。這些方法將一階邏輯運(yùn)算符看作可通過(guò)訓(xùn)練習(xí)得的幾何操作,它們都以查詢包含的主題實(shí)體的嵌入向量為起點(diǎn),迭代地使用幾何操作生成查詢的嵌入向量,然后通過(guò)在向量空間中計(jì)算實(shí)體嵌入與查詢嵌入的距離來(lái)預(yù)測(cè)答案。

    GQE主要關(guān)注一階邏輯查詢的一個(gè)子集,即只涉及存在量詞和合取運(yùn)算的查詢。GQE提出了兩個(gè)核心的幾何運(yùn)算符P(projection)和I(intersection),其中P負(fù)責(zé)根據(jù)下一跳的關(guān)系r將當(dāng)前生成的查詢嵌入q投射為新的查詢嵌入向量,I負(fù)責(zé)聚集計(jì)算圖中出邊指向同一個(gè)節(jié)點(diǎn)的所有頂點(diǎn)的嵌入向量表示,以模擬邏輯合取運(yùn)算。P和I由式(4)實(shí)現(xiàn):

    其中,Rr和Wr是關(guān)于關(guān)系r的可訓(xùn)練的參數(shù)矩陣,NNk是一個(gè)k層的前饋神經(jīng)網(wǎng)絡(luò),Ψ是一個(gè)對(duì)稱的向量函數(shù)。

    GQE將查詢嵌入為向量空間中的一個(gè)點(diǎn)。Query2Box認(rèn)為復(fù)雜的一階邏輯查詢對(duì)應(yīng)一個(gè)答案實(shí)體集合,但目前一個(gè)點(diǎn)不能有效地建模一個(gè)集合,并且在向量空間中對(duì)兩個(gè)點(diǎn)做邏輯運(yùn)算也不自然,故Query2Box將查詢嵌入為向量空間中的box。box由中心點(diǎn)和偏移兩部分組成,答案實(shí)體嵌入為一個(gè)點(diǎn)應(yīng)包含在對(duì)應(yīng)的box中,關(guān)系嵌入也表示成中心點(diǎn)和偏移項(xiàng)兩部分。查詢包含的實(shí)體節(jié)點(diǎn)的嵌入被初始化為偏移項(xiàng)為0的box,對(duì)于當(dāng)前輸入的box嵌入p和下一跳關(guān)系嵌入r,關(guān)系嵌入也表示成中心點(diǎn)和偏移項(xiàng)兩部分,P操作通過(guò)在向量空間中將p和r相加產(chǎn)生新的box,I操作取多個(gè)box的交集作為結(jié)果,按照計(jì)算圖中的運(yùn)算逐步推理,即可生成查詢最終的box嵌入。Query2Box還在GQE的基礎(chǔ)上增加了析取V運(yùn)算,擴(kuò)充了邏輯查詢的功能。GQE和Query2Box等方法將查詢嵌入為閉區(qū)域,比如歐幾里得空間中的一個(gè)點(diǎn)或一個(gè)box,而因?yàn)閷?duì)閉區(qū)域取補(bǔ)并不能得到閉區(qū)域,所以這些方法不能支持邏輯取負(fù)運(yùn)算,并且不能對(duì)不確定性進(jìn)行建模。有別于Query2Box等,BetaE將實(shí)體和查詢嵌入為[0,1]區(qū)間上的β分布,并為β向量定義了概率關(guān)系投射、概率交和概率取負(fù)3個(gè)概率邏輯運(yùn)算符,以支持任何形式的一階邏輯查詢。對(duì)β分布的參數(shù)取倒數(shù)即實(shí)現(xiàn)了取負(fù)運(yùn)算,即將高概率密度區(qū)域轉(zhuǎn)換為低概率密度區(qū)域,反之亦然。對(duì)于概率投射,BetaE為每一種關(guān)系類型學(xué)習(xí)一個(gè)多層感知器,以將一個(gè)β向量通過(guò)下一跳的關(guān)系r匹配到另一個(gè)β向量,BetaE將概率交定義為多個(gè)β向量的帶權(quán)積。同樣,按照計(jì)算圖中的推理次序?qū)ζ鹗嫉摩孪蛄孔鲎儞Q,即可生成查詢對(duì)應(yīng)的β分布,然后在嵌入空間選擇與查詢嵌入概率最相近的實(shí)體集作為答案。

    基于一階邏輯查詢的多跳知識(shí)問(wèn)答推理方法具有嚴(yán)密性、自然性,且準(zhǔn)確率高。為了模擬不確定性,一些研究將邏輯運(yùn)算和概率邏輯結(jié)合,或者將邏輯運(yùn)算轉(zhuǎn)換為嵌入向量空間的幾何操作,理論上可以進(jìn)行任意跳數(shù)的推理。但這些模型都不能很好地處理復(fù)雜知識(shí)查詢。

    5 實(shí)驗(yàn)評(píng)測(cè)

    對(duì)多跳知識(shí)問(wèn)答推理模型在現(xiàn)有的數(shù)據(jù)集上進(jìn)行評(píng)估可以驗(yàn)證模型的性能表現(xiàn)。目前常用的自然語(yǔ)言問(wèn)答數(shù)據(jù)集有MetaQA、WebQuestionsSP和ComplexWebQuestions(CWQ)等,另外,鏈接預(yù)測(cè)領(lǐng)域常用的數(shù)據(jù)集(如FB15k和FB15k-237等)也被用來(lái)構(gòu)造查詢形式的問(wèn)答,實(shí)現(xiàn)在知識(shí)圖譜上的推理。本節(jié)將介紹這些常用的評(píng)測(cè)數(shù)據(jù)集及評(píng)測(cè)指標(biāo),并對(duì)前文所述方法在以上數(shù)據(jù)集上的表現(xiàn)進(jìn)行了對(duì)比分析。

    永貞元年,呂溫得以從吐蕃平安回歸朝廷。呂溫雖未能親自參加永貞革新,但最終未能逃脫被貶的命運(yùn)。元和八年,呂溫與宰相李吉甫有間隙,被貶為道州任刺史,因政績(jī)突出,又調(diào)往衡州做刺史,后人稱之為“呂衡州”。呂溫在道州任職期間,著力解決當(dāng)?shù)匕傩丈钪写嬖诘膯?wèn)題。其《道州律令要錄序》中“昭昭吏師,長(zhǎng)在屋壁,后之貪虐放肆以生人為戲者,獨(dú)不愧于心?”[6]6337這類語(yǔ)句就表達(dá)了他的政治理想,抨擊了那些不關(guān)心下層百姓疾苦的官吏。呂溫任道州刺史一年半后,又被調(diào)任到衡州,在衡州任刺史期間,當(dāng)?shù)匚迕傩铡傲敼?,?zhēng)赴先期”,因“溪水阻深”而不幸溺死。呂溫為此作了《衡州祭柘里渡溺死百姓文》:

    5.1 評(píng)測(cè)數(shù)據(jù)集

    (1)MetaQA數(shù)據(jù)集

    MetaQA數(shù)據(jù)集[68]是基于WikiMovies[40]數(shù)據(jù)集構(gòu)建的多跳問(wèn)答數(shù)據(jù)集,它包含超過(guò)40萬(wàn)個(gè)電影領(lǐng)域的多跳問(wèn)題,這些問(wèn)題有Vanilla、NTM和Audio 3個(gè)版本。Vanilla版本的MetaQA常被用于多跳知識(shí)問(wèn)答推理任務(wù),它除了包含1跳、2跳和3跳3種類型的問(wèn)答數(shù)據(jù),還包含一個(gè)知識(shí)圖譜,其有約135 000個(gè)三元組、43 000個(gè)實(shí)體以及9種關(guān)系。

    (2)WebQuestionsSP數(shù)據(jù)集

    Yih W T等人[58]對(duì)WebQuestions數(shù)據(jù)集改進(jìn)后提出了WebQuestionsSP數(shù)據(jù)集。WebQuestions是為了解決真實(shí)問(wèn)題而構(gòu)造的數(shù)據(jù)集,其問(wèn)題來(lái)源于谷歌建議應(yīng)用程序接口(Google suggest API),答案由眾包平臺(tái)Amazon Mechanic Turk通過(guò)人工標(biāo)注生成。WebQuestions只包含了問(wèn)題的答案,沒(méi)有提供問(wèn)題對(duì)應(yīng)的查詢語(yǔ)句,針對(duì)此缺點(diǎn),WebQSP為每個(gè)問(wèn)題構(gòu)造了其對(duì)應(yīng)的SPARQL查詢表達(dá),并刪除了一些表達(dá)有歧義以及無(wú)清晰意圖或答案的問(wèn)題。WebQSP包含4 737個(gè)1跳或2跳問(wèn)題,問(wèn)題的答案可以在Freebase[69]知識(shí)庫(kù)中找到。

    (3)ComplexWebQuestions數(shù)據(jù)集

    Talmor A等人[70]基于WebQSP構(gòu)建了ComplexWebQuestions數(shù)據(jù)集。首先從WebQSP中采樣問(wèn)題及其SPARQL查詢,并自動(dòng)地構(gòu)造更復(fù)雜的包含組合、連接、比較級(jí)以及最高級(jí)等形式的SPARQL查詢,最后由Amazon Mechanic Turk眾包平臺(tái)將這些SPARQL查詢重組為自然語(yǔ)言問(wèn)題,問(wèn)題的答案通過(guò)在Freebase中執(zhí)行SPARQL查詢獲得。CWQ共包含34 689個(gè)問(wèn)題及其對(duì)應(yīng)的答案和SPARQL查詢。

    (4)其他數(shù)據(jù)集

    FB15k[14]是Freebase的一個(gè)子集,也是知識(shí)圖譜補(bǔ)全領(lǐng)域的一個(gè)基準(zhǔn)數(shù)據(jù)集,由三元組構(gòu)成。為了解決FB15k測(cè)試集數(shù)據(jù)泄露的問(wèn)題,Toutanova K等人[71]在FB15k的基礎(chǔ)上構(gòu)建了FB15k-237,并且移除了FB15k中反向的關(guān)系。NELL995[47]數(shù)據(jù)集由NELL系統(tǒng)構(gòu)建而來(lái)。

    5.2 評(píng)測(cè)指標(biāo)

    Hits@1、F1分?jǐn)?shù)、平均倒數(shù)排名(mean reciprocal rank,MRR)和平均精度均值(mean average precision,MAP)是常用來(lái)評(píng)估多跳知識(shí)問(wèn)答模型效果的指標(biāo)。把問(wèn)答視為問(wèn)題答案檢索任務(wù),Hits@1是指正確答案是最終排序的第一個(gè)的占比。F1分?jǐn)?shù)是指檢索到的答案的精確率和召回率的調(diào)和平均,取在所有問(wèn)題上的F1分?jǐn)?shù)的平均作為模型最終的F1結(jié)果。MRR指所有正確答案實(shí)體排名的倒數(shù)的均值。MAP指對(duì)所有查詢的平均正確率(average precision,AP)取均值的結(jié)果。

    5.3 實(shí)驗(yàn)結(jié)果及分析

    表1列出了部分多跳知識(shí)推理方法在相同實(shí)驗(yàn)數(shù)據(jù)集(MetaQA、WebQSP和CWQ)上Hits@1的結(jié)果[25],“-”表示在原文獻(xiàn)中對(duì)應(yīng)指標(biāo)的結(jié)果未給出,1-hop、2-hop和3-hop表示由源實(shí)體到目標(biāo)答案實(shí)體推理時(shí)分別需要經(jīng)過(guò)1跳、2跳和3跳。

    表1 模型在MetaQA、WebQSP、CWQ上的Hits@1

    由表1可以看出,在MetaQA數(shù)據(jù)集上,對(duì)于單跳問(wèn)題,幾個(gè)模型的Hits@1結(jié)果相近,而隨著推理跳數(shù)增加,KVMemNN和GRAFT-Net兩個(gè)模型的性能有了明顯的下降。相較于KV-MemNN和GRAFT-Net,PullNet在3跳問(wèn)題上仍然取得了不錯(cuò)的表現(xiàn),且PullNet在3個(gè)數(shù)據(jù)集上都取得了顯著的結(jié)果,充分顯示了其提出的迭代構(gòu)建問(wèn)題子圖方法的有效性以及圖神經(jīng)網(wǎng)絡(luò)在基于知識(shí)圖譜的多跳推理問(wèn)題上的適用性。相比KV-MemNN、GRAFT-Net和PullNet,EmbedKGQA在MetaQA數(shù)據(jù)集的平均Hits@1值更高,在WebQSP數(shù)據(jù)集上也表現(xiàn)突出,證明了EmbedKGQA基于語(yǔ)義匹配的方法在解決多跳問(wèn)答問(wèn)題上的有效性。NSM+h[25]總體上優(yōu)于表1中的其他所有模型,表明了使用Teacher-Student網(wǎng)絡(luò)模型學(xué)習(xí)中間監(jiān)督信號(hào)可以很好地提升推理能力。

    表2列出了基于邏輯的模型(GQE、Q2B(Query2Box)、BetaE)在FB15k、FB15k-237和NELL-995 3個(gè)數(shù)據(jù)集上多跳推理的結(jié)果[63]。

    對(duì)比它們的結(jié)果可以看出,對(duì)于表2中所有數(shù)據(jù)集,Q2B在1-hop、2-hop、3-hop問(wèn)題上的表現(xiàn)均優(yōu)于GQE,證明了在理論上將查詢(問(wèn)題)嵌入為向量空間中的一個(gè)box而不是一個(gè)點(diǎn)的思想更合理,而且在實(shí)際中也能取得更好的結(jié)果。3個(gè)模型中BetaE在多跳推理任務(wù)上的平均MRR最大,顯示了概率嵌入在邏輯查詢領(lǐng)域相對(duì)于傳統(tǒng)方法的有效性。

    表3列出了部分基于強(qiáng)化學(xué)習(xí)的多跳知識(shí)問(wèn)答方法[48-51]在FB15k、FB15k-237和NELL-995 3個(gè)數(shù)據(jù)集上的結(jié)果,采用的評(píng)測(cè)指標(biāo)有Hits@1和MAP,“-”表示在原文獻(xiàn)中對(duì)應(yīng)指標(biāo)的結(jié)果未給出。由表3可以看出,在FB15k-237數(shù)據(jù)集上,RewardShaping[50]的Hits@1結(jié)果比MINERVA高出了11%,這很可能因?yàn)镸INERVA中的智能體在訓(xùn)練時(shí)會(huì)受到假負(fù)樣本的影響,導(dǎo)致低質(zhì)量的獎(jiǎng)勵(lì),并且由于缺乏正確的動(dòng)作序列用于訓(xùn)練,智能體可能被假搜索軌跡誤導(dǎo)卻偶然地被引向了正確答案。RewardShaping針對(duì)以上問(wèn)題做了改進(jìn),使智能體探索更廣泛的路徑集合,以抵消對(duì)虛假路徑的敏感度。但在NELL-995數(shù)據(jù)集上,RewardShaping模型的表現(xiàn)并不強(qiáng)于MINERVA,因?yàn)镽ewardShaping適合處理一對(duì)多的關(guān)系類型,而NELL-995數(shù)據(jù)集中的關(guān)系類型大多是一對(duì)一的。從MAP結(jié)果來(lái)看,DIVA比DeepPath效果要好,這是因?yàn)镈eepPath關(guān)注于找到實(shí)體對(duì)間的路徑,缺少了對(duì)實(shí)體對(duì)是正樣本還是負(fù)樣本的判斷,導(dǎo)致實(shí)驗(yàn)結(jié)果對(duì)噪聲和對(duì)抗樣本敏感,而DIVA更擅長(zhǎng)處理噪聲和應(yīng)對(duì)更復(fù)雜的推理場(chǎng)景。M-Walk使用RNN編碼狀態(tài),并將蒙特卡洛搜索樹(shù)與神經(jīng)策略結(jié)合來(lái)應(yīng)對(duì)稀疏獎(jiǎng)勵(lì)的挑戰(zhàn),與DIVA、DeepPath相比,取得了更好的結(jié)果。

    6 結(jié)束語(yǔ)

    近年來(lái),國(guó)內(nèi)外涌現(xiàn)了很多基于知識(shí)圖譜的多跳問(wèn)答推理方法,這些方法都取得了一定的進(jìn)展,但仍然存在一些挑戰(zhàn)。

    隨著KGQA技術(shù)的不斷發(fā)展,智能問(wèn)答越來(lái)越多地深入人們的日常生活中,為人們的生活帶來(lái)便利。而在復(fù)雜的實(shí)際場(chǎng)景中,人們更加傾向表達(dá)更加復(fù)雜的多跳問(wèn)題,這使得多跳知識(shí)智能問(wèn)答成為必需,知識(shí)圖譜多跳問(wèn)答推理方法也得到越來(lái)越多的關(guān)注。本文基于3個(gè)主流分類,總結(jié)了近年來(lái)多跳知識(shí)問(wèn)答推理的研究方法。本文中很多方法是多種方式結(jié)合的形式,而分類方法是按照具體研究方法的重點(diǎn)創(chuàng)新和貢獻(xiàn)來(lái)劃分的。比如基于邏輯的分類中,BetaE方法雖然將知識(shí)圖譜實(shí)體表示為嵌入的方式,但是該方法表達(dá)的是一階邏輯求解答案的思想,是神經(jīng)網(wǎng)絡(luò)增強(qiáng)符號(hào)邏輯的一種方法體現(xiàn),故本文將該方法歸類為基于邏輯的方法。本文也闡述了常用的公開(kāi)數(shù)據(jù)集、評(píng)價(jià)指標(biāo),以及不同方法在每個(gè)數(shù)據(jù)集上的最新表現(xiàn)和分析。

    本文闡述的方法在實(shí)際應(yīng)用中依然存在瓶頸,主要面臨以下3個(gè)挑戰(zhàn)。

    ● 多跳知識(shí)問(wèn)答建模問(wèn)題:難以充分理解用戶復(fù)雜多跳問(wèn)題以及建模知識(shí)圖譜中的多跳關(guān)系。

    ● 小樣本學(xué)習(xí)問(wèn)題:在知識(shí)資源和訓(xùn)練數(shù)據(jù)有限的條件下,難以有效表征知識(shí)和推理答案。

    ● 可解釋性:深度學(xué)習(xí)在多跳知識(shí)問(wèn)答任務(wù)中有卓越的表現(xiàn),但是可解釋性差,導(dǎo)致模型缺少可信度。

    表2 GQE、Q2B、BetaE的MRR結(jié)果

    表3 基于強(qiáng)化學(xué)習(xí)的模型的結(jié)果

    各類多跳知識(shí)問(wèn)答推理方法的優(yōu)點(diǎn)和不足見(jiàn)表4。

    未來(lái),將從以下兩方面進(jìn)行更深入的研究。

    ● 隨著B(niǎo)ERT等預(yù)訓(xùn)練模型的出現(xiàn),多項(xiàng)自然語(yǔ)言處理任務(wù)(如智能問(wèn)答的性能)被刷新紀(jì)錄。隨著各類基于Transformer注意力機(jī)制的預(yù)訓(xùn)練模型層出不窮,很多研究者看好預(yù)訓(xùn)練模型和知識(shí)圖譜結(jié)合的方法。通過(guò)兩者結(jié)合,知識(shí)圖譜中的知識(shí)可以顯式指導(dǎo)要學(xué)習(xí)的知識(shí),進(jìn)而增強(qiáng)BERT對(duì)背景知識(shí)或常識(shí)信息的編碼能力,同時(shí)文本上下文和知識(shí)上下文的融合能夠增強(qiáng)多跳推理中長(zhǎng)路徑的特征表示,從而提升多跳知識(shí)問(wèn)答推理任務(wù)的表現(xiàn)性能。

    表4 基于知識(shí)圖譜的多跳問(wèn)答推理方法優(yōu)缺點(diǎn)

    ● 越來(lái)越多的互聯(lián)網(wǎng)數(shù)據(jù)以及行業(yè)數(shù)據(jù)呈現(xiàn)出多模態(tài)的特點(diǎn),表現(xiàn)為對(duì)同一事物采用圖譜知識(shí)、文本描述、圖像、信息圖表以及視頻等多種模態(tài)進(jìn)行表達(dá)。不久的未來(lái)將有更多關(guān)于多模態(tài)知識(shí)圖譜多跳問(wèn)答的研究,滿足人們?nèi)找嬖鲩L(zhǎng)的理解和認(rèn)知服務(wù)需求。多模態(tài)知識(shí)圖譜能夠提升知識(shí)的相關(guān)性和多樣性,從而更完整地表達(dá)對(duì)應(yīng)的圖譜中的知識(shí)。通過(guò)多模態(tài)豐富的知識(shí)表示,能夠進(jìn)一步保障多模態(tài)知識(shí)圖譜多跳問(wèn)答推理的效果。

    猜你喜歡
    三元組圖譜實(shí)體
    基于帶噪聲數(shù)據(jù)集的強(qiáng)魯棒性隱含三元組質(zhì)檢算法*
    特征標(biāo)三元組的本原誘導(dǎo)子
    繪一張成長(zhǎng)圖譜
    前海自貿(mào)區(qū):金融服務(wù)實(shí)體
    關(guān)于余撓三元組的periodic-模
    實(shí)體的可感部分與實(shí)體——兼論亞里士多德分析實(shí)體的兩種模式
    補(bǔ)腎強(qiáng)身片UPLC指紋圖譜
    中成藥(2017年3期)2017-05-17 06:09:01
    振興實(shí)體經(jīng)濟(jì)地方如何“釘釘子”
    兩會(huì)進(jìn)行時(shí):緊扣實(shí)體經(jīng)濟(jì)“釘釘子”
    主動(dòng)對(duì)接你思維的知識(shí)圖譜
    av线在线观看网站| 国产成人av激情在线播放| 一级毛片电影观看| 青春草亚洲视频在线观看| 男女高潮啪啪啪动态图| 欧美日韩视频高清一区二区三区二| 一区二区三区四区激情视频| 久久精品久久精品一区二区三区| 毛片一级片免费看久久久久| 久久国产亚洲av麻豆专区| 99久久综合免费| 人妻人人澡人人爽人人| 亚洲欧美中文字幕日韩二区| 国产精品国产三级国产专区5o| 亚洲国产欧美日韩在线播放| 亚洲av综合色区一区| www.自偷自拍.com| av在线老鸭窝| 国产xxxxx性猛交| 午夜福利一区二区在线看| 亚洲成av片中文字幕在线观看| 成人免费观看视频高清| 成年美女黄网站色视频大全免费| 高清黄色对白视频在线免费看| 最近最新中文字幕大全免费视频 | 日韩 欧美 亚洲 中文字幕| 久热这里只有精品99| 尾随美女入室| 尾随美女入室| 成人亚洲精品一区在线观看| 国产伦人伦偷精品视频| 男女边摸边吃奶| 免费观看a级毛片全部| 亚洲美女视频黄频| 国产成人欧美在线观看 | 黄片无遮挡物在线观看| 久久精品久久久久久噜噜老黄| 最新在线观看一区二区三区 | 观看av在线不卡| 免费不卡黄色视频| 男女边吃奶边做爰视频| 亚洲精品久久午夜乱码| 欧美日韩国产mv在线观看视频| 久久久久精品性色| 国产日韩欧美视频二区| 亚洲国产成人一精品久久久| 十八禁高潮呻吟视频| 青春草视频在线免费观看| 亚洲男人天堂网一区| 色94色欧美一区二区| 久久久久久久久久久免费av| 欧美日韩亚洲综合一区二区三区_| 国产精品 国内视频| 国产 一区精品| 亚洲免费av在线视频| 激情五月婷婷亚洲| av国产精品久久久久影院| 婷婷色综合www| 99热全是精品| 亚洲av成人不卡在线观看播放网 | 久久精品国产综合久久久| 曰老女人黄片| 如何舔出高潮| 日本欧美视频一区| 人人妻人人爽人人添夜夜欢视频| 亚洲av电影在线进入| 国产精品国产三级专区第一集| 精品一区二区三区四区五区乱码 | 亚洲国产av新网站| www.熟女人妻精品国产| 精品国产国语对白av| 国产精品久久久久久精品电影小说| 色播在线永久视频| 色播在线永久视频| 9热在线视频观看99| 老汉色∧v一级毛片| 国产日韩欧美亚洲二区| 成人午夜精彩视频在线观看| 亚洲精品美女久久av网站| 中文字幕另类日韩欧美亚洲嫩草| 亚洲av中文av极速乱| 国产极品粉嫩免费观看在线| 人妻一区二区av| 欧美最新免费一区二区三区| 日韩av不卡免费在线播放| 亚洲精品久久午夜乱码| 国产视频首页在线观看| 国精品久久久久久国模美| 国产精品久久久久成人av| 一边摸一边做爽爽视频免费| 九九爱精品视频在线观看| avwww免费| 成年人免费黄色播放视频| av.在线天堂| 欧美日韩视频精品一区| 99热网站在线观看| 国产精品免费大片| 在线观看国产h片| 女人爽到高潮嗷嗷叫在线视频| 国产精品免费视频内射| 精品亚洲成a人片在线观看| 亚洲成人国产一区在线观看 | 香蕉丝袜av| 十八禁人妻一区二区| av片东京热男人的天堂| 国产亚洲最大av| 精品国产国语对白av| 超碰97精品在线观看| avwww免费| 90打野战视频偷拍视频| 久久久久久久久久久久大奶| 午夜av观看不卡| av又黄又爽大尺度在线免费看| 91精品国产国语对白视频| a级毛片黄视频| 纯流量卡能插随身wifi吗| 波多野结衣av一区二区av| 欧美老熟妇乱子伦牲交| 国产av码专区亚洲av| 亚洲美女黄色视频免费看| 大片电影免费在线观看免费| 啦啦啦在线免费观看视频4| 亚洲欧美一区二区三区国产| 999久久久国产精品视频| 国产日韩欧美在线精品| 久久久久精品人妻al黑| 最近最新中文字幕大全免费视频 | 久久性视频一级片| 18禁裸乳无遮挡动漫免费视频| 国产精品女同一区二区软件| 91精品伊人久久大香线蕉| 日韩中文字幕欧美一区二区 | 亚洲精品久久成人aⅴ小说| 国产一区二区激情短视频 | 国产成人系列免费观看| www.av在线官网国产| 这个男人来自地球电影免费观看 | 黑人巨大精品欧美一区二区蜜桃| 国产毛片在线视频| 日韩av不卡免费在线播放| 日韩中文字幕视频在线看片| 啦啦啦视频在线资源免费观看| 水蜜桃什么品种好| 高清在线视频一区二区三区| 亚洲国产精品999| 日韩熟女老妇一区二区性免费视频| 视频在线观看一区二区三区| 日本一区二区免费在线视频| 夫妻午夜视频| 丰满少妇做爰视频| 亚洲专区中文字幕在线 | 中文字幕色久视频| 久久精品久久精品一区二区三区| a 毛片基地| 亚洲成人免费av在线播放| 考比视频在线观看| 韩国av在线不卡| 亚洲精品久久成人aⅴ小说| 国产福利在线免费观看视频| 中文欧美无线码| 成人三级做爰电影| 一级毛片我不卡| 亚洲精品在线美女| 99热全是精品| 国产成人免费无遮挡视频| 成年av动漫网址| 成人亚洲精品一区在线观看| 日日撸夜夜添| 精品卡一卡二卡四卡免费| 伊人久久大香线蕉亚洲五| 十八禁网站网址无遮挡| 男的添女的下面高潮视频| 久久久久国产一级毛片高清牌| 亚洲欧美一区二区三区久久| 亚洲图色成人| 美女高潮到喷水免费观看| 男人操女人黄网站| 亚洲国产精品一区三区| 亚洲五月色婷婷综合| 国产日韩欧美在线精品| 欧美最新免费一区二区三区| 欧美日韩一级在线毛片| 久久综合国产亚洲精品| 麻豆乱淫一区二区| 午夜免费观看性视频| 男女之事视频高清在线观看 | 色网站视频免费| 亚洲av成人精品一二三区| xxxhd国产人妻xxx| 少妇 在线观看| 在线观看免费视频网站a站| 亚洲国产精品一区二区三区在线| 操美女的视频在线观看| 在线观看免费高清a一片| 亚洲国产欧美日韩在线播放| 不卡视频在线观看欧美| 91aial.com中文字幕在线观看| 欧美日韩国产mv在线观看视频| 丁香六月天网| 国产男女超爽视频在线观看| 性少妇av在线| 色播在线永久视频| 国产乱人偷精品视频| 老司机影院毛片| 日本vs欧美在线观看视频| 一级毛片我不卡| 久久久国产欧美日韩av| 大陆偷拍与自拍| 日韩一卡2卡3卡4卡2021年| 国产免费一区二区三区四区乱码| 韩国精品一区二区三区| 亚洲成色77777| 少妇人妻久久综合中文| 亚洲国产欧美网| 97在线人人人人妻| 最近中文字幕2019免费版| 日日撸夜夜添| 我要看黄色一级片免费的| 少妇精品久久久久久久| 成年美女黄网站色视频大全免费| 啦啦啦在线观看免费高清www| 亚洲四区av| 亚洲国产看品久久| 母亲3免费完整高清在线观看| 久久久精品94久久精品| 国产亚洲av高清不卡| a级片在线免费高清观看视频| 日韩大码丰满熟妇| 国产成人av激情在线播放| 欧美 日韩 精品 国产| av有码第一页| 99久久精品国产亚洲精品| 亚洲精品国产av成人精品| 国产一区有黄有色的免费视频| 亚洲国产精品一区二区三区在线| 国产精品三级大全| 亚洲精品成人av观看孕妇| 人妻一区二区av| 中文字幕人妻熟女乱码| 热re99久久国产66热| 97在线人人人人妻| 亚洲欧美一区二区三区黑人| 亚洲欧洲日产国产| 日韩一区二区三区影片| 不卡视频在线观看欧美| 成人国产麻豆网| 夜夜骑夜夜射夜夜干| 精品一区二区三卡| 国产免费福利视频在线观看| a级毛片在线看网站| 色吧在线观看| 1024视频免费在线观看| 国产精品免费大片| 欧美乱码精品一区二区三区| 亚洲国产成人一精品久久久| 亚洲av欧美aⅴ国产| 欧美日韩国产mv在线观看视频| 美女中出高潮动态图| 欧美亚洲 丝袜 人妻 在线| 久久97久久精品| 免费看av在线观看网站| 国产黄色免费在线视频| 国产免费视频播放在线视频| 青春草视频在线免费观看| 91国产中文字幕| 中文乱码字字幕精品一区二区三区| 亚洲第一青青草原| 少妇的丰满在线观看| 欧美精品亚洲一区二区| 人体艺术视频欧美日本| 久久热在线av| 亚洲第一av免费看| 午夜老司机福利片| 国语对白做爰xxxⅹ性视频网站| 九九爱精品视频在线观看| 欧美变态另类bdsm刘玥| 国产av码专区亚洲av| 亚洲美女视频黄频| 久久97久久精品| 狂野欧美激情性bbbbbb| 狠狠精品人妻久久久久久综合| 美女午夜性视频免费| 亚洲人成电影观看| 在现免费观看毛片| 国产探花极品一区二区| 各种免费的搞黄视频| 曰老女人黄片| 丝袜美腿诱惑在线| 黄片无遮挡物在线观看| 女人爽到高潮嗷嗷叫在线视频| 国产精品香港三级国产av潘金莲 | 欧美精品一区二区大全| 夜夜骑夜夜射夜夜干| 一区二区日韩欧美中文字幕| 午夜老司机福利片| 狂野欧美激情性bbbbbb| 黄频高清免费视频| av国产精品久久久久影院| 新久久久久国产一级毛片| 观看av在线不卡| 日韩免费高清中文字幕av| 成人午夜精彩视频在线观看| 日韩人妻精品一区2区三区| 亚洲精品av麻豆狂野| 亚洲国产毛片av蜜桃av| 国产精品无大码| 最近的中文字幕免费完整| 五月开心婷婷网| 久久久精品国产亚洲av高清涩受| 亚洲国产精品成人久久小说| 天天操日日干夜夜撸| 丰满迷人的少妇在线观看| 亚洲av在线观看美女高潮| 美女大奶头黄色视频| 搡老乐熟女国产| 老司机在亚洲福利影院| 日韩精品免费视频一区二区三区| 亚洲av男天堂| 韩国精品一区二区三区| 丝袜人妻中文字幕| a级毛片黄视频| 天堂中文最新版在线下载| 综合色丁香网| 久久国产精品男人的天堂亚洲| 欧美日韩成人在线一区二区| 老司机在亚洲福利影院| 免费高清在线观看日韩| 毛片一级片免费看久久久久| 亚洲第一青青草原| 国产亚洲欧美精品永久| 男女之事视频高清在线观看 | 中国三级夫妇交换| 欧美乱码精品一区二区三区| 一本一本久久a久久精品综合妖精| 操美女的视频在线观看| av不卡在线播放| 久久亚洲国产成人精品v| 国产成人91sexporn| 国产爽快片一区二区三区| 日韩av在线免费看完整版不卡| 色播在线永久视频| 成人免费观看视频高清| 国产高清国产精品国产三级| 国产一区有黄有色的免费视频| 桃花免费在线播放| 飞空精品影院首页| 1024视频免费在线观看| 亚洲三区欧美一区| 母亲3免费完整高清在线观看| 久久99热这里只频精品6学生| 久久天堂一区二区三区四区| 亚洲免费av在线视频| 免费看av在线观看网站| 天天操日日干夜夜撸| 中文乱码字字幕精品一区二区三区| 性高湖久久久久久久久免费观看| www.熟女人妻精品国产| av线在线观看网站| 成人黄色视频免费在线看| 国产精品嫩草影院av在线观看| 欧美日本中文国产一区发布| 国产99久久九九免费精品| 男女无遮挡免费网站观看| 成人国产麻豆网| 9热在线视频观看99| 精品福利永久在线观看| 国产免费一区二区三区四区乱码| 亚洲精品美女久久久久99蜜臀 | 少妇人妻 视频| 中文字幕制服av| 纵有疾风起免费观看全集完整版| 亚洲婷婷狠狠爱综合网| 日韩,欧美,国产一区二区三区| 久久综合国产亚洲精品| 免费看不卡的av| 日本vs欧美在线观看视频| 97在线人人人人妻| 别揉我奶头~嗯~啊~动态视频 | 精品一区二区三区av网在线观看 | 国产在线视频一区二区| 成人三级做爰电影| 精品亚洲成a人片在线观看| 亚洲精品aⅴ在线观看| 久久精品久久精品一区二区三区| 伊人久久大香线蕉亚洲五| 久久精品aⅴ一区二区三区四区| 午夜福利网站1000一区二区三区| 成人影院久久| 亚洲熟女毛片儿| 91精品三级在线观看| 亚洲一级一片aⅴ在线观看| 女的被弄到高潮叫床怎么办| 两性夫妻黄色片| 亚洲成人一二三区av| av网站免费在线观看视频| 国产黄色视频一区二区在线观看| 天堂中文最新版在线下载| 中文乱码字字幕精品一区二区三区| 久久精品人人爽人人爽视色| 丰满迷人的少妇在线观看| 精品少妇黑人巨大在线播放| 一边亲一边摸免费视频| 午夜福利一区二区在线看| 亚洲欧美成人综合另类久久久| 亚洲精品国产av蜜桃| 国产成人精品无人区| 国产精品一区二区精品视频观看| 久久国产精品大桥未久av| 婷婷色综合www| 日韩熟女老妇一区二区性免费视频| 精品卡一卡二卡四卡免费| 在线精品无人区一区二区三| 日本爱情动作片www.在线观看| 午夜福利一区二区在线看| 亚洲av电影在线观看一区二区三区| 少妇精品久久久久久久| 欧美日韩福利视频一区二区| 亚洲国产精品国产精品| 黄片无遮挡物在线观看| 美女视频免费永久观看网站| 久久性视频一级片| 欧美 日韩 精品 国产| 亚洲一区二区三区欧美精品| 国产日韩欧美视频二区| 高清黄色对白视频在线免费看| 亚洲欧美中文字幕日韩二区| 亚洲欧美精品自产自拍| netflix在线观看网站| 欧美激情极品国产一区二区三区| 中国国产av一级| 中文字幕人妻丝袜一区二区 | 亚洲国产精品999| 亚洲精品日本国产第一区| 国产精品二区激情视频| 成人漫画全彩无遮挡| 亚洲国产日韩一区二区| 最近中文字幕高清免费大全6| 久久久国产精品麻豆| 日本av手机在线免费观看| 成年动漫av网址| 一级片'在线观看视频| 在线观看人妻少妇| 日日撸夜夜添| 精品亚洲成a人片在线观看| 亚洲综合色网址| 男女午夜视频在线观看| 国产亚洲欧美精品永久| 日韩一区二区视频免费看| 丰满迷人的少妇在线观看| 国产成人午夜福利电影在线观看| 啦啦啦在线免费观看视频4| 女人高潮潮喷娇喘18禁视频| 大片电影免费在线观看免费| 人人妻人人爽人人添夜夜欢视频| 久久久久国产一级毛片高清牌| 少妇被粗大的猛进出69影院| 精品一区二区三区av网在线观看 | 丝袜人妻中文字幕| 久久久久久人人人人人| 久久性视频一级片| 十八禁高潮呻吟视频| 国产熟女午夜一区二区三区| 91成人精品电影| 日本午夜av视频| 国产亚洲一区二区精品| 男女免费视频国产| 一级a爱视频在线免费观看| 欧美日韩亚洲综合一区二区三区_| 一级毛片电影观看| 国产午夜精品一二区理论片| 亚洲精品av麻豆狂野| 十八禁网站网址无遮挡| 亚洲自偷自拍图片 自拍| 亚洲av国产av综合av卡| 国产精品国产三级国产专区5o| 免费在线观看黄色视频的| 如何舔出高潮| 黑丝袜美女国产一区| 亚洲欧美中文字幕日韩二区| 日本av免费视频播放| 国产一级毛片在线| 在线天堂最新版资源| 天天躁日日躁夜夜躁夜夜| 国产高清不卡午夜福利| 亚洲欧美一区二区三区国产| 69精品国产乱码久久久| 日韩制服丝袜自拍偷拍| av网站在线播放免费| 日韩电影二区| 精品少妇久久久久久888优播| 不卡视频在线观看欧美| 2021少妇久久久久久久久久久| 亚洲欧美精品自产自拍| 免费看av在线观看网站| 亚洲色图 男人天堂 中文字幕| 男女午夜视频在线观看| 久久久久视频综合| a级片在线免费高清观看视频| www.熟女人妻精品国产| 岛国毛片在线播放| 亚洲 欧美一区二区三区| 天堂中文最新版在线下载| 亚洲四区av| 久久天躁狠狠躁夜夜2o2o | av电影中文网址| 久久天躁狠狠躁夜夜2o2o | 亚洲精品国产av蜜桃| 各种免费的搞黄视频| 高清在线视频一区二区三区| 在线观看三级黄色| 欧美黑人欧美精品刺激| 一区二区三区四区激情视频| 高清黄色对白视频在线免费看| 国产老妇伦熟女老妇高清| 国产一区二区三区av在线| 亚洲国产欧美日韩在线播放| 国产男人的电影天堂91| 99久久人妻综合| 男女边吃奶边做爰视频| 蜜桃在线观看..| 好男人视频免费观看在线| 色精品久久人妻99蜜桃| 国产亚洲一区二区精品| 一本色道久久久久久精品综合| 少妇精品久久久久久久| 人人澡人人妻人| 啦啦啦 在线观看视频| 欧美国产精品va在线观看不卡| 久久精品国产亚洲av高清一级| 精品国产超薄肉色丝袜足j| 亚洲美女视频黄频| 亚洲第一av免费看| 黄色怎么调成土黄色| av有码第一页| 国产精品免费视频内射| 91国产中文字幕| 国产一区有黄有色的免费视频| 777米奇影视久久| 亚洲成人国产一区在线观看 | 一本—道久久a久久精品蜜桃钙片| 国产一卡二卡三卡精品 | 搡老岳熟女国产| 国产精品亚洲av一区麻豆 | 熟女少妇亚洲综合色aaa.| 国产在线视频一区二区| 一区二区三区四区激情视频| 亚洲av欧美aⅴ国产| 久久人人97超碰香蕉20202| 七月丁香在线播放| 人妻一区二区av| 丁香六月欧美| 大陆偷拍与自拍| 在线观看免费高清a一片| 久久女婷五月综合色啪小说| 亚洲欧洲日产国产| 少妇精品久久久久久久| 自拍欧美九色日韩亚洲蝌蚪91| 巨乳人妻的诱惑在线观看| 国产激情久久老熟女| kizo精华| 久久99热这里只频精品6学生| 久久久国产精品麻豆| 一本大道久久a久久精品| 中文天堂在线官网| 国产精品国产三级国产专区5o| 成人黄色视频免费在线看| 九九爱精品视频在线观看| 国产男人的电影天堂91| av有码第一页| 亚洲欧美一区二区三区国产| 日韩成人av中文字幕在线观看| 蜜桃国产av成人99| 在线 av 中文字幕| 999精品在线视频| 高清黄色对白视频在线免费看| 多毛熟女@视频| 丝袜在线中文字幕| 亚洲av日韩在线播放| 啦啦啦在线观看免费高清www| 曰老女人黄片| 黄色视频不卡| 亚洲国产av新网站| 无限看片的www在线观看| 亚洲国产精品999| 中文精品一卡2卡3卡4更新| 亚洲三区欧美一区| 制服丝袜香蕉在线| 美国免费a级毛片| 欧美人与善性xxx| 丰满迷人的少妇在线观看| 一级爰片在线观看| 午夜激情久久久久久久| 亚洲少妇的诱惑av| 日韩一卡2卡3卡4卡2021年| 欧美精品亚洲一区二区| 亚洲,欧美,日韩| 亚洲成国产人片在线观看| 欧美亚洲日本最大视频资源| 日韩av在线免费看完整版不卡| 国产1区2区3区精品| av有码第一页| 精品少妇久久久久久888优播| 两个人免费观看高清视频| 精品一区二区三区四区五区乱码 | 久久狼人影院| 欧美日韩一级在线毛片| 欧美日韩亚洲高清精品| 超色免费av| 热re99久久国产66热| 久久久久久久久久久免费av| 成人18禁高潮啪啪吃奶动态图| 日韩一区二区视频免费看| 欧美人与性动交α欧美精品济南到| 美国免费a级毛片| 午夜福利网站1000一区二区三区|