• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合事實(shí)文本的問(wèn)句分解式語(yǔ)義解析方法

    2023-09-06 04:29:56楊玉倩高盛祥余正濤
    關(guān)鍵詞:知識(shí)庫(kù)語(yǔ)義解析

    楊玉倩,高盛祥,余正濤,宋 燃

    (昆明理工大學(xué) 信息工程與自動(dòng)化學(xué)院,昆明 650500)

    (昆明理工大學(xué) 云南省人工智能重點(diǎn)實(shí)驗(yàn)室,昆明 650500)

    1 引 言

    知識(shí)庫(kù)問(wèn)答(Knowledge Base Question Answering,KBQA)技術(shù)旨在從預(yù)先建立好的結(jié)構(gòu)化知識(shí)庫(kù)中查找問(wèn)題的答案,因其廣泛的應(yīng)用場(chǎng)景和巨大的應(yīng)用價(jià)值成為學(xué)術(shù)界和工業(yè)界的研究熱點(diǎn)之一.隨著知識(shí)庫(kù)的規(guī)模越來(lái)越大,如Freebase[1]、DBpedia[2]、Wikidata[3]等大型知識(shí)庫(kù)中存儲(chǔ)了豐富的關(guān)聯(lián)知識(shí),這為知識(shí)庫(kù)問(wèn)答提供了數(shù)據(jù)基礎(chǔ).

    然而,目前的問(wèn)答系統(tǒng)大多只能回答事實(shí)型問(wèn)題,不能很好的處理復(fù)雜問(wèn)題,難以理解問(wèn)題中的復(fù)雜語(yǔ)義[4].原因在于,回答一個(gè)復(fù)雜問(wèn)題通常會(huì)涉及知識(shí)庫(kù)中多個(gè)關(guān)聯(lián)的三元組信息,三元組需要滿足與問(wèn)題相關(guān)的約束條件,再經(jīng)過(guò)一系列多跳推理或數(shù)值計(jì)算才能得到正確答案[5,6].比如:“The author of The Art of War lived in what city? ”,這個(gè)復(fù)雜問(wèn)題的主題實(shí)體是“The Art of War”,涉及知識(shí)庫(kù)中兩個(gè)三元組信息,以“The Art of War”作為第1跳推理過(guò)程的起點(diǎn),即第1個(gè)三元組的頭實(shí)體,滿足相應(yīng)的謂詞約束“work_author”找到尾實(shí)體“Machiavelli”,再以該實(shí)體作為第二跳推理過(guò)程的起點(diǎn),找到滿足約束條件的謂詞關(guān)系“places_lived”和尾實(shí)體“Florence”,并把該實(shí)體作為正確答案返回.

    語(yǔ)義解析(Semantic Parsing,SP)作為知識(shí)庫(kù)問(wèn)答技術(shù)的主流方法之一,核心是將非結(jié)構(gòu)化的自然語(yǔ)言問(wèn)題轉(zhuǎn)化成機(jī)器能夠理解和執(zhí)行的形式語(yǔ)言,如SPARQL等,并使用該形式語(yǔ)言作為結(jié)構(gòu)化查詢語(yǔ)句對(duì)知識(shí)庫(kù)進(jìn)行查詢,從而獲取答案[7,8].目前,此類(lèi)方法在解析復(fù)雜問(wèn)題時(shí)主要依賴(lài)于句法分析方法,為句子中不同的詞標(biāo)記不同的角色,輔助解析句子的語(yǔ)義.但是,單純依靠基于句法的模型并不能很好的理解復(fù)雜問(wèn)題中的語(yǔ)義,會(huì)導(dǎo)致語(yǔ)義角色標(biāo)注錯(cuò)誤,從而影響后續(xù)推理與計(jì)算.并且,隨著問(wèn)題復(fù)雜度的提高,語(yǔ)義解析的方法幾乎失效.因此,如何更好地理解自然語(yǔ)言問(wèn)句中的復(fù)雜語(yǔ)義依舊是一個(gè)難點(diǎn)問(wèn)題.

    事實(shí)上,當(dāng)人類(lèi)在面臨復(fù)雜問(wèn)題時(shí),往往先將其簡(jiǎn)化成若干個(gè)簡(jiǎn)單問(wèn)題,先逐個(gè)回答簡(jiǎn)單問(wèn)題,再進(jìn)行整合和推理獲得最終答案.因此,將復(fù)雜問(wèn)題分解為若干簡(jiǎn)單問(wèn)題是解決復(fù)雜問(wèn)題語(yǔ)義理解的有效途徑.同樣地,我們可以借鑒這個(gè)分治的思想,先把復(fù)雜問(wèn)題分解得到簡(jiǎn)單問(wèn)題序列,這些簡(jiǎn)單問(wèn)題往往可以直接從知識(shí)庫(kù)中獲取答案,再整合簡(jiǎn)單問(wèn)題的信息生成查詢語(yǔ)句,這也更符合形式語(yǔ)言的邏輯結(jié)構(gòu),從而更好地生成查詢語(yǔ)句.然而,在將復(fù)雜問(wèn)題分解成簡(jiǎn)單問(wèn)題序列的過(guò)程中,模型往往會(huì)錯(cuò)誤地判斷或丟失問(wèn)句中的主題實(shí)體,這將導(dǎo)致分解后的子問(wèn)題與原始的復(fù)雜問(wèn)題并不匹配,從而生成錯(cuò)誤的查詢語(yǔ)句.如圖1(a)給出的錯(cuò)誤示例,原始復(fù)雜問(wèn)題的主題實(shí)體為“The Art of War”,經(jīng)問(wèn)句分解后得到兩個(gè)簡(jiǎn)單問(wèn)題,其中簡(jiǎn)單問(wèn)題1錯(cuò)誤地將“author”判斷為一個(gè)地點(diǎn),并且分解后的兩個(gè)簡(jiǎn)單問(wèn)題都丟失了主題實(shí)體,正確的分解結(jié)果如圖1(b)中第1階段所示.

    圖1 示例圖Fig.1 Sample graph

    針對(duì)上述問(wèn)題,本文提出了一種融合事實(shí)文本的問(wèn)句分解式語(yǔ)義解析模型.我們將知識(shí)庫(kù)中的三元組轉(zhuǎn)化成用自然語(yǔ)言描述的事實(shí)文本信息,構(gòu)建了一個(gè)事實(shí)文本庫(kù).并采用注意力機(jī)制獲取更豐富的知識(shí)表示作為輔助信息,使生成的子問(wèn)句與原問(wèn)題更加切合,提高了子問(wèn)句的質(zhì)量,有效減少了錯(cuò)誤傳播,進(jìn)而指導(dǎo)模型生成更好的查詢語(yǔ)句.本文將復(fù)雜問(wèn)題的語(yǔ)義解析過(guò)程分為3個(gè)階段,如圖1(b)所示,首先在問(wèn)句分解階段,將復(fù)雜問(wèn)題分解成一系列簡(jiǎn)單的子問(wèn)題序列;然后在信息抽取階段,對(duì)原問(wèn)題和子問(wèn)題序列進(jìn)行信息抽取和整合,獲取關(guān)鍵信息;最后在語(yǔ)義解析階段,生成相應(yīng)的結(jié)構(gòu)化查詢語(yǔ)句.本文的主要貢獻(xiàn)如下:

    1)構(gòu)建了一個(gè)事實(shí)文本庫(kù),將知識(shí)庫(kù)中用圖結(jié)構(gòu)表示的事實(shí)轉(zhuǎn)化成用自然語(yǔ)言描述的文本,使知識(shí)與問(wèn)句在形式上保持一致;

    2)利用文本庫(kù)感知注意力機(jī)制融合了關(guān)鍵的事實(shí)信息,改善了主題實(shí)體殘缺或錯(cuò)誤的問(wèn)題,進(jìn)而提高了分解后子問(wèn)題的質(zhì)量,減少了錯(cuò)誤傳播;

    3)提出了一種融合事實(shí)文本的問(wèn)句分解式語(yǔ)義解析模型,借鑒分治的思想對(duì)復(fù)雜問(wèn)題進(jìn)行分解,使模型更好地理解復(fù)雜語(yǔ)義,指導(dǎo)模型生成更精準(zhǔn)的查詢語(yǔ)句;

    4)在大規(guī)模公開(kāi)數(shù)據(jù)集ComplexWebQuestions[9]上驗(yàn)證了方法的合理性和有效性.

    2 相關(guān)工作

    2.1 語(yǔ)義解析

    基于語(yǔ)義解析的方法將自然語(yǔ)言描述的問(wèn)句解析為邏輯形式語(yǔ)言,然后在知識(shí)庫(kù)上執(zhí)行獲得答案.核心是從自然語(yǔ)言到邏輯形式的轉(zhuǎn)換.

    語(yǔ)義解析模型首先要充分理解一個(gè)問(wèn)題,分析問(wèn)句的語(yǔ)義和句法,將非結(jié)構(gòu)化的文本轉(zhuǎn)換為結(jié)構(gòu)表示.與簡(jiǎn)單問(wèn)題相比,復(fù)雜問(wèn)題具有更復(fù)雜的查詢類(lèi)型和組合語(yǔ)義,這增加了語(yǔ)言分析的難度.為了提高模型的理解能力,許多現(xiàn)有方法依賴(lài)于句法分析,如依存句法[10,11]和抽象語(yǔ)義表示[12],使句子成分和邏輯要素之間做到更好的對(duì)齊.但是在具有長(zhǎng)距離依賴(lài)的復(fù)雜問(wèn)題上,句法解析的準(zhǔn)確率較低,為了提升句法分析到下游語(yǔ)義解析任務(wù)的準(zhǔn)確率,Sun[13]等人用一種骨架結(jié)構(gòu)來(lái)表示復(fù)雜問(wèn)題的高級(jí)結(jié)構(gòu),本質(zhì)上是一個(gè)依賴(lài)語(yǔ)法的備選子集,以骨架結(jié)構(gòu)作為粗粒度的表示來(lái)獲取復(fù)雜問(wèn)題的主干.而另一類(lèi)方法旨在改進(jìn)邏輯形式和問(wèn)題之間的匹配程度,主要利用邏輯形式的結(jié)構(gòu)屬性(如樹(shù)結(jié)構(gòu)或圖結(jié)構(gòu))對(duì)候選解析進(jìn)行排序.Zhu[14]等人將查詢視為一棵樹(shù),將實(shí)體和關(guān)系的順序編碼到其表示中,首先從實(shí)體、類(lèi)型和數(shù)值運(yùn)算中構(gòu)造給定問(wèn)題的候選查詢,然后對(duì)候選查詢進(jìn)行編碼并將其解碼為給定的問(wèn)題,用一種基于樹(shù)的編碼器-解碼器結(jié)構(gòu)來(lái)正確建模查詢中實(shí)體或關(guān)系的上下文.Chen[15]等人將復(fù)雜的邏輯形式語(yǔ)法視為一個(gè)圖,將查詢圖生成視為一個(gè)分層決策問(wèn)題,先通過(guò)簡(jiǎn)單策略收集相關(guān)實(shí)例作為候選實(shí)例,然后通過(guò)槽填充分層生成查詢圖.但是復(fù)雜問(wèn)題的類(lèi)型多種多樣,其邏輯形式的表達(dá)方式也非常豐富,使得模型在生成邏輯形式的過(guò)程中面臨很多挑戰(zhàn).Lan[16]等人提出了一種迭代序列匹配模型來(lái)解析問(wèn)題,為找到答案實(shí)體迭代地增加候選關(guān)系路徑,逐步將匹配分?jǐn)?shù)分配給路徑,在回答多跳類(lèi)型的問(wèn)題上取得了很好的效果.為了使模型適應(yīng)更多的復(fù)雜類(lèi)型,Lan[17]提出了一種分段查詢圖生成方法,可以同時(shí)支持具有約束條件或多跳關(guān)系的復(fù)雜查詢,該方法可以更靈活地生成查詢圖,而且還有效地縮減了搜索空間.但是上述方法更關(guān)注于問(wèn)句的結(jié)構(gòu)信息,沒(méi)有充分利用迭代分解的思想來(lái)解決復(fù)雜知識(shí)庫(kù)問(wèn)答的研究難點(diǎn).

    2.2 問(wèn)句分解

    問(wèn)句分解技術(shù)逐漸成為解決復(fù)雜問(wèn)答的主流方法之一.通常復(fù)雜問(wèn)題具有組合性或嵌套性等特征,因此可以利用其結(jié)構(gòu)特征對(duì)復(fù)雜問(wèn)題進(jìn)行分解.Talmor[9]等人將復(fù)雜問(wèn)題的分解視為一顆計(jì)算樹(shù),采用指針網(wǎng)絡(luò)生成分割點(diǎn)做為計(jì)算樹(shù)的結(jié)點(diǎn),將原始輸入切割成若干文段,每一段是一個(gè)簡(jiǎn)單問(wèn)題.Shin[18]等人將復(fù)雜問(wèn)題視為一個(gè)完整查詢圖,根據(jù)復(fù)雜問(wèn)題的語(yǔ)法模式和依存句法樹(shù)將其拆分為多個(gè)子問(wèn)題,從預(yù)先定義的查詢圖庫(kù)中搜索對(duì)應(yīng)的子查詢圖.Guo[19]等人利用復(fù)雜問(wèn)題的組合性,采用迭代語(yǔ)義分割的方式來(lái)增強(qiáng)神經(jīng)語(yǔ)義解析器,從輸入中分割一個(gè)跨度并將其解析為部分表示,并將這一過(guò)程進(jìn)行迭代.此類(lèi)方法的優(yōu)勢(shì)是不需要任何手工模板或額外標(biāo)注數(shù)據(jù)來(lái)進(jìn)行語(yǔ)義分割,但得到的子問(wèn)題往往是不完整的,因此丟失了很多關(guān)鍵的有效信息.為了使模型在訓(xùn)練過(guò)程中能夠利用更多的知識(shí)信息,He[20]等人結(jié)合了實(shí)體信息和領(lǐng)域知識(shí)信息,用序列標(biāo)注的方式準(zhǔn)確地識(shí)別實(shí)體和相關(guān)屬性信息,將簡(jiǎn)單子問(wèn)題集合起來(lái)實(shí)現(xiàn)復(fù)雜問(wèn)題的自動(dòng)分解.Das[21]等人提出了一種基于案例推理的知識(shí)庫(kù)問(wèn)答方法,通過(guò)檢索的方式從訓(xùn)練集中檢索相關(guān)案例,利用其標(biāo)注信息和結(jié)構(gòu)信息,進(jìn)一步將復(fù)雜問(wèn)題轉(zhuǎn)化成若干簡(jiǎn)單問(wèn)題的表示.此類(lèi)方法在問(wèn)題分解時(shí)得到了完整的子問(wèn)題,具備更強(qiáng)的可解釋性,能夠獲得更豐富的知識(shí)信息,但模型遇到新的復(fù)雜問(wèn)題時(shí)泛化能力較差.Perez[22]等人采用無(wú)監(jiān)督的方法來(lái)生成子問(wèn)題,提出了一種一對(duì)多的無(wú)監(jiān)督序列轉(zhuǎn)導(dǎo)算法,將一個(gè)困難的多跳問(wèn)題映射到若干更簡(jiǎn)單的單跳子問(wèn)題.Zhang[23]等人則采用端到端的序列生成模型,將分解任務(wù)轉(zhuǎn)化成生成任務(wù),在Embedding層將復(fù)雜問(wèn)題分解成若干簡(jiǎn)單問(wèn)題,直接生成完整的子問(wèn)題,并且能夠適應(yīng)4種主流的復(fù)雜類(lèi)型.Zhang[24]等人則進(jìn)一步優(yōu)化了子問(wèn)題的回答順序,提出了一種強(qiáng)化學(xué)習(xí)的方法,動(dòng)態(tài)地決定在每個(gè)推理階段回答哪個(gè)子問(wèn)題.但此類(lèi)生成式的方法在分解階段不可避免的會(huì)產(chǎn)生很多錯(cuò)誤,導(dǎo)致子問(wèn)題與原始復(fù)雜問(wèn)題并不匹配,為后續(xù)的任務(wù)帶來(lái)錯(cuò)誤積累.

    3 任務(wù)定義

    本文對(duì)知識(shí)庫(kù)問(wèn)答技術(shù)的研究基于語(yǔ)義解析的方法,即對(duì)于一個(gè)給定的復(fù)雜問(wèn)題q={w1,…,w|q|}(wi(1≤i≤|q|)表示問(wèn)句中的詞),將其轉(zhuǎn)化為邏輯形式lf={w1…,w|lf|}(wi(1≤i≤|lf|)表示查詢語(yǔ)句中的詞).

    為了使模型能理解和回答復(fù)雜問(wèn)題,借鑒分治的思想:1)問(wèn)句分解模塊將復(fù)雜問(wèn)題分解成若干簡(jiǎn)單子問(wèn)題dq={w1,…,w|dq|}(wi(1≤i≤|dq|)表示子問(wèn)題中的詞);2)信息抽取模塊會(huì)抽取原始復(fù)雜問(wèn)題和子問(wèn)題序列中的有效信息ei={w1,…,w|ei|}(wi(1≤i≤|ei|)表示抽取的信息中的詞),包括問(wèn)題類(lèi)型和謂詞信息等;3)語(yǔ)義解析模塊會(huì)整合前兩階段的信息生成相應(yīng)的SPARQL語(yǔ)句.

    同時(shí),為了解決上述步驟中存在的錯(cuò)誤積累問(wèn)題,在每一階段都融入外部知識(shí).首先將知識(shí)庫(kù)K={V,R}(其中V代表實(shí)體集合,R代表關(guān)系集合)中與主題實(shí)體相關(guān)的三元組(vs,r,vo)∈K(其中vs,vo∈V,r∈R) 根據(jù)模板轉(zhuǎn)換成事實(shí)文本信息ft={w1,…,w|ft|}(wi(1≤i≤|ft|)表示事實(shí)文本句中的詞).然后計(jì)算它們與原始復(fù)雜問(wèn)題之間的語(yǔ)義相似度,選取top-n的句子作為外部知識(shí).最后采用注意力機(jī)制更新各階段的特征向量,融入外部信息.

    每個(gè)訓(xùn)練樣本都是一個(gè)五元組(q,lf,dq,ei,F),其中F=(ft1,…,ftn)為這一復(fù)雜問(wèn)題對(duì)應(yīng)的事實(shí)文本集合,包含n個(gè)事實(shí)文本句子.

    4 模 型

    4.1 模型總覽

    針對(duì)上述分治思想和錯(cuò)誤積累問(wèn)題,本文提出了融合事實(shí)文本的問(wèn)句分解式語(yǔ)義解析模型,整體結(jié)構(gòu)如圖2所示,主要包括4個(gè)部分:事實(shí)文本庫(kù)、問(wèn)句分解模塊、信息抽取模塊和語(yǔ)義解析模塊.其中,問(wèn)句分解模塊、信息抽取模塊和語(yǔ)義解析模塊都是基于Transformer[25]的編碼器-解碼器框架,在Transformer的基礎(chǔ)上利用文本庫(kù)感知注意力機(jī)制融入事實(shí)文本信息.其輸入是由輸入序列i=(i1,…,ii)和附加信息e=(e1,…,ee)兩部分組成,輸出是目標(biāo)序列o=(o1,…,oo),事實(shí)文本集合是F=(ft1,…,ftn).

    圖2 模型整體結(jié)構(gòu)示意圖Fig.2 Overall structure of the model

    4.2 事實(shí)文本庫(kù)

    本文構(gòu)建了一個(gè)事實(shí)文本庫(kù)作為知識(shí)來(lái)源.在知識(shí)庫(kù)中,信息以三元組的形式存在,包括頭實(shí)體、關(guān)系和尾實(shí)體,通過(guò)<頭實(shí)體,關(guān)系,尾實(shí)體>這樣的結(jié)構(gòu)構(gòu)建了一張圖網(wǎng)絡(luò).但是不同的知識(shí)圖譜中三元組的表述形式也不相同,為了將知識(shí)庫(kù)的信息與自然語(yǔ)言的問(wèn)題在形式上保持一致,方便后續(xù)的序列建模,本文將三元組通過(guò)人工設(shè)計(jì)模版轉(zhuǎn)化成用自然語(yǔ)言描述的句子.

    在數(shù)據(jù)預(yù)處理時(shí),首先用斯坦福的命名實(shí)體識(shí)別工具(1)https://nlp.stanford.edu/software/CRF-NER.html識(shí)別出問(wèn)句中的實(shí)體,得到一個(gè)實(shí)體集合,以該集合中的實(shí)體作為頭實(shí)體或尾實(shí)體抽取知識(shí)庫(kù)(2)本文在Freebase知識(shí)庫(kù)上進(jìn)行抽取.中的三元組.然后根據(jù)人工設(shè)計(jì)模板將三元組表示為事實(shí)文本(如5.2節(jié)所示).最后利用BERT[26]將問(wèn)句和事實(shí)文本編碼成向量,計(jì)算問(wèn)句和事實(shí)文本之間的余弦相似度,選取top-n的事實(shí)文本句子構(gòu)建事實(shí)文本庫(kù).

    4.3 文本庫(kù)感知注意力機(jī)制

    為獲取更豐富的知識(shí)信息,在編碼端和解碼端都利用了文本庫(kù)感知注意力機(jī)制動(dòng)態(tài)地關(guān)注輸入序列中的局部信息,讓模型在面對(duì)當(dāng)前輸入序列時(shí)更專(zhuān)注于與事實(shí)文本相關(guān)聯(lián)的實(shí)體信息或關(guān)系信息,有效地緩解了主題實(shí)體殘缺或錯(cuò)誤的問(wèn)題,減少了錯(cuò)誤傳播.如圖3所示,為基于文本庫(kù)感知注意力機(jī)制的編碼器-解碼器結(jié)構(gòu)示意圖.

    圖3 基于文本庫(kù)感知注意力機(jī)制的編碼器-解碼器結(jié)構(gòu)Fig.3 Encoder-decoder architecture based on text base-aware attention mechanism

    在編碼端,首先使用Transformer的編碼器對(duì)輸入序列i=(i1,…,ii)進(jìn)行編碼得到向量表示hi,對(duì)事實(shí)文本集合F=(ft1,…,ftn)中每個(gè)事實(shí)文本序列進(jìn)行編碼得到向量集合(hft1,…,hftn)并將其進(jìn)行拼接,拼接后的向量為hF,然后經(jīng)過(guò)文本庫(kù)感知注意力機(jī)制,計(jì)算輸入序列對(duì)事實(shí)文本序列的注意力向量為h.整個(gè)過(guò)程表示為:

    hi=fenc(i)

    (1)

    hft=fenc(ft)

    (2)

    hF=hft1⊕…⊕hftn

    (3)

    (4)

    其中,fenc(·)代表Transformer編碼器的編碼過(guò)程.

    在解碼端,Transformer解碼器的主要由Masked Multi-Head Attention和Encoder-Decoder Attention兩大機(jī)制組成.本文在解碼端主要做了兩處改進(jìn):1)在Encoder-Decoder Attention處,用注意力向量h取代原來(lái)的輸入序列向量hi作為編碼器傳遞到解碼器的隱向量,即K=V=h,Q=hV;2)在解碼器中新增了文本庫(kù)感知注意力機(jī)制,輸入是事實(shí)文本序列的特征向量hF和Encoder-Decoder Attention輸出的向量henc-dec,輸出是注意力向量ht-aware.解碼過(guò)程遇到“[BOS]”標(biāo)簽代表解碼開(kāi)始,遇到“[EOS]”標(biāo)簽代表解碼結(jié)束.

    整個(gè)過(guò)程表示為:

    (5)

    henc-dec=Attention(hF,henc-dec)

    (6)

    綜上,本文使用了基于文本庫(kù)感知注意力機(jī)制的編解碼框架,在后續(xù)論述中用fenc(·)表示模型的編碼過(guò)程,fdec(·)表示模型的解碼過(guò)程.

    4.4 問(wèn)句分解模塊

    該模塊的學(xué)習(xí)目標(biāo)是把復(fù)雜問(wèn)題分解成簡(jiǎn)單子問(wèn)題序列.輸入為復(fù)雜問(wèn)題q,事實(shí)文本集合為F,輸出為分解后的子問(wèn)題序列dq.首先在編碼端,對(duì)輸入問(wèn)題q進(jìn)行編碼得到問(wèn)題嵌入hi=fenc1(q),對(duì)事實(shí)文本F進(jìn)行編碼后拼接得到事實(shí)文本嵌入hF=fenc1(F),經(jīng)過(guò)文本庫(kù)感知注意力機(jī)制得到一個(gè)注意力向量h=Attention(hi,hF).然后在解碼端,接收注意力向量h,并通過(guò)文本庫(kù)感知注意力機(jī)制預(yù)測(cè)分解的表示dq=fdec1(h).在每個(gè)時(shí)間步,先前的輸出右移并送入解碼器.

    4.5 信息抽取模塊

    4.6 語(yǔ)義解析模塊

    4.7 損失函數(shù)

    本文的訓(xùn)練目標(biāo)是生成簡(jiǎn)單子問(wèn)題序列,抽取關(guān)鍵謂詞和實(shí)體信息,最終生成相應(yīng)的查詢語(yǔ)句.設(shè)計(jì)的聯(lián)合訓(xùn)練損失函數(shù)如下,分別由3個(gè)階段的損失函數(shù)l1,l2和l3組成:

    L(θ)=λ1l1+λ2l2+l3

    (7)

    其中,3個(gè)階段的任務(wù)都使用生成式模型的損失函數(shù):

    P(x)=softmax(Wx+b)

    (8)

    (9)

    5 實(shí)驗(yàn)及分析

    5.1 數(shù)據(jù)集

    本文在大規(guī)模復(fù)雜問(wèn)題數(shù)據(jù)集ComplexWebQuestions(version1.0)[9]上進(jìn)行了實(shí)驗(yàn).該數(shù)據(jù)集包含27734訓(xùn)練樣本、3480驗(yàn)證樣本和3475測(cè)試樣本.每個(gè)樣本都包含復(fù)雜問(wèn)題、分解的子問(wèn)題序列、SPARQL格式的結(jié)構(gòu)化查詢語(yǔ)句.該數(shù)據(jù)集有4種復(fù)雜類(lèi)型:組合問(wèn)題(46.7%)、聚合問(wèn)題(42.4%)、最高級(jí)問(wèn)題(5.3%)和比較級(jí)問(wèn)題(5.6%).

    5.2 事實(shí)文本庫(kù)模版

    根據(jù)Freebase的數(shù)據(jù)格式,三元組包含頭實(shí)體,謂詞關(guān)系和尾實(shí)體,其中謂詞關(guān)系為三段式,如“people.person.places_lived”.通過(guò)分析該特征,本文只保留謂詞關(guān)系的第3段,設(shè)計(jì)了通用模版為“頭實(shí)體+謂詞關(guān)系+is+尾實(shí)體”生成一句事實(shí)文本,如表1所示.

    表1 事實(shí)文本庫(kù)的生成模版Table 1 Generating Template for Factual Text Database

    5.3 實(shí)驗(yàn)設(shè)置

    本文的語(yǔ)料庫(kù)由復(fù)雜問(wèn)題、所有的中間表示、SPARQL查詢語(yǔ)句和事實(shí)文本構(gòu)成,構(gòu)造詞表時(shí)是由語(yǔ)料庫(kù)中詞頻大于3的所有單詞構(gòu)成.本文使用預(yù)訓(xùn)練的詞嵌入GloVe[27],維度為300維.對(duì)于沒(méi)有預(yù)訓(xùn)練的詞嵌入(包括UNK、BOS和EOS)使用隨機(jī)初始化.本文所有的編碼器和解碼器都是由6個(gè)相同層堆疊起來(lái)的,隱向量為300維.使用Adam優(yōu)化器,β1=0.9,β2=0.98,ε=10-9.學(xué)習(xí)率在訓(xùn)練過(guò)程中動(dòng)態(tài)調(diào)整.Dropout[28]設(shè)置為0.2.標(biāo)簽平滑率設(shè)置為0.1.在訓(xùn)練過(guò)程中,batchsize=64,訓(xùn)練步長(zhǎng)為40000.每1200步驗(yàn)證一次,驗(yàn)證過(guò)程的batchsize=160.訓(xùn)練結(jié)束后,采用beam size=16的束搜索策略生成SPARQL語(yǔ)句.

    5.4 基線模型

    為了驗(yàn)證融合事實(shí)文本的問(wèn)句分解式語(yǔ)義解析方法的有效性和優(yōu)越性,選取了7個(gè)當(dāng)前主流的方法作為基線模型進(jìn)行對(duì)比實(shí)驗(yàn).

    1)PointerGenerator[29]使用了序列到序列的模型,第1次將語(yǔ)義解析任務(wù)視為以自然語(yǔ)言作為源語(yǔ)言,其邏輯形式作為目標(biāo)語(yǔ)言的翻譯任務(wù).主要是利用數(shù)據(jù)重組的框架將先驗(yàn)知識(shí)注入序列到序列的模型中,并且使用了一種基于注意力的復(fù)制機(jī)制.

    2)Transformer同樣采用序列到序列的模型,拋棄了傳統(tǒng)的RNN和LSTM,整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)完全由注意力機(jī)制組成,運(yùn)用在很多的自然語(yǔ)言處理任務(wù)上都取得了更好的成績(jī).本文主要利用Transformer在ComplexWebQuestions數(shù)據(jù)集上做語(yǔ)義解析任務(wù).

    3)Coarse2Fine[30]提出一個(gè)結(jié)構(gòu)感知的神經(jīng)架構(gòu),采用由粗到細(xì)的兩階段生成方法,先生成忽略細(xì)節(jié)的表示,再將細(xì)節(jié)填充到之前的表示中.將語(yǔ)義解析任務(wù)分步驟進(jìn)行,比一步生成目標(biāo)序列的方法準(zhǔn)確率更高.

    4)PointerNetwork[9]主要針對(duì)復(fù)雜問(wèn)題提出了一個(gè)基于問(wèn)題分解和與Web交互的框架,主要通過(guò)指針網(wǎng)絡(luò)生成分割點(diǎn),直接切分原始復(fù)雜問(wèn)題,得到一系列簡(jiǎn)單問(wèn)題片段.

    5)SPARQA[13]用一種骨架結(jié)構(gòu)來(lái)表示復(fù)雜問(wèn)題的主干,采用基于BERT的解析算法的粗粒度表示,還采用了一種多策略的方法結(jié)合句子級(jí)和單詞級(jí)語(yǔ)義.

    6)PDE[19]提出了一個(gè)迭代分解的框架,該框架在兩個(gè)神經(jīng)模塊之間迭代:一個(gè)是從問(wèn)句中分解跨度的分解器,另一個(gè)是將跨度映射為局部意義表征的解析器.

    7)HSP[23]主要針對(duì)復(fù)雜問(wèn)題提出基于序列到序列模型的層次語(yǔ)義解析方法,主要利用復(fù)雜問(wèn)題的分解性為復(fù)雜問(wèn)題直接生成完整的子問(wèn)題,將語(yǔ)義解析任務(wù)轉(zhuǎn)化為多層次的生成任務(wù),在ComplexWebQuestions數(shù)據(jù)集上的實(shí)驗(yàn)效果顯著提高.

    5.5 實(shí)驗(yàn)結(jié)果

    本文對(duì)模型在語(yǔ)義解析任務(wù)和問(wèn)題分解任務(wù)中的實(shí)驗(yàn)結(jié)果都進(jìn)行了相應(yīng)的對(duì)比實(shí)驗(yàn)和消融實(shí)驗(yàn).下面將介紹本文的方法在兩大任務(wù)中的性能表現(xiàn),并且直觀地給出了相應(yīng)的實(shí)例分析.

    5.5.1 語(yǔ)義解析任務(wù)的對(duì)比實(shí)驗(yàn)和消融實(shí)驗(yàn)

    本文提出的方法是針對(duì)復(fù)雜問(wèn)題的語(yǔ)義解析任務(wù),模型的目標(biāo)是將自然語(yǔ)言描述的復(fù)雜問(wèn)題最終解析為邏輯形式,即SPARQL格式的結(jié)構(gòu)化查詢語(yǔ)句.因此語(yǔ)義解析任務(wù)的實(shí)驗(yàn)效果是驗(yàn)證該方法有效性的重要指標(biāo).在該任務(wù)中,選取PointerGenerator、Transformer、Coarse2Fine、SPARQA和HSP作為基線模型在驗(yàn)證集和測(cè)試集上進(jìn)行了對(duì)比實(shí)驗(yàn).評(píng)價(jià)指標(biāo)為EM值,即模型生成SPARQL語(yǔ)句的正確率.實(shí)驗(yàn)結(jié)果如表2所示.

    表2 語(yǔ)義解析任務(wù)的對(duì)比實(shí)驗(yàn)結(jié)果Table 2 Comparative experimental results on semantic parsing

    通過(guò)分析表中數(shù)據(jù)可以得出以下3點(diǎn)結(jié)論:

    1)Transformer在測(cè)試集上的準(zhǔn)確率為53.41%,比PointerGenerator高2.41%.這組實(shí)驗(yàn)證明,對(duì)于傳統(tǒng)的序列到序列模型來(lái)說(shuō),在ComplexWebQuestions數(shù)據(jù)集上做語(yǔ)義解析任務(wù)是比較困難的.因此針對(duì)復(fù)雜問(wèn)題的語(yǔ)義解析任務(wù)本身是存在難度的.

    2)HSP在測(cè)試集上的準(zhǔn)確率為66.18%,比Coarse2Fine高8.11%,比SPARQA高5.48%,性能得到很大提升.這組實(shí)驗(yàn)證明,與其他的神經(jīng)語(yǔ)義解析模型相比,HSP的性能提升顯著.說(shuō)明將復(fù)雜問(wèn)題分解成簡(jiǎn)單問(wèn)題,采用分治的思想可以簡(jiǎn)化模型在每個(gè)階段的表示學(xué)習(xí),同時(shí)通過(guò)信息整合可以幫助模型更好的生成結(jié)構(gòu)化查詢語(yǔ)句.

    3)本文的方法在測(cè)試集上的準(zhǔn)確率為67.62%,比HSP高1.44%.這組實(shí)驗(yàn)證明,本文提出的文本庫(kù)感知注意力機(jī)制能夠?qū)⒅R(shí)庫(kù)中的事實(shí)文本信息融入模型的學(xué)習(xí)過(guò)程,使模型在生成任務(wù)中獲得更高的準(zhǔn)確率.

    為了驗(yàn)證文本庫(kù)感知注意力機(jī)制對(duì)語(yǔ)義解析任務(wù)的作用,本文做了相應(yīng)的消融實(shí)驗(yàn).實(shí)驗(yàn)設(shè)置如表3所示:完全剔除文本庫(kù)感知注意力機(jī)制,只剔除編碼端的文本庫(kù)感知注意力機(jī)制,只剔除解碼端的文本庫(kù)感知注意力機(jī)制,完全保留文本庫(kù)感知注意力機(jī)制.實(shí)驗(yàn)結(jié)果表明,在語(yǔ)義解析任務(wù)中融入文本庫(kù)感知注意力機(jī)制是有效的.分析數(shù)據(jù)可知,融入的事實(shí)信息越多實(shí)驗(yàn)效果越好,說(shuō)明高質(zhì)量的外部知識(shí)能夠減少生成模型的誤差,使結(jié)果更精確.

    表3 語(yǔ)義解析任務(wù)的消融實(shí)驗(yàn)結(jié)果Table 3 Ablation experimental results on semantic parsing

    5.5.2 問(wèn)題分解任務(wù)的對(duì)比實(shí)驗(yàn)和消融實(shí)驗(yàn)

    本文提出的方法旨在緩解問(wèn)題分解過(guò)程中的錯(cuò)誤積累問(wèn)題,減少實(shí)體誤判和丟失的情況,為后續(xù)的語(yǔ)義解析任務(wù)提供保障.因此提升問(wèn)題分解任務(wù)的實(shí)驗(yàn)效果是十分必要的,能夠充分驗(yàn)證分治思想的有效性.在該任務(wù)中,選取PointerNetwork、PointerGenerator、PDE和HSP作為基線模型在驗(yàn)證集和測(cè)試集上進(jìn)行了對(duì)比實(shí)驗(yàn).評(píng)價(jià)指標(biāo)為 Bleu-4[31]和Rouge-L[32]得分.對(duì)于所有模型,輸入是復(fù)雜問(wèn)題,輸出是分解的子問(wèn)題序列.實(shí)驗(yàn)結(jié)果如表4所示.

    表4 問(wèn)題分解任務(wù)的對(duì)比實(shí)驗(yàn)結(jié)果Table 4 Experimental results on question decomposition

    通過(guò)分析表中數(shù)據(jù)可以得出以下3點(diǎn)結(jié)論:

    1)與PointerNetwork 相比,其他3個(gè)模型的實(shí)驗(yàn)結(jié)果更好,說(shuō)明對(duì)于問(wèn)題分解任務(wù),相比利用直接切分的思想在問(wèn)題中尋找分割點(diǎn)的方法,采用神經(jīng)生成問(wèn)題的方法更有效.

    2)PDE和HSP與其他兩個(gè)模型相比性能提升顯著.說(shuō)明將復(fù)雜問(wèn)題分解成簡(jiǎn)單問(wèn)題的思想能夠指導(dǎo)模型更好的理解復(fù)雜語(yǔ)義.而相比之下,HSP的方法在性能上仍大幅優(yōu)于PDE的方法,說(shuō)明生成完整的子問(wèn)題能夠有效減少片段式的子問(wèn)題所丟失的關(guān)鍵信息.

    3)本文的方法與HSP相比,在測(cè)試集上Bleu-4值提升了2.2,Rouge-L值提升了0.9.說(shuō)明在分解任務(wù)中,融入事實(shí)文本信息能夠使模型獲取更豐富的知識(shí)表示,有效減少錯(cuò)誤傳播.

    為了驗(yàn)證文本庫(kù)感知注意力機(jī)制對(duì)問(wèn)題分解任務(wù)的作用,本文做了相應(yīng)的消融實(shí)驗(yàn).實(shí)驗(yàn)設(shè)置如表5所示,完全剔除文本庫(kù)感知注意力機(jī)制,只剔除編碼端的文本庫(kù)感知注意力機(jī)制,只剔除解碼端的文本庫(kù)感知注意力機(jī)制,完全保留文本庫(kù)感知注意力機(jī)制.實(shí)驗(yàn)結(jié)果表明,在問(wèn)題分解任務(wù)中融入文本庫(kù)感知注意力機(jī)制可以有效提升分解的準(zhǔn)確率和子問(wèn)題的連續(xù)性.分析數(shù)據(jù)表明,融入事實(shí)文本可以使模型更關(guān)注問(wèn)句的局部信息,有助于理解復(fù)雜問(wèn)題的深層語(yǔ)義.

    表5 問(wèn)題分解任務(wù)的消融實(shí)驗(yàn)結(jié)果Table 5 Ablation experimental results on question decomposition

    5.6 實(shí)例分析

    為了直觀的對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行分析和對(duì)比,使本文的方法具備更高的可解釋性,此節(jié)將結(jié)合測(cè)試集中的一個(gè)實(shí)例來(lái)分析模型在每個(gè)階段的實(shí)驗(yàn)效果,選取性能較好的HSP作為基線模型,驗(yàn)證以上實(shí)驗(yàn)結(jié)果的準(zhǔn)確性.

    比如輸入一個(gè)復(fù)雜問(wèn)題“The author of The Art of War lived in what city?”,主題實(shí)體為“The Art of War”.基線模型HSP在經(jīng)過(guò)每個(gè)模塊后,輸出的序列如表6所示.當(dāng)輸入的復(fù)雜問(wèn)題經(jīng)過(guò)問(wèn)題分解模塊后,分解成兩個(gè)簡(jiǎn)單子問(wèn)題序列,使用“[#]”作為分割符,通常第2個(gè)子問(wèn)題會(huì)包含第1個(gè)子問(wèn)題的答案實(shí)體,使用“[#entity#]”作為占位符.接下來(lái),信息抽取模塊將抽取原始復(fù)雜問(wèn)題和簡(jiǎn)單子問(wèn)題的關(guān)鍵信息,包括復(fù)雜類(lèi)型和謂詞信息,使用“[#]”作為分割符.最后,語(yǔ)義解析模塊生成對(duì)應(yīng)的邏輯形式,使用“[.]”作為分隔符,使用“[#entity#]”作為占位符.

    表6 基線模型HSP的輸出序列Table 6 Output sequence of baseline model HSP

    對(duì)表6中的實(shí)例進(jìn)行分析,可知基線模型HSP中問(wèn)題分解模塊的輸出序列是錯(cuò)誤的.實(shí)現(xiàn)結(jié)果表明,問(wèn)題分解階段的Bleu-4值為0.35×10-4,Rouge-L值為0.46.因?yàn)榈谝粋€(gè)子問(wèn)題將“author”解析成一個(gè)居住地點(diǎn),且兩個(gè)子問(wèn)題中都不包含主題實(shí)體“The Art of War”,導(dǎo)致后續(xù)信息抽取和語(yǔ)義解析模塊的輸出序列仍然是錯(cuò)誤的.實(shí)驗(yàn)結(jié)果表明,語(yǔ)義解析階段的Bleu-4值為0.43×10-3,Rouge-L值為0.54.

    所以,本文的方法將融入事實(shí)文本信息以緩解實(shí)體識(shí)別錯(cuò)誤和實(shí)體丟失的現(xiàn)象.仍以該復(fù)雜問(wèn)題為例,融入的事實(shí)文本如表7所示.這些文本信息雖然在語(yǔ)法上并不符合規(guī)范,但卻極大程度的保留了三元組的事實(shí)信息.

    表7 融入的事實(shí)文本序列Table 7 Incorporated factual text sequence

    因此,本文的模型在經(jīng)過(guò)每個(gè)模塊后,輸出的序列如表8所示.可以看出,問(wèn)題分解模塊的輸出序列已經(jīng)被矯正,一定程度上緩解了錯(cuò)誤積累的問(wèn)題.實(shí)驗(yàn)結(jié)果表明,問(wèn)題分解階段和語(yǔ)義解析階段的的Bleu-4值均為1,Rouge-L值均為1.由此驗(yàn)證了本文方法的優(yōu)越性和準(zhǔn)確性.

    表8 本文模型的輸出序列Table 8 Output sequence of our model

    5.7 錯(cuò)誤分析

    本文針對(duì)語(yǔ)義解析任務(wù)和問(wèn)題分解任務(wù)的實(shí)驗(yàn)結(jié)果進(jìn)行了錯(cuò)誤分析,分別從任務(wù)對(duì)應(yīng)的輸出序列中隨機(jī)挑選了Bleu-4值和Rouge-L值均低于0.3的100條樣例.本文的方法仍有需要改進(jìn)的地方,總結(jié)如下:

    1)當(dāng)面對(duì)最高級(jí)問(wèn)題(5.3%)和比較級(jí)問(wèn)題(5.6%),模型的處理能力較弱,在問(wèn)題分解時(shí)無(wú)法獲得子問(wèn)題之間正確的邏輯關(guān)系,在語(yǔ)義解析時(shí)無(wú)法生成正確的運(yùn)算符號(hào).比如一個(gè)最高級(jí)問(wèn)題”What tourist attraction in Miami Florida that was first opened on 2008-06-06?”,要回答這個(gè)問(wèn)題首先需要枚舉出所有的旅游景點(diǎn)及它們的開(kāi)放時(shí)間,再進(jìn)行數(shù)值運(yùn)算或邏輯運(yùn)算.而本文的方法注重于外部知識(shí)輔助,缺少人工設(shè)計(jì)規(guī)則來(lái)學(xué)習(xí)這類(lèi)問(wèn)題.

    2)本文在構(gòu)造事實(shí)文本庫(kù)時(shí)需要從知識(shí)庫(kù)中抽取相關(guān)的三元組,在這一過(guò)程中發(fā)現(xiàn)知識(shí)庫(kù)中有少量的實(shí)體或關(guān)系存在缺失的現(xiàn)象,知識(shí)庫(kù)的不完整性會(huì)影響構(gòu)造的事實(shí)文本庫(kù)的質(zhì)量.而大型的知識(shí)圖譜往往都會(huì)存在不完整性的問(wèn)題,為知識(shí)庫(kù)問(wèn)答的研究工作帶來(lái)了挑戰(zhàn).

    6 總 結(jié)

    本文提出了融合事實(shí)文本的問(wèn)句分解式語(yǔ)義解析模型,實(shí)現(xiàn)了對(duì)復(fù)雜問(wèn)題采用分治的方法進(jìn)行回答,構(gòu)建了一個(gè)事實(shí)文本庫(kù)作為外部知識(shí)指導(dǎo)模型學(xué)習(xí)更豐富的知識(shí)信息,在語(yǔ)義解析的過(guò)程中兼顧了實(shí)體的完整性,降低了錯(cuò)誤積累帶來(lái)的負(fù)面影響,增強(qiáng)了模型對(duì)復(fù)雜語(yǔ)義的理解能力.實(shí)驗(yàn)結(jié)果表明本文的方法在ComplexWebQuestions數(shù)據(jù)集上取得了更好的性能.未來(lái),我們將針對(duì)錯(cuò)誤分析中的難點(diǎn)問(wèn)題探索性能更優(yōu)的應(yīng)對(duì)方法,進(jìn)一步提升知識(shí)庫(kù)問(wèn)答的性能.

    猜你喜歡
    知識(shí)庫(kù)語(yǔ)義解析
    三角函數(shù)解析式中ω的幾種求法
    語(yǔ)言與語(yǔ)義
    基于TRIZ與知識(shí)庫(kù)的創(chuàng)新模型構(gòu)建及在注塑機(jī)設(shè)計(jì)中的應(yīng)用
    睡夢(mèng)解析儀
    電競(jìng)初解析
    商周刊(2017年12期)2017-06-22 12:02:01
    相機(jī)解析
    高速公路信息系統(tǒng)維護(hù)知識(shí)庫(kù)的建立和應(yīng)用
    “上”與“下”語(yǔ)義的不對(duì)稱(chēng)性及其認(rèn)知闡釋
    基于Drupal發(fā)布學(xué)者知識(shí)庫(kù)關(guān)聯(lián)數(shù)據(jù)的研究
    認(rèn)知范疇模糊與語(yǔ)義模糊
    午夜激情久久久久久久| 欧美精品人与动牲交sv欧美| 久9热在线精品视频| 夜夜夜夜夜久久久久| 91老司机精品| 黑人巨大精品欧美一区二区mp4| 脱女人内裤的视频| 一区二区三区乱码不卡18| 婷婷色av中文字幕| www.999成人在线观看| 男女下面插进去视频免费观看| av超薄肉色丝袜交足视频| 菩萨蛮人人尽说江南好唐韦庄| 少妇的丰满在线观看| 9色porny在线观看| 国产精品免费视频内射| 亚洲国产毛片av蜜桃av| 亚洲中文av在线| 超色免费av| 久久久国产一区二区| 9191精品国产免费久久| 精品亚洲成a人片在线观看| 国产亚洲欧美在线一区二区| 日韩有码中文字幕| 国产av国产精品国产| 久久国产精品影院| 国产精品国产av在线观看| 色94色欧美一区二区| 久9热在线精品视频| 欧美精品av麻豆av| 欧美成人午夜精品| 久久av网站| 老鸭窝网址在线观看| 18禁裸乳无遮挡动漫免费视频| 亚洲国产精品一区三区| 亚洲欧美精品综合一区二区三区| 少妇精品久久久久久久| 中文字幕人妻丝袜制服| 亚洲成国产人片在线观看| netflix在线观看网站| 国产欧美日韩一区二区三区在线| 人妻一区二区av| 在线看a的网站| 夜夜夜夜夜久久久久| 国产成人a∨麻豆精品| 999久久久精品免费观看国产| 在线观看一区二区三区激情| 狠狠婷婷综合久久久久久88av| 亚洲色图 男人天堂 中文字幕| 国产精品 欧美亚洲| 国产精品久久久久成人av| 国产欧美日韩一区二区三区在线| 国产精品二区激情视频| 免费观看a级毛片全部| 欧美大码av| 久久久久国产精品人妻一区二区| 男女无遮挡免费网站观看| 叶爱在线成人免费视频播放| 日韩中文字幕视频在线看片| 一本综合久久免费| 国产真人三级小视频在线观看| 五月开心婷婷网| 亚洲美女黄色视频免费看| 亚洲av电影在线观看一区二区三区| 超碰成人久久| 在线观看一区二区三区激情| a级毛片黄视频| 国产精品麻豆人妻色哟哟久久| 中文字幕人妻丝袜一区二区| 最黄视频免费看| 黑人欧美特级aaaaaa片| 欧美日韩亚洲高清精品| 国产精品.久久久| 精品熟女少妇八av免费久了| 亚洲精品国产av成人精品| 欧美精品高潮呻吟av久久| 免费女性裸体啪啪无遮挡网站| 别揉我奶头~嗯~啊~动态视频 | 欧美 日韩 精品 国产| 久久av网站| 后天国语完整版免费观看| 午夜免费鲁丝| 每晚都被弄得嗷嗷叫到高潮| 香蕉丝袜av| 18禁裸乳无遮挡动漫免费视频| 高潮久久久久久久久久久不卡| 老司机在亚洲福利影院| 18禁国产床啪视频网站| 久久香蕉激情| 老司机深夜福利视频在线观看 | 婷婷丁香在线五月| 一级黄色大片毛片| www.999成人在线观看| 精品国产乱码久久久久久小说| 男女国产视频网站| 麻豆乱淫一区二区| 亚洲精品美女久久久久99蜜臀| 十八禁人妻一区二区| 久久午夜综合久久蜜桃| 国产深夜福利视频在线观看| 99精国产麻豆久久婷婷| 法律面前人人平等表现在哪些方面 | 777久久人妻少妇嫩草av网站| 巨乳人妻的诱惑在线观看| 欧美精品一区二区大全| 黑人欧美特级aaaaaa片| 新久久久久国产一级毛片| 亚洲九九香蕉| 亚洲精品国产色婷婷电影| 亚洲精品一卡2卡三卡4卡5卡 | 日本撒尿小便嘘嘘汇集6| 国产亚洲精品一区二区www | av线在线观看网站| 精品国产一区二区三区久久久樱花| 99香蕉大伊视频| 亚洲成人手机| 亚洲欧美色中文字幕在线| 69av精品久久久久久 | 久久精品亚洲熟妇少妇任你| 国产欧美日韩一区二区三 | 国产成人精品久久二区二区免费| 亚洲精品一区蜜桃| 51午夜福利影视在线观看| 熟女少妇亚洲综合色aaa.| 少妇 在线观看| 中文字幕人妻丝袜一区二区| 一本色道久久久久久精品综合| 亚洲成人手机| 97在线人人人人妻| 久久精品成人免费网站| 大片免费播放器 马上看| 亚洲成人免费av在线播放| 久久99一区二区三区| 久久ye,这里只有精品| 老司机靠b影院| 国产免费现黄频在线看| 伦理电影免费视频| 国产精品影院久久| 一级,二级,三级黄色视频| 91老司机精品| 日本欧美视频一区| 亚洲一卡2卡3卡4卡5卡精品中文| 久久 成人 亚洲| 少妇精品久久久久久久| 制服诱惑二区| 欧美人与性动交α欧美软件| 久久天堂一区二区三区四区| 日本撒尿小便嘘嘘汇集6| a级毛片黄视频| 亚洲av美国av| 女人精品久久久久毛片| 妹子高潮喷水视频| 日本a在线网址| 男女国产视频网站| 午夜免费成人在线视频| 亚洲五月婷婷丁香| 一本久久精品| 日本精品一区二区三区蜜桃| 欧美一级毛片孕妇| 午夜精品国产一区二区电影| 日本a在线网址| 国产日韩一区二区三区精品不卡| 另类精品久久| 亚洲精品中文字幕一二三四区 | 热re99久久国产66热| 国产亚洲一区二区精品| www日本在线高清视频| 日韩大片免费观看网站| 亚洲国产中文字幕在线视频| 欧美黑人欧美精品刺激| 国产av精品麻豆| 亚洲激情五月婷婷啪啪| 亚洲伊人久久精品综合| √禁漫天堂资源中文www| 两性午夜刺激爽爽歪歪视频在线观看 | 纵有疾风起免费观看全集完整版| 国产精品偷伦视频观看了| 老司机福利观看| 搡老熟女国产l中国老女人| 欧美日韩精品网址| 婷婷成人精品国产| 国产淫语在线视频| 欧美激情 高清一区二区三区| 久久九九热精品免费| 久久 成人 亚洲| 久久狼人影院| 色婷婷av一区二区三区视频| 在线观看www视频免费| 日韩视频一区二区在线观看| 我的亚洲天堂| 人人妻,人人澡人人爽秒播| 日本a在线网址| 久久久久精品国产欧美久久久 | 日韩欧美免费精品| 搡老乐熟女国产| 乱人伦中国视频| 精品福利永久在线观看| 99久久99久久久精品蜜桃| 美女午夜性视频免费| 欧美日韩视频精品一区| 精品福利观看| 99精国产麻豆久久婷婷| 人人澡人人妻人| 午夜福利视频在线观看免费| 中文字幕人妻熟女乱码| 亚洲熟女毛片儿| 日韩视频一区二区在线观看| 脱女人内裤的视频| 亚洲国产看品久久| 女人精品久久久久毛片| 狠狠精品人妻久久久久久综合| 一个人免费在线观看的高清视频 | 午夜视频精品福利| 日韩人妻精品一区2区三区| 丁香六月欧美| 一本一本久久a久久精品综合妖精| 亚洲五月婷婷丁香| 女性被躁到高潮视频| 精品人妻熟女毛片av久久网站| 欧美日韩福利视频一区二区| 曰老女人黄片| 欧美激情高清一区二区三区| 窝窝影院91人妻| 午夜免费观看性视频| 久久精品久久久久久噜噜老黄| 免费日韩欧美在线观看| 国产成人精品在线电影| 高潮久久久久久久久久久不卡| 精品亚洲成国产av| 午夜精品久久久久久毛片777| 青青草视频在线视频观看| 不卡av一区二区三区| 国产亚洲av片在线观看秒播厂| 亚洲九九香蕉| 美女福利国产在线| 亚洲精品美女久久久久99蜜臀| 日韩大片免费观看网站| 妹子高潮喷水视频| 1024视频免费在线观看| 超碰成人久久| 99精国产麻豆久久婷婷| 久久99热这里只频精品6学生| 在线观看人妻少妇| 精品熟女少妇八av免费久了| 亚洲精品在线美女| 久久天躁狠狠躁夜夜2o2o| 欧美日韩国产mv在线观看视频| 久久久精品免费免费高清| 欧美日韩福利视频一区二区| 另类精品久久| a在线观看视频网站| 高清欧美精品videossex| 精品人妻熟女毛片av久久网站| 精品久久蜜臀av无| 十八禁高潮呻吟视频| 国产一区二区三区av在线| 高清欧美精品videossex| 日韩三级视频一区二区三区| 久久久精品94久久精品| avwww免费| 亚洲国产av新网站| 中文字幕制服av| 麻豆av在线久日| 一本大道久久a久久精品| 日韩,欧美,国产一区二区三区| 亚洲第一欧美日韩一区二区三区 | av天堂在线播放| 久久九九热精品免费| 曰老女人黄片| 国产福利在线免费观看视频| 丰满少妇做爰视频| 女性生殖器流出的白浆| 窝窝影院91人妻| 1024香蕉在线观看| 黑人猛操日本美女一级片| 男女午夜视频在线观看| 久久这里只有精品19| 不卡一级毛片| 久久九九热精品免费| 欧美日韩精品网址| 交换朋友夫妻互换小说| 欧美激情久久久久久爽电影 | 三级毛片av免费| 久久人人爽人人片av| 久久人妻熟女aⅴ| 男男h啪啪无遮挡| 亚洲精品一二三| av网站在线播放免费| 精品亚洲成国产av| 女人精品久久久久毛片| 男女午夜视频在线观看| 国产欧美日韩综合在线一区二区| 97精品久久久久久久久久精品| 国产精品一区二区在线观看99| 国产人伦9x9x在线观看| 少妇被粗大的猛进出69影院| 国产男女内射视频| 搡老岳熟女国产| 精品久久久久久电影网| www.自偷自拍.com| 波多野结衣一区麻豆| 亚洲欧美精品综合一区二区三区| 在线看a的网站| 亚洲国产欧美网| 亚洲国产日韩一区二区| 亚洲色图综合在线观看| 一二三四社区在线视频社区8| 2018国产大陆天天弄谢| 午夜影院在线不卡| 91麻豆av在线| 国产xxxxx性猛交| 最新在线观看一区二区三区| 国产亚洲精品第一综合不卡| 夜夜夜夜夜久久久久| 成年av动漫网址| 欧美精品一区二区免费开放| 久久久久久免费高清国产稀缺| 大型av网站在线播放| 在线观看舔阴道视频| 欧美黑人欧美精品刺激| 国产区一区二久久| a级毛片黄视频| 亚洲成人国产一区在线观看| 国产黄频视频在线观看| 丁香六月欧美| 国产日韩欧美亚洲二区| 亚洲精华国产精华精| 一区二区三区四区激情视频| 91字幕亚洲| 香蕉丝袜av| 亚洲av电影在线观看一区二区三区| 久久 成人 亚洲| 啦啦啦免费观看视频1| 亚洲五月婷婷丁香| 午夜日韩欧美国产| 久久精品aⅴ一区二区三区四区| 久久免费观看电影| 99国产精品99久久久久| 久久国产精品男人的天堂亚洲| 最近最新免费中文字幕在线| 脱女人内裤的视频| 久久国产精品男人的天堂亚洲| 亚洲av日韩在线播放| 黄色a级毛片大全视频| 18禁国产床啪视频网站| 欧美久久黑人一区二区| 国产欧美日韩精品亚洲av| 国产一区二区 视频在线| 亚洲视频免费观看视频| 久久国产精品人妻蜜桃| 精品少妇黑人巨大在线播放| 久久久久久久精品精品| 国产一区二区激情短视频 | 亚洲va日本ⅴa欧美va伊人久久 | 国产高清国产精品国产三级| 久久天堂一区二区三区四区| 欧美久久黑人一区二区| 日韩,欧美,国产一区二区三区| 成人影院久久| 久久av网站| 久久午夜综合久久蜜桃| 91精品三级在线观看| 50天的宝宝边吃奶边哭怎么回事| 人人妻人人爽人人添夜夜欢视频| 制服人妻中文乱码| 91精品三级在线观看| 日本av手机在线免费观看| 欧美黄色片欧美黄色片| 黄色a级毛片大全视频| 高清视频免费观看一区二区| 啦啦啦在线免费观看视频4| 亚洲精品美女久久av网站| 黄色a级毛片大全视频| 亚洲精品美女久久久久99蜜臀| 成人18禁高潮啪啪吃奶动态图| 欧美黑人精品巨大| 久久影院123| 欧美激情 高清一区二区三区| 丰满人妻熟妇乱又伦精品不卡| 在线观看一区二区三区激情| 熟女少妇亚洲综合色aaa.| 国产精品香港三级国产av潘金莲| 国产男女内射视频| 热99久久久久精品小说推荐| 我的亚洲天堂| 视频区欧美日本亚洲| 王馨瑶露胸无遮挡在线观看| 欧美激情高清一区二区三区| 一边摸一边抽搐一进一出视频| 日韩视频一区二区在线观看| 热99国产精品久久久久久7| 91av网站免费观看| 丝袜脚勾引网站| 日韩人妻精品一区2区三区| 亚洲专区国产一区二区| 成人手机av| 亚洲午夜精品一区,二区,三区| 亚洲av日韩精品久久久久久密| 亚洲色图综合在线观看| 亚洲av电影在线进入| 99九九在线精品视频| 少妇裸体淫交视频免费看高清 | 亚洲精品久久成人aⅴ小说| 精品久久蜜臀av无| 少妇被粗大的猛进出69影院| 50天的宝宝边吃奶边哭怎么回事| 捣出白浆h1v1| 王馨瑶露胸无遮挡在线观看| 欧美xxⅹ黑人| 久热爱精品视频在线9| 免费人妻精品一区二区三区视频| 精品国产超薄肉色丝袜足j| 后天国语完整版免费观看| 999久久久国产精品视频| 久久这里只有精品19| 在线观看人妻少妇| 国产精品免费大片| 国产91精品成人一区二区三区 | 妹子高潮喷水视频| 成人手机av| 在线亚洲精品国产二区图片欧美| 日本一区二区免费在线视频| av在线老鸭窝| www.熟女人妻精品国产| 捣出白浆h1v1| 女人爽到高潮嗷嗷叫在线视频| 俄罗斯特黄特色一大片| 欧美激情久久久久久爽电影 | 免费av中文字幕在线| 黄片小视频在线播放| 亚洲 欧美一区二区三区| 一个人免费在线观看的高清视频 | 老汉色av国产亚洲站长工具| 久久精品国产综合久久久| 51午夜福利影视在线观看| 777久久人妻少妇嫩草av网站| 日韩人妻精品一区2区三区| 建设人人有责人人尽责人人享有的| 亚洲人成电影观看| 成年av动漫网址| 国产精品亚洲av一区麻豆| 亚洲国产看品久久| 久久久久久久久免费视频了| 视频区欧美日本亚洲| 亚洲自偷自拍图片 自拍| 美女大奶头黄色视频| 在线观看www视频免费| 女警被强在线播放| 搡老岳熟女国产| 伦理电影免费视频| 国产一区二区激情短视频 | tube8黄色片| 欧美日韩视频精品一区| 精品人妻一区二区三区麻豆| 亚洲欧洲日产国产| 国产在线视频一区二区| 亚洲专区字幕在线| 又大又爽又粗| 久久久久久久国产电影| 少妇的丰满在线观看| 在线永久观看黄色视频| av在线播放精品| 亚洲九九香蕉| 精品少妇一区二区三区视频日本电影| 成年人黄色毛片网站| 老熟女久久久| 欧美日韩亚洲国产一区二区在线观看 | 亚洲av电影在线观看一区二区三区| 欧美黄色片欧美黄色片| 精品国产国语对白av| 交换朋友夫妻互换小说| 蜜桃国产av成人99| 在线av久久热| 亚洲精品一二三| 少妇猛男粗大的猛烈进出视频| 99国产综合亚洲精品| 老熟妇乱子伦视频在线观看 | av不卡在线播放| 国产黄色免费在线视频| 亚洲 国产 在线| 老司机福利观看| 美女高潮喷水抽搐中文字幕| 咕卡用的链子| 久久久久国内视频| 乱人伦中国视频| 日本猛色少妇xxxxx猛交久久| 亚洲精品一二三| 在线观看免费高清a一片| 男女之事视频高清在线观看| 一区二区三区激情视频| 菩萨蛮人人尽说江南好唐韦庄| 国产一区有黄有色的免费视频| 亚洲国产中文字幕在线视频| 日韩三级视频一区二区三区| 色婷婷久久久亚洲欧美| 嫁个100分男人电影在线观看| 黄色 视频免费看| 十分钟在线观看高清视频www| 国产精品香港三级国产av潘金莲| 丰满迷人的少妇在线观看| 亚洲av电影在线进入| 黄色视频在线播放观看不卡| 波多野结衣一区麻豆| tube8黄色片| 精品第一国产精品| 成在线人永久免费视频| 亚洲五月色婷婷综合| 精品国产一区二区久久| 久久亚洲精品不卡| 丁香六月欧美| 伊人亚洲综合成人网| 悠悠久久av| 各种免费的搞黄视频| 精品乱码久久久久久99久播| 美国免费a级毛片| 亚洲精品久久久久久婷婷小说| 亚洲国产成人一精品久久久| 亚洲国产欧美在线一区| 老汉色av国产亚洲站长工具| 女性被躁到高潮视频| 成人黄色视频免费在线看| 欧美av亚洲av综合av国产av| 精品一区二区三区av网在线观看 | 1024视频免费在线观看| 国产在线一区二区三区精| 国产精品欧美亚洲77777| 欧美激情极品国产一区二区三区| 我要看黄色一级片免费的| 黄片大片在线免费观看| av在线老鸭窝| 色视频在线一区二区三区| 亚洲九九香蕉| 啦啦啦啦在线视频资源| 99久久精品国产亚洲精品| 91麻豆精品激情在线观看国产 | 亚洲黑人精品在线| 久久久久久久大尺度免费视频| 国产97色在线日韩免费| 亚洲男人天堂网一区| 亚洲自偷自拍图片 自拍| 香蕉国产在线看| 免费少妇av软件| 人人妻人人添人人爽欧美一区卜| 最近中文字幕2019免费版| 亚洲精品第二区| e午夜精品久久久久久久| 国产伦理片在线播放av一区| 一本久久精品| 制服诱惑二区| 精品国产一区二区三区四区第35| 色视频在线一区二区三区| 欧美xxⅹ黑人| 久久久久久久大尺度免费视频| av又黄又爽大尺度在线免费看| 亚洲成人国产一区在线观看| 高清欧美精品videossex| 欧美成狂野欧美在线观看| 国产精品久久久av美女十八| 一区二区三区四区激情视频| a级毛片在线看网站| 嫩草影视91久久| 中文字幕最新亚洲高清| 中文字幕另类日韩欧美亚洲嫩草| 亚洲成人免费电影在线观看| 爱豆传媒免费全集在线观看| 在线精品无人区一区二区三| 国产老妇伦熟女老妇高清| 亚洲一卡2卡3卡4卡5卡精品中文| 国产xxxxx性猛交| 日日摸夜夜添夜夜添小说| 电影成人av| 午夜免费成人在线视频| 91老司机精品| 精品福利永久在线观看| 亚洲伊人色综图| 久久影院123| 久久人妻熟女aⅴ| 老熟妇仑乱视频hdxx| av一本久久久久| 91av网站免费观看| 女人被躁到高潮嗷嗷叫费观| 免费久久久久久久精品成人欧美视频| 亚洲精品粉嫩美女一区| 一级黄色大片毛片| 一本—道久久a久久精品蜜桃钙片| 欧美激情 高清一区二区三区| 丰满少妇做爰视频| 如日韩欧美国产精品一区二区三区| 精品亚洲成国产av| 啦啦啦中文免费视频观看日本| 男女免费视频国产| 男人舔女人的私密视频| 制服人妻中文乱码| 高清黄色对白视频在线免费看| 免费在线观看影片大全网站| 欧美另类一区| 国内毛片毛片毛片毛片毛片| 亚洲精品国产区一区二| 高清av免费在线| 国产成人精品在线电影| 999久久久精品免费观看国产| 精品久久蜜臀av无| 视频区欧美日本亚洲| 韩国高清视频一区二区三区| 亚洲综合色网址| 国产一区二区三区在线臀色熟女 | 日本撒尿小便嘘嘘汇集6| 99re6热这里在线精品视频| a 毛片基地| 欧美黄色淫秽网站| 大香蕉久久网| 丰满饥渴人妻一区二区三| 2018国产大陆天天弄谢| 国产精品av久久久久免费| 丝袜在线中文字幕|