• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    文本特征提取的研究進(jìn)展

    2019-05-30 23:39:38曾明睿袁夢(mèng)奇邵曦鮑秉坤徐常勝
    關(guān)鍵詞:自然語(yǔ)言處理

    曾明睿 袁夢(mèng)奇 邵曦鮑 秉坤 徐常勝

    摘要 文本理解是人工智能的一個(gè)重要分支,其技術(shù)推動(dòng)了人與計(jì)算機(jī)之間在自然語(yǔ)言上的有效交互.為了讓計(jì)算機(jī)準(zhǔn)確地理解和感知文本數(shù)據(jù),文本特征提取是最為基礎(chǔ)和關(guān)鍵的步驟之一.基于此,本文介紹文本特征提取研究的發(fā)展歷史,以及近年來(lái)主流特征提取的方法,并對(duì)未來(lái)的研究方向進(jìn)行展望.首先,介紹語(yǔ)義最底層的詞級(jí)表示;接著,總結(jié)在詞級(jí)表示基礎(chǔ)上衍生出的句級(jí)表示上的研究進(jìn)展;隨后,介紹比詞級(jí)表示和句級(jí)表示更高層的篇分析;最后,通過(guò)文本特征提取的一個(gè)典型應(yīng)用——問(wèn)答系統(tǒng)的介紹,闡述文本特征提取的最新方法和技術(shù)在問(wèn)答系統(tǒng)上的應(yīng)用,并對(duì)未來(lái)的研究方向做了展望.

    關(guān)鍵詞 自然語(yǔ)言處理;文本特征提取;問(wèn)答系統(tǒng)

    中圖分類號(hào)TP391.1

    文獻(xiàn)標(biāo)志碼A

    0 引言

    互聯(lián)網(wǎng)技術(shù)的高速發(fā)展,以及硬件產(chǎn)品的不斷更新?lián)Q代,使得網(wǎng)絡(luò)上的數(shù)據(jù)呈現(xiàn)出“爆炸式”的增長(zhǎng)態(tài)勢(shì).特別是作為信息主要載體的文本數(shù)據(jù),一方面數(shù)量迅速增長(zhǎng),另一方面其表現(xiàn)形式和結(jié)構(gòu)也變得復(fù)雜多樣,為文本理解帶來(lái)了巨大的挑戰(zhàn).文本理解的核心是將文本數(shù)據(jù)通過(guò)數(shù)學(xué)運(yùn)算轉(zhuǎn)換為計(jì)算機(jī)可以感知和分析的信號(hào),并根據(jù)任務(wù)的不同,對(duì)其進(jìn)行自動(dòng)處理以反饋結(jié)果.在文本理解中,最基礎(chǔ)和最關(guān)鍵的步驟之一就是文本特征提取.文本特征提取是為文本數(shù)據(jù)集尋找一個(gè)具有判別力的特征空間,并將所有的文本數(shù)據(jù)映射到這一空間上,以抽取有代表性的、魯棒的特征表示向量.

    互聯(lián)網(wǎng)上涌現(xiàn)的海量文本數(shù)據(jù),既帶來(lái)了豐富的語(yǔ)料資源,同時(shí)也使文本感知、分析和處理面臨了巨大的挑戰(zhàn).首先,每個(gè)用戶都可以產(chǎn)生和傳播數(shù)據(jù),而其中文本的占比又最大,這導(dǎo)致了文本語(yǔ)料規(guī)模的迅速增長(zhǎng),因此“大數(shù)據(jù)”是面臨的第一個(gè)挑戰(zhàn);其次,在大數(shù)據(jù)的背后隱藏了大量重復(fù)且無(wú)意義的數(shù)據(jù),這些數(shù)據(jù)良莠不齊,價(jià)值密度低,因此“大噪聲”是面臨的第二個(gè)挑戰(zhàn);最后,數(shù)據(jù)存在于各種各樣的平臺(tái)中,其類型包括了結(jié)構(gòu)化數(shù)據(jù)、半結(jié)構(gòu)化數(shù)據(jù)和非結(jié)構(gòu)化數(shù)據(jù)等,因此“結(jié)構(gòu)復(fù)雜”是面臨的第三個(gè)挑戰(zhàn).

    近年來(lái),許多學(xué)者針對(duì)新環(huán)境下文本數(shù)據(jù)的這三個(gè)挑戰(zhàn),在文本特征提取上提出了大量有效的方法和技術(shù).本文將對(duì)這些研究成果進(jìn)行歸納和總結(jié),為該方向的研究人員快速了解文本特征提取提供參考.依據(jù)語(yǔ)義單元的大小,本文首先介紹詞上的特征提取方法和技術(shù),包括利用上下文信息和外部知識(shí)引入;隨后介紹比詞級(jí)更高一層的句級(jí)特征表示,主要基于詞級(jí)表示的方法,通過(guò)引入詞和詞之間的關(guān)聯(lián),對(duì)句子進(jìn)行更高層語(yǔ)義的理解;再次,對(duì)語(yǔ)篇表示的研究成果進(jìn)行總結(jié),主要關(guān)注語(yǔ)篇關(guān)系挖掘的方法和技術(shù).最后,介紹文本特征提取在問(wèn)答系統(tǒng)上的典型應(yīng)用,將結(jié)合雙向Transformer的編碼表示、注意力模型和卷積神經(jīng)網(wǎng)絡(luò)的方法展開(kāi)闡述.新時(shí)代背景下所面臨的大數(shù)據(jù)、大噪聲和結(jié)構(gòu)復(fù)雜三個(gè)挑戰(zhàn),也是詞級(jí)表示、句級(jí)表示、語(yǔ)篇表示和問(wèn)答系統(tǒng)需要解決的難點(diǎn),因此本文在文獻(xiàn)總結(jié)的過(guò)程中將側(cè)重這三個(gè)方面詳細(xì)闡述相關(guān)的應(yīng)對(duì)方法和解決方案.

    本文第1章到第3章將依次詳細(xì)闡述在對(duì)于詞級(jí)表示、句級(jí)表示和語(yǔ)篇關(guān)系三層語(yǔ)義做特征提取時(shí)所采用的技術(shù),并對(duì)每層語(yǔ)義級(jí)再次細(xì)分做介紹.第4章是對(duì)文本特征提取方法進(jìn)行結(jié)合和實(shí)際在問(wèn)答系統(tǒng)的應(yīng)用.最后,展望了文本特征提取的未來(lái)研究方向并對(duì)全文進(jìn)行總結(jié).

    1 詞級(jí)表示

    詞作為文本中最基礎(chǔ)的單位,是構(gòu)成句子和語(yǔ)篇的最小元素.對(duì)詞的特征提取通常稱為詞級(jí)表示,但在文本中,不管是英文單詞還是中文詞匯的數(shù)量都是非常龐大的,僅僅對(duì)這些詞進(jìn)行順序編碼,不僅人力花費(fèi)高昂,還難以揭示詞與詞之間的語(yǔ)義關(guān)系,因此對(duì)詞級(jí)進(jìn)行語(yǔ)義距離可度量的向量化表示是非常必要的.具體來(lái)說(shuō),在給定某一語(yǔ)義度量準(zhǔn)則下,將每個(gè)詞或詞組投影為高維的向量,這些向量形成的空間稱為詞級(jí)的向量空間,以此將非結(jié)構(gòu)化的文本轉(zhuǎn)化為了可處理的結(jié)構(gòu)化形式.然而這種工作是屬于預(yù)訓(xùn)練的范疇的,當(dāng)我們把詞級(jí)表示應(yīng)用到實(shí)際問(wèn)題的時(shí)候,無(wú)須從零開(kāi)始訓(xùn)練一個(gè)新的模型,這為后面的訓(xùn)練大大節(jié)省了時(shí)間.目前關(guān)于詞的預(yù)訓(xùn)練方法,可以分為兩條思路:利用上下文相關(guān)信息和外部知識(shí)關(guān)系的結(jié)合.

    1.1 利用上下文相關(guān)信息

    在自然語(yǔ)言中,很多單詞有著多種含義,而其真實(shí)含義是根據(jù)所在的上下文語(yǔ)境來(lái)決定的.因此在設(shè)計(jì)詞的特征提取模型時(shí),需要引入上下文相關(guān)信息,以消除一詞多義的影響.根據(jù)模型種類的不同,基于上下文信息的詞級(jí)表示方法可以分為基于LSTM模型和基于Transformer模型兩類.

    基于LSTM模型這類方法,是針對(duì)于傳統(tǒng)方法(如word2vec等)忽略詞的上下文關(guān)系,無(wú)法建模詞的一詞多義的缺陷所提出的.具體實(shí)現(xiàn)是通過(guò)將整句的單詞,輸入進(jìn)LSTM神經(jīng)網(wǎng)絡(luò)中,通過(guò)LSTM建模目標(biāo)詞和句子里其他單詞的上下文的語(yǔ)義關(guān)聯(lián),來(lái)獲得融合其他單詞信息的詞級(jí)表征.根據(jù)融合單詞與目標(biāo)詞的位置不同,這類詞級(jí)表示的方法可以分為兩類:前向融合[1](圖1)和雙向融合[2](圖2).前向融合只考慮目標(biāo)詞之前的詞對(duì)其產(chǎn)生的語(yǔ)義影響,如圖1所示,對(duì)“into”進(jìn)行詞級(jí)表示,將“into”之前的單詞“problems”、 “turning”等依次輸入至LSTM模型中,根據(jù)單詞與目標(biāo)詞的遠(yuǎn)近,進(jìn)行有選擇的記憶存儲(chǔ)和遺忘,并將記憶信息融合至“into”的詞級(jí)表示中.很顯然,不僅“into”之前的單詞對(duì)其有語(yǔ)義影響,其之后的單詞“banking”、”crises”、“as”等也會(huì)有影響,因此學(xué)者又在前向融合的基礎(chǔ)上,考慮目標(biāo)詞之后的詞,提出雙向融合的方法(圖2).具體而言,建模由兩個(gè)LSTM構(gòu)成的Bi-LSTM模型,分別從前往后和從后往前對(duì)單詞進(jìn)行輸入,以融合目標(biāo)詞前后的所有單詞的語(yǔ)義.基于Bi-LSTM模型,Melamud等[2]改進(jìn)了基于word2vec的CBOW圖,提出context2vec.其中,基于word2vec的CBOW圖計(jì)算窗口內(nèi)所有詞嵌入的平均值(圖3),而context2vec是基于Bi-LSTM融合目標(biāo)詞的上下文(圖4).為了建模更為復(fù)雜的上下文語(yǔ)義關(guān)系,Peters等[3]提出了ELMo(Embeddings from Language Models)模型,這是一種深度語(yǔ)境化詞表示方法,由兩層Bi-LSTM組成的語(yǔ)言模型內(nèi)部狀態(tài)函數(shù)生成的詞向量,通過(guò)Bi-LSTM連接的語(yǔ)言模型將每個(gè)輸入字上方堆疊的向量的線性組合以組合表示多樣的文字特征,表示更加豐富的語(yǔ)義.

    相比于基于LSTM模型的方法,Transformer模型不僅不需要通過(guò)循環(huán)來(lái)并行處理句中的單詞,還能結(jié)合上下文的信息,因此在處理長(zhǎng)語(yǔ)句時(shí),效率較高.Radford等[4]最先基于Transformer提出了Open AI GPT,該模型克服了LSTM的短期預(yù)測(cè)能力,通過(guò)捕捉長(zhǎng)距離的語(yǔ)言結(jié)構(gòu),來(lái)學(xué)習(xí)一個(gè)通用表示.2018年,Devlin等[5]提出了基于深度雙向Transformer的BERT(Bidirectional Encoder Representation from Transformer)模型,與Open AI GPT單方向的預(yù)訓(xùn)練模型不同的是,BERT提出了一種遮蔽語(yǔ)言模型(Mask Language Model)來(lái)訓(xùn)練出上下文的特征(圖5),它通過(guò)遮蔽一個(gè)單詞,訓(xùn)練一個(gè)深度雙向Transformer模型,從單詞的左右兩個(gè)方向來(lái)預(yù)測(cè)遮蔽單詞.2019年,Dai等[6]通過(guò)引入相對(duì)位置編碼和片段循環(huán)機(jī)制對(duì)Transformer模型進(jìn)行改進(jìn),提出Transformer-XL模型,循環(huán)機(jī)制在每處理完一個(gè)片段之后都會(huì)將輸出保留在隱藏層中以便后面循環(huán),建立長(zhǎng)期的依賴關(guān)系.而相對(duì)位置編碼則是通過(guò)對(duì)隱藏狀態(tài)的相對(duì)位置進(jìn)行編碼,克服了不同片段編碼可能導(dǎo)致編碼一樣的問(wèn)題.兩種方法的融合解決了由于固定上下文的長(zhǎng)度所帶來(lái)的無(wú)法獲取超出定義長(zhǎng)度的依賴關(guān)系的問(wèn)題.

    1.2 外部知識(shí)的引入

    傳統(tǒng)的詞級(jí)表示方法在情感分類、文本分類等任務(wù)上取得了令人滿意的結(jié)果,但當(dāng)處理稀疏詞匯時(shí),由于詞匯出現(xiàn)的頻率較低,無(wú)法對(duì)其抽取得到準(zhǔn)確的語(yǔ)義,甚至容易受到噪聲的干擾.因此,學(xué)者們提出通過(guò)加入維基百科等其他語(yǔ)料庫(kù),引入外部的知識(shí),以獲得更為準(zhǔn)確的詞級(jí)表示.

    如何將外部語(yǔ)料庫(kù)有效地引入到目標(biāo)語(yǔ)料庫(kù)中,生成融合外部知識(shí)的詞嵌入,是目前這部分工作面臨的挑戰(zhàn).2017年,Cao等[7]建模文本和知識(shí)庫(kù)之間的關(guān)聯(lián),以解決多義詞引起的歧義的問(wèn)題.Sarma等[8]分別在目標(biāo)語(yǔ)料庫(kù)上訓(xùn)練一個(gè)通用詞嵌入和在外部語(yǔ)料庫(kù)上訓(xùn)練一個(gè)外來(lái)詞嵌入,然后對(duì)兩組嵌入使用線性CCA[9]或非線性CCA[10],沿著最大相關(guān)

    的方向投射,再取平均值,最終得到引入外部知識(shí)的詞級(jí)特征表示.Xu等[11]將通用詞嵌入和外來(lái)詞嵌入的雙重嵌入機(jī)制與CNN網(wǎng)絡(luò)結(jié)合,讓CNN網(wǎng)絡(luò)決定兩種嵌入中可用信息的比重,從而使文本特征提取更加高效、簡(jiǎn)單.相較于BERT的Mask Language Model無(wú)法對(duì)顯式語(yǔ)義單元進(jìn)行建模,百度的Paddle發(fā)布了知識(shí)增強(qiáng)的預(yù)訓(xùn)練模型ERNIE[12]( Enhanced Language Representation with Informative Entities),該模型通過(guò)將知識(shí)圖譜在編碼輸入至預(yù)訓(xùn)練模型,從而有效地挖掘了圖譜中實(shí)體間關(guān)系,最終增強(qiáng)了模型語(yǔ)義表示能力.例如在圖6中,“哈爾濱”作為一個(gè)整體被抹去時(shí),則需要通過(guò)更長(zhǎng)的依賴性來(lái)預(yù)測(cè)學(xué)習(xí),而ERNIE可以通過(guò)先驗(yàn)知識(shí)“黑龍江的省會(huì)”預(yù)測(cè)表示出遮掩詞“哈爾濱”.

    2 句級(jí)表示

    僅依靠詞級(jí)表示,無(wú)法獲得對(duì)文本的準(zhǔn)確理解,需要考慮詞和詞之間的關(guān)聯(lián)對(duì)語(yǔ)義的影響,因此句子級(jí)表示的研究就應(yīng)運(yùn)而生了.句級(jí)表示方法最常用的是句子嵌入,具體來(lái)說(shuō)是用向量來(lái)表示自然語(yǔ)言中的語(yǔ)句,使其攜帶句子中的語(yǔ)義信息.句子嵌入方法可分為基于詞向量的線性組合和基于深度學(xué)習(xí)兩類方法.

    2.1 基于詞向量的線性組合

    把句子中所有詞的詞嵌入取平均值是一種非常成功和高效的獲得句子嵌入的方法[13].具體來(lái)說(shuō),是將句子中每個(gè)詞嵌入相加除以句中詞數(shù)得到的向量值作為句嵌入.這一方法的缺陷在于忽略了句中詞的權(quán)重和順序.Kenter等[14]基于word2vec中的CBOW提出了Siamese CBOW(圖7),與CBOW有著相同的原理,只不過(guò)該模型是將句中的詞向量先做平均值處理表征句向量,然后通過(guò)周?chē)木渥訉?duì)目標(biāo)句子進(jìn)行預(yù)測(cè)來(lái)學(xué)習(xí)詞嵌入以便達(dá)到優(yōu)化的目的,最后對(duì)優(yōu)化之后的詞嵌入做平均值處理形成句向量.Arora等[15]僅計(jì)算句子中詞向量的加權(quán)平均,然后刪除第一個(gè)向量上的平均投影,權(quán)重的計(jì)算來(lái)自于作者提出的SIF,即一個(gè)詞的權(quán)重:w=aa+p(w),其中,a為參數(shù),p(w)為預(yù)測(cè)詞的詞頻.這樣的加權(quán)方案具有十分不錯(cuò)的魯棒性:使用從不同語(yǔ)料庫(kù)得出的單詞頻率不會(huì)損害性能并且a的取值很廣,可以讓結(jié)果達(dá)到最佳.

    2.2 基于深度學(xué)習(xí)的句級(jí)表示

    近年來(lái),隨著深度學(xué)習(xí)在文本領(lǐng)域的廣泛應(yīng)用,越來(lái)越多的學(xué)者在句級(jí)表示上嘗試引入深度學(xué)習(xí)模型,以建模詞與詞之間的復(fù)雜關(guān)系.目前基于深度學(xué)習(xí)的方法主要基于循環(huán)神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)和encoder-decoder.

    在基于循環(huán)神經(jīng)網(wǎng)絡(luò)方面,Zhang等[16]提出sentence-state LSTM,每次循環(huán)都對(duì)所有單詞語(yǔ)義特征的隱藏狀態(tài)進(jìn)行建模,而不再是一次一個(gè)單詞輸入.將整個(gè)句子看成一個(gè)狀態(tài),這個(gè)狀態(tài)是由各個(gè)詞的子狀態(tài)和一個(gè)整體的句子層狀態(tài)組成.在每次循環(huán)時(shí),單詞的隱藏狀態(tài)都能捕捉到越來(lái)越大的n-gram信息,并與句子狀態(tài)進(jìn)行信息交換.最終,循環(huán)得到一句話的表示.

    卷積神經(jīng)網(wǎng)絡(luò)方法在圖像處理上已經(jīng)取得了非常不錯(cuò)的效果,要求輸入值是一個(gè)固定的圖像分辨率.近年來(lái),學(xué)者也在嘗試將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用在自然處理上,但是輸入的文本或者句子長(zhǎng)度不固定會(huì)造成多余的卷積結(jié)果丟失,從而對(duì)模型結(jié)果產(chǎn)生影響.Kim[17]先將詞表示變成矩陣,然后通過(guò)一個(gè)僅有一層卷積層的簡(jiǎn)單CNN,對(duì)其進(jìn)行Max-overtime pooling,最后經(jīng)過(guò)全連接層得到句向量.Santos等[18]讓詞嵌入和字符嵌入通過(guò)卷積神經(jīng)網(wǎng)絡(luò)聯(lián)合表示形成句向量,其創(chuàng)新之處在于利用兩層卷積層去提取詞和句中的相關(guān)特征.第一層提取句子級(jí)的特征,第二層獲取每個(gè)單詞字符周?chē)傻木植刻卣饔米畲蠡姆绞綄⑵浣M合,最終生成一個(gè)固定大小的向量.

    在encoder-decoder方面,句級(jí)表示主要是將詞級(jí)表示中的word2vec模型推廣到句子上.Kiros等[19]提出了Skip-Thought Vectors,通過(guò)大量連續(xù)的語(yǔ)料庫(kù)訓(xùn)練出一個(gè)encoder-decoder模型,將多個(gè)詞向量編碼成句向量,并同時(shí)用一個(gè)句子來(lái)預(yù)測(cè)上下文另一個(gè)的句子.模型如圖8,模型中是用一個(gè)三元組(si-1,si,si+1)表示連續(xù)的三句話,將來(lái)自連續(xù)語(yǔ)庫(kù)si編碼重建前一句si-1和后一句si+1.圖中未連接的箭頭連接到編碼器輸出,顏色指示了共享參數(shù)的組件.受到BOW編碼思想的啟發(fā),Hill等[20]提出了對(duì)數(shù)線性語(yǔ)句模型——FastSent,將一個(gè)連續(xù)句子的三元組(si-1,si,si+1),對(duì)于中間的句子si進(jìn)行編碼,編碼方式是將si中的詞向量求和即∑w∈sisi,這種方法沒(méi)有考慮句中的詞序,因此使得FastSent的訓(xùn)練速度大幅提升.根據(jù)實(shí)驗(yàn)用Skip-Thought Vectors[19]和FastSent兩種模型訓(xùn)練得到參數(shù)的數(shù)據(jù)如表1所示,其中*表示在GPU上進(jìn)行訓(xùn)練.

    3 語(yǔ)篇分析

    事實(shí)上,句子之間也會(huì)存在著復(fù)雜的邏輯關(guān)系,因此需要引入語(yǔ)篇分析挖掘來(lái)進(jìn)一步理解文本.語(yǔ)篇分析又稱篇章分析,是通過(guò)對(duì)文本內(nèi)部實(shí)體關(guān)系的挖掘和理解,對(duì)語(yǔ)篇整體進(jìn)行分析,從而獲得整個(gè)文檔的高層語(yǔ)義.本章將分別介紹語(yǔ)篇分析中文本關(guān)系和隱式語(yǔ)篇表示嵌入兩部分的研究.

    文本關(guān)系抽取需要深入理解語(yǔ)篇內(nèi)所有實(shí)體之間的關(guān)系,由此學(xué)習(xí)到的文本關(guān)系嵌入可以用來(lái)擴(kuò)充現(xiàn)有的關(guān)系提取模型,并能顯著地提高它們的性能.Xu等[21]通過(guò)卷積神經(jīng)網(wǎng)絡(luò)從實(shí)體間最短依賴路徑學(xué)習(xí)更穩(wěn)健的關(guān)系表示文本關(guān)系.但是這一方法需要依賴大量的標(biāo)注句子作為訓(xùn)練集生成嵌入模型.Su等[22]提出GloRE,通過(guò)定義句子依賴圖中兩個(gè)實(shí)體的最短路徑去改進(jìn)關(guān)系提取,同時(shí)將文本關(guān)系和知識(shí)庫(kù)關(guān)系的全局共現(xiàn)統(tǒng)計(jì)來(lái)學(xué)習(xí)文本關(guān)系的嵌入.可是由于手工標(biāo)注的訓(xùn)練集太少,這一方面僅適用于小規(guī)模的訓(xùn)練數(shù)據(jù)的關(guān)系提取.2019年,Chen等[23]將GloRE方法與可以從缺少標(biāo)簽的數(shù)據(jù)中提取關(guān)系的遠(yuǎn)程監(jiān)督方法[24]相結(jié)合進(jìn)一步應(yīng)用于大規(guī)模、領(lǐng)域無(wú)關(guān)的數(shù)據(jù),目的是學(xué)習(xí)通用文本關(guān)系嵌入.

    作為語(yǔ)篇分析另一重要分支,隱式語(yǔ)篇分析是在沒(méi)有顯式連接詞的情況下提取關(guān)系,這很難從輸入句子對(duì)的表面特征派生出來(lái),所以需要從文本語(yǔ)義理解的角度中去尋找關(guān)系.近幾年不少學(xué)者已經(jīng)提出了基于神經(jīng)網(wǎng)絡(luò)的方法或高級(jí)表示的模型:CNN[25]、注意神經(jīng)張量網(wǎng)絡(luò)[26]、記憶網(wǎng)絡(luò)(memory network)[27]和RNN[28]等.還有一些方法考慮到了上下文段落和段落間相關(guān)性[29].但是對(duì)于機(jī)器來(lái)說(shuō),如何更好地理解文本成為了隱式語(yǔ)篇關(guān)系識(shí)別研究前進(jìn)的障礙.因此,Bai等[30]通過(guò)字詞和ELMo[2]的增強(qiáng)嵌入和深度剩余雙注意力編碼器,讓表示更加豐富和深入模型結(jié)構(gòu)(圖9).

    4 文本特征提取結(jié)合實(shí)際的應(yīng)用

    問(wèn)答系統(tǒng)是文本特征提取的一個(gè)典型應(yīng)用,任務(wù)是能夠準(zhǔn)確地理解用戶用自然語(yǔ)言提出的問(wèn)題,并通過(guò)檢索語(yǔ)料庫(kù)、知識(shí)圖譜或問(wèn)答知識(shí)庫(kù)返回簡(jiǎn)潔、準(zhǔn)確的答案.相較于搜索引擎,問(wèn)答系統(tǒng)能夠根據(jù)已有語(yǔ)料庫(kù)學(xué)習(xí)問(wèn)答知識(shí),進(jìn)而更有效地滿足用戶的信息需求.將文本特征提取的技術(shù)應(yīng)用在問(wèn)答系統(tǒng)中可以很好地幫助計(jì)算機(jī)理解人類語(yǔ)言的重點(diǎn),同時(shí)在提高訓(xùn)練速度、檢索答案質(zhì)量等方面都會(huì)有很好的表現(xiàn).

    在問(wèn)答系統(tǒng)領(lǐng)域方面,有效的提取問(wèn)句的意圖識(shí)別和填槽可以為快速準(zhǔn)確匹配出答案和使其更加人性化奠定基礎(chǔ).表2顯示了一個(gè)用戶查詢的意圖分類和填槽的實(shí)例.

    此外,對(duì)于問(wèn)題的理解對(duì)于問(wèn)答系統(tǒng)來(lái)說(shuō)也是十分重要的.Dong等[32]介紹了多列卷積神經(jīng)網(wǎng)絡(luò),模型不依賴于手工特征和規(guī)則,通過(guò)共享相同的詞向量來(lái)表示問(wèn)題單詞,使用不同列的網(wǎng)絡(luò)來(lái)提取答案類型、關(guān)系和上下文信息.同時(shí),也會(huì)在知識(shí)庫(kù)中共同學(xué)習(xí)實(shí)體和關(guān)系的低維嵌入.使用問(wèn)題-答案組合對(duì)模型進(jìn)行訓(xùn)練,以對(duì)候選答案進(jìn)行排序.如圖10不同網(wǎng)絡(luò)列獲取得問(wèn)題表示.

    2017年,Seo等[33]提出BIDAF(Bidirectional Attention Flow for Machine Comprehension)雙向注意力矩陣來(lái)計(jì)算上下文的每個(gè)字與查詢問(wèn)題之間的相關(guān)性,從而建立查詢感知的上下文表示.然而這種模型卻不能像人類一樣對(duì)候選答案進(jìn)行反思,因此Gong等[34]將BIDAF擴(kuò)展成Ruminating Reader使其能夠進(jìn)行第二遍閱讀和推理,通過(guò)門(mén)控機(jī)制讓第一遍和第二遍閱讀的內(nèi)容進(jìn)行融合(模型框架如圖11),在選擇答案的時(shí)候能夠有效地使用上下文并更好地權(quán)衡答案.

    5 展望

    本文根據(jù)語(yǔ)義層面的由低到高依次總結(jié)了詞、句和篇章三個(gè)層次上文本特征提取方法的研究進(jìn)展.近年來(lái),學(xué)者們注意到圖作為一種特殊的數(shù)據(jù)結(jié)構(gòu),能夠面對(duì)一組對(duì)象和對(duì)象之間的聯(lián)系進(jìn)行建模.由于這一強(qiáng)大的優(yōu)點(diǎn),把基于圖神經(jīng)網(wǎng)絡(luò)的方法用于機(jī)器學(xué)習(xí)的方向越來(lái)越受人追捧.同時(shí),現(xiàn)在數(shù)據(jù)平臺(tái)的多樣性使得數(shù)據(jù)結(jié)構(gòu)變得極為復(fù)雜,給文本特征提取帶來(lái)了不小的挑戰(zhàn),而圖神經(jīng)網(wǎng)絡(luò)作為一種可以在圖結(jié)構(gòu)上運(yùn)行的神經(jīng)網(wǎng)絡(luò),能夠保存圖形嵌入中的全局結(jié)構(gòu)信息,因此在處理具有豐富關(guān)系結(jié)構(gòu)的任務(wù)時(shí)可以得到很好的效果.所以,利用圖神經(jīng)網(wǎng)絡(luò)來(lái)應(yīng)對(duì)結(jié)構(gòu)復(fù)雜的文本信息也成為了一個(gè)新的研究方向.在問(wèn)答系統(tǒng)方面,生成的回答也更加人性化,因此,在未來(lái)的文本特征提取中,應(yīng)該建立新的文本特征表示模型,并結(jié)合領(lǐng)域知識(shí)快速定位用戶的興趣反饋,以達(dá)到更加流暢的使用感受.

    參考文獻(xiàn)

    References

    [1]Hochreiter S,Schmidhuber J.Longshort-term memory[J].Neural Computation,1997,9(8):1735-1780

    [2]Melamud O,Goldberger J,Dagan I.Context2vec:learning generic context embedding with bidirectional LSTM[C]∥Proceedings of the 20th SIGNLL Conference on Computational Natural Language Learning,2016:51-61

    [3]Peters M E,Neumann M,Iyyer M,et al.Deep contextualized word representations[J].arXiv Preprint,2018,arXiv:1802.05365

    [4]Radford A,Narasimhan K,Salimans T,et al.Improving language understanding by generative pre-training[EB/OL].[2019-10-12].https:∥s3-us-west-2.amazonaws.com/openai-assets/researchcovers/l ̄a ̄n ̄g ̄u ̄a ̄g ̄e ̄u ̄n ̄s ̄u ̄p ̄e ̄r ̄v ̄i ̄s ̄e ̄d/language understanding paper.pdf,2018

    [5]Devlin J,Chang M W,Lee K,et al.Bert:pre-training of deep bidirectional transformers for language understanding[J].arXiv Preprint,2018,arXiv:1810.04805

    [6]Dai Z,Yang Z,Yang Y,et al.Transformer-xl:attentive language models beyond a fixed-length context[J].arXiv Preprint,2019,arXiv:1901.02860

    [7]Cao Y X,Huang L F,Ji H,et al.Bridge text and knowledge by learning multi-prototype entity mention embedding[C]∥Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1:Long Papers),2017:1623-1633

    [8]Sarma P K,Liang Y,Sethares W A.Domain adapted word embeddings for improved sentiment classification[J].arXiv Preprint,2018,arXiv:1805.04576

    [9]Hotelling H.Relations between two sets of variates[J].Biometrika,1936,28(3/4):321.

    [10]Hardoon D R,Szedmak S,Shawe-Taylor J.Canonical correlation analysis:an overview with application to learning methods[J].Neural Computation,2004,16(12):2639-2664

    [11]Xu H,Liu B,Shu L,et al.Double embeddings and CNN-based sequence labeling for aspect extraction[J].arXiv Preprint,2018,arXiv:1805.04601

    [12]Zhang Z,Han X,Liu Z,et al.ERNIE:enhanced language representation with informative entities[J].arXiv Preprint,2019,arXiv:1905.07129

    [13]Faruqui M,Dodge J,Jauhar S K,et al.Retrofitting word vectors to semantic lexicons[J].arXiv Preprint,2014,arXiv:1411.4166

    [14]Kenter T,Borisov A,De Rijke M.Siamese CBOW:optimizing word embeddings for sentence representations[J].arXiv Preprint,2016,arXiv:1606.04640

    [15]Arora S,Liang Y,Ma T.A simple but tough-to-beat baseline for sentence embeddings[C]∥International Conference on Learning Representations,2017

    [16]Zhang Y,Liu Q,Song L.Sentence-state LSTM for text representation[J].arXiv Preprint,2018,arXiv:1805.02474

    [17]Kim Y.Convolutional neural networks for sentence classification[J].arXiv Preprint,2014,arXiv:1408.5882

    [18]Dos Santos C,Gatti M.Deep convolutional neural networks for sentiment analysis of short texts[C]∥Proceedings of COLING 2014,the 25th International Conference on Computational Linguistics:Technical Papers,2014:69-78

    [19]Kiros R,Zhu Y,Salakhutdinov R R,et al.Skip-thought vectors[C]∥Advances in Neural Information Processing Systems,2015:3294-3302.

    [20]Hill F,Cho K,Korhonen A.Learning distributed representations of sentences from unlabelled data[J].arXiv Preprint,2016,arXiv:1602.03483

    [21]Xu K,F(xiàn)eng Y S,Huang S F,et al.Semantic relation classification via convolutional neural networks with simple negative sampling[J].arXiv Preprint,2015,arXiv:1506.07650

    [22]Su Y,Liu H L,Yavuz S,et al.Global relation embedding for relation extraction[J].arXiv Preprint,2017,arXiv:1704.05958

    [23]Chen Z Y,Zha H W,Liu H L,et al.Global textual relation embedding for relational understanding[J].arXiv Preprint,2019,arXiv:1906.00550

    [24]Mintz M,Bills S,Snow R,et al.Distant supervision for relation extraction without labeled data[C]∥Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP:Volume 2- ACL-IJCNLP,2009:1003-1011

    [25]Qin L H,Zhang Z S,Zhao H.A stacking gated neural architecture for implicit discourse relation classification[C]∥Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing,2016:2263-2270

    [26]Guo F Y,He R F,Jin D,et al.Implicit discourse relation recognition using neural tensor network with interactive attention and sparse learning[C]∥Proceedings of the 27th International Conference on Computational Linguistics,2018:547-558

    [27]Jia Y Y,Ye Y,F(xiàn)eng Y S,et al.Modeling discourse cohesion for discourse parsing via memory network[C]∥Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2:Short Papers),2018:438-443

    [28]Ji Y F,Eisenstein J.One vector is not enough:entity-augmented distributed semantics for discourse relations[J].Transactions of the Association for Computational Linguistics,2015,3:329-344

    [29]Dai Z Y,Huang R H.Improving implicit discourse relation classification by modeling inter-dependencies of discourse units in a paragraph[J].arXiv Preprint,2018,arXiv:1804.05918

    [30]Bai H X,Zhao H.Deep enhanced representation for implicit discourse relation recognition[J].arXiv Preprint,2018,arXiv:1807.05154

    [31]Chen Q,Zhuo Z,Wang W.BERT for joint intent classification and slot filling[J].arXiv Preprint,2019,arXiv:1902.10909

    [32]Dong L,Wei F R,Zhou M,et al.Question answering over freebase with multi-column convolutional neural networks[C]∥Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1:Long Papers),2015:260-269

    [33]Seo M,Kembhavi A,F(xiàn)arhadi A,et al.Bidirectional attention flow for machine comprehension[J].arXiv Preprint,2016,arXiv:1611.01603

    [34]Gong Y C,Bowman S R.Ruminating reader:reasoning with gated multi-hop attention[J].arXiv Preprint,2017,arXiv:1704.07415

    Abstract Text understanding is an important research branch in artificial intelligence,which avails the effective interaction between human and computer with natural language.Text feature extraction is one of the basic and key steps for computers to understand and perceive the textual data.In this paper,we introduce the development history of text feature extraction and the mainstream feature extraction methods in recent years,and prospects the future research directions of text feature extraction.The three semantic hierarchies,namely word representation,sentence representation and discourse relationship mining are elaborated,then a case is given to show the typical application of text feature extraction on question answering system.

    Key words natural language processing;text feature extraction;question answering system

    猜你喜歡
    自然語(yǔ)言處理
    基于LSTM自動(dòng)編碼機(jī)的短文本聚類方法
    自然語(yǔ)言處理與司法案例
    國(guó)外基于知識(shí)庫(kù)的問(wèn)答系統(tǒng)相關(guān)研究進(jìn)展及其啟示
    基于依存句法的實(shí)體關(guān)系抽取
    基于組合分類算法的源代碼注釋質(zhì)量評(píng)估方法
    面向機(jī)器人導(dǎo)航的漢語(yǔ)路徑自然語(yǔ)言組塊分析方法研究
    詞向量的語(yǔ)義學(xué)規(guī)范化
    漢哈機(jī)器翻譯中的文字轉(zhuǎn)換技術(shù)研究
    HowNet在自然語(yǔ)言處理領(lǐng)域的研究現(xiàn)狀與分析
    科技視界(2016年5期)2016-02-22 11:41:39
    基于.NET的維哈柯多語(yǔ)種網(wǎng)上數(shù)據(jù)采集系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
    偷拍熟女少妇极品色| 亚洲美女搞黄在线观看 | 婷婷精品国产亚洲av在线| 国产精品综合久久久久久久免费| 国产亚洲精品av在线| 一本精品99久久精品77| 午夜两性在线视频| 日本熟妇午夜| 国产熟女xx| 可以在线观看毛片的网站| 精品久久久久久久久久久久久| 美女免费视频网站| 看十八女毛片水多多多| 久久精品国产亚洲av涩爱 | 亚洲最大成人av| a级毛片免费高清观看在线播放| 久久99热这里只有精品18| 人人妻,人人澡人人爽秒播| 嫩草影视91久久| 亚洲电影在线观看av| 久久香蕉精品热| 老熟妇仑乱视频hdxx| 日韩人妻高清精品专区| 国产毛片a区久久久久| 99riav亚洲国产免费| 亚洲最大成人手机在线| 日本一二三区视频观看| 看黄色毛片网站| 日韩人妻高清精品专区| 亚洲va日本ⅴa欧美va伊人久久| 最近最新中文字幕大全电影3| 国产精华一区二区三区| 俄罗斯特黄特色一大片| 美女免费视频网站| 国产免费av片在线观看野外av| 88av欧美| 他把我摸到了高潮在线观看| 搡女人真爽免费视频火全软件 | 91麻豆精品激情在线观看国产| 一区福利在线观看| 深夜精品福利| 五月玫瑰六月丁香| www.色视频.com| 亚洲精品成人久久久久久| 国产91精品成人一区二区三区| 男女床上黄色一级片免费看| 亚洲精品在线观看二区| 日韩精品青青久久久久久| 国内精品美女久久久久久| 在线十欧美十亚洲十日本专区| 日韩欧美精品免费久久 | 国内久久婷婷六月综合欲色啪| 男女那种视频在线观看| 看黄色毛片网站| 欧美乱色亚洲激情| 成人精品一区二区免费| 看黄色毛片网站| 国产亚洲精品av在线| 欧美精品啪啪一区二区三区| 变态另类成人亚洲欧美熟女| 亚洲中文字幕一区二区三区有码在线看| 中文资源天堂在线| 99精品在免费线老司机午夜| 人妻丰满熟妇av一区二区三区| 男人狂女人下面高潮的视频| 色尼玛亚洲综合影院| 亚洲第一欧美日韩一区二区三区| 免费在线观看亚洲国产| 美女被艹到高潮喷水动态| 国产免费一级a男人的天堂| 欧美黄色片欧美黄色片| 亚洲国产色片| 精品久久久久久久人妻蜜臀av| 欧美精品啪啪一区二区三区| 久久99热这里只有精品18| 啪啪无遮挡十八禁网站| 观看免费一级毛片| 日本免费一区二区三区高清不卡| 亚洲av免费在线观看| 亚洲精品影视一区二区三区av| 国产视频内射| 在线十欧美十亚洲十日本专区| 又粗又爽又猛毛片免费看| 久久精品影院6| 麻豆成人午夜福利视频| 国产亚洲精品综合一区在线观看| ponron亚洲| 国产精品日韩av在线免费观看| 美女cb高潮喷水在线观看| 老师上课跳d突然被开到最大视频 久久午夜综合久久蜜桃 | 精品人妻视频免费看| av在线天堂中文字幕| 亚洲成a人片在线一区二区| 午夜视频国产福利| 日韩精品青青久久久久久| 九九热线精品视视频播放| 狂野欧美白嫩少妇大欣赏| 中文字幕av在线有码专区| 成人av一区二区三区在线看| 亚洲性夜色夜夜综合| 午夜激情福利司机影院| 丰满人妻熟妇乱又伦精品不卡| 欧美成人一区二区免费高清观看| 中亚洲国语对白在线视频| 美女cb高潮喷水在线观看| 国产成人av教育| 老司机午夜福利在线观看视频| 亚洲黑人精品在线| 99热只有精品国产| 国产一区二区激情短视频| 欧美日韩乱码在线| 色精品久久人妻99蜜桃| 性色avwww在线观看| 国产精品美女特级片免费视频播放器| 久久午夜亚洲精品久久| 欧美色欧美亚洲另类二区| 欧美极品一区二区三区四区| 直男gayav资源| 窝窝影院91人妻| 黄色一级大片看看| 波多野结衣高清无吗| 丰满乱子伦码专区| 成人亚洲精品av一区二区| 网址你懂的国产日韩在线| 色综合亚洲欧美另类图片| 高清毛片免费观看视频网站| 天堂av国产一区二区熟女人妻| 在线天堂最新版资源| 亚洲熟妇中文字幕五十中出| 无人区码免费观看不卡| 欧美日韩瑟瑟在线播放| 国产精品一及| 成人性生交大片免费视频hd| 国产午夜精品论理片| 国产综合懂色| 中文亚洲av片在线观看爽| АⅤ资源中文在线天堂| 久久久国产成人精品二区| 国产乱人伦免费视频| 丰满的人妻完整版| 久99久视频精品免费| 中文字幕高清在线视频| 国产淫片久久久久久久久 | 亚洲三级黄色毛片| 色在线成人网| 欧美成人a在线观看| 久久人妻av系列| 麻豆久久精品国产亚洲av| 国产精品三级大全| 97超级碰碰碰精品色视频在线观看| 国产av麻豆久久久久久久| 免费看a级黄色片| 免费观看人在逋| 成人性生交大片免费视频hd| 黄色配什么色好看| 亚洲av成人av| 精品午夜福利视频在线观看一区| 老司机深夜福利视频在线观看| 又粗又爽又猛毛片免费看| 欧美日韩乱码在线| 国产精品一区二区免费欧美| 每晚都被弄得嗷嗷叫到高潮| а√天堂www在线а√下载| 色尼玛亚洲综合影院| 不卡一级毛片| 亚洲七黄色美女视频| 久久伊人香网站| 夜夜看夜夜爽夜夜摸| 国产成人福利小说| 亚洲成av人片免费观看| 免费人成在线观看视频色| 欧美日本亚洲视频在线播放| 禁无遮挡网站| 老司机深夜福利视频在线观看| 一级a爱片免费观看的视频| 免费人成视频x8x8入口观看| 欧美最黄视频在线播放免费| 中文字幕人成人乱码亚洲影| bbb黄色大片| 特级一级黄色大片| www.999成人在线观看| 51国产日韩欧美| 在线十欧美十亚洲十日本专区| 精华霜和精华液先用哪个| 亚洲精华国产精华精| 国产在线精品亚洲第一网站| 亚洲精品亚洲一区二区| 中亚洲国语对白在线视频| 精品国内亚洲2022精品成人| 男人舔女人下体高潮全视频| 无人区码免费观看不卡| 国产精品国产高清国产av| 亚洲18禁久久av| 久久99热6这里只有精品| 成人国产综合亚洲| 精品久久久久久久久av| 日本在线视频免费播放| 人人妻,人人澡人人爽秒播| 国产精品久久久久久人妻精品电影| 免费黄网站久久成人精品 | 日本一二三区视频观看| 99国产精品一区二区三区| 亚洲精品色激情综合| 三级毛片av免费| 在线国产一区二区在线| 亚洲自偷自拍三级| 夜夜夜夜夜久久久久| 黄色日韩在线| 日韩欧美免费精品| 十八禁国产超污无遮挡网站| 中文字幕人成人乱码亚洲影| 99热这里只有是精品在线观看 | 性色avwww在线观看| 国产精品不卡视频一区二区 | 国内精品久久久久精免费| 无遮挡黄片免费观看| 一本久久中文字幕| 亚洲国产精品合色在线| 国产精品精品国产色婷婷| 国产又黄又爽又无遮挡在线| 午夜影院日韩av| 男插女下体视频免费在线播放| 久久久久久久久中文| 色噜噜av男人的天堂激情| 国产美女午夜福利| 黄色一级大片看看| www.色视频.com| 国产伦精品一区二区三区视频9| 亚洲 欧美 日韩 在线 免费| 久久欧美精品欧美久久欧美| 日本 av在线| 色精品久久人妻99蜜桃| 夜夜夜夜夜久久久久| 可以在线观看毛片的网站| 欧美又色又爽又黄视频| 女生性感内裤真人,穿戴方法视频| 乱人视频在线观看| 一进一出抽搐动态| 男女那种视频在线观看| 欧美精品啪啪一区二区三区| 日韩欧美精品v在线| 俄罗斯特黄特色一大片| 别揉我奶头~嗯~啊~动态视频| 国产成人aa在线观看| 国内精品久久久久精免费| 亚洲成人免费电影在线观看| 日本 av在线| 国产精品久久久久久人妻精品电影| 国产亚洲精品久久久com| 国产成人a区在线观看| 国产av在哪里看| 桃红色精品国产亚洲av| 少妇熟女aⅴ在线视频| 97超视频在线观看视频| 精品一区二区三区视频在线| 免费人成在线观看视频色| 麻豆成人av在线观看| 国产真实伦视频高清在线观看 | 国产不卡一卡二| 欧美成人性av电影在线观看| 欧美国产日韩亚洲一区| av天堂中文字幕网| 免费高清视频大片| 国产亚洲精品久久久com| 老师上课跳d突然被开到最大视频 久久午夜综合久久蜜桃 | 午夜亚洲福利在线播放| 免费在线观看成人毛片| 国产久久久一区二区三区| 亚洲色图av天堂| 自拍偷自拍亚洲精品老妇| 老鸭窝网址在线观看| 欧洲精品卡2卡3卡4卡5卡区| 日日摸夜夜添夜夜添av毛片 | 此物有八面人人有两片| 日韩欧美精品v在线| 国产国拍精品亚洲av在线观看| 国产欧美日韩精品亚洲av| 一区福利在线观看| 99在线人妻在线中文字幕| 真人一进一出gif抽搐免费| www.熟女人妻精品国产| 赤兔流量卡办理| 亚洲一区二区三区色噜噜| 美女高潮喷水抽搐中文字幕| 欧美成人a在线观看| 成年人黄色毛片网站| 国产人妻一区二区三区在| 亚洲av中文字字幕乱码综合| 一个人看的www免费观看视频| 一区二区三区高清视频在线| 欧美黄色片欧美黄色片| 免费搜索国产男女视频| 国产精品伦人一区二区| 国产免费一级a男人的天堂| 日日干狠狠操夜夜爽| 韩国av一区二区三区四区| av国产免费在线观看| 久久6这里有精品| 国产av麻豆久久久久久久| 五月伊人婷婷丁香| 性欧美人与动物交配| 黄色日韩在线| 欧美成人性av电影在线观看| 国产伦精品一区二区三区四那| 午夜福利18| 性插视频无遮挡在线免费观看| 成熟少妇高潮喷水视频| 成人三级黄色视频| 国产欧美日韩一区二区精品| 欧美三级亚洲精品| 黄色视频,在线免费观看| 国产av麻豆久久久久久久| 欧美bdsm另类| 日本免费a在线| 日日夜夜操网爽| 婷婷色综合大香蕉| 成人鲁丝片一二三区免费| 麻豆成人av在线观看| 丝袜美腿在线中文| 美女免费视频网站| 亚洲熟妇中文字幕五十中出| 精品99又大又爽又粗少妇毛片 | 午夜福利在线观看免费完整高清在 | 久久久久久大精品| 精品人妻一区二区三区麻豆 | 夜夜躁狠狠躁天天躁| 亚洲精品一区av在线观看| 日韩有码中文字幕| 国产高潮美女av| 日韩av在线大香蕉| 激情在线观看视频在线高清| 综合色av麻豆| 少妇的逼水好多| 久久精品夜夜夜夜夜久久蜜豆| 成年人黄色毛片网站| 两性午夜刺激爽爽歪歪视频在线观看| 国产国拍精品亚洲av在线观看| 97超级碰碰碰精品色视频在线观看| 欧美三级亚洲精品| 欧美zozozo另类| 日韩欧美国产在线观看| 又粗又爽又猛毛片免费看| 国产91精品成人一区二区三区| 老女人水多毛片| 亚洲色图av天堂| 亚洲精品在线观看二区| 中亚洲国语对白在线视频| 国产精品久久久久久久久免 | 十八禁人妻一区二区| 免费人成在线观看视频色| 久久热精品热| 深爱激情五月婷婷| 成人一区二区视频在线观看| 白带黄色成豆腐渣| 久久精品国产亚洲av香蕉五月| a在线观看视频网站| 午夜福利成人在线免费观看| 国产乱人伦免费视频| eeuss影院久久| 免费观看的影片在线观看| 亚洲在线自拍视频| 老熟妇乱子伦视频在线观看| 哪里可以看免费的av片| 免费观看的影片在线观看| 成人亚洲精品av一区二区| 老司机深夜福利视频在线观看| 亚洲成人免费电影在线观看| 欧美午夜高清在线| 性色avwww在线观看| 午夜日韩欧美国产| 人人妻,人人澡人人爽秒播| 国产欧美日韩精品亚洲av| 亚洲avbb在线观看| 国产真实伦视频高清在线观看 | 午夜福利视频1000在线观看| 国模一区二区三区四区视频| 日韩高清综合在线| 国产精品亚洲av一区麻豆| 亚洲不卡免费看| 国产毛片a区久久久久| 两个人的视频大全免费| 乱人视频在线观看| aaaaa片日本免费| 老司机深夜福利视频在线观看| 伦理电影大哥的女人| 男女做爰动态图高潮gif福利片| 波野结衣二区三区在线| 国产伦精品一区二区三区视频9| 我要搜黄色片| 免费在线观看成人毛片| 欧美一级a爱片免费观看看| 国产野战对白在线观看| 亚洲狠狠婷婷综合久久图片| 亚洲精品456在线播放app | 一本久久中文字幕| 老师上课跳d突然被开到最大视频 久久午夜综合久久蜜桃 | 婷婷精品国产亚洲av在线| 最近最新免费中文字幕在线| 亚洲人与动物交配视频| 日韩中文字幕欧美一区二区| 国产伦人伦偷精品视频| 少妇人妻精品综合一区二区 | 亚洲无线观看免费| 国产午夜福利久久久久久| 亚洲自偷自拍三级| 久久99热6这里只有精品| 国产精品国产高清国产av| 欧美黑人欧美精品刺激| 97超级碰碰碰精品色视频在线观看| 欧美最黄视频在线播放免费| 无遮挡黄片免费观看| 成年人黄色毛片网站| 9191精品国产免费久久| 草草在线视频免费看| 在现免费观看毛片| 欧美绝顶高潮抽搐喷水| 中文字幕人成人乱码亚洲影| 老鸭窝网址在线观看| 色5月婷婷丁香| 国产一区二区在线观看日韩| 在线观看午夜福利视频| 18+在线观看网站| 搡老岳熟女国产| av女优亚洲男人天堂| 女同久久另类99精品国产91| 亚洲国产欧美人成| av黄色大香蕉| 亚洲中文字幕一区二区三区有码在线看| 精品国产三级普通话版| 色精品久久人妻99蜜桃| 美女被艹到高潮喷水动态| 自拍偷自拍亚洲精品老妇| 中亚洲国语对白在线视频| 高潮久久久久久久久久久不卡| 日本与韩国留学比较| 亚洲av二区三区四区| 久久精品国产亚洲av天美| 亚洲成av人片在线播放无| 身体一侧抽搐| 精品不卡国产一区二区三区| 91字幕亚洲| 午夜福利欧美成人| 免费高清视频大片| 一边摸一边抽搐一进一小说| 欧美激情在线99| 日本黄色片子视频| 日本熟妇午夜| 少妇丰满av| 天天躁日日操中文字幕| 又爽又黄无遮挡网站| 欧美激情国产日韩精品一区| 亚洲真实伦在线观看| 哪里可以看免费的av片| 毛片女人毛片| 国产欧美日韩精品一区二区| 久久人人精品亚洲av| 欧美又色又爽又黄视频| 好男人电影高清在线观看| 日本与韩国留学比较| 88av欧美| 国产精品久久久久久人妻精品电影| 亚洲熟妇中文字幕五十中出| 在线观看美女被高潮喷水网站 | 亚洲av电影在线进入| 精品欧美国产一区二区三| 99热这里只有是精品50| 国产高清视频在线播放一区| 亚洲美女视频黄频| 免费搜索国产男女视频| 欧美黄色淫秽网站| 亚洲午夜理论影院| 欧美日本亚洲视频在线播放| 日本a在线网址| 亚洲第一欧美日韩一区二区三区| 欧美成人免费av一区二区三区| 午夜免费男女啪啪视频观看 | 色在线成人网| 久久精品国产清高在天天线| 性插视频无遮挡在线免费观看| 特大巨黑吊av在线直播| 亚洲欧美日韩东京热| 成人三级黄色视频| 最近最新免费中文字幕在线| 国产精品久久电影中文字幕| 国产毛片a区久久久久| 蜜桃亚洲精品一区二区三区| 看黄色毛片网站| 我的老师免费观看完整版| 亚洲av.av天堂| 老鸭窝网址在线观看| 亚洲欧美日韩高清在线视频| 波野结衣二区三区在线| 丁香欧美五月| 亚洲av一区综合| 欧美黄色淫秽网站| 亚洲av二区三区四区| 九九久久精品国产亚洲av麻豆| 欧美日韩中文字幕国产精品一区二区三区| 乱人视频在线观看| 热99re8久久精品国产| a级一级毛片免费在线观看| 男人舔奶头视频| 两个人视频免费观看高清| 日本在线视频免费播放| 亚洲第一区二区三区不卡| 国产国拍精品亚洲av在线观看| 久99久视频精品免费| 欧美日本视频| 久久精品久久久久久噜噜老黄 | 国产成人福利小说| 久久九九热精品免费| 国产av麻豆久久久久久久| 国产极品精品免费视频能看的| 国产私拍福利视频在线观看| 国产伦人伦偷精品视频| 夜夜夜夜夜久久久久| 成人国产综合亚洲| 欧美又色又爽又黄视频| 毛片女人毛片| 亚洲欧美日韩东京热| 88av欧美| 国产精品永久免费网站| 小说图片视频综合网站| 有码 亚洲区| 精品久久久久久久久久免费视频| 又紧又爽又黄一区二区| 国产午夜精品论理片| 亚洲精品成人久久久久久| 禁无遮挡网站| 99热精品在线国产| 久久中文看片网| 国产欧美日韩一区二区精品| 久久久久精品国产欧美久久久| 欧美日韩中文字幕国产精品一区二区三区| 中亚洲国语对白在线视频| 国产aⅴ精品一区二区三区波| 麻豆久久精品国产亚洲av| 国产亚洲欧美在线一区二区| 特大巨黑吊av在线直播| 国产高潮美女av| 欧美黑人欧美精品刺激| 日本黄色片子视频| 亚洲无线观看免费| 九九久久精品国产亚洲av麻豆| 国产精华一区二区三区| 国产精品1区2区在线观看.| 亚洲熟妇熟女久久| 成年女人毛片免费观看观看9| 午夜两性在线视频| 欧美黄色片欧美黄色片| 国产真实乱freesex| 一本综合久久免费| 一级a爱片免费观看的视频| 男人的好看免费观看在线视频| 亚洲美女搞黄在线观看 | 神马国产精品三级电影在线观看| a级毛片a级免费在线| 国内久久婷婷六月综合欲色啪| 国产精品久久久久久久电影| 亚洲,欧美精品.| 老司机午夜福利在线观看视频| 白带黄色成豆腐渣| 久久精品夜夜夜夜夜久久蜜豆| 90打野战视频偷拍视频| 日本撒尿小便嘘嘘汇集6| 女同久久另类99精品国产91| 日韩欧美三级三区| 一进一出抽搐动态| 757午夜福利合集在线观看| 国产私拍福利视频在线观看| 嫁个100分男人电影在线观看| 国内精品久久久久精免费| 三级国产精品欧美在线观看| 国产黄a三级三级三级人| 久久99热6这里只有精品| 国产免费一级a男人的天堂| 成人特级av手机在线观看| 免费看日本二区| 我的老师免费观看完整版| 最近最新免费中文字幕在线| 国产大屁股一区二区在线视频| 搞女人的毛片| 国产精品一及| 很黄的视频免费| 12—13女人毛片做爰片一| 我要看日韩黄色一级片| 精品久久久久久成人av| 国产精品国产高清国产av| www.999成人在线观看| 很黄的视频免费| 国产免费男女视频| 高清日韩中文字幕在线| 久久久国产成人精品二区| 国产黄片美女视频| 久久久久久久久久黄片| 国产精品嫩草影院av在线观看 | 一个人观看的视频www高清免费观看| 亚洲av不卡在线观看| 国产乱人视频| 熟女人妻精品中文字幕| av天堂中文字幕网| 久久精品综合一区二区三区| 99热精品在线国产| 国产免费av片在线观看野外av| 欧美zozozo另类| 波多野结衣巨乳人妻| 久久精品影院6| 丰满人妻熟妇乱又伦精品不卡| 脱女人内裤的视频| 欧美日韩黄片免| 亚洲无线在线观看| 亚洲久久久久久中文字幕| 国产男靠女视频免费网站| 少妇人妻精品综合一区二区 | 日本三级黄在线观看|