• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合語義信息的矩陣分解詞向量學習模型

    2017-12-05 11:21:46陳培景麗萍
    智能系統(tǒng)學報 2017年5期
    關(guān)鍵詞:知識庫正確率語料庫

    陳培,景麗萍

    (北京交通大學 交通數(shù)據(jù)分析與挖掘北京市重點實驗室,北京 100044)

    融合語義信息的矩陣分解詞向量學習模型

    陳培,景麗萍

    (北京交通大學 交通數(shù)據(jù)分析與挖掘北京市重點實驗室,北京 100044)

    詞向量在自然語言處理中起著重要的作用,近年來受到越來越多研究者的關(guān)注。然而,傳統(tǒng)詞向量學習方法往往依賴于大量未經(jīng)標注的文本語料庫,卻忽略了單詞的語義信息如單詞間的語義關(guān)系。為了充分利用已有領(lǐng)域知識庫(包含豐富的詞語義信息),文中提出一種融合語義信息的詞向量學習方法(KbEMF),該方法在矩陣分解學習詞向量的模型上加入領(lǐng)域知識約束項,使得擁有強語義關(guān)系的詞對獲得的詞向量相對近似。在實際數(shù)據(jù)上進行的單詞類比推理任務(wù)和單詞相似度量任務(wù)結(jié)果表明,KbEMF比已有模型具有明顯的性能提升。

    自然語言處理;詞向量;矩陣分解;語義信息;知識庫

    詞向量是單詞在實數(shù)空間所表示的一個低維連續(xù)向量,它能夠同時捕獲單詞的語義信息和語法信息。近年來,詞向量已被廣泛地應(yīng)用于各種各樣的自然語言處理任務(wù)中[1-5],如命名實體識別、情感分析、機器翻譯等。在處理上述任務(wù)的過程中通常需要用到更大單位級別(如短語、句子、段落、篇章)的向量表示,這些向量則可以由詞向量組合獲得。因此學習優(yōu)質(zhì)的詞向量非常重要。

    現(xiàn)有的詞向量學習方法是利用單詞的上下文信息預測該單詞含義,并且使上下文信息相似的單詞含義也相似,因此對應(yīng)的詞向量在空間距離上更靠近?,F(xiàn)有的詞向量學習方法大致可以分為基于神經(jīng)網(wǎng)絡(luò)學習詞向量和基于矩陣分解學習詞向量。基于神經(jīng)網(wǎng)絡(luò)學習詞向量是根據(jù)上下文與目標單詞之間的關(guān)系建立語言模型,通過訓練語言模型獲得詞向量[6-12]。但有效詞向量的獲取是建立在訓練大規(guī)模文本語料庫的基礎(chǔ)上,這無疑使計算成本很高。近年來提出的 CBOW和skip-gram模型[11]去除了神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中非線性隱層,使算法復雜度大大降低,并且也獲得了高效的詞向量。CBOW根據(jù)上下文預測目標單詞,skip-gram根據(jù)目標單詞預測上下文單詞。基于矩陣分解的詞向量學習模型[13-15]是通過分解從文本語料庫中提取的矩陣(如共現(xiàn)矩陣或由共現(xiàn)矩陣生成的PMI矩陣)得到低維連續(xù)的詞向量,并且文獻[13]和文獻[14]證明了矩陣分解的詞向量學習模型與skip-gram完全等價。

    上述模型學習的詞向量已被有效地應(yīng)用于自然語言處理任務(wù)中,然而這些模型在學習詞向量的過程中僅使用了文本語料庫信息,卻忽略了單詞間的語義信息。一旦遇到下列情形很難保證所得詞向量的質(zhì)量:1)含義不同甚至完全相反的單詞(good/bad)往往出現(xiàn)在相似的上下文中,那么它們的詞向量必然十分相似,這明顯與現(xiàn)實世界相悖;2)對于兩個含義相似的單詞,其中一個出現(xiàn)在語料庫中的次數(shù)極少,另外一個卻頻繁出現(xiàn),或者它們出現(xiàn)在不同的上下文中,那么最終它們學得的詞向量會有很大差別;3)大量上下文噪音的存在使學得的詞向量不能準確反映出單詞間的真實關(guān)系,甚至會誤導整個詞向量的訓練過程。

    為解決上述問題,本文考慮從領(lǐng)域知識庫提取語義信息并融入到詞向量學習的過程中。這會給詞向量的學習帶來下列優(yōu)勢。

    首先,知識庫明確定義了單詞的語義關(guān)系(knife/fork都屬于餐具,animal/dog具有范疇包含關(guān)系等),引入這些語義關(guān)系約束詞向量的學習,使學到的詞向量具有更準確的關(guān)系。另外,相似單詞出現(xiàn)在不同的上下文中或者出現(xiàn)頻次存在較大差異帶來的詞向量偏差問題,都可以通過知識庫豐富的語義信息予以修正。再者,知識庫是各領(lǐng)域的權(quán)威專家構(gòu)建的,具有更高的可靠性。因此,引入語義信息約束詞向量的學習是很有必要的。

    目前融合語義信息學習詞向量已有一些研究成果。Bian 等[16]利用單詞結(jié)構(gòu)信息、語法信息及語義信息學習詞向量,并取得了良好的效果。Xu等[17]分別給取自于知識庫的兩類知識信息(R-NET和C-NET)建立正則約束函數(shù),并將它們與skip-gram模型聯(lián)合學習詞向量,提出了RC-NET模型。Yu 等[18]將單詞間的語義相似信息融入到CBOW的學習過程中,提出了高質(zhì)量的詞向量聯(lián)合學習模型RCM。Liu 等[19]通過在訓練skip-gram模型過程中加入單詞相似性排序信息約束詞向量學習,提出了SWE模型,該模型通過單詞間的3種語義關(guān)系,即近反義關(guān)系、上下位關(guān)系及類別關(guān)系獲取單詞相似性排序信息。Faruqui 等[20]采用后處理的方式調(diào)整已經(jīng)預先訓練好的詞向量,提出了Retro模型,該模型可以利用任意知識庫信息調(diào)整由任意詞向量模型訓練好的詞向量,而無需重新訓練詞向量。

    以上研究都是通過拓展神經(jīng)網(wǎng)絡(luò)詞向量學習模型構(gòu)建的。與之不同,本文提出的KbEMF模型是基于矩陣分解學習詞向量。該模型以Li 等[13]提出的EMF模型為框架加入領(lǐng)域知識約束項,使具有較強語義關(guān)系的詞對學習到的詞向量在實數(shù)空間中的距離更近,也就是更加近似。與Faruqui 等采用后處理方式調(diào)整訓練好的詞向量方式不同,KbEMF是一個同時利用語料庫和知識庫學習詞向量的聯(lián)合模型,并且在單詞類比推理和單詞相似度量兩個實驗任務(wù)中展示了它的優(yōu)越性。

    1 矩陣分解詞向量學習模型相關(guān)背景

    KbEMF模型是通過擴展矩陣分解詞向量學習模型構(gòu)建的,本節(jié)介紹有關(guān)矩陣分解學習詞向量涉及的背景知識。

    共現(xiàn)矩陣對于一個特定的訓練語料庫T,V是從該語料庫中提取的全部單詞生成的詞匯表,當上下文窗口設(shè)定為L時,對任意的wi∈V,它的上下文單詞為wi-L,…,wi-1,wi+1,…,wi+L,則共現(xiàn)矩陣X的每個元素值#(w,c)表示w和c的共現(xiàn)次數(shù),即上下文單詞c出現(xiàn)在目標單詞w上下文中的次數(shù),#(w)=∑c∈V#(w,c)表示出現(xiàn)在w上下文中全部c的次數(shù)。同樣地,#(c)=∑w∈V#(w,c)表示c作為上下文出現(xiàn)在語料庫中的次數(shù)。

    EMF模型skip-gram模型學得的詞向量在多項自然語言處理任務(wù)中都取得了良好的表現(xiàn),卻沒有清晰的理論原理解釋。由此,EMF從表示學習的角度出發(fā),重新定義了skip-gram模型的目標函數(shù),將其精確地解釋為矩陣分解模型,把詞向量解釋為softmax損失下顯示詞向量dw關(guān)于表示字典C的一個隱表示,并直接顯式地證明了skip-gram就是分解詞共現(xiàn)矩陣學習詞向量的模型。這一證明為進一步推廣及拓展skip-gram提供了堅實理論基礎(chǔ)。EMF目標函數(shù)用(1)式表示:

    2 融合語義信息的矩陣分解詞向量學習模型

    2.1 提取語義信息并構(gòu)建語義矩陣

    本文選擇WordNet做先驗知識庫。WordNet是一個覆蓋范圍較廣的英語詞匯語義網(wǎng),它把含義相同的單詞組織在同義詞集合中,每個同義詞集合都代表一個基本的語義概念,并且這些集合之間也由各種關(guān)系(例如整體部分關(guān)系、上下文關(guān)系)連接。

    本文基于同義詞集合及集合間的關(guān)系詞構(gòu)建一個語義關(guān)系矩陣S∈V×V,它的每一個元素Sij=S(wi,wj)表示詞匯表V中第i個單詞wi與第j個單詞wj之間的語義相關(guān)性。如果Sij=0表示單詞wi與wj沒有語義相關(guān)性,反之Sij≠0則表示單詞wi與wj具有相關(guān)性。簡單起見,本文將語義關(guān)系矩陣S構(gòu)建成0-1矩陣,如果單詞wi與wj具有上述語義關(guān)系則令Sij=1,否則Sij=0。

    2.2 構(gòu)建語義約束模型

    tr(WTSrowW)+tr(WTScolW)-2tr(WTSW)=

    tr(WT(Srow+Scol-2S)W)

    最終所得語義約束模型為

    式中:tr(·)表示矩陣的跡;Si表示語義矩陣S第i行全部元素值的加和,即S的第i行和;Sj表示語義矩陣S第j列全部元素值的加和,即S的第j列和;Srow表示以Si為對角元素值的對角矩陣,Scol表示以Sj為對角元素值的對角矩陣。

    2.3 模型融合

    將語義約束模型R與EMF相結(jié)合,得到融合語義信息的矩陣分解詞向量學習模型KbEMF:

    式中γ是語義組合權(quán)重,表示語義約束模型在聯(lián)合模型中所占的比重大小。γ在詞向量學習過程中扮演相當重要的角色,該參數(shù)設(shè)置值過小時會弱化先驗知識對詞向量學習的影響,若過大則會破壞詞向量學習的通用性,無論哪種情況都不利于詞向量的學習。該模型目標在于最小化目標函數(shù)O,采用變量交替迭代策略求取最優(yōu)解。當γ=0時表示沒有融合語義信息,即為EMF模型。

    2.4 模型求解

    目標函數(shù),即式(3)不是關(guān)于C和W的聯(lián)合凸函數(shù),但卻是關(guān)于C或W的凸函數(shù),因此本文采用被廣泛應(yīng)用于矩陣分解的變量交替迭代優(yōu)化策略求取模型的最優(yōu)解。分別對C、W求偏導數(shù),得到

    在一次循環(huán)中先對W迭代更新,直到目標函數(shù)O對W收斂為止,然后對C迭代更新,再次使目標函數(shù)O對C收斂,至此一次循環(huán)結(jié)束,依此循環(huán)下去直到最終目標函數(shù)關(guān)于C和W都收斂為止。

    算法KbEMF算法的偽代碼

    輸入共現(xiàn)矩陣X,語義關(guān)系矩陣S,學習率η,最大迭代次數(shù)K,k;

    輸出WK,CK。

    1)隨機初始化:W0,C0

    2)fori= 1 toK,執(zhí)行

    3)Wi=Wi-1

    4)forj= 1 tok, 執(zhí)行

    6)j=j+1

    7)Ci=Ci-1

    8)forj=1 tok, 執(zhí)行

    10)j=j+1

    11)i=i+1

    3 實驗與結(jié)果

    本節(jié)主要展示融合語義信息后獲取的詞向量在單詞類比推理和單詞相似度量任務(wù)上的性能表現(xiàn)。首先介紹實驗數(shù)據(jù)集及實驗設(shè)置,然后分別描述每個實驗的任務(wù)和結(jié)果,并分析實驗結(jié)果。

    3.1 數(shù)據(jù)集

    本實驗選擇Enwik91作為訓練語料庫,經(jīng)過去除原始語料庫中HTML元數(shù)據(jù)、超鏈接等預處理操作后,得到一個詞匯量將近13億的訓練數(shù)據(jù)集。然后通過設(shè)置單詞過濾詞頻限制詞匯表的大小,把低于設(shè)定過濾詞頻的單詞剔除詞匯表,因此,不同過濾詞頻產(chǎn)生不同大小的詞匯表。

    本實驗選用WordNet2作為知識庫,WordNet2有120 000同義詞集合,其中包含150 000單詞。本文借助JWI3從WordNet2中抽取單詞間的語義關(guān)系:同一個同義詞集合內(nèi)單詞對的同義關(guān)系,以及不同集合間單詞對的上下位關(guān)系。

    不同的實驗任務(wù)所用的測試數(shù)據(jù)集也不相同。

    在單詞類比推理任務(wù)中,本文使用的測試集為谷歌查詢數(shù)據(jù)集(Google query dataset4),該數(shù)據(jù)集包含19 544個問題,共14種關(guān)系類型,其中5種語義關(guān)系,9種語法關(guān)系。在單詞相似度量任務(wù)中,本文使用下列3個數(shù)據(jù)集:Luong 等[24]使用的稀有單詞,F(xiàn)inkelstein 等[25]使用的Wordsim-353 (WS353)數(shù)據(jù)集(RW),Huang等[6]發(fā)布的上下文單詞相似數(shù)據(jù)集(SCWS)。它們分別包含2003、2034、353個單詞對及相應(yīng)的人工標注的相似度分值。

    3.2 實驗設(shè)置

    下列實驗展示了由KbEMF獲取的詞向量在不同任務(wù)中的性能表現(xiàn)。為保持實驗效果的一致性,所有模型設(shè)置相同的參數(shù)。詞向量維數(shù)統(tǒng)一設(shè)置為200,學習率設(shè)置為6×10-7,上下文窗口為5,迭代次數(shù)設(shè)置為300。

    另外,語義組合權(quán)重的大小也對實驗有重要影響。對于單詞類比推理和單詞相似度量任務(wù)本文均采取相同的實驗策略尋找最佳語義組合權(quán)重,下面以單詞類比推理任務(wù)為例詳細說明最佳語義組合權(quán)重找尋的實驗過程。設(shè)定γ∈[0.01,100],首先實驗γ=0.01,0.1,1,10,100的單詞推理正確率,如圖1 (b)所示,γ=0.01,0.1,1時KbEMF沒有提升實驗效果,因為語義信息所起作用太小;在γ=100時KbEMF實驗效果反而更差,這是過分強調(diào)語義信息破壞了詞向量的通用性;只有在γ=10時KbEMF效果較好,則最佳語義組合權(quán)重在γ=10附近的可能性最大。然后在γ∈[1,10]和γ∈[10,100]采取同樣的策略繼續(xù)尋找下去,最終會得到最佳組合權(quán)重。實驗結(jié)果表明,不同任務(wù)在不同詞頻下的最優(yōu)語義組合權(quán)重也不同。

    3.3 單詞類比推理

    給出一個問題a∶b∶∶c∶d,a、b、c、d各表示一個單詞其中d是未知的,類比推理任務(wù)的目標在于找到一個最合適的d使得a,b,c,d的詞向量滿足vec(d)與vec(b)-vec(a)+vec(c)的余弦距離最近。例如,語義推理Germary∶Berlin∶∶France∶d,則需要找出一個向量vec(d),使它與vec(Berlin)-vec(Germary)+vec(France)最近似,如果vec(d)對應(yīng)的d是Paris則推理正確。同理,又如語法推理quick:quickly∶∶slow∶d,如果找到d是slowly則推理正確。該實驗任務(wù)的評價指標是推理出單詞d的正確率,正確率越高,則KbEMF學得的詞向量越好。

    本實驗評估了不同參數(shù)設(shè)置對KbEMF 模型影響,圖1是詞頻為6 000次時,分別改變模型中詞向量維度及語義組合權(quán)重所繪制的。

    從圖1 (a)可以看出,詞向量維度小于200時,隨著詞向量維度增加單詞推理正確率在提升,詞向量維度在200~350之間實驗效果趨向于穩(wěn)定,因此在同時兼顧實驗速度與效果的情況下,本文選擇學習200維度的詞向量。

    (a)向量維度

    (b)語義組合權(quán)重圖1 KbEMF在不同向量維度和語義組合權(quán)重的正確率Fig.1 Performance when incorporating semantic knowledge related to word analogical reasoning for different vector sizes and semantic combination weights

    圖1 (b)中隨著語義組合權(quán)重增大,單詞推理正確率在提升,繼續(xù)增大正確率反而減小,說明過大或過小的語義組合權(quán)重都不利于學習詞向量。從該實驗還可以看出,語義組合權(quán)重在[5,20]之間單詞推理正確率最高,詞向量在該任務(wù)中表現(xiàn)最優(yōu)。

    圖2展示了在不同過濾詞頻下,KbEMF的單詞推理正確率均在不同程度上高于EMF,尤其在詞頻為3 500時效果最佳。對于不同詞頻,該實驗均設(shè)置語義組合權(quán)重γ=10,盡管該參數(shù)值在某些詞頻下不是最優(yōu)的,卻在一定程度上說明本文模型的普遍適用性。

    圖2 不同過濾詞頻下EMF與KbEMF的正確率對比Fig.2 Performance of KbEMF compared to EMF for different word frequencies

    下面通過將KbEMF與EMF、Retro(CBOW)、 Retro(Skip-gram)5、SWE進行比較來說明KbEMF的優(yōu)越性。Retro根據(jù)知識庫信息對預先訓練好的詞向量進行微調(diào),該模型的缺點在于無法在語料庫學習詞向量階段利用豐富的語義信息。雖然SWE同時利用了語義信息和語料庫信息學習詞向量,但該模型的基礎(chǔ)框架skip-gram只考慮了語料庫的局部共現(xiàn)信息。本文提出的KbEMF則克服了上述模型的弱點,同時利用語料信息和語義信息學習詞向量,并且它所分解的共現(xiàn)矩陣覆蓋了語料庫的全局共現(xiàn)信息。表1展示了詞頻為3 500時KbEMF與EMF、Retro(CBOW)、 Retro(Skip-gram)5、SWE的單詞推理正確率。

    表1 KbEMF與其他方法的單詞推理正確率

    表1中KbEMF對應(yīng)的單詞推理正確率最高,這說明該模型所獲取的詞向量質(zhì)量最優(yōu)。

    3.4 單詞相似度量

    單詞相似度量是評估詞向量優(yōu)劣的又一經(jīng)典實驗。該實驗把人工標注的詞對相似度作為詞對相似度的標準值,把計算得到的詞對向量余弦值作為詞對相似度的估計值,然后計算詞對相似度的標準值與估計值之間的斯皮爾曼相關(guān)系數(shù)(spearman correlation coefficient),并將它作為詞向量優(yōu)劣的評價指標。斯皮爾曼相關(guān)系數(shù)的值越高表明單詞對相似度的估計值與標準值越一致,學習的詞向量越好。

    由于單詞相似度量希望相似度高或相關(guān)度高的詞對間彼此更靠近,語義信息的融入使具有強語義關(guān)系的詞對獲得更相似的詞向量。那么計算所得的關(guān)系詞對向量的余弦值越大,詞對相似度的標準值與估計值之間的斯皮爾曼相關(guān)系數(shù)就越高。

    與單詞類比推理實驗過程類似,通過調(diào)整KbEMF模型參數(shù)(詞向量維度、語義組合權(quán)重以及單詞過濾詞頻),獲得單詞相似度量實驗中表現(xiàn)優(yōu)異的詞向量。

    本實驗比較了KbEMF與SWE、Retro在單詞相似度量任務(wù)中的性能表現(xiàn),結(jié)果展示在表2中。由于不同數(shù)據(jù)集下最佳語義組合權(quán)重不同,該實驗針對數(shù)據(jù)集WS353/SCWS/RW分別設(shè)置語義組合權(quán)重為γ=1,γ=1,γ=15。

    表2不同數(shù)據(jù)集下KbEMF與其他方法的斯皮爾曼相關(guān)系數(shù)

    Table2SpearmancorrelationcoefficientsofKbEMFcomparedtootherapproachesondifferentdatasets

    方法數(shù)據(jù)集WS353SCWSRWEMF0.79180.64740.6786Retro(CBOW)0.78160.66850.6071Retro(Skip?gram)0.69300.64490.7143SWE0.79650.65930.6429KbEMF0.79990.67400.7500

    表2中KbEMF在上述3個數(shù)據(jù)集的斯皮爾曼相關(guān)系數(shù)均有所提升,因為KbEMF相比較Retro在語料庫學習詞向量階段就融入了語義知識庫信息,相較于SWE則運用了語料庫全局的共現(xiàn)信息,因此表現(xiàn)最好。尤其KbEMF在RW上的斯皮爾曼相關(guān)系數(shù)提升顯著,這說明語義知識庫信息的融入有助于改善學習稀有單詞的詞向量。

    4 結(jié)束語

    學習高效的詞向量對自然語言處理至關(guān)重要。僅依賴語料庫學習詞向量無法很好地體現(xiàn)單詞本身的含義及單詞間復雜的關(guān)系,因此本文通過從豐富的知識庫提取有價值的語義信息作為對單一依賴語料庫信息的約束監(jiān)督,提出了融合語義信息的矩陣分解詞向量學習模型,該模型大大改善了詞向量的質(zhì)量。在實驗中將Enwik9作為訓練文本語料庫并且將WordNet作為先驗知識庫,將學到的詞向量用于單詞相似度量和單詞類比推理兩項任務(wù)中,充分展示了本文模型的優(yōu)越性。

    在后續(xù)的研究工作中,我們將繼續(xù)探索結(jié)合其他知識庫(如PPDB、WAN等),從中抽取更多類型的語義信息(如部分整體關(guān)系、多義詞等),進而定義不同更有針對性的語義約束模型,進一步改善詞向量。并將它們用于文本挖掘和自然語言處理任務(wù)中。

    [1]TURIAN J, RATINOV L, BENGIO Y. Word representations: a simple and general method for semi-supervised learning[C]//Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics. Uppsala, Sweden, 2010: 384-394.

    [2]LIU Y, LIU Z, CHUA T S, et al. Topical word embeddings[C]//Association for the Advancement of Artificial Intelligence. Austin Texas, USA, 2015: 2418-2424.

    [3]MAAS A L, DALY R E, PHAM P T, et al. Learning word vectors for sentiment analysis[C]//Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics. Portland Oregon, USA, 2011: 142-150.

    [4]DHILLON P, FOSTER D P, UNGAR L H. Multi-view learning of word embeddings via cca[C]//Advances in Neural Information Processing Systems. Granada, Spain,2011: 199-207.

    [5]BANSAL M, GIMPEL K, LIVESCU K. Tailoring continuous word representations for dependency parsing[C]//Meeting of the Association for Computational Linguistics. Baltimore Maryland, USA, 2014: 809-815.

    [6]HUANG E H, SOCHER R, MANNING C D, et al. Improving word representations via global context and multiple word prototypes[C]//Meeting of the Association for Computational Linguistics. Jeju Island, Korea, 2012: 873-882.

    [7]MNIH A, HINTON G. Three new graphical models for statistical language modelling[C]//Proceedings of the 24th International Conference on Machine Learning. New York, USA, 2007: 641-648.

    [8]MNIH A, HINTON G. A scalable hierarchical distributed language model[C]//Advances in Neural Information Processing Systems. Vancouver, Canada, 2008:1081-1088.

    [9]BENGIO Y, DUCHARME R, VINCENT P, et al. A neural probabilistic language model[J]. Journal of machine learning research, 2003, 3(02): 1137-1155.

    [10]COLLOBERT R, WESTON J, BOTTOU L, et al. Natural language processing (almost) from scratch[J]. Journal of machine learning research, 2011, 12(8): 2493-2537.

    [11]MIKOLOV T, CHEN K, CORRADO G, ET AL. Efficient estimation of word representations in vector space[C]//International Conference on Learning Representations. Scottsdale, USA,2013.

    [12]BAIN J, Gao B, Liu T Y. Knowledge-powered deep learning for word embedding[C]//Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Springer, Berlin, Heidelberg, 2014: 132-148.

    [13]LI Y, XU L, TIAN F, ET AL. Word embedding revisited: a new representation learning and explicit matrix factorization perspective[C]//International Conference on Artificial Intelligence. Buenos Aires, Argentina, 2015: 3650-3656.

    [14]LEVY O, GOLDBERG Y. Neural word embedding as implicit matrix factorization[C]//Advances in Neural Information Processing Systems. Montreal Quebec, Canada, 2014: 2177-2185.

    [15]PENNINGTON J, SOCHER R, MANNING C. Glove: global vectors for word representation[C]//Conference on Empirical Methods in Natural Language Processing. Doha, Qatar, 2014: 1532-1543.

    [16]BIAN J, GAO B, LIU T Y. Knowledge-powered deep learning for word embedding[C]//Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Berlin, Germany, 2014: 132-148.

    [17]XU C, BAI Y, BIAN J, et al. Rc-net: a general framework for incorporating knowledge into word representations[C]//Proceedings of the 23rd ACM International Conference on Conference on Information and Knowledge Management. Shanghai, China,2014: 1219-1228.

    [18]YU M, DREDZE M. Improving lexical embeddings with semantic knowledge[C]//Meeting of the Association for Computational Linguistics. Baltimore Maryland, USA,2014: 545-550.

    [19]LIU Q, JIANG H, WEI S, et al. Learning semantic word embeddings based on ordinal knowledge constraints[C]//The 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference of the Asian Federation of Natural Language Processing. Beijing, China, 2015: 1501-1511.

    [20]FARUQUI M, DODGE J, JAUHAR S K, et al. Retrofitting word vectors to semantic lexicons[C]//The 2015 Conference of the North American Chapter of the Association for Computational Linguistics. Colorado, USA, 2015: 1606-1615.

    [21]LEE D D, SEUNG H S. Algorithms for non-negative matrix factorization[C]//Advances in Neural Information Processing Systems.Vancouver, Canada, 2001: 556-562.

    [22]MNIH A, SALAKHUTDINOV R. Probabilistic matrix factorization[C]//Advances in Neural Information Processing Systems. Vancouver, Canada, 2008: 1257-1264.

    [23]SREBRO N, RENNIE J D M, JAAKKOLA T. Maximum-margin matrix factorization [J]. Advances in neural information processing systems, 2004, 37(2):1329-1336.

    [24]LUONG T, SOCHER R, MANNING C D. Better word representations with recursive neural networks for morphology[C]//Seventeenth Conference on Computational Natural Language Learning. Sofia, Bulgaria,2013: 104-113.

    [25]FINKELSTEIN R L. Placing search in context:the concept revisited[J]. ACM transactions on information systems, 2002, 20(1): 116-131.

    陳培,女,1990年生,碩士研究生,主要研究方向為自然語言處理、情感分析。

    景麗萍,女,1978年生,教授,博士,主要研究方向為數(shù)據(jù)挖掘、文本挖掘、生物信息學、企業(yè)智能。

    Wordrepresentationlearningmodelusingmatrixfactorizationtoincorporatesemanticinformation

    CHEN Pei, JING Liping

    (Beijing Key Lab of Traffic Data Analysis and Mining, Beijing Jiaotong University, Beijing 100044, China)

    Word representation plays an important role in natural language processing and has attracted a great deal of attention from many researchers due to its simplicity and effectiveness. However, traditional methods for learning word representations generally rely on a large amount of unlabeled training data, while neglecting the semantic information of words, such as the semantic relationship between words. To sufficiently utilize knowledge bases that contain rich semantic word information in existing fields, in this paper, we propose a word representation learning method that incorporates semantic information (KbEMF). In this method, we use matrix factorization to incorporate field knowledge constraint items into a learning word representation model, which identifies words with strong semantic relationships as being relatively approximate to the obtained word representations. The results of word analogy reasoning tasks and word similarity measurement tasks obtained using actual data show the performance of KbEMF to be superior to that of existing models.

    natural language processing; word representation; matrix factorization; semantic information; knowledge base

    10.11992/tis.201706012

    http://kns.cnki.net/kcms/detail/23.1538.TP.20170831.1051.002.html

    TP391

    A

    1673-4785(2017)05-0661-07

    中文引用格式:陳培,景麗萍.融合語義信息的矩陣分解詞向量學習模型J.智能系統(tǒng)學報, 2017, 12(5): 661-667.

    英文引用格式:CHENPei,JINGLiping.WordrepresentationlearningmodelusingmatrixfactorizationtoincorporatesemanticinformationJ.CAAItransactionsonintelligentsystems, 2017, 12(5): 661-667.

    2017-06-06. < class="emphasis_bold">網(wǎng)絡(luò)出版日期

    日期:2017-08-31.

    國家自然科學基金項目(61370129,61375062,61632004);長江學者和創(chuàng)新團隊發(fā)展計劃資助項目(IRT201206).

    景麗萍.E-mial: lpjing@bjtu.edu.cn.

    猜你喜歡
    知識庫正確率語料庫
    門診分診服務(wù)態(tài)度與正確率對護患關(guān)系的影響
    《語料庫翻譯文體學》評介
    基于TRIZ與知識庫的創(chuàng)新模型構(gòu)建及在注塑機設(shè)計中的應(yīng)用
    把課文的優(yōu)美表達存進語料庫
    生意
    品管圈活動在提高介入手術(shù)安全核查正確率中的應(yīng)用
    天津護理(2016年3期)2016-12-01 05:40:01
    生意
    故事會(2016年15期)2016-08-23 13:48:41
    高速公路信息系統(tǒng)維護知識庫的建立和應(yīng)用
    基于Drupal發(fā)布學者知識庫關(guān)聯(lián)數(shù)據(jù)的研究
    圖書館研究(2015年5期)2015-12-07 04:05:48
    基于JAVAEE的維吾爾中介語語料庫開發(fā)與實現(xiàn)
    語言與翻譯(2015年4期)2015-07-18 11:07:45
    日韩欧美精品免费久久 | 九色成人免费人妻av| ponron亚洲| 99久久久亚洲精品蜜臀av| 少妇人妻一区二区三区视频| 露出奶头的视频| 99riav亚洲国产免费| 最新在线观看一区二区三区| 日日夜夜操网爽| 国产精品国产高清国产av| ponron亚洲| 国产成年人精品一区二区| 最近最新免费中文字幕在线| 国产久久久一区二区三区| 欧美+日韩+精品| 成人国产一区最新在线观看| 免费高清视频大片| 欧美在线一区亚洲| 亚洲不卡免费看| 搞女人的毛片| 啦啦啦免费观看视频1| 国产一区二区三区在线臀色熟女| 狂野欧美白嫩少妇大欣赏| 淫妇啪啪啪对白视频| 在线观看66精品国产| 五月伊人婷婷丁香| 女人十人毛片免费观看3o分钟| 成年免费大片在线观看| 国产成+人综合+亚洲专区| 精品电影一区二区在线| 99在线人妻在线中文字幕| 免费观看的影片在线观看| 午夜久久久久精精品| 亚洲色图av天堂| 国产男靠女视频免费网站| 综合色av麻豆| 最新在线观看一区二区三区| netflix在线观看网站| 91字幕亚洲| 亚洲av成人av| 欧美乱妇无乱码| 成人18禁在线播放| 久久香蕉精品热| av国产免费在线观看| 俄罗斯特黄特色一大片| 蜜桃亚洲精品一区二区三区| 欧美不卡视频在线免费观看| 久久99热这里只有精品18| 岛国在线免费视频观看| 国产精品 欧美亚洲| 欧美激情久久久久久爽电影| 在线观看一区二区三区| 最后的刺客免费高清国语| 校园春色视频在线观看| 又紧又爽又黄一区二区| 精品乱码久久久久久99久播| 国产欧美日韩一区二区精品| 精品久久久久久久人妻蜜臀av| 日本黄大片高清| 亚洲,欧美精品.| 久久久久国内视频| 亚洲精品乱码久久久v下载方式 | 嫁个100分男人电影在线观看| 亚洲不卡免费看| 老司机在亚洲福利影院| 午夜免费观看网址| 99在线视频只有这里精品首页| 亚洲人成网站高清观看| 久久久久久九九精品二区国产| 亚洲av免费在线观看| 黄片大片在线免费观看| 亚洲在线自拍视频| 欧美一区二区精品小视频在线| 亚洲熟妇中文字幕五十中出| 国产日本99.免费观看| 国产亚洲精品综合一区在线观看| 欧美在线黄色| 女人十人毛片免费观看3o分钟| 一进一出抽搐动态| 久久久久性生活片| 在线a可以看的网站| 久久久久久久久中文| 一级毛片高清免费大全| 两性午夜刺激爽爽歪歪视频在线观看| 亚洲色图av天堂| 欧美又色又爽又黄视频| 乱人视频在线观看| 两人在一起打扑克的视频| 日日摸夜夜添夜夜添小说| 不卡一级毛片| 久久精品综合一区二区三区| 国产亚洲欧美98| 免费av观看视频| 成人国产一区最新在线观看| 亚洲欧美日韩卡通动漫| 午夜久久久久精精品| 国产精品久久久久久久电影 | 中文字幕高清在线视频| 国产三级在线视频| 成人特级av手机在线观看| 欧美在线一区亚洲| 国产精品综合久久久久久久免费| 法律面前人人平等表现在哪些方面| 午夜精品久久久久久毛片777| 18美女黄网站色大片免费观看| 丝袜美腿在线中文| 亚洲av一区综合| 又黄又粗又硬又大视频| 亚洲国产高清在线一区二区三| 动漫黄色视频在线观看| 久久人人精品亚洲av| 国产成人系列免费观看| 我的老师免费观看完整版| 97碰自拍视频| 国产爱豆传媒在线观看| 大型黄色视频在线免费观看| 51国产日韩欧美| 亚洲av免费高清在线观看| 日本 欧美在线| 国产精品嫩草影院av在线观看 | 欧美日韩精品网址| 久久久久久久久大av| 嫁个100分男人电影在线观看| 亚洲欧美日韩高清在线视频| 2021天堂中文幕一二区在线观| 精品免费久久久久久久清纯| 亚洲天堂国产精品一区在线| 人人妻,人人澡人人爽秒播| 欧美性感艳星| 欧美中文综合在线视频| 免费av不卡在线播放| 国产爱豆传媒在线观看| 两个人视频免费观看高清| 欧美日韩一级在线毛片| 国产激情欧美一区二区| 亚洲精品成人久久久久久| 亚洲国产精品成人综合色| 99久久成人亚洲精品观看| 动漫黄色视频在线观看| 国内毛片毛片毛片毛片毛片| 老师上课跳d突然被开到最大视频 久久午夜综合久久蜜桃 | 日韩人妻高清精品专区| 深爱激情五月婷婷| 男女那种视频在线观看| 亚洲乱码一区二区免费版| 岛国在线免费视频观看| 99热精品在线国产| 成人三级黄色视频| 亚洲精华国产精华精| 亚洲人成网站高清观看| 久久人人精品亚洲av| 欧美zozozo另类| 九色国产91popny在线| 国产免费一级a男人的天堂| 精品久久久久久久毛片微露脸| 97超级碰碰碰精品色视频在线观看| 欧美绝顶高潮抽搐喷水| 国产精品久久久久久精品电影| 日韩亚洲欧美综合| 亚洲成av人片在线播放无| 亚洲国产精品999在线| 亚洲精华国产精华精| 怎么达到女性高潮| 成人三级黄色视频| 午夜老司机福利剧场| 午夜精品一区二区三区免费看| 国产精品久久久久久亚洲av鲁大| 欧美zozozo另类| 国产高清三级在线| 欧美av亚洲av综合av国产av| 午夜精品在线福利| 国产成+人综合+亚洲专区| 香蕉av资源在线| 在线观看日韩欧美| 亚洲国产精品合色在线| 女生性感内裤真人,穿戴方法视频| 色视频www国产| 老司机在亚洲福利影院| 欧美一区二区国产精品久久精品| 99热这里只有精品一区| 人妻夜夜爽99麻豆av| 欧美性猛交╳xxx乱大交人| 成熟少妇高潮喷水视频| 日本黄大片高清| 叶爱在线成人免费视频播放| 亚洲在线自拍视频| 色噜噜av男人的天堂激情| www.www免费av| av专区在线播放| 亚洲精品成人久久久久久| 国产亚洲av嫩草精品影院| 国产亚洲精品综合一区在线观看| 亚洲,欧美精品.| 日本黄色片子视频| 国产午夜福利久久久久久| 亚洲av电影在线进入| 一卡2卡三卡四卡精品乱码亚洲| 日本黄色视频三级网站网址| 51午夜福利影视在线观看| 级片在线观看| 日韩欧美精品v在线| 国产成人影院久久av| 波多野结衣巨乳人妻| 午夜福利在线在线| 舔av片在线| 嫩草影院精品99| 国产精品99久久久久久久久| 在线观看舔阴道视频| 欧美+日韩+精品| 国内少妇人妻偷人精品xxx网站| 久久久久久久久大av| 嫩草影院入口| 亚洲欧美日韩高清在线视频| 亚洲真实伦在线观看| 成人午夜高清在线视频| 窝窝影院91人妻| 国产真实伦视频高清在线观看 | 色综合亚洲欧美另类图片| 日本一二三区视频观看| 欧美高清成人免费视频www| 国产一区二区在线观看日韩 | 国产精品99久久99久久久不卡| 精品99又大又爽又粗少妇毛片 | 小蜜桃在线观看免费完整版高清| 91麻豆精品激情在线观看国产| 在线免费观看不下载黄p国产 | 中文字幕av在线有码专区| 国产精品香港三级国产av潘金莲| av片东京热男人的天堂| 成人特级黄色片久久久久久久| av在线天堂中文字幕| 99久久成人亚洲精品观看| 午夜福利在线在线| 久9热在线精品视频| 亚洲欧美日韩东京热| www.999成人在线观看| 蜜桃亚洲精品一区二区三区| 嫩草影视91久久| 久久天躁狠狠躁夜夜2o2o| 亚洲中文日韩欧美视频| 久久精品影院6| 午夜福利成人在线免费观看| 亚洲精品亚洲一区二区| 国产精品嫩草影院av在线观看 | 一进一出好大好爽视频| 在线观看免费视频日本深夜| 国内少妇人妻偷人精品xxx网站| 国产主播在线观看一区二区| 成年女人永久免费观看视频| 久久精品综合一区二区三区| 极品教师在线免费播放| 操出白浆在线播放| 天堂网av新在线| 色哟哟哟哟哟哟| 久久久久久国产a免费观看| 无人区码免费观看不卡| 动漫黄色视频在线观看| 亚洲五月天丁香| 国产亚洲精品av在线| 宅男免费午夜| 亚洲av电影不卡..在线观看| 色在线成人网| 国产成人aa在线观看| 亚洲专区国产一区二区| 久久6这里有精品| 亚洲中文日韩欧美视频| 哪里可以看免费的av片| 日本一本二区三区精品| 色噜噜av男人的天堂激情| 热99re8久久精品国产| 小说图片视频综合网站| 日本a在线网址| 淫妇啪啪啪对白视频| 亚洲精品日韩av片在线观看 | 麻豆一二三区av精品| 久久精品夜夜夜夜夜久久蜜豆| 成人av在线播放网站| 亚洲va日本ⅴa欧美va伊人久久| 亚洲熟妇中文字幕五十中出| 欧美另类亚洲清纯唯美| 日本五十路高清| 高清毛片免费观看视频网站| 亚洲国产精品合色在线| 国产精品三级大全| 久久久久精品国产欧美久久久| 男女午夜视频在线观看| 亚洲最大成人手机在线| 黄色日韩在线| 男女之事视频高清在线观看| 午夜视频国产福利| 草草在线视频免费看| 非洲黑人性xxxx精品又粗又长| av天堂中文字幕网| 日日干狠狠操夜夜爽| 午夜精品一区二区三区免费看| 午夜福利欧美成人| 97超级碰碰碰精品色视频在线观看| 亚洲国产高清在线一区二区三| 夜夜爽天天搞| 成人永久免费在线观看视频| 黄色视频,在线免费观看| 夜夜躁狠狠躁天天躁| 亚洲片人在线观看| 欧美一级毛片孕妇| 村上凉子中文字幕在线| 很黄的视频免费| 亚洲中文字幕一区二区三区有码在线看| 69av精品久久久久久| 久久精品国产综合久久久| 日本精品一区二区三区蜜桃| 久久国产精品人妻蜜桃| 国产精品久久久人人做人人爽| 国产97色在线日韩免费| 午夜福利在线在线| 女警被强在线播放| 国产高潮美女av| 桃红色精品国产亚洲av| 网址你懂的国产日韩在线| 18禁在线播放成人免费| 亚洲午夜理论影院| 舔av片在线| 99久久精品一区二区三区| 在线免费观看的www视频| 欧美日韩亚洲国产一区二区在线观看| 亚洲美女黄片视频| 国产日本99.免费观看| 老熟妇仑乱视频hdxx| 国产成人影院久久av| 精品福利观看| 久久久久久久精品吃奶| 天天一区二区日本电影三级| 成人午夜高清在线视频| 成人永久免费在线观看视频| 香蕉丝袜av| 麻豆一二三区av精品| 一二三四社区在线视频社区8| 99久久成人亚洲精品观看| 3wmmmm亚洲av在线观看| 99久国产av精品| 亚洲精品一区av在线观看| 国产美女午夜福利| 午夜福利高清视频| 欧美日韩一级在线毛片| 在线观看av片永久免费下载| 欧美日韩福利视频一区二区| 日韩欧美 国产精品| 日本一二三区视频观看| 在线天堂最新版资源| 免费人成视频x8x8入口观看| 国产精品乱码一区二三区的特点| 超碰av人人做人人爽久久 | 长腿黑丝高跟| 高潮久久久久久久久久久不卡| 国产欧美日韩一区二区三| 久99久视频精品免费| 搡老熟女国产l中国老女人| 精品无人区乱码1区二区| 色视频www国产| 激情在线观看视频在线高清| 久久精品国产自在天天线| 99国产精品一区二区蜜桃av| 婷婷丁香在线五月| 一个人看的www免费观看视频| 黄片小视频在线播放| 国产美女午夜福利| 国产精品一区二区三区四区免费观看 | 亚洲中文日韩欧美视频| 国产一区二区亚洲精品在线观看| 怎么达到女性高潮| 岛国视频午夜一区免费看| 黄色丝袜av网址大全| 国产精品av视频在线免费观看| e午夜精品久久久久久久| 国产av在哪里看| 熟女人妻精品中文字幕| 制服丝袜大香蕉在线| 亚洲av成人精品一区久久| 香蕉av资源在线| 久久伊人香网站| 最新中文字幕久久久久| 国产久久久一区二区三区| 99久久精品热视频| 国产 一区 欧美 日韩| 他把我摸到了高潮在线观看| 亚洲av不卡在线观看| 亚洲精品日韩av片在线观看 | 中文字幕av成人在线电影| 国产真实乱freesex| 精品一区二区三区人妻视频| 国产真实乱freesex| 久久久久久人人人人人| 国产中年淑女户外野战色| 久久精品人妻少妇| 亚洲欧美激情综合另类| 国产真实伦视频高清在线观看 | 国产亚洲av嫩草精品影院| 一区二区三区激情视频| 精品欧美国产一区二区三| 国产极品精品免费视频能看的| 黄片大片在线免费观看| 亚洲一区二区三区色噜噜| 男人和女人高潮做爰伦理| 身体一侧抽搐| 国产成人av教育| 神马国产精品三级电影在线观看| 老司机午夜福利在线观看视频| 美女大奶头视频| 狂野欧美激情性xxxx| 亚洲精品日韩av片在线观看 | 午夜免费成人在线视频| 少妇的丰满在线观看| 国产真人三级小视频在线观看| 欧美一级毛片孕妇| 一区福利在线观看| 国产精品永久免费网站| 欧美午夜高清在线| 制服人妻中文乱码| 五月玫瑰六月丁香| 可以在线观看毛片的网站| 久久香蕉国产精品| 中文字幕高清在线视频| 嫩草影院精品99| 欧美日本视频| 日韩欧美免费精品| 天天一区二区日本电影三级| 最近最新中文字幕大全免费视频| 婷婷精品国产亚洲av| www.www免费av| 国产一级毛片七仙女欲春2| 国产真实乱freesex| 成人国产一区最新在线观看| 欧美一级毛片孕妇| 丰满的人妻完整版| 午夜精品一区二区三区免费看| 国产成人福利小说| 久久久久免费精品人妻一区二区| 欧美成人性av电影在线观看| 亚洲专区国产一区二区| 亚洲欧美日韩高清专用| 日本免费一区二区三区高清不卡| 两人在一起打扑克的视频| 91av网一区二区| 午夜福利成人在线免费观看| 久久久久久国产a免费观看| www.熟女人妻精品国产| 床上黄色一级片| 亚洲午夜理论影院| 丝袜美腿在线中文| 不卡一级毛片| e午夜精品久久久久久久| 少妇丰满av| 九色国产91popny在线| 麻豆国产97在线/欧美| 香蕉久久夜色| 一个人观看的视频www高清免费观看| 亚洲人成网站在线播放欧美日韩| 国产美女午夜福利| 精华霜和精华液先用哪个| 久久伊人香网站| 天堂动漫精品| 久久久久免费精品人妻一区二区| 最近最新免费中文字幕在线| 一进一出抽搐gif免费好疼| 97超级碰碰碰精品色视频在线观看| 国产不卡一卡二| 国产精品一区二区免费欧美| 亚洲av电影在线进入| 岛国在线观看网站| 桃红色精品国产亚洲av| 国产精品久久久久久亚洲av鲁大| 国产精品久久电影中文字幕| 男女床上黄色一级片免费看| 国产熟女xx| 欧美黑人巨大hd| 精品一区二区三区人妻视频| 女人被狂操c到高潮| 国产精品久久久久久精品电影| 精品国内亚洲2022精品成人| 超碰av人人做人人爽久久 | 欧美一区二区亚洲| 在线观看66精品国产| 别揉我奶头~嗯~啊~动态视频| 色在线成人网| 国产又黄又爽又无遮挡在线| 亚洲狠狠婷婷综合久久图片| h日本视频在线播放| 久久久国产成人免费| 亚洲美女黄片视频| 制服人妻中文乱码| 国产精品自产拍在线观看55亚洲| 国产精品98久久久久久宅男小说| 日韩有码中文字幕| 在线观看一区二区三区| 精品国内亚洲2022精品成人| 午夜亚洲福利在线播放| 久久精品91蜜桃| 99久久精品国产亚洲精品| 国产不卡一卡二| 国内精品久久久久精免费| 国产精品女同一区二区软件 | 两性午夜刺激爽爽歪歪视频在线观看| 黄片大片在线免费观看| 国产精品久久久久久亚洲av鲁大| 欧美另类亚洲清纯唯美| 变态另类丝袜制服| 757午夜福利合集在线观看| 午夜免费激情av| 人人妻,人人澡人人爽秒播| 国产久久久一区二区三区| 美女黄网站色视频| 国产精品电影一区二区三区| 欧美zozozo另类| 免费在线观看影片大全网站| 欧美中文日本在线观看视频| 久久久久亚洲av毛片大全| 成人性生交大片免费视频hd| 在线视频色国产色| 99久国产av精品| 两性午夜刺激爽爽歪歪视频在线观看| 最近最新中文字幕大全免费视频| 人妻夜夜爽99麻豆av| 亚洲第一欧美日韩一区二区三区| 国产一区二区在线观看日韩 | 国产黄片美女视频| 99热只有精品国产| 99精品在免费线老司机午夜| 亚洲aⅴ乱码一区二区在线播放| 亚洲欧美日韩东京热| 欧美色视频一区免费| 欧美日韩黄片免| 蜜桃亚洲精品一区二区三区| 老熟妇仑乱视频hdxx| 一卡2卡三卡四卡精品乱码亚洲| 国产精品香港三级国产av潘金莲| a级一级毛片免费在线观看| 草草在线视频免费看| 久久久久久久亚洲中文字幕 | 9191精品国产免费久久| 一个人免费在线观看电影| 亚洲国产欧美网| 久久精品91无色码中文字幕| av天堂在线播放| xxxwww97欧美| 97超视频在线观看视频| www.熟女人妻精品国产| 久久精品国产亚洲av香蕉五月| 丝袜美腿在线中文| 波野结衣二区三区在线 | 国产 一区 欧美 日韩| 久久这里只有精品中国| 亚洲中文日韩欧美视频| 欧美一区二区亚洲| 国产一区二区三区视频了| 欧美成狂野欧美在线观看| 18禁黄网站禁片免费观看直播| e午夜精品久久久久久久| 国产91精品成人一区二区三区| 中文字幕人妻熟人妻熟丝袜美 | 欧美3d第一页| 国产蜜桃级精品一区二区三区| 国产伦精品一区二区三区四那| 久久精品综合一区二区三区| 麻豆成人av在线观看| 十八禁人妻一区二区| 日韩欧美精品v在线| 狂野欧美激情性xxxx| 变态另类丝袜制服| 天堂网av新在线| 哪里可以看免费的av片| h日本视频在线播放| 免费看十八禁软件| 村上凉子中文字幕在线| 亚洲第一欧美日韩一区二区三区| 亚洲精品粉嫩美女一区| 国产成人啪精品午夜网站| 国产一区二区三区在线臀色熟女| 精品久久久久久久久久免费视频| 亚洲精品粉嫩美女一区| 成人欧美大片| 在线观看午夜福利视频| 在线视频色国产色| 99久久综合精品五月天人人| 琪琪午夜伦伦电影理论片6080| 99久久精品一区二区三区| 免费看十八禁软件| 亚洲国产精品999在线| 午夜福利成人在线免费观看| 淫秽高清视频在线观看| 欧美区成人在线视频| 一本一本综合久久| 美女大奶头视频| 看片在线看免费视频| 色精品久久人妻99蜜桃| 亚洲一区二区三区色噜噜| 内地一区二区视频在线| 淫秽高清视频在线观看| 国内精品久久久久精免费| 欧美黑人巨大hd| 亚洲美女黄片视频| 成人av在线播放网站| 午夜免费观看网址| 少妇熟女aⅴ在线视频| 久久久久久久精品吃奶| 国产精品影院久久| 高潮久久久久久久久久久不卡| 亚洲国产欧美人成| 国产精品久久久久久久电影 | 真人做人爱边吃奶动态| 偷拍熟女少妇极品色| 国产高清三级在线| 嫩草影院精品99| 亚洲av五月六月丁香网| 欧美黑人巨大hd| 国产爱豆传媒在线观看| 中出人妻视频一区二区|