• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于分布的詞匯級(jí)語義相關(guān)度計(jì)算綜述

    2014-04-29 12:39:54孫叔琦楊沐昀

    孫叔琦 楊沐昀

    摘 要:在數(shù)字化智能信息處理領(lǐng)域,詞匯級(jí)語言對(duì)象在語義上的相關(guān)關(guān)系可以為多種研究問題提供有效的特征線索。語義相關(guān)度計(jì)算是語義相關(guān)關(guān)系的量化手段,而基于分布相似度的計(jì)算方法是一類最典型的方法。這類方法將語言對(duì)象被轉(zhuǎn)化為語義空間上的一個(gè)分布,通過分布的相似性評(píng)估對(duì)應(yīng)語言對(duì)象的語義相關(guān)度。本文詳細(xì)介紹了基于上下文分布、基于知識(shí)資源元素分布兩種形式的代表性方法,并從基礎(chǔ)資源的規(guī)模、質(zhì)量、可擴(kuò)展性三個(gè)角度,對(duì)這些方法進(jìn)行了總結(jié)。

    關(guān)鍵詞: 語義相關(guān)度;詞匯級(jí);知識(shí)資源;分布相似度

    中圖法分類號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-2163(2014)05-

    A Survey of Word-level Semantic Relatedness Computation based on Distribution

    SUN Shuqi, YANG Muyun

    (School of Computer Science and Technology,Harbin Institute of Technology,Harbin 150001,China)

    Abstract:In the domain of digital intelligent information processing, the semantic relationship between word-level objects provides effective evidences for a variety of research questions. Semantic relatedness computation is the quantification manner of semantic relationships, among which the typical one is the distribution based approach. It converts linguistic objects to distributions over a semantic space, and evaluates two objects semantic relatedness by examining the similarity between their corresponding distributions. This paper introduces in detail two representative approaches, such as the method based on context distribution, and knowledge resource element distribution, therefore summarizes them from the viewpoints of their fundamental resources scale, quality and expandability.

    Keywords:Semantic Relatedness; Word Level; Knowledge Source; Distribution Similarity

    0 引 言

    在數(shù)字化智能信息處理領(lǐng)域,詞匯級(jí)語言對(duì)象在語義上的相關(guān)關(guān)系可以為多種研究問題提供有效的特征線索。這里的“詞匯級(jí)語言對(duì)象”包括詞匯,以及詞匯在知識(shí)資源中對(duì)應(yīng)的條目,如WordNet義項(xiàng)、維基百科詞條,等等。自然語言處理研究直接涉及到詞匯級(jí)語言對(duì)象之間的比較,因此也是詞匯級(jí)語義相關(guān)度計(jì)算最自然、最直接的應(yīng)用熱點(diǎn)之一。而與其切實(shí)相關(guān)的自然語言處理任務(wù)則主要包括了詞義消歧、詞法替換、復(fù)述、辭典構(gòu)建、語言模型估計(jì),等等方面,由此對(duì)其開展深度研究即有著重要的學(xué)術(shù)價(jià)值和實(shí)際意義。

    語義相關(guān)度計(jì)算是語義相關(guān)關(guān)系的量化手段,而在既有研究工作中,堪稱典型的一類計(jì)算則是基于分布相似度的方法。在基于分布相似度的語義相關(guān)度計(jì)算中,語義相關(guān)關(guān)系即指語言對(duì)象在一些特定方面上的相似性。此時(shí),語言對(duì)象將轉(zhuǎn)化為一個(gè)多維度的定量指標(biāo)表示,并可視作語義空間上的一個(gè)分布。而且,語言對(duì)象對(duì)應(yīng)的分布越相近,語義相關(guān)度就會(huì)越高。

    語義空間及空間上分布的形式就是此類相關(guān)度計(jì)算算法的主要區(qū)分標(biāo)志之一?,F(xiàn)有研究工作中,典型的分布形式包含兩種:(1)上下文分布;(2)知識(shí)資源元素分布。其中,基于上下文分布的方法主要針對(duì)于詞匯,使用詞匯的上下文統(tǒng)計(jì)信息對(duì)其加以表示,所處上下文較相近的詞匯在語義上就會(huì)呈現(xiàn)較大相關(guān)。而基于知識(shí)資源元素分布的方法則既可以計(jì)算知識(shí)資源條目之間的語義相關(guān)度,也可以計(jì)算與這些條目對(duì)應(yīng)的詞匯之間的語義相關(guān)度。此類方法使用知識(shí)資源條目本身的特定元素(如關(guān)鍵詞、關(guān)鍵短語、超鏈接,甚至條目本身)表示語言對(duì)象,兩個(gè)語言對(duì)象在知識(shí)層面上重疊越多,語義上就越相關(guān)。

    本文分別在第1、2節(jié)綜述了基于上下文分布與基于知識(shí)資源元素分布的典型計(jì)算方法。最后,在第3節(jié),本文從基礎(chǔ)資源的規(guī)模、質(zhì)量、可擴(kuò)展性三個(gè)角度,對(duì)這些方法進(jìn)行了分析和討論。

    1基于上下文分布的方法

    上下文分布一般用于計(jì)算詞匯之間的語義相關(guān)度。這一類方法的理論基礎(chǔ)是Firth在文獻(xiàn)[1]提出的上下文假設(shè):詞匯的語義可以由其伴生上下文環(huán)境而實(shí)現(xiàn)等價(jià)代表。詞匯的上下文環(huán)境體現(xiàn)的是人們?cè)趯?shí)際語言交流中使用該詞匯的具體途徑,并且兩個(gè)詞匯的使用方式越接近,在語義上就越相關(guān)。通過在大規(guī)模語料中統(tǒng)計(jì)詞匯所處的上下文環(huán)境,可以得到每個(gè)詞匯的上下文分布,而兩個(gè)詞匯的語義相關(guān)度則可通過比較二者對(duì)應(yīng)的上下文分布并綜合后得出最終結(jié)果。在既有研究工作中,常見的上下文環(huán)境包括文本窗口共現(xiàn)型上下文、句法依存關(guān)系型上下文兩種。下面將依次給出其分析及論述。

    1.1 基于文本窗口共現(xiàn)型上下文的方法

    基于1987-1989年的華爾街日?qǐng)?bào)語料(約4050萬詞),Dagan等人使用了二元文法(相當(dāng)于長度為2的單側(cè)文本窗口)概率分布列P(W|wi)作為詞匯wi的上下文,并使用K-L距離計(jì)算兩個(gè)詞匯的分布相似度[2]。與wi分布相似的詞匯用于估計(jì)語料中未觀察到的bigram概率Punseen(wj|wi)。Schütze和Pederson則使用長度為40的文本窗口,在TipsterB類語料[3](約45萬獨(dú)立詞匯)上統(tǒng)計(jì)了各詞匯的文本窗口共現(xiàn)型上下文,并通過兩次聚類和一次奇異值分解(SVD),將每個(gè)詞匯的上下文分布轉(zhuǎn)化為一個(gè)20維的實(shí)數(shù)向量,進(jìn)而將其應(yīng)用于文檔檢索[4]。Rapp還使用長度為3和5的文本窗口,在不列顛國家語料(BNC,約1億詞)[5]上統(tǒng)計(jì)了每個(gè)詞匯wi的上下文分布{(w1, Ai1),...,(wN, AiN)},其中N為語料中的獨(dú)立詞匯個(gè)數(shù),而共現(xiàn)強(qiáng)度Aij即是在原始共現(xiàn)頻率的基礎(chǔ)上加入了一個(gè)基于熵的變換,具體計(jì)算可如式(1)所示[6]。

    (1)

    其中,fij表示詞匯wi、wj的共現(xiàn)頻率,cj表示wj在語料中的頻率。

    共現(xiàn)詞匯分布在經(jīng)過奇異值分解并降至300維后,Rapp再次使用了對(duì)應(yīng)分布之間的余弦相似度和曼哈頓距離兩個(gè)度量而計(jì)算了兩個(gè)詞匯的語義相關(guān)度。Agirre等人又在更大的語料(10億網(wǎng)頁,約1.6×1012詞)上統(tǒng)計(jì)了詞匯的上下文分布(窗口長度從2到8不等)、使用χ2檢驗(yàn)以確定兩個(gè)詞匯的共現(xiàn)強(qiáng)度,而且同樣以兩個(gè)詞匯上下文分布的余弦相似度作為二者的語義相關(guān)度[7]。此外,除了文本窗口中的詞匯,文本窗口本身也可作為詞匯的上下文。Agirre即使用了以詞匯w為中心、左右長度各N個(gè)詞(1≤N≤7)的文本窗口作為w的上下文,由此取得了比使用窗口中詞匯作為上下文更好的相關(guān)度計(jì)算效果[7]。Reisinger和Monney也使用了類似的方法,獨(dú)特之處則在于研究對(duì)相似的文本窗口進(jìn)行了聚類[8]。

    1.2基于句法依存關(guān)系型上下文的方法

    句法依存關(guān)系型上下文考察的是一個(gè)詞匯在依存句法結(jié)構(gòu)中的支配詞或從屬詞?;诰浞ǚ治鼋Y(jié)果,一個(gè)詞匯的句法依存關(guān)系型上下文主要由包含該詞匯的所有依存關(guān)系三元組構(gòu)成。例如句子“習(xí)近平就加快發(fā)展職業(yè)教育作出重要指示”中,“指示”的上下文即為dobj(作出,指示)和amod-1(重要,指示) ,具體地dobj表示直接賓語,amod-1表示被形容詞修飾。

    一些研究者集中針對(duì)名詞與動(dòng)詞之間的依存關(guān)系展開了有關(guān)工作。Hindle就以1987年美聯(lián)社語料(約600萬詞)為基礎(chǔ),并根據(jù)名詞與動(dòng)詞之間的主謂關(guān)系和謂賓關(guān)系(即obj(Verb,Noun)和subj(Verb,Noun)形式的上下文)計(jì)算了名詞之間的語義相關(guān)度[9],具體則如式(10)所示。

    (2)

    名詞n1、n2的語義相關(guān)度由關(guān)于動(dòng)詞v的賓語相關(guān)度robj和主語相關(guān)度rsubj構(gòu)成并聯(lián)合確定,二者的定義形式類似。現(xiàn)以賓語相關(guān)度robj為例,定義可見于式(3)。

    (3)

    其中,Iobj(v,n)為名詞n與動(dòng)詞v在謂賓關(guān)系下的點(diǎn)互信息,詳細(xì)計(jì)算如式(4)所示,式中星號(hào)表示所有動(dòng)詞(或名詞)。

    (4)

    接下來,Dagan等人和Lee則從其早期的工作[2]出發(fā),將基于bigram的上下文統(tǒng)計(jì)及分布相似度計(jì)算方法應(yīng)用到動(dòng)詞、名詞的謂賓結(jié)構(gòu)上[10-11]:與名詞n在謂語上相似的其他名詞用于估計(jì)在語料中未觀察到的謂賓關(guān)系概率Punseen(v|n)。而基于這種概率預(yù)測(cè)方式,Lee又在偽詞義消歧問題(通過名詞選擇搭配動(dòng)詞)上比較了多種分布相似度指標(biāo)的平均錯(cuò)誤率,并提出了一個(gè)新的分布相似度指標(biāo):α-skew差異,這樣就達(dá)到了顯著優(yōu)于其他指標(biāo)的出色效果[11]。

    另一些研究者則并不限定依存關(guān)系的類型。Lin在文獻(xiàn)[9]的基礎(chǔ)上擴(kuò)展了依存關(guān)系的覆蓋范圍(考察句子中全部的依存關(guān)系r),進(jìn)而提出了一種改進(jìn)的分布相似度計(jì)算指標(biāo)[12],計(jì)算過程如式(5)所示,其中Ir(w′,w)表示w′、w在依存關(guān)系r下的點(diǎn)互信息,Tr(w)={w′:Ir(w,w′)>0}。

    (5)

    由于引入了全部依存關(guān)系,式(5)支持任意詞匯之間的語義相關(guān)度計(jì)算;同時(shí),相對(duì)于式(2),式(5)通過引入分母懲罰了那些在大量關(guān)系中、與大量詞匯的點(diǎn)互信息都較高的詞匯。Lin 在共計(jì)約 6 400 萬詞的華爾街日?qǐng)?bào)、圣何塞信使報(bào)和美聯(lián)社新聞?wù)Z料上統(tǒng)計(jì)、計(jì)算了詞匯語義相關(guān)度,并將其與Hindle 的算法[9]進(jìn)行了對(duì)比研究。而在Lin之前,Grefenstette也引入了所有依存關(guān)系以統(tǒng)計(jì)詞匯的上下文分布[13]。但不同之處在于,Grefenstette是以集合的形式表示上下文分布(無權(quán)重),再使用上下文集合之間的Tanimoto距離[14]來計(jì)算語義相關(guān)度的。

    此外,還有一些研究者嘗試使用更長的依存路徑,即多個(gè)連續(xù)依存關(guān)系的疊加表示詞匯的上下文。雖然長路徑的表達(dá)能力強(qiáng)于單一的依存關(guān)系,但顯然面臨著數(shù)據(jù)稀疏的問題——越長的路徑,在語料中出現(xiàn)的次數(shù)就越少。為了解決數(shù)據(jù)稀疏問題,研究者們對(duì)依存路徑進(jìn)行了各種類型的簡化?;诓涣蓄崌艺Z料,Padó和Lapata在對(duì)路徑經(jīng)過的詞性與依存關(guān)系的類型加以限制的情況下,使用了終點(diǎn)相同,但長度不限的依存路徑構(gòu)成詞匯上下文[15-16]。所有終點(diǎn)相同的依存路徑將視為等價(jià),因此一個(gè)詞匯的上下文分布最終轉(zhuǎn)化為關(guān)于路徑終點(diǎn)詞匯一個(gè)向量。Padó和Lapata又使用了1 000個(gè)高頻詞匯作為可能的路徑終點(diǎn),并使用了余弦相似度和α-skew差異比較兩個(gè)詞匯對(duì)應(yīng)的1 000維向量,由此而獲取語義相關(guān)度。Agirre等人則選擇忽略依存路徑上的具體依存關(guān)系,只使用支配詞、從屬詞的序列表示詞匯的上下文[7]。一個(gè)詞匯的上下文由其在依存路徑上的最多三個(gè)支配詞和最多一個(gè)從屬詞而共同構(gòu)成。Thater等人更在Gigaword語料上集中考察了長度為2的依存路徑,即以詞匯w的二階依存關(guān)系r′(w′′,w′)?r(w′,w)作為其上下文[17-18]。為了緩解數(shù)據(jù)稀疏問題,Thater等人選擇忽略第二層依存關(guān)系中的關(guān)系詞w′,而在分布權(quán)重的計(jì)算中也對(duì)應(yīng)地將其邊緣化,量化計(jì)算可如式(6)所示。

    (6)

    其中,R、W分別為依存關(guān)系、詞匯的全集,Ir(w′,w)表示w′、w在依存關(guān)系r下的點(diǎn)互信息,er,r′,w′′為w上下文分布的基向量,即使用依存路徑上的兩個(gè)依存關(guān)系和終點(diǎn)詞匯作為w的上下文。

    2基于知識(shí)資源元素分布的方法

    在基于知識(shí)資源元素分布的方法中,語言對(duì)象的表達(dá)形式不再是其使用方式(上下文分布),而是其對(duì)應(yīng)于知識(shí)資源中的條目(如WordNet義項(xiàng))或條目中的一些關(guān)鍵元素(如在線百科文章中的超鏈接)的分布。兩個(gè)語言對(duì)象共享的知識(shí)資源元素越多,也就具有更大相關(guān)性。

    知識(shí)資源條目的內(nèi)容作為一種最直接的可利用元素,一般用來計(jì)算條目本身之間的語義相關(guān)度。Lesk通過比較WordNet義項(xiàng)釋義(gloss)中的詞匯分布獲得兩個(gè)義項(xiàng)之間的語義相關(guān)度——重疊的詞匯越多,二者就越相關(guān)[19]。Banerjee和Pedersen從兩個(gè)方面改進(jìn)了Lesk的方法[20]:

    (1)對(duì)于長度為n的連續(xù)重疊部分,設(shè)定其對(duì)相關(guān)度的貢獻(xiàn)為n2而非Lesk方法中的n,因?yàn)閚較為罕見;

    (2)不但考慮目標(biāo)義項(xiàng)s1、s2本身的重疊,也考慮其相關(guān)義項(xiàng)r(s1)、r(s2)之間的重疊,其計(jì)算結(jié)果如式(7)所示。其中,RELPAIRS表示一組預(yù)先選定的 WordNet關(guān)系對(duì)(設(shè)義項(xiàng)s與其本身之間有 gloss 關(guān)系:gloss(s) = s),score表示兩個(gè)義項(xiàng)的重疊分?jǐn)?shù)。

    (15)

    Ho?art等人提出了KORE(keyphraseoverlaprelatedness)算法,根據(jù)詞條中關(guān)鍵短語分布計(jì)算了維基百科詞條(原始文獻(xiàn)中稱之為實(shí)體)之間的語義相關(guān)度[21]。對(duì)詞條e,關(guān)鍵短語集合Pe來自于其中的連接錨文本以及參考文獻(xiàn)的標(biāo)題,關(guān)鍵短語p∈Pe本身以及短語中的每個(gè)詞匯w∈p均有關(guān)于e的權(quán)重?e(p)和γe(w),并將其分別定義為p、e的互信息以及w關(guān)于e的tf-idf。兩個(gè)詞條e、f之間語義相關(guān)度的計(jì)算方法則如式(8)所示。

    (8)

    其中,PO(p,q)表示關(guān)鍵短語p、q的重疊程度,定義為二者對(duì)應(yīng)詞匯集合之間的帶權(quán)Jaccard系數(shù),其計(jì)算實(shí)現(xiàn)可如式(9)所示。

    (9)

    在超鏈接豐富的知識(shí)資源,如在線百科全書中,超鏈接的分布也是一種語義表示形式。Turdakov和Velikhov使用與其他詞條之間的超鏈接(包括出鏈和入鏈)分布表示維基百科詞條,不同種類的超鏈接權(quán)重也將有所不同,如“seealso”連接的權(quán)重較高,而與日期、時(shí)間詞條之間鏈接的權(quán)重最低。最后,詞條之間的語義相關(guān)度使用鏈接分布之間的Dice系數(shù)計(jì)算[22]。Milne和Witten在文獻(xiàn)[23]中即主要考慮維基百科詞條的入鏈,并提出了兩個(gè)詞條語義相關(guān)度計(jì)算方法。第一個(gè)方法使用入鏈的分布表示詞條,而與文獻(xiàn)[22]不同的是,入鏈的權(quán)重是自動(dòng)計(jì)算的,并定義為idf,兩個(gè)詞條的語義相關(guān)度隨之將定義為對(duì)應(yīng)入鏈分布的余弦相似度。第二個(gè)方法使用所有入鏈e的集合(不考慮權(quán)重)Ie表示e,兩個(gè)詞條e、f之間的語義相關(guān)度則定義為對(duì)應(yīng)詞條之間的谷歌距離,如式(10)所示,其中N表示維基百科中詞條總數(shù)。

    (10)

    Milne和Witten的實(shí)驗(yàn)顯示第二個(gè)方法在預(yù)測(cè)詞匯語義相關(guān)度時(shí)效果明顯好于第一個(gè)方法,而兩個(gè)方法的結(jié)合還可更進(jìn)一步地提高最終效果。

    知識(shí)資源條目本身也可以作為一個(gè)整體參與語義表示。Hughes和Ramage[24],以及Agirre等人[7]將WordNet中的義項(xiàng)與詞匯轉(zhuǎn)化為圖狀互聯(lián)結(jié)構(gòu),并通過以目標(biāo)詞匯為起點(diǎn)的隨機(jī)漫步算法獲取一個(gè)關(guān)于義項(xiàng)的概率分布作為該詞匯的語義表示。特別地,在比較兩個(gè)詞匯的義項(xiàng)分布時(shí),Hughes和Ramage提出了Zero-KL指標(biāo)。該指標(biāo)是α-skew差異的變體,其效果在實(shí)驗(yàn)中好于后者,以及余弦相似度等指標(biāo)。在維基百科上,Gabrilovich和Markovitch有、又相應(yīng)提出了顯語義分析(explicitsemanticanalysis)方法,以支持任意粒度的文本語義相關(guān)度計(jì)算[25]。Gabrilovich和Markovitch使用維基百科詞條全集{c1,c2,...,cN}的分布?dj?表示文本T,而且將兩段文本的語義相關(guān)度定義為對(duì)應(yīng)分布的余弦相似度。設(shè)向量?vi?中,vi為wi在T={wi}上的tf-idf,而?kj?為wi的倒排向量,表示wi在維基百科詞條cj∈{c1,c2,...,cN}上的tf-idf,則詞條cj在T對(duì)應(yīng)的分布中的權(quán)重為 。除以上研究外,Yazdani和Popescu-Belis還結(jié)合了隨機(jī)漫步算法和顯語義分析的理念,再通過隨機(jī)漫步獲取維基百科詞條之間的相關(guān)度,又借助了遷移學(xué)習(xí)的方式將文本片段表示成詞條的分布,并計(jì)算得到語義相關(guān)度[26]。

    3結(jié)束語

    從資源上看,基于分布相似度的詞匯級(jí)語義相關(guān)度計(jì)算方法依賴的資源主要分為兩大類:結(jié)構(gòu)化的知識(shí)資源,以及非結(jié)構(gòu)化的文本資源。其中,基于結(jié)構(gòu)化知識(shí)資源的方法以專家資源、(高級(jí))用戶生成內(nèi)容為依據(jù),知識(shí)資源在構(gòu)建時(shí)遵循的設(shè)計(jì)規(guī)則將直接作為此類方法的指導(dǎo)信息?;诜墙Y(jié)構(gòu)化文本資源的方法則以語言對(duì)象在實(shí)際使用時(shí)的相互聯(lián)系作為依據(jù),指導(dǎo)信息間接體現(xiàn)在對(duì)詞法、句法等語言現(xiàn)象中。

    從規(guī)模上講,限于人力,知識(shí)資源對(duì)語言對(duì)象的覆蓋率不會(huì)太高,尤其是對(duì)傳統(tǒng)的詞法網(wǎng)絡(luò),如WordNet而言。借助用戶群體力量維護(hù)與擴(kuò)充的在線百科全書以及對(duì)應(yīng)的知識(shí)庫資源雖在一定程度上緩解了人力上的局限,但依舊沒有改變其對(duì)高質(zhì)量領(lǐng)域知識(shí)的內(nèi)在需求。相比之下,非結(jié)構(gòu)文本資源是人類語言在信息系統(tǒng)中的自然產(chǎn)物,不需要有目的性地加以構(gòu)建與整理,規(guī)模上也遠(yuǎn)大于結(jié)構(gòu)化的知識(shí)資源。

    從質(zhì)量上講,知識(shí)資源無疑要好于多數(shù)文本資源,但文本資源的規(guī)模彌補(bǔ)了其質(zhì)量的不足。在語義相關(guān)度計(jì)算問題上,基于知識(shí)資源的方法在效果上也并無絕對(duì)優(yōu)勢(shì)[7],再加上對(duì)覆蓋率的考慮,綜合而論,基于文本資源的方法實(shí)際上的可用性將更強(qiáng)。

    從可擴(kuò)展性上講,知識(shí)資源在不同領(lǐng)域上的豐富度與質(zhì)量是不同的,但很大程度上取決于構(gòu)建者的主觀選擇。領(lǐng)域上的差異影響了算法的通用性,而在真正需要特定領(lǐng)域內(nèi)的語義相關(guān)度的時(shí)候,強(qiáng)領(lǐng)域相關(guān)的知識(shí)資源又不易構(gòu)建。相形之下,文本資源在不同領(lǐng)域上的豐富度雖然也不盡相同,但由于普通文本是語言、知識(shí)在數(shù)字化系統(tǒng)中最基本的表達(dá)形式,當(dāng)面臨新領(lǐng)域(包括新語言)上的新問題時(shí),文本資源就將是最先可用,并應(yīng)最先嘗試使用的有效資源。

    總結(jié)起來,由于當(dāng)前大規(guī)模文本語料越來越容易獲取,基于文本資源的語義相關(guān)度計(jì)算方法擁有一定的優(yōu)勢(shì)。但是另一方面,知識(shí)資源中的一些特殊元素(如超鏈接、引用關(guān)系等)卻為語義相關(guān)度計(jì)算提供了獨(dú)具特色的特征線索。已有一些研究工作正嘗試著將這兩類方法結(jié)合使用[7],這在未來即成為一個(gè)值得研究的重要方向。

    參考文獻(xiàn):

    [1] Firth J R. A Synopsis of Linguistic Theory 1930-55[M]. Studies in Linguistic Analysis (special volume of the Philological Society). Oxford: The PhilologicalSociety, 1957,1952-59:1–32.

    [2] DAGAN I, PEREIRA F, LEE L. Similarity-based estimation of Word cooccurrence probabilities[C]//Proceedings of the 32nd Annual Meeting on Association for Computational Linguistics. Stroudsburg, PA, USA: Association for Computational Linguistics,1994:272–278.

    [3] HARMAN D. Overview of the First TREC Conference[C]//Proceedings of the 16th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. New York, NY, USA: ACM, 1993:36–47.

    [4] SCHUTZE H, PEDERSEN J O. A cooccurrence-based thesaurus and two applications to information retrieval[J]. Inf. Process. Manage., 1997, 33(3):307–318.

    [5] The British National Corpus, version 3 (BNC XML Edition)[EB/OL]. [2014-05-27]. http://www.natcorp.ox.ac.uk/.

    [6] RAPP R. Word sense discovery based on sense descriptor dissimilarity[C]//Proceedings of the Ninth Machine Translation Summit. East Stroudsburg, PA, USA: AMTA,2003:315–322.

    [7] AGIRRE E, ALFONSECA E, HALL K, et al. A study on similarity and relatedness using distributional and Wordnet-based approaches[C]//Proceedings of Human LanguageTechnologies: The 2009 Annual Conference of the North American Chapter of the Association for Computational Linguistics. Stroudsburg, PA, USA: Association for Computational Linguistics, 2009:19–27.

    [8] REISINGER J, MOONEY R J. Multi-prototype vector-space models of Word meaning[C]//Human Language Technologies: The 2010 Annual Conference of the NorthAmerican Chapter of the Association for Computational Linguistics. Stroudsburg,PA, USA: Association for Computational Linguistics, 2010:109–117.

    [9] HINDLE D. Noun classification from predicate-argument structures[C]//Proceedings of the 28th Annual Meeting on Association for Computational Linguistics. Stroudsburg,PA, USA: Association for Computational Linguistics, 1990:268–275.

    [10] DAGAN I, LEE L, PEREIRA F C N. Similarity-based models of Word cooccurrence probabilities[J]. Mach. Learn., 1999, 34(1-3):43–69.

    [11] LEE L. Measures of distributional similarity[C]//Proceedings of the 37th Annual Meeting of the Association for Computational Linguistics on Computational Linguistics. Stroudsburg, PA, USA: Association for Computational Linguistics,1999:25–32.

    [12] LIN D. Automatic retrieval and clustering of similar Words[C]//Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and 17thInternational Conference on Computational Linguistics - Volume 2. Stroudsburg,PA, USA: Association for Computational Linguistics, 1998:768–774.

    [13] GREFENSTETTE G. SEXTANT: Exploring unexplored contexts for semantic extraction from syntactic analysis[C]//Proceedings of the 30th Annual Meeting on Association for Computational Linguistics. Stroudsburg, PA, USA: Association forComputational Linguistics, 1992:324–326.

    [14] ROGERS D J, TANIMOTO T T. A computer program for classifying plants[J]. Science, 1960, 132(3434):1115–1118.

    [15] PADó S, LAPATA M. Constructing semantic space models from parsed corpora[C]//Proceedings of the 41st Annual Meeting on Association for Computational Linguistics - Volume 1. Stroudsburg, PA, USA: Association for Computational Linguistics,2003:128–135.

    [16] PADó S, LAPATA M. Dependency-based construction of semantic space models[J].Comput. Linguist., 2007, 33(2):161–199.

    [17] THATER S, DINU G, PINKAL M. Ranking paraphrases in context[C]//Proceedings of the 2009 Workshop on Applied Textual Inference. Stroudsburg, PA, USA: Associationfor Computational Linguistics, 2009:44–47.

    [18] THATER S, F¨uRSTENAU H, PINKAL M. Contextualizing Semantic Representations UsingSyntactically Enriched Vector Models[C]//Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA, USA: Association for Computational Linguistics, 2010:948–957.

    [19] LESK M. Automatic sense disambiguation using machine readable dictionaries:how to tell a pine cone from an ice cream cone[C]//Proceedings of the 5th Annual International Conference on Systems Documentation. New York, NY, USA: ACM,1986:24–26.

    [20] BANERJEE S, PEDERSEN T. Extended gloss overlaps as a measure of semantic relatedness[C]//Proceedings of the 18th International Joint Conference on Artificial Intelligence.San Francisco, CA, USA: Morgan Kaufmann Publishers Inc., 2003:805–810.

    [21] HOFFART J, SEUFERT S, NGUYEN D B, et al. KORE: Keyphrase overlap relatedness for entity disambiguation[C]//Proceedings of the 21st ACM International Conferenceon Information and Knowledge Management. New York, NY, USA: ACM,2012:545–554.

    [22] TURDAKOV D, VELIKHOV P. Semantic relatedness metric for Wikipedia concepts based on link analysis and its application to Word sense disambiguation[C]//KUZNETSOV S D, PLESHACHKOV P, NOVIKOV B, et al. Proceedings of the Spring Young Researchers Colloquium On Database and Information Systems, SYRCoDIS08.Saint-Petersburg, Russia: CEUR-WS.org, 2008.

    [23] MILNE D, WITTEN I H. An effective, low-cost measure of semantic relatedness obtained from Wikipedia links[C]// //Proceeding of AAAI Workshop on Wikipedia and Artificial Intelligence: an Evolving Synergy. Palo Alto, California, USA: AAAI Press, 2008:25–30.

    [24] HUGHES T, RAMAGE D. Lexical semantic relatedness with random graph walks[C]//Proceedings of the 2007 Joint Conference on Empirical Methods in NaturalLanguage Processing and Computational Natural Language Learning (EMNLPCoNLL).Stroudsburg, PA, USA: Association for Computational Linguistics,2007:581–589.

    [25] GABRILOVICH E, MARKOVITCH S. Computing semantic relatedness using Wikipedia based explicit semantic analysis[C]//Proceedings of the 20th International Joint Conference on Artificial Intelligence. San Francisco, CA, USA: Morgan Kaufmann Publishers Inc., 2007:1606–1611.

    [26] YAZDANI M, POPESCU-BELIS A. Computing text semantic relatedness using the contents and links of a hypertext encyclopedia[J]. Artif. Intell., 2013, 194:176–202.

    [27] BARONI M, LENCI A. Distributional memory: a general framework for corpus based semantics[J]. Comput. Linguist., 2010, 36(4):673–721.

    [28] HALAWI G, DROR G, GABRILOVICH E, et al. Large-scale learning of word relatedness with constraints[C]//Proceedings of the 18th ACM SIGKDD InternationalConference on Knowledge Discovery and Data Mining. New York, NY, USA: ACM,2012:1406–1414.

    [29] JAIN A, PENNACCHIOTTI M. Open entity extraction from Web search query logs[C]//Proceedings of the 23rd International Conference on Computational Linguistics.Stroudsburg, PA, USA: Association for Computational Linguistics, 2010:510–518.

    精品久久久久久久久久免费视频| 两性午夜刺激爽爽歪歪视频在线观看| 精品久久蜜臀av无| 欧美性猛交黑人性爽| 国产私拍福利视频在线观看| 国产精品久久久久久精品电影| av天堂中文字幕网| 亚洲av成人一区二区三| 99久国产av精品| av女优亚洲男人天堂 | 国产亚洲精品av在线| 好看av亚洲va欧美ⅴa在| 欧美最黄视频在线播放免费| 女人被狂操c到高潮| 国产69精品久久久久777片 | 动漫黄色视频在线观看| 我的老师免费观看完整版| 亚洲午夜精品一区,二区,三区| 欧美激情久久久久久爽电影| 天天一区二区日本电影三级| 波多野结衣巨乳人妻| 亚洲 欧美一区二区三区| 91老司机精品| 高潮久久久久久久久久久不卡| 天堂网av新在线| 色综合欧美亚洲国产小说| 亚洲成人久久爱视频| e午夜精品久久久久久久| 狂野欧美激情性xxxx| 国产精品亚洲av一区麻豆| 国产视频内射| 免费看日本二区| 中出人妻视频一区二区| 老司机午夜十八禁免费视频| 操出白浆在线播放| 别揉我奶头~嗯~啊~动态视频| 久久九九热精品免费| 午夜精品在线福利| 久久久久国内视频| 欧美在线一区亚洲| а√天堂www在线а√下载| 国产伦人伦偷精品视频| 日日干狠狠操夜夜爽| 日本a在线网址| 亚洲狠狠婷婷综合久久图片| 色综合站精品国产| 视频区欧美日本亚洲| 亚洲狠狠婷婷综合久久图片| 亚洲狠狠婷婷综合久久图片| 久久久精品欧美日韩精品| 长腿黑丝高跟| 久久天堂一区二区三区四区| 亚洲激情在线av| 久久精品国产清高在天天线| 久久久久久久久久黄片| 亚洲国产看品久久| 99re在线观看精品视频| 国产高清激情床上av| 草草在线视频免费看| 宅男免费午夜| 色吧在线观看| 亚洲av免费在线观看| 久久久久久久久久黄片| АⅤ资源中文在线天堂| 国产av不卡久久| 久久久久久大精品| 中文字幕熟女人妻在线| 琪琪午夜伦伦电影理论片6080| 在线免费观看的www视频| 亚洲av美国av| АⅤ资源中文在线天堂| 日韩欧美免费精品| 国产黄色小视频在线观看| 国产伦人伦偷精品视频| 91在线精品国自产拍蜜月 | 国产一区二区激情短视频| 天堂动漫精品| 91麻豆精品激情在线观看国产| 一进一出好大好爽视频| 日韩欧美一区二区三区在线观看| 久久人人精品亚洲av| 少妇丰满av| 国产欧美日韩一区二区三| 一进一出好大好爽视频| 午夜免费观看网址| 美女大奶头视频| 热99在线观看视频| 欧美黑人欧美精品刺激| 欧美一区二区国产精品久久精品| 欧美一区二区国产精品久久精品| 黄色视频,在线免费观看| 制服丝袜大香蕉在线| 久久久久久久精品吃奶| 欧美zozozo另类| 黄频高清免费视频| cao死你这个sao货| 69av精品久久久久久| 欧美xxxx黑人xx丫x性爽| 这个男人来自地球电影免费观看| a在线观看视频网站| 免费观看的影片在线观看| 久久九九热精品免费| 久久九九热精品免费| 一本一本综合久久| 欧美成狂野欧美在线观看| 黄色片一级片一级黄色片| 亚洲aⅴ乱码一区二区在线播放| 国产精品电影一区二区三区| 黄色日韩在线| 精品国产超薄肉色丝袜足j| 在线免费观看的www视频| 少妇熟女aⅴ在线视频| 美女被艹到高潮喷水动态| 国产1区2区3区精品| 国产午夜精品论理片| 一个人看的www免费观看视频| 又紧又爽又黄一区二区| 九九在线视频观看精品| av福利片在线观看| 成人特级黄色片久久久久久久| 又粗又爽又猛毛片免费看| 日韩中文字幕欧美一区二区| 亚洲电影在线观看av| 亚洲 国产 在线| 久久久久久九九精品二区国产| www.自偷自拍.com| 国产精品香港三级国产av潘金莲| 草草在线视频免费看| 18禁国产床啪视频网站| 国产高清视频在线观看网站| or卡值多少钱| 少妇裸体淫交视频免费看高清| 最近最新免费中文字幕在线| 欧美色视频一区免费| 人妻久久中文字幕网| 成人欧美大片| 一区二区三区国产精品乱码| 国产亚洲精品一区二区www| 三级男女做爰猛烈吃奶摸视频| 日本黄色视频三级网站网址| 国产午夜福利久久久久久| 亚洲 欧美 日韩 在线 免费| 成人av一区二区三区在线看| av中文乱码字幕在线| 午夜福利欧美成人| 婷婷六月久久综合丁香| 免费高清视频大片| 亚洲精品456在线播放app | 在线观看午夜福利视频| 99精品久久久久人妻精品| 最新在线观看一区二区三区| 日韩欧美国产在线观看| 少妇的逼水好多| 国产熟女xx| 亚洲精品一卡2卡三卡4卡5卡| 欧美日韩黄片免| 精品久久久久久,| 男女做爰动态图高潮gif福利片| 亚洲av日韩精品久久久久久密| 久久中文字幕人妻熟女| 18禁美女被吸乳视频| 一级作爱视频免费观看| 操出白浆在线播放| 亚洲精品乱码久久久v下载方式 | 啦啦啦韩国在线观看视频| 特级一级黄色大片| 99视频精品全部免费 在线 | 最近最新中文字幕大全免费视频| 国产成人av教育| 熟女少妇亚洲综合色aaa.| 一级毛片精品| 老熟妇乱子伦视频在线观看| 成年女人看的毛片在线观看| 国产真人三级小视频在线观看| 久久久久久国产a免费观看| cao死你这个sao货| 18禁裸乳无遮挡免费网站照片| 首页视频小说图片口味搜索| 人妻丰满熟妇av一区二区三区| 亚洲av中文字字幕乱码综合| 变态另类成人亚洲欧美熟女| 午夜福利在线在线| 免费电影在线观看免费观看| 国产黄色小视频在线观看| 男人和女人高潮做爰伦理| 久久九九热精品免费| 中文在线观看免费www的网站| 搡老熟女国产l中国老女人| 日韩人妻高清精品专区| 宅男免费午夜| 日本免费a在线| 别揉我奶头~嗯~啊~动态视频| 狂野欧美激情性xxxx| 99久久精品一区二区三区| 天天一区二区日本电影三级| 老熟妇仑乱视频hdxx| 色吧在线观看| 男女之事视频高清在线观看| 真人一进一出gif抽搐免费| 伦理电影免费视频| 国产精品99久久久久久久久| 午夜视频精品福利| 久久99热这里只有精品18| 欧美性猛交黑人性爽| 99久久无色码亚洲精品果冻| 国内精品久久久久久久电影| 久久人妻av系列| 在线观看66精品国产| 午夜免费成人在线视频| 1024香蕉在线观看| 欧美xxxx黑人xx丫x性爽| 丰满人妻熟妇乱又伦精品不卡| 三级男女做爰猛烈吃奶摸视频| 日韩免费av在线播放| 少妇人妻一区二区三区视频| 亚洲激情在线av| 欧美成人性av电影在线观看| 日韩有码中文字幕| 日本黄色片子视频| av黄色大香蕉| 亚洲av片天天在线观看| 久久国产精品影院| 五月伊人婷婷丁香| 亚洲av电影在线进入| 国产麻豆成人av免费视频| 亚洲欧洲精品一区二区精品久久久| netflix在线观看网站| 日韩欧美 国产精品| 亚洲成人中文字幕在线播放| 国产精品爽爽va在线观看网站| 1024手机看黄色片| 蜜桃久久精品国产亚洲av| 搡老熟女国产l中国老女人| 色哟哟哟哟哟哟| 国产精品免费一区二区三区在线| 露出奶头的视频| 午夜精品在线福利| 亚洲精品乱码久久久v下载方式 | 看免费av毛片| 精品福利观看| 亚洲欧美日韩无卡精品| 九色成人免费人妻av| 久久精品91无色码中文字幕| 在线看三级毛片| 日韩大尺度精品在线看网址| 日韩精品中文字幕看吧| 欧美+亚洲+日韩+国产| 久久久成人免费电影| 国产精品精品国产色婷婷| 给我免费播放毛片高清在线观看| 女人被狂操c到高潮| 精品久久久久久久人妻蜜臀av| 久久香蕉精品热| www日本黄色视频网| 国产精品日韩av在线免费观看| 两性夫妻黄色片| 日韩欧美在线二视频| av天堂中文字幕网| 国产欧美日韩一区二区三| 国产探花在线观看一区二区| 国产成+人综合+亚洲专区| 1000部很黄的大片| 丰满的人妻完整版| 免费看美女性在线毛片视频| 亚洲人成电影免费在线| 国产高清videossex| 久久久久免费精品人妻一区二区| 午夜视频精品福利| 99精品欧美一区二区三区四区| 久久天躁狠狠躁夜夜2o2o| 免费看日本二区| 亚洲午夜理论影院| 日韩欧美 国产精品| 99精品欧美一区二区三区四区| 久久精品91无色码中文字幕| 国产单亲对白刺激| 香蕉久久夜色| 国产精品影院久久| 久久久国产精品麻豆| 最近在线观看免费完整版| www.精华液| 国产精品乱码一区二三区的特点| 亚洲乱码一区二区免费版| 99精品欧美一区二区三区四区| 最近最新免费中文字幕在线| 色综合欧美亚洲国产小说| 亚洲专区字幕在线| 女人高潮潮喷娇喘18禁视频| 欧美一区二区国产精品久久精品| 成人av在线播放网站| 国产 一区 欧美 日韩| 全区人妻精品视频| 久久这里只有精品中国| 久久中文字幕人妻熟女| 99精品久久久久人妻精品| 美女被艹到高潮喷水动态| 亚洲av成人不卡在线观看播放网| 老汉色av国产亚洲站长工具| 日本一二三区视频观看| 国产精品一区二区免费欧美| 亚洲熟女毛片儿| 日韩欧美一区二区三区在线观看| 中亚洲国语对白在线视频| 中文在线观看免费www的网站| av在线蜜桃| www.999成人在线观看| 色播亚洲综合网| 国产精品久久电影中文字幕| 婷婷精品国产亚洲av| 久久亚洲精品不卡| 毛片女人毛片| 亚洲av成人精品一区久久| 日韩中文字幕欧美一区二区| 黄色女人牲交| 欧美成人一区二区免费高清观看 | 日本免费一区二区三区高清不卡| 综合色av麻豆| 一卡2卡三卡四卡精品乱码亚洲| 国产精品99久久99久久久不卡| 91av网一区二区| 日日干狠狠操夜夜爽| 亚洲avbb在线观看| 757午夜福利合集在线观看| 国产主播在线观看一区二区| 国产精品久久久久久人妻精品电影| 人妻久久中文字幕网| 国内精品一区二区在线观看| 一区福利在线观看| 久久精品91无色码中文字幕| 亚洲第一电影网av| 国产黄片美女视频| 国产一区二区在线观看日韩 | 亚洲片人在线观看| 久久午夜亚洲精品久久| 国内精品久久久久精免费| 欧美av亚洲av综合av国产av| 一个人观看的视频www高清免费观看 | 国产精品精品国产色婷婷| 日本撒尿小便嘘嘘汇集6| 91九色精品人成在线观看| 一级a爱片免费观看的视频| 免费搜索国产男女视频| 人妻丰满熟妇av一区二区三区| 999精品在线视频| 欧美黑人欧美精品刺激| 无人区码免费观看不卡| 老司机深夜福利视频在线观看| 18禁黄网站禁片免费观看直播| 中亚洲国语对白在线视频| 欧美一级a爱片免费观看看| 亚洲美女黄片视频| 日本a在线网址| 国产高清videossex| 日韩精品青青久久久久久| 男女之事视频高清在线观看| 国产高清videossex| 我的老师免费观看完整版| 国产精品精品国产色婷婷| 在线看三级毛片| 久久久久国产精品人妻aⅴ院| 1024香蕉在线观看| 午夜精品久久久久久毛片777| 日本熟妇午夜| 一a级毛片在线观看| 十八禁人妻一区二区| 精品99又大又爽又粗少妇毛片 | 男人舔奶头视频| 91在线精品国自产拍蜜月 | 色尼玛亚洲综合影院| 女同久久另类99精品国产91| 国产精品,欧美在线| 久久这里只有精品19| 亚洲 欧美 日韩 在线 免费| 九九热线精品视视频播放| 精品午夜福利视频在线观看一区| 欧美日韩精品网址| 宅男免费午夜| 中国美女看黄片| 国产成人av激情在线播放| 天天躁狠狠躁夜夜躁狠狠躁| 香蕉av资源在线| 欧美日本视频| 最近最新中文字幕大全电影3| 亚洲午夜精品一区,二区,三区| 国产真人三级小视频在线观看| 99riav亚洲国产免费| 可以在线观看毛片的网站| 亚洲 国产 在线| 18禁美女被吸乳视频| svipshipincom国产片| 男人舔女人的私密视频| 成人午夜高清在线视频| 精品久久久久久成人av| 黄色成人免费大全| 久久天堂一区二区三区四区| 午夜精品在线福利| 国产成人精品久久二区二区免费| 五月伊人婷婷丁香| 欧美xxxx黑人xx丫x性爽| 成人一区二区视频在线观看| 免费看a级黄色片| 桃红色精品国产亚洲av| 亚洲中文日韩欧美视频| 无遮挡黄片免费观看| 久久天躁狠狠躁夜夜2o2o| 国产精品野战在线观看| 五月伊人婷婷丁香| 国产成人影院久久av| 免费一级毛片在线播放高清视频| 日韩 欧美 亚洲 中文字幕| 99久久无色码亚洲精品果冻| 人妻丰满熟妇av一区二区三区| 亚洲精品一区av在线观看| 91久久精品国产一区二区成人 | 亚洲色图 男人天堂 中文字幕| 看免费av毛片| 午夜福利在线在线| 免费看美女性在线毛片视频| 国产精品永久免费网站| av中文乱码字幕在线| 俺也久久电影网| 中文字幕av在线有码专区| www日本黄色视频网| 十八禁人妻一区二区| 亚洲中文日韩欧美视频| 国产精品久久久久久精品电影| 亚洲成av人片免费观看| 看黄色毛片网站| 18禁国产床啪视频网站| 国产麻豆成人av免费视频| 日本熟妇午夜| 深夜精品福利| 丝袜人妻中文字幕| 99久久99久久久精品蜜桃| 国产精品香港三级国产av潘金莲| 美女cb高潮喷水在线观看 | 亚洲国产欧美人成| 国产爱豆传媒在线观看| 1024香蕉在线观看| 午夜激情福利司机影院| 99国产精品一区二区三区| 久久中文看片网| 十八禁人妻一区二区| 搡老熟女国产l中国老女人| 少妇丰满av| 亚洲人成伊人成综合网2020| 免费在线观看影片大全网站| 免费搜索国产男女视频| 国产亚洲精品一区二区www| 日本精品一区二区三区蜜桃| 三级毛片av免费| 网址你懂的国产日韩在线| 久久久久久大精品| 亚洲在线观看片| 日韩 欧美 亚洲 中文字幕| 日韩有码中文字幕| 一个人看的www免费观看视频| 国产伦人伦偷精品视频| 真人做人爱边吃奶动态| 欧美av亚洲av综合av国产av| 一本一本综合久久| av天堂中文字幕网| 听说在线观看完整版免费高清| 久久人妻av系列| 村上凉子中文字幕在线| 别揉我奶头~嗯~啊~动态视频| 三级男女做爰猛烈吃奶摸视频| 淫秽高清视频在线观看| 高清在线国产一区| 亚洲成人中文字幕在线播放| tocl精华| www日本在线高清视频| 视频区欧美日本亚洲| 九色国产91popny在线| 久久久国产欧美日韩av| 国产美女午夜福利| 动漫黄色视频在线观看| 51午夜福利影视在线观看| 色综合婷婷激情| 深夜精品福利| 欧美日韩亚洲国产一区二区在线观看| 国产一级毛片七仙女欲春2| 欧美zozozo另类| 国产亚洲精品综合一区在线观看| 丰满的人妻完整版| 91麻豆av在线| 大型黄色视频在线免费观看| 国模一区二区三区四区视频 | 波多野结衣高清作品| www国产在线视频色| 日韩人妻高清精品专区| 美女cb高潮喷水在线观看 | 叶爱在线成人免费视频播放| 欧美极品一区二区三区四区| 人妻夜夜爽99麻豆av| 99riav亚洲国产免费| 在线十欧美十亚洲十日本专区| 男女做爰动态图高潮gif福利片| 精品久久蜜臀av无| 精华霜和精华液先用哪个| 精品无人区乱码1区二区| h日本视频在线播放| 99国产综合亚洲精品| 国产伦精品一区二区三区四那| 男女下面进入的视频免费午夜| 在线观看日韩欧美| 一区二区三区激情视频| 国产高清有码在线观看视频| 久久久久免费精品人妻一区二区| 十八禁网站免费在线| 男女那种视频在线观看| 亚洲国产精品999在线| 无人区码免费观看不卡| 欧美日韩黄片免| 嫁个100分男人电影在线观看| 不卡av一区二区三区| 国产精品av久久久久免费| 日本在线视频免费播放| 成人三级黄色视频| 桃色一区二区三区在线观看| 欧美中文综合在线视频| 国产精品综合久久久久久久免费| 好男人在线观看高清免费视频| 欧美日韩精品网址| 日本a在线网址| 免费在线观看视频国产中文字幕亚洲| 床上黄色一级片| 国产精品一区二区免费欧美| 久久99热这里只有精品18| 国产精品久久电影中文字幕| 最好的美女福利视频网| 国产美女午夜福利| 久久久久久九九精品二区国产| 亚洲五月婷婷丁香| 亚洲人成网站在线播放欧美日韩| 岛国在线免费视频观看| 中文资源天堂在线| 亚洲无线在线观看| 啦啦啦观看免费观看视频高清| 国产一区在线观看成人免费| 久久九九热精品免费| 好看av亚洲va欧美ⅴa在| 国产伦精品一区二区三区视频9 | 日本与韩国留学比较| 母亲3免费完整高清在线观看| 久久久精品大字幕| 神马国产精品三级电影在线观看| 啪啪无遮挡十八禁网站| 欧美高清成人免费视频www| 久久久久久久久久黄片| 制服人妻中文乱码| 他把我摸到了高潮在线观看| 中出人妻视频一区二区| 久久国产乱子伦精品免费另类| 免费在线观看成人毛片| 91字幕亚洲| 一进一出抽搐动态| 1000部很黄的大片| 亚洲成人久久爱视频| 国产爱豆传媒在线观看| 狂野欧美白嫩少妇大欣赏| 久久精品人妻少妇| 狂野欧美白嫩少妇大欣赏| ponron亚洲| 国产精品美女特级片免费视频播放器 | 国产亚洲av高清不卡| 国产精品 国内视频| 两性午夜刺激爽爽歪歪视频在线观看| 香蕉丝袜av| 国内精品一区二区在线观看| 亚洲av熟女| 精品福利观看| 久久久久国内视频| 亚洲 欧美 日韩 在线 免费| 国产精华一区二区三区| 又紧又爽又黄一区二区| 男女视频在线观看网站免费| 色老头精品视频在线观看| 亚洲av第一区精品v没综合| 熟妇人妻久久中文字幕3abv| 国产精品av久久久久免费| 国产午夜精品论理片| 精品国产乱码久久久久久男人| 亚洲午夜理论影院| 午夜福利免费观看在线| 看黄色毛片网站| 极品教师在线免费播放| 熟妇人妻久久中文字幕3abv| 性色av乱码一区二区三区2| 亚洲欧美日韩东京热| 亚洲av熟女| 一个人看的www免费观看视频| 中亚洲国语对白在线视频| 黑人巨大精品欧美一区二区mp4| 中国美女看黄片| 又紧又爽又黄一区二区| 又大又爽又粗| 亚洲成人免费电影在线观看| 欧美成狂野欧美在线观看| 成人特级黄色片久久久久久久| 黄片大片在线免费观看| 成年女人看的毛片在线观看| 国产成人影院久久av| 中文亚洲av片在线观看爽| 毛片女人毛片| 欧美一区二区精品小视频在线| 很黄的视频免费| 午夜福利18| 亚洲国产中文字幕在线视频| 国产高清激情床上av| 亚洲欧洲精品一区二区精品久久久| 97超视频在线观看视频| 啦啦啦韩国在线观看视频| 精品久久久久久久毛片微露脸| 特级一级黄色大片|