• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    利用主題內(nèi)容排序的偽相關(guān)反饋*

    2017-06-05 15:05:51高光來
    計算機與生活 2017年5期
    關(guān)鍵詞:詞項文檔排序

    閆 蓉,高光來

    內(nèi)蒙古大學(xué) 計算機學(xué)院,呼和浩特 010021

    利用主題內(nèi)容排序的偽相關(guān)反饋*

    閆 蓉+,高光來

    內(nèi)蒙古大學(xué) 計算機學(xué)院,呼和浩特 010021

    傳統(tǒng)的偽相關(guān)反饋(pseudo relevance feedback,PRF)方法,將文檔作為基本抽取單元進(jìn)行查詢擴展,抽取粒度過大造成擴展源中噪音量的增加。研究利用主題分析技術(shù)來減輕擴展源的低質(zhì)量現(xiàn)象。通過獲取隱藏在偽相關(guān)文檔集(pseudo-relevant set)各文檔內(nèi)容中的語義信息,并從中提取與用戶查詢相關(guān)的抽象主題內(nèi)容作為基本抽取單元用于查詢擴展。在NTCIR 8中文語料上,與傳統(tǒng)PRF方法和基于主題模型的PRF方法相比較,實驗結(jié)果表明該方法可以抽取出更符合用戶查詢的擴展詞。此外,結(jié)果顯示從更小的主題內(nèi)容粒度出發(fā)進(jìn)行查詢擴展,可以有效提升檢索性能。

    主題模型;主題內(nèi)容;偽相關(guān)反饋

    1 引言

    查詢擴展(query expansion,QE)技術(shù)[1]可以有效彌補用戶查詢信息不足造成的用戶表達(dá)問題,通過在用戶初始查詢中增加與其語義相近詞項的方式,將用戶初始查詢中未充分表達(dá)的內(nèi)容展示出來。QE按照是否考慮初檢結(jié)果文檔集,分為全局和局部兩種技術(shù)。在局部QE技術(shù)中,按照是否考慮初檢結(jié)果文檔集中與用戶查詢真正相關(guān)的文檔,又可以分為相關(guān)反饋(relevance feedback,RF)和偽相關(guān)反饋(pseudo relevance feedback,PRF)兩種方法。RF方法利用與用戶查詢真相關(guān)文檔對用戶查詢進(jìn)行重構(gòu)。然而,這種方法要求用戶將初檢結(jié)果標(biāo)注為相關(guān)或不相關(guān),這在用戶的真實檢索過程中是很難實現(xiàn)的。相反,PRF方法[2]是一種與用戶行為無關(guān)、簡單有效的自動QE方法,其簡單假設(shè)初檢(first-pass)結(jié)果集中前k個文檔與用戶初始查詢相關(guān),構(gòu)成偽相關(guān)文檔集(pseudo-relevant set),并從中按照某種方式自動地抽取擴展詞,然后將擴展詞加入到初始查詢中,優(yōu)化初始查詢后進(jìn)行二次檢索(second-pass)。影響PRF檢索性能的直接和主要因素是偽相關(guān)文檔集中的文檔質(zhì)量。PRF方法研究中有大量的工作,都是圍繞如何提高偽相關(guān)文檔集文檔質(zhì)量的,其本質(zhì)就是如何提升擴展源質(zhì)量。目前,相關(guān)研究[3-7]主要集中在對從詞項空間(term space)[3-4]和主題空間(topic space)[5-7]中獲取的統(tǒng)計信息提出的各種相關(guān)方法。這些研究工作中,大多數(shù)的工作都致力于找到一種有效二值判別方法,其主要策略是將偽相關(guān)文檔集中的文檔,利用判別方法區(qū)分為與用戶查詢相關(guān)和不相關(guān),然后從判別為相關(guān)的文檔中提取擴展詞來重構(gòu)用戶初始查詢,達(dá)到提高檢索性能的目的。但以上這些方法均是以文檔作為整體來判別其是否與用戶查詢相關(guān),即將文檔作為擴展詞選取單元。顯然,片面地將文檔作為待區(qū)分單元,直接標(biāo)定為與用戶查詢相關(guān)或不相關(guān)是不合適的,不能保證擴展源質(zhì)量,增加了噪音量,導(dǎo)致“主題漂移”(topic drift)現(xiàn)象出現(xiàn)。本文認(rèn)為,將文檔作為擴展源的抽取基本單元過于簡單和粗糙,不利于擴展詞的選取。本文嘗試從更細(xì)微的粒度——文檔內(nèi)容本身出發(fā),不再以文檔作為判別基本單元,利用主題分析技術(shù),構(gòu)建文檔主題內(nèi)容排序框架,將在主題空間抽象表示的文檔內(nèi)容作為待區(qū)分單元,將判別為與用戶查詢相關(guān)的文檔內(nèi)容作為擴展源。

    2 相關(guān)工作

    PRF算法假設(shè)簡單,實現(xiàn)機制通俗,是一種有效的提高檢索系統(tǒng)整體性能的方法[3-7]。然而,傳統(tǒng)的PRF方法并不是針對所有查詢都有效,某些查詢經(jīng)過反饋處理后,檢索效果反而會很差[8-9],這也是制約PRF方法不能在實際檢索中應(yīng)用的根本原因。為了提高PRF檢索的魯棒性,研究者們提出了很多解決方法和策略[9-12]。文獻(xiàn)[9]提出了一種帶有約束的優(yōu)化方法,用于降低反饋行為帶來的負(fù)面影響;文獻(xiàn)[10]提出利用EM算法減少PRF模型對于反饋文檔數(shù)量的敏感性;文獻(xiàn)[11]利用多種反饋模型提出一種啟發(fā)式的非監(jiān)督方法;文獻(xiàn)[12]綜合幾種偽反饋方法,研究如何既保證PRF的魯棒性,同時又兼顧整體性能有效性的方法。

    但上述諸方法研究和擴展處理的對象,均是以文檔作為基本處理單元和粒度,未從更細(xì)微的文檔內(nèi)容本身考慮與用戶查詢的相關(guān)性,會直接導(dǎo)致主題偏移現(xiàn)象,影響檢索性能。

    近年來,潛在主題模型[13]這種主題分析(topic analysis)技術(shù)被用于文本內(nèi)容的分析處理。文獻(xiàn)[7]嘗試通過對整個偽相關(guān)文檔集上建立與用戶查詢相關(guān)的主題模型TopicRF,抽取與用戶查詢相關(guān)的主題信息,來提高PRF的檢索性能。但其本質(zhì)上還是以文檔作為擴展源單元。

    本文的研究工作也并沒有直接區(qū)分偽相關(guān)文檔集中各文檔的相關(guān)性。但與文獻(xiàn)[7]工作不同的是,本文所關(guān)注的偽相關(guān)文檔集質(zhì)量是文本本身內(nèi)容的質(zhì)量。本文認(rèn)為在偽相關(guān)文檔集中包含的若干主題中,只有部分是與用戶查詢相關(guān)聯(lián),對反饋行為有效。在對用戶實際查詢需求不明確的情況下,在偽相關(guān)文檔集中,如何利用多樣化思想,彰顯文檔中與用戶查詢相關(guān)的那部分主題內(nèi)容來進(jìn)行擴展詞的選取,就是本文關(guān)注的核心和重點。具體實現(xiàn)可以描述為:首先對整個文檔數(shù)據(jù)集建立主題空間,然后對偽相關(guān)文檔集中每個文檔進(jìn)行主題分析,從淺層語義角度出發(fā),充分挖掘這些文檔內(nèi)容中與用戶信息需求相關(guān)的潛在語義信息,突顯刻畫主題特性的描述詞,并從中抽取擴展詞實施偽反饋。

    3 基于主題內(nèi)容排序的偽相關(guān)反饋

    3.1 主題內(nèi)容排序

    概率主題模型(probabilistic topic model,PTM)是一種利用貝葉斯方法,通過構(gòu)造詞項-主題-文檔三層結(jié)構(gòu),對數(shù)據(jù)進(jìn)行抽象建模的方法。通過引入主題變量(latent topic)概念,將數(shù)據(jù)集中共同隱含的信息描述出來。本質(zhì)上,對數(shù)據(jù)集進(jìn)行主題建模其實就是構(gòu)建合適的文檔語義描述空間。假設(shè)對有M個文檔,存在V個不同詞項(keyword)的數(shù)據(jù)集進(jìn)行主題建模,每個文檔會被表示成K個主題變量的概率分布(topic distribution),記為θ∈RM×K,每一個θj,i表示第j個文檔中主題i所占比重,它是從文檔角度獲得的語義信息。同時,主題變量被表示成各詞項的概率分布(word distribution),記為Φ∈RK×V,每一個?i,m表示在主題i中生成第m個詞項的概率值,它是從數(shù)據(jù)集角度獲得的語義信息。通常,上述兩種語義信息可以認(rèn)為是數(shù)據(jù)集的特征信息,這些特征信息不僅包含豐富的語義,而且還具有很強的區(qū)分性[14]。但面對結(jié)構(gòu)復(fù)雜多樣和信息量巨大的Web信息資源時,這兩個分布獲得的過程抽象,最終結(jié)果也抽象,用戶很難理解數(shù)據(jù)集的主題分析結(jié)果。另外,常常會發(fā)生同一詞項在多個主題中出現(xiàn)的情況,各主題并不是孤立的存在,這會進(jìn)一步增加用戶理解主題結(jié)果的負(fù)擔(dān)。因此在實際應(yīng)用中,為了有效利用數(shù)據(jù)集的主題建模結(jié)果的特征區(qū)分特性,非常有必要對主題建模結(jié)果進(jìn)行排序。通常意義下,對主題建模結(jié)果的排序,即是對主題內(nèi)容的排序。一般的,主題內(nèi)容排序[15]的方式有兩種,包括主題分布中的詞項排序和主題分布排序。

    Cao等人[16]研究表明,PRF選取的擴展詞數(shù)目并不是越多越好,過多的擴展詞反而會降低檢索性能;文獻(xiàn)[17]分別對8個不同的檢索系統(tǒng),針對查詢擴展中詞項數(shù)目的選擇進(jìn)行了詳細(xì)實驗,其結(jié)果表明,針對主題對象來選擇擴展詞項將有助于提升檢索的性能。本文提出的PRF方法,目的是通過淺層語義信息來改善反饋擴展詞質(zhì)量,提高查詢效率。因此,本文對于偽相關(guān)文檔集中文檔的主題內(nèi)容排序,主要完成以下三方面工作:

    (1)文檔主題分布中的詞項排序。實現(xiàn)用突顯刻畫主題特征的特征詞項來表示主題。

    (2)文檔的主題分布排序。按照與用戶查詢的相關(guān)程度,將各個主題進(jìn)行排序,實現(xiàn)用有限有效主題表達(dá)文檔,使得這些主題中的特征詞項可以分別具有將主題之間相互區(qū)別和文檔之間相互區(qū)別的特性。

    (3)從文檔內(nèi)容的主題表達(dá)結(jié)果中,針對判別為用戶查詢相關(guān)的內(nèi)容,抽取擴展詞項進(jìn)行二次反饋。

    下面將分別對這三方面工作進(jìn)行詳細(xì)闡述。

    3.2 文檔主題分布中的詞項排序

    對數(shù)據(jù)集進(jìn)行主題建模得到的詞項-主題分布Φ中的各詞項,已經(jīng)按照其對所描述主題的概率值大小進(jìn)行排列,但概率排列分布與各詞項對于描述其所在特定主題語義的貢獻(xiàn)分布描述是不一致的[18]。文獻(xiàn)[15]為了使文檔的Φ分布表達(dá)更易于理解,提出類似TF-IDF(term frequency-inverse documentation frequency)方法,計算每個詞項描述特定主題的權(quán)重(weight),來重新衡量描述主題中各詞項的重要程度。文獻(xiàn)[14]提出用詞項顯著度(term significance)來定義主題與文檔中包含的各詞項分布間的距離,用于特定領(lǐng)域的主題推薦和自動文摘。盡管這些方法計算權(quán)重的角度不同,但其目的都是將每個主題描述為有限有效詞項,即將描述Φ分布中那些對主題語義描述差或貢獻(xiàn)度低的詞項過濾掉。本文沿用文獻(xiàn)[15]計算各詞項權(quán)重的方法,將描述主題含義的各個詞項,按照計算得到的詞項權(quán)重值進(jìn)行排序,并依此排序結(jié)果,過濾掉那些使得主題間語義區(qū)分度小的詞項,獲得更能描述主題的有限詞項組成的集合。各詞項權(quán)重值的計算如式(1)[15]所示:

    其中,wi表示主題 j(j∈[1,K])中第i個詞項,i∈[1,V]。

    本文采用標(biāo)準(zhǔn)的主題建模方式LDA(latent Dirichlet allocation)[13]對數(shù)據(jù)集建模。LDA假設(shè)主題變量服從Dirichlet分布,即主題之間是相互獨立的。但事實上,利用LDA對文本建模的結(jié)果,存在同一詞項同時出現(xiàn)在多個不同主題分布中的情況,這使得詞項信息不能很好地完成刻畫主題特征的任務(wù),即影響主題間的差異性。本文關(guān)注的是如何利用主題信息來區(qū)分文本內(nèi)容與用戶查詢的相關(guān)性,保持詞項信息對主題內(nèi)容刻畫的互異性,也就是保證在主題數(shù)目確定的情形下,不降低LDA表示數(shù)據(jù)的能力。這里對式(1)做了適當(dāng)?shù)淖冃停缡剑?)所示:

    通過上述方法,實現(xiàn)了用突顯刻畫主題特征的特征詞項來表示主題的目的,文中將有限詞項集記為keyword_set。

    3.3 文檔的主題分布排序

    由于主題建模過程中的“詞袋”假設(shè),即不考慮詞項在文檔中的出現(xiàn)順序,主題間的差異僅限于各詞項對其描述的概率值大小的差異,主題之間并沒有明顯的區(qū)分特性。要從主題分析的角度,將偽相關(guān)文檔集的主題內(nèi)容區(qū)分為與用戶查詢相關(guān)或不相關(guān),就有必要對其中的文檔主題分布進(jìn)行區(qū)分。在給定用戶查詢的情況下,按照與用戶查詢相關(guān)程度,將無序的文檔-主題分布按照其與用戶查詢的相關(guān)程度進(jìn)行排序標(biāo)定。由于主題信息已經(jīng)被表示為有限詞項集,那么用戶查詢與文檔主題分布中各主題之間的相關(guān)程度,就可以利用用戶查詢與表征主題信息的詞項集的相關(guān)程度來衡量,可以分別通過式(4)和式(5)得到:

    其中,Q表示用戶查詢,記為Q={qw1,qw2,…,qwn},由n個不同詞項qwi組成。Rel(Q,j)表示用戶查詢Q與主題 j的相關(guān)程度。給定包含有M個文檔的文檔集C,有V個不同的詞C={d1,d2,…,dM},每個文檔di由Ni個不同的詞項構(gòu)成di={w1,w2,…,wNi},wi表示文檔di中第i個詞。假設(shè)文檔集C存在K個主題,主題j(j∈[1,K])的描述詞集 keyword_setj={wtj1,wtj2,…,wtjl}由l個不同詞項wtji組成,i∈[1,l],θi,j表示文檔di在主題j上的概率分布。SR(wi,wj)表示兩個詞語wi和wj之間的語義相關(guān)度[19]。Rank(di,j)表示文檔di的文檔-主題分布中主題j與用戶查詢的相關(guān)程度。本文對詞語間語義相關(guān)度計算方法SR(w1,w2),由于篇幅關(guān)系不再贅述,詳細(xì)信息參閱文獻(xiàn)[19]。

    文檔的主題分布排序算法描述如下:

    算法1 Topic_distribution_ranking

    輸入:(1)用戶查詢Q和文檔集C中所有文檔di的K個無序主題的描述詞集keyword_setj,j∈[1,K];(2)文檔-主題分布θ。

    輸出:所有文檔di的K個有序主題分布。

    步驟1對Q進(jìn)行預(yù)處理;

    步驟2利用式(4),計算Q中各詞項和每個主題j的描述詞集keyword_setj中各詞項的語義相關(guān)度;

    步驟3利用式(5)計算文檔di的主題分布中各主題 j與Q之間的相關(guān)度,并按相關(guān)度大小對各主題進(jìn)行排序。

    3.4 基于主題內(nèi)容排序的偽相關(guān)反饋

    另外,相對于其他產(chǎn)業(yè),體育產(chǎn)業(yè)具有較強的靈活性。結(jié)合當(dāng)?shù)厣鐣幕h(huán)境對體育產(chǎn)業(yè)進(jìn)行相應(yīng)的調(diào)整和改進(jìn),有助于突出當(dāng)?shù)禺a(chǎn)業(yè)發(fā)展的特色。

    綜上所述,基于主題內(nèi)容排序的偽相關(guān)反饋方法實現(xiàn)過程如圖1所示。

    Fig.1 Procedure of PRF based on topic content ranking圖1 基于主題內(nèi)容排序的PRF過程

    本文對于描述文檔di的特征主題集中各主題的抽取,采取設(shè)定閾值η的方式來進(jìn)行。若文檔di中主題 j的Rank(di,j)值超過閾值η,則認(rèn)為該主題是與用戶查詢是相關(guān)的,將該主題設(shè)定為topic_setdi集合中的元素。反之,則認(rèn)為該主題與用戶查詢是不相關(guān)的。文檔di擴展詞集expan_setdi的獲取,是通過將topic_setdi中各主題的特征詞項集keyword_setj進(jìn)行集合的合并操作完成的。特別的,在對文檔主題分布中的詞項排序過程中,本文利用式(2)通過重新計算每個詞項對其描述主題的權(quán)重大小,可以在一定程度上減少同一詞項在不同主題中出現(xiàn)的情況,或是增加同一詞項在不同主題中出現(xiàn)的特異性,即同一詞項在主題描述中的概率值差別顯著。但事實上,LDA建模的本質(zhì)及語言描述文本的特殊性,決定了不同主題的描述詞項信息一定會出現(xiàn)交集,因此在特征詞項合并過程中,當(dāng)出現(xiàn)有詞項重復(fù)的狀況時,實驗中會將該詞項在expan_setdi中僅保留一次,并設(shè)置其權(quán)重值為合并前的最大權(quán)重值。同樣,初檢集合的擴展詞集expan_set的獲取,是將排序靠前的各文檔的擴展詞集expan_setdi中的詞項進(jìn)行集合的合并操作完成的。

    4 實驗與分析公式

    4.1 實驗設(shè)置

    (1)實驗數(shù)據(jù)集及預(yù)處理

    實驗的數(shù)據(jù)集包括文本集和查詢集(均為簡體中文)兩部分。其中,文本數(shù)據(jù)集是Xinhua語料,共包含308 845個文檔,涉及多種主題2002年至2005年4年的新聞?wù)Z料,最長的文檔長度為1 824,最短的文檔長度為4。查詢集為ACLIA2-CS-0001~ACLIA2-CS-0100,共100個查詢。在檢索過程中,本文將查詢中的主題描述作為用戶查詢。利用Lemur(http:// www.lemurproject.org)工具對文本數(shù)據(jù)集建立索引和進(jìn)行查詢操作。實驗中,由于采用的是中文語料,首先對建立索引的文本數(shù)據(jù)集和查詢集都進(jìn)行了預(yù)處理,包括分詞和去停用詞。主題建模過程中,對文本數(shù)據(jù)集還進(jìn)行了去除低頻詞操作。

    (2)實驗參數(shù)設(shè)置

    初檢的相關(guān)度排序方法選用一元語言模型LM(language model)方法。實驗中統(tǒng)一采用Dirichlet平滑方法,設(shè)置固定平滑參數(shù)為1 000,設(shè)定初檢結(jié)果集中選取top-50個結(jié)果作為偽相關(guān)文檔集。主題建模過程中,采用吉布斯采樣(Gibbs sampling)[20]來實現(xiàn)模型估計和求解。設(shè)定每個主題返回NT=30個詞項信息,Gibbs采樣的迭代次數(shù)設(shè)定為100次。文檔di主題集topic_setdi中各特征主題的抽取實現(xiàn)中,設(shè)定閾值η為0.18,實驗效果最好。文獻(xiàn)[17]研究表明,擴展詞個數(shù)設(shè)定為10~20時,效果最佳。實驗中統(tǒng)一設(shè)定固定值 feedbackTermCount=20。

    因為用戶在檢索過程中主要關(guān)注排名靠前的檢索結(jié)果,所以實驗中主要從查詢準(zhǔn)確率角度進(jìn)行評價。分別采用前n個結(jié)果的查準(zhǔn)率Precision@n和平均查準(zhǔn)率MAP(mean average precision)來衡量。

    4.2 實驗結(jié)果與分析

    表1列出了部分主題初始建模的部分詞項集合和重新計算詞項權(quán)重后的部分詞項集合。

    從表1中可以看出,通過對詞項-主題分布中的各詞項按照其權(quán)重值進(jìn)行重新排序,不僅做到了主題內(nèi)容的進(jìn)一步壓縮和抽象,同時降低了那些對主題內(nèi)容區(qū)分能力描述弱的詞項的重要程度,使得描述主題的各詞項的重要程度差別更加明顯,從而主題間區(qū)別更加明顯。

    為了實現(xiàn)用淺層語義指導(dǎo)檢索過程,本文設(shè)計并實現(xiàn)了如下實驗,并對實驗結(jié)果進(jìn)行了分析。

    首先,將本文方法(OurMethod)與基本的基于主題的PRF方法(LDA)進(jìn)行比較,兩種方法Precision-Recal(l精度-召回率)對比分析結(jié)果如圖2所示。

    從圖2中可以看出,本文方法好于基于主題的PRF方法檢索性能,說明對文本內(nèi)容進(jìn)行主題分析,將有助于提高檢索性能。

    其次,將本文方法與未進(jìn)行主題內(nèi)容排序的基本PRF方法進(jìn)行比較,表2給出了偽相關(guān)文檔集數(shù)量為50和100時的檢索結(jié)果,其中No_Trank和Trank分別表示沒有進(jìn)行主題內(nèi)容排序的PRF方法和進(jìn)行主題內(nèi)容排序的PRF方法。

    從表2的結(jié)果中可以看出,選取那些豐富的、能表達(dá)語義的主題中的詞項集信息作為擴展詞,要比直接從偽相關(guān)文檔集中選取單個的詞項信息作為擴展詞,可以進(jìn)一步地提升檢索性能,而且隨著偽相關(guān)文檔集中文檔數(shù)目的增加,MAP值增加明顯,MAP(100)比MAP(50)增加14.9%。分析其原因,在于隨著偽相關(guān)文檔集中文檔數(shù)目的增加,抽取出相關(guān)主題內(nèi)容的可能性也增加了,其中包含了更多能夠體現(xiàn)用戶查詢需求中未能體現(xiàn)的上下文語義信息。

    最后,為了進(jìn)一步驗證本文方法的科學(xué)性,考察將PRF抽取基本單元由文檔轉(zhuǎn)變到文檔內(nèi)容粒度是否真實有效,設(shè)計了如下實驗。將本文方法與傳統(tǒng)的偽反饋方法——TF-IDF和BM25進(jìn)行比較,3種方法的Precision-Recal(l精度-召回率)對比分析結(jié)果如圖3所示。

    Table1 Example of effective word sets in Topic 1 and Topic 4表1 Topic 1和Topic 4中部分有效詞項集合

    Fig.2 Precision-Recall curve of two methods圖2 兩種方法的Precision-Recall曲線圖

    Table 2 Comparison of retrieval performance表2 檢索評價指標(biāo)對比

    Fig.3 Precision-Recall curve of 3 methods圖3 3種方法的Precision-Recall曲線圖

    從圖3中可以看出,與兩種傳統(tǒng)PRF方法比較,本文方法可以更有效地提高檢索性能,說明了本文方法的有效性。

    5 結(jié)束語

    主題模型是用來抽象地表示無標(biāo)記文本的一種無監(jiān)督建模方法。為了保證PRF的魯棒性,本文提出了一種基于淺層語義的自動查詢擴展方法。實驗結(jié)果表明,這種將文檔內(nèi)容作為擴展詞抽取的方法是切實可行的。但是隨著文本數(shù)據(jù)集規(guī)模的增大,主題建模之后的主題數(shù)目會進(jìn)一步增加,通過主題學(xué)習(xí)到的特征描述知識就更為抽象,如何利用這些越來越抽象的主題特征,使其更適合描述用戶初始查詢意圖,將是進(jìn)一步工作的方向。

    [1]Arguello J,Elsas J L,Callan J,et al.Document representation and query expansion models for blog recommendation [C]//Proceedings of the 2nd International Conference on Weblogs and Social Media,Seattle,USA,Mar 30-Apr 2, 2008.Menlo Park,USA:AAAI,2008:11-18.

    [2]Xu Jinxi,Croft W B.Query expansion using local and global document analysis[C]//Proceedings of the 19th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval,Zurich,Switzerland,Aug 18-22,1996.New York:ACM,1996:4-11.

    [3]He Ben,Ounis I.Finding good feedback documents[C]// Proceedings of the 18th ACM Conference on Information and Knowledge Management,Hong Kong,China,Nov 2-6, 2009.New York:ACM,2009:2011-2014.

    [4]Parapar J,Presedo-Quindimil M A,Barreiro á.Score distributions for pseudo relevance feedback[J].Information Sciences,2014,273:171-181.

    [5]Yi Xing,Allan J.Evaluating topic models for information retrieval[C]//Proceedings of the 17th ACM Conference on Information and Knowledge Management,Napa Valley, USA,Oct 26-30,2008.New York:ACM,2008:1431-1432.

    [6]Huang Shu,Zhao Qiankun,Mitra P,et al.Hierarchical location and topic based query expansion[C]//Proceedings of the 23rd National Conference onArtificial Intelligence,Chicago,USA,Jul 13-17,2008.Menlo Park,USA:AAAI,2008, 2:1150-1155.

    [7]Zheng Ye,Huang Xiangji,Lin Hongfei.Finding a good queryrelated topic for boosting pseudo-relevance feedback[J]. Journal of the American Society for Information Science and Technology,2011,62(4):748-760.

    [8]Harman D,Buckley C.The NRRC reliable information access(RIA)workshop[C]//Proceedings of the 27th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval,Sheffield,UK,Jul 25-29,2004.New York:ACM,2004:528-529.

    [9]Collins-Thompson K.Reducing the risk of query expansion via robust constrained optimization[C]//Proceedings of the 18th ACM Conference on Information and Knowledge Management,Hong Kong,China,Nov 2-6,2009.New York: ACM,2009:837-846.

    [10]Tao Tao,Zhai Chenxiang.Regularized estimation of mixture models for robust pseudo-relevance feedback[C]//Proceedings of the 19th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval,Seattle,USA,Aug 6-11,2006.NewYork:ACM,2006: 162-169.

    [11]Soskin N,Kurland O,Domshlak C.Navigating in the dark: modeling uncertainty in ad hoc retrieval using multiple relevance models[C]//Proceedings of the 2nd International Conference on Theory of Information Retrieval:Advances in Information Retrieval Theory,Cambridge,UK,Sep 10-12,2009. Berlin,Heidelberg:Springer,2009:79-91.

    [12]Lv Yuanhua,Zhai Chengxiang,Chen Wan.A boosting approach to improving pseudo-relevance feedback[C]//Proceedings of the 2011 ACM International Conference on Research and Development in Information Retrieval,Beijing, China,Jul 24-28,2011.New York:ACM,2011:165-174.

    [13]Blei D M,Ng A Y,Jordan M I.Latent Dirichlet allocation[J]. Journal of Machine Learning Research,2003,3:993-1022.

    [14]Xiao Zhibo.Research on ranking topic models and their applications[D].Dalian:Dalian Maritime University,2014.

    [15]Song Yangqiu,Pan Shimei,Liu Shixia,et al.Topic and keyword re-ranking for LDA-based topic modeling[C]//Proceedings of the 18th ACM Conference on Information and Knowledge Management,Hong Kong,China,Nov 2-6,2009. New York:ACM,2009:1757-1760.

    [16]Cao Guihong,Nie Jianyun,Gao Jianfeng,et al.Selecting good expansion terms for pseudo-relevance feedback[C]// Proceedings of the 31st Annual International ACM SIGIR Conference on Research and Development in Information Retrieval,Singapore,Jul 20-24,2008.New York:ACM, 2008:243-250.

    [17]Ogilvie P,Voorhees E,Callan J.On the number of terms used in automatic query expansion[J].Information Retrieval, 2009,12(6):666-679.

    [18]Xia Yunqing,Tang Nan,Hussain A,et al.Discriminative biterm topic model for headline-based social news clustering [C]//Proceedings of the 28th International Flairs Artificial Intelligence Research Society Conference,Hollywood,USA, May 18-20,2015.Menlo Park,USA:AAAI,2015:311-316.

    [19]Yan Rong,Gao Guanglai.Word sense disambiguation based on word semantic relevancy computation[J].Computer Engineering andApplications,2012,48(27):109-113.

    [20]Griffiths T L,Steyvers M.Finding scientific topics[J].Proceedings of the National Academy of Sciences of the United States ofAmerica,2004,101(S1):5228-5235.

    附中文參考文獻(xiàn):

    [14]肖智博.排序主題模型及其應(yīng)用研究[D].大連:大連海事大學(xué),2014.

    [19]閆蓉,高光來.面向詞義消歧的詞語相關(guān)度計算[J].計算機工程與應(yīng)用,2012,48(27):109-113.

    YAN Rong was born in 1979.She is a Ph.D.candidate and lecturer at College of Computer Science,Inner Mongolia University.Her research interests include natural language processing and information retrieval.

    閆蓉(1979—),女,內(nèi)蒙古鄂爾多斯人,內(nèi)蒙古大學(xué)計算機學(xué)院講師、博士研究生,主要研究領(lǐng)域為自然語言處理,信息檢索。

    GAO Guanglai was born in 1964.He is a professor and Ph.D.supervisor at Inner Mongolia University.His research interest is intelligent information processing.

    高光來(1964—),男,內(nèi)蒙古扎賚特旗人,內(nèi)蒙古大學(xué)教授、博士生導(dǎo)師,主要研究領(lǐng)域為智能信息處理。

    Using Topic Content Ranking for Pseudo Relevance Feedback*

    YAN Rong+,GAO Guanglai
    College of Computer Science,Inner Mongolia University,Hohhot 010021,China

    +Corresponding author:E-mail:csyanr@imu.edu.cn

    YAN Rong,GAO Guanglai.Using topic content ranking for pseudo relevance feedback.Journal of Frontiers of Computer Science and Technology,2017,11(5):814-821.

    Traditional pseudo relevance feedback(PRF)algorithms use the document as a unit to extract words for query expansion,which will increase the noise of expansion source due to the larger extraction unit.This paper exploits the topic analysis techniques so as to alleviate the low quality of expansion source condition.Obtain semantic information hidden in the content of each document of pseudo-relevant set,and extract the abstract topic content information according to the relevance of the user query,which is described as a basic extraction unit to be used for query expansion.Compared with the traditional PRF algorithms and the PRF based on topic model algorithm,the experimental results on NTCIR 8 dataset show that the scheme in this paper can effectively extract more appropriate expansion terms.In addition,the results also show that the scheme in this paper has a positive impact to improve the retrieval performance on a smaller topic content granularity level.

    topic model;topic content;pseudo relevance feedback(PRF)

    10.3778/j.issn.1673-9418.1603068

    A

    TP391.3

    *The National Natural Science Foundation of China under Grant No.61263037(國家自然科學(xué)基金);the Natural Science Foundation of Inner Mongolia under Grant Nos.2014BS0604,2014MS0603(內(nèi)蒙古自然科學(xué)基金).

    Received 2016-02,Accepted 2016-04.

    CNKI網(wǎng)絡(luò)優(yōu)先出版:2016-04-01,http://www.cnki.net/kcms/detail/11.5602.TP.20160401.1614.014.html

    猜你喜歡
    詞項文檔排序
    排序不等式
    有人一聲不吭向你扔了個文檔
    恐怖排序
    節(jié)日排序
    自然種類詞項二難、卡茨解決與二維框架
    刻舟求劍
    兒童繪本(2018年5期)2018-04-12 16:45:32
    基于RI碼計算的Word復(fù)制文檔鑒別
    Persistence of the reproductive toxicity of chlorpiryphos-ethyl in male Wistar rat
    不讓他人隨意下載Google文檔
    電腦迷(2012年4期)2012-04-29 06:12:13
    英語詞項搭配范圍及可預(yù)見度
    久久99热这里只频精品6学生| 久久精品国产亚洲av高清一级| 国产精品蜜桃在线观看| 精品少妇内射三级| 国产男女内射视频| 久久精品国产自在天天线| 亚洲av中文av极速乱| 中文字幕另类日韩欧美亚洲嫩草| 亚洲,欧美精品.| 久久久久久久亚洲中文字幕| 蜜桃国产av成人99| 日本欧美国产在线视频| 男女国产视频网站| 精品一区二区免费观看| 中文字幕人妻熟女乱码| 精品国产一区二区久久| 国产 一区精品| 国产精品偷伦视频观看了| 婷婷色麻豆天堂久久| 久久精品国产亚洲av高清一级| 久久精品人人爽人人爽视色| 90打野战视频偷拍视频| 久久亚洲国产成人精品v| 国产色婷婷99| 亚洲伊人色综图| 久久久久久人妻| 老熟女久久久| 999久久久国产精品视频| 免费看av在线观看网站| 五月天丁香电影| 欧美人与性动交α欧美软件| 亚洲精品av麻豆狂野| 久久人人爽av亚洲精品天堂| 伦理电影免费视频| 久久久久人妻精品一区果冻| 精品一区在线观看国产| 啦啦啦在线观看免费高清www| av免费在线看不卡| 亚洲av国产av综合av卡| 只有这里有精品99| 亚洲精品日韩在线中文字幕| 边亲边吃奶的免费视频| 亚洲欧美精品自产自拍| 国产欧美日韩综合在线一区二区| 色哟哟·www| 丝袜美足系列| 秋霞在线观看毛片| 精品99又大又爽又粗少妇毛片| 久久久久久人妻| 伊人久久国产一区二区| 免费黄频网站在线观看国产| 久久久精品免费免费高清| 国产探花极品一区二区| 国产成人午夜福利电影在线观看| 黄色配什么色好看| 欧美精品一区二区大全| 国产精品亚洲av一区麻豆 | 一级,二级,三级黄色视频| 国产成人精品在线电影| 在线精品无人区一区二区三| 亚洲欧美成人精品一区二区| 日韩一区二区视频免费看| 少妇的逼水好多| 在线观看免费视频网站a站| 黄片小视频在线播放| 欧美成人午夜精品| 久久久久久久国产电影| 18禁观看日本| 久久久久国产精品人妻一区二区| 在线观看免费高清a一片| 亚洲婷婷狠狠爱综合网| 日韩欧美精品免费久久| 99久久精品国产国产毛片| 不卡av一区二区三区| 精品久久久精品久久久| 一二三四在线观看免费中文在| 成人二区视频| 成年av动漫网址| 精品99又大又爽又粗少妇毛片| 免费看av在线观看网站| 色婷婷久久久亚洲欧美| 亚洲 欧美一区二区三区| 国产精品人妻久久久影院| 亚洲国产av影院在线观看| 制服丝袜香蕉在线| 国产成人午夜福利电影在线观看| h视频一区二区三区| 老汉色av国产亚洲站长工具| 欧美日韩成人在线一区二区| 欧美少妇被猛烈插入视频| 午夜老司机福利剧场| 18禁观看日本| 大香蕉久久网| 哪个播放器可以免费观看大片| av网站在线播放免费| 春色校园在线视频观看| 波多野结衣av一区二区av| 99精国产麻豆久久婷婷| 国产成人91sexporn| 高清不卡的av网站| 久久精品国产a三级三级三级| 人妻一区二区av| 国产福利在线免费观看视频| 2018国产大陆天天弄谢| 欧美日韩av久久| 美女中出高潮动态图| 最近最新中文字幕大全免费视频 | 老司机亚洲免费影院| 免费黄网站久久成人精品| 亚洲中文av在线| 久久99精品国语久久久| 久久99热这里只频精品6学生| 国产日韩欧美视频二区| 欧美人与善性xxx| 成人黄色视频免费在线看| 丰满迷人的少妇在线观看| 日韩一区二区三区影片| 在线天堂中文资源库| 欧美人与性动交α欧美精品济南到 | 久久久精品94久久精品| 777久久人妻少妇嫩草av网站| 成年动漫av网址| 永久免费av网站大全| 色吧在线观看| 久久精品夜色国产| 久久久久精品人妻al黑| 亚洲伊人久久精品综合| 男人爽女人下面视频在线观看| 欧美97在线视频| 国产女主播在线喷水免费视频网站| 国产成人精品婷婷| 水蜜桃什么品种好| 亚洲成av片中文字幕在线观看 | a 毛片基地| 精品人妻在线不人妻| 欧美精品人与动牲交sv欧美| 国产亚洲最大av| 国产亚洲一区二区精品| 久久久久久久久久久免费av| 精品国产露脸久久av麻豆| 午夜福利视频在线观看免费| 久久久久久久久免费视频了| 亚洲精品乱久久久久久| 国产精品无大码| 免费女性裸体啪啪无遮挡网站| 午夜福利,免费看| 亚洲欧美一区二区三区国产| 国产片特级美女逼逼视频| 亚洲精品国产色婷婷电影| 欧美激情高清一区二区三区 | 免费久久久久久久精品成人欧美视频| 丝袜美腿诱惑在线| 老司机影院毛片| 在线观看人妻少妇| 18禁裸乳无遮挡动漫免费视频| 国产黄频视频在线观看| 午夜影院在线不卡| 国产精品久久久久成人av| 国产精品人妻久久久影院| 亚洲精品日韩在线中文字幕| 欧美最新免费一区二区三区| a级片在线免费高清观看视频| 国产亚洲av片在线观看秒播厂| 国产老妇伦熟女老妇高清| 亚洲美女搞黄在线观看| 亚洲精品aⅴ在线观看| 欧美国产精品一级二级三级| 久久人人97超碰香蕉20202| 久久久国产精品麻豆| 亚洲综合色惰| 秋霞在线观看毛片| 欧美日韩综合久久久久久| 中文字幕色久视频| 国产亚洲一区二区精品| 黄频高清免费视频| 青春草亚洲视频在线观看| 色吧在线观看| 久久久精品免费免费高清| 国产日韩欧美在线精品| 亚洲精品在线美女| 欧美成人午夜精品| 韩国高清视频一区二区三区| 亚洲国产最新在线播放| 看免费av毛片| 最近中文字幕高清免费大全6| 久久国产亚洲av麻豆专区| 免费av中文字幕在线| 日本猛色少妇xxxxx猛交久久| 亚洲成人手机| 丝袜脚勾引网站| 99热全是精品| 自线自在国产av| 日韩一区二区视频免费看| 国产在线免费精品| 国产伦理片在线播放av一区| 大陆偷拍与自拍| 免费看不卡的av| 国产成人精品久久二区二区91 | 午夜福利乱码中文字幕| 午夜免费男女啪啪视频观看| 老司机影院毛片| 日本午夜av视频| 色吧在线观看| 午夜久久久在线观看| 久久97久久精品| 国产片特级美女逼逼视频| 国产野战对白在线观看| 赤兔流量卡办理| www.av在线官网国产| 人人妻人人爽人人添夜夜欢视频| 日本免费在线观看一区| 亚洲av成人精品一二三区| 亚洲国产av新网站| 免费人妻精品一区二区三区视频| 1024视频免费在线观看| 日韩伦理黄色片| 丰满乱子伦码专区| 久久国产亚洲av麻豆专区| 午夜激情av网站| 国产在线一区二区三区精| 精品一品国产午夜福利视频| 美女脱内裤让男人舔精品视频| 国产欧美日韩综合在线一区二区| 久久久久国产精品人妻一区二区| 国产有黄有色有爽视频| 亚洲,一卡二卡三卡| 国产精品久久久av美女十八| 免费观看a级毛片全部| 国产精品熟女久久久久浪| 伦精品一区二区三区| 精品久久蜜臀av无| www.自偷自拍.com| 中文欧美无线码| 最近手机中文字幕大全| 国产免费现黄频在线看| 久久人人爽av亚洲精品天堂| 亚洲精品久久成人aⅴ小说| 婷婷色综合大香蕉| 99热全是精品| 老鸭窝网址在线观看| 国产精品久久久久久av不卡| 老汉色av国产亚洲站长工具| 国产日韩一区二区三区精品不卡| videos熟女内射| 超色免费av| 最近手机中文字幕大全| 国产精品一区二区在线观看99| 国产高清国产精品国产三级| 精品一区二区三卡| 亚洲成国产人片在线观看| 香蕉精品网在线| 精品福利永久在线观看| 一本久久精品| 伦理电影大哥的女人| 国产人伦9x9x在线观看 | 男女国产视频网站| 久久久久久久亚洲中文字幕| 日本wwww免费看| 99热全是精品| 男女啪啪激烈高潮av片| 色婷婷久久久亚洲欧美| 最近中文字幕2019免费版| 亚洲情色 制服丝袜| 少妇精品久久久久久久| 人人妻人人澡人人看| 亚洲五月色婷婷综合| 黄频高清免费视频| 咕卡用的链子| 伦理电影大哥的女人| 伦理电影免费视频| 精品视频人人做人人爽| 一本色道久久久久久精品综合| 国产无遮挡羞羞视频在线观看| 你懂的网址亚洲精品在线观看| 在线观看美女被高潮喷水网站| 欧美在线黄色| 十分钟在线观看高清视频www| 在线观看www视频免费| 女人久久www免费人成看片| 五月伊人婷婷丁香| 亚洲精华国产精华液的使用体验| 老鸭窝网址在线观看| 爱豆传媒免费全集在线观看| 国产一区有黄有色的免费视频| 日本91视频免费播放| 欧美最新免费一区二区三区| 汤姆久久久久久久影院中文字幕| 亚洲成国产人片在线观看| 中文字幕精品免费在线观看视频| 国产高清不卡午夜福利| 国产男女内射视频| 午夜影院在线不卡| 美女国产视频在线观看| 中文字幕亚洲精品专区| 成人手机av| 亚洲国产色片| 亚洲第一区二区三区不卡| av卡一久久| 18+在线观看网站| 亚洲成国产人片在线观看| 久久人人97超碰香蕉20202| 街头女战士在线观看网站| 中文乱码字字幕精品一区二区三区| 国产精品一区二区在线观看99| 色视频在线一区二区三区| h视频一区二区三区| 亚洲一级一片aⅴ在线观看| 韩国av在线不卡| 伦理电影大哥的女人| 久久精品国产自在天天线| 日韩熟女老妇一区二区性免费视频| 精品国产乱码久久久久久小说| 午夜91福利影院| 一区福利在线观看| 老鸭窝网址在线观看| 久久午夜福利片| 久久毛片免费看一区二区三区| 成人黄色视频免费在线看| 国产在视频线精品| 精品人妻在线不人妻| 欧美日韩一级在线毛片| 亚洲精品国产av成人精品| 亚洲精品久久成人aⅴ小说| 国产 一区精品| 春色校园在线视频观看| 成人午夜精彩视频在线观看| 婷婷色综合大香蕉| 国语对白做爰xxxⅹ性视频网站| 国产av一区二区精品久久| 最黄视频免费看| 亚洲av免费高清在线观看| 欧美老熟妇乱子伦牲交| 亚洲欧洲国产日韩| 五月天丁香电影| 尾随美女入室| 精品久久久久久电影网| 水蜜桃什么品种好| 久久鲁丝午夜福利片| 18禁裸乳无遮挡动漫免费视频| 欧美成人午夜精品| 午夜福利在线免费观看网站| www.精华液| 啦啦啦啦在线视频资源| 国产成人精品福利久久| 激情五月婷婷亚洲| 欧美亚洲日本最大视频资源| 天堂中文最新版在线下载| 一边亲一边摸免费视频| 9热在线视频观看99| 人人妻人人爽人人添夜夜欢视频| 国产97色在线日韩免费| 国产黄色视频一区二区在线观看| 亚洲国产日韩一区二区| 黑人猛操日本美女一级片| 国产精品蜜桃在线观看| 在线天堂最新版资源| 制服人妻中文乱码| 韩国精品一区二区三区| 亚洲av日韩在线播放| 国产精品女同一区二区软件| 久久精品久久久久久久性| 成年美女黄网站色视频大全免费| 国产视频首页在线观看| 成年av动漫网址| 中文天堂在线官网| 嫩草影院入口| 午夜福利乱码中文字幕| 国产极品天堂在线| 亚洲国产欧美网| 高清在线视频一区二区三区| 精品国产一区二区三区久久久樱花| 亚洲内射少妇av| 久久人人爽人人片av| 国产欧美亚洲国产| 日韩三级伦理在线观看| 国产在线一区二区三区精| 国产国语露脸激情在线看| 国产精品久久久久久久久免| 日本色播在线视频| 国产深夜福利视频在线观看| 亚洲av成人精品一二三区| 亚洲精品国产av蜜桃| 久久精品久久久久久噜噜老黄| 国产成人欧美| 国产极品粉嫩免费观看在线| 九九爱精品视频在线观看| 久久这里只有精品19| 成人二区视频| 国产免费福利视频在线观看| 有码 亚洲区| 最新中文字幕久久久久| 久久国内精品自在自线图片| 人人妻人人爽人人添夜夜欢视频| 精品国产一区二区久久| 欧美日韩av久久| 亚洲第一区二区三区不卡| 91精品国产国语对白视频| 精品视频人人做人人爽| 国产一区二区在线观看av| 最近的中文字幕免费完整| 人妻一区二区av| 观看av在线不卡| 好男人视频免费观看在线| a级片在线免费高清观看视频| 日韩中字成人| 亚洲国产精品成人久久小说| 亚洲,欧美,日韩| 国产一区二区在线观看av| 少妇人妻精品综合一区二区| 久久久国产精品麻豆| 久久久国产一区二区| 久久人人97超碰香蕉20202| 久久久精品国产亚洲av高清涩受| 国产一区有黄有色的免费视频| 欧美精品国产亚洲| 久热这里只有精品99| 亚洲av电影在线观看一区二区三区| 亚洲欧美成人精品一区二区| 日日爽夜夜爽网站| 国产av码专区亚洲av| 国产老妇伦熟女老妇高清| 日韩人妻精品一区2区三区| 少妇 在线观看| 2022亚洲国产成人精品| 三上悠亚av全集在线观看| 久久精品久久久久久噜噜老黄| 日日啪夜夜爽| 高清av免费在线| 蜜桃在线观看..| 午夜免费鲁丝| 黑丝袜美女国产一区| 欧美人与性动交α欧美软件| 欧美精品人与动牲交sv欧美| 精品国产超薄肉色丝袜足j| 美女主播在线视频| 97在线人人人人妻| 一边亲一边摸免费视频| 尾随美女入室| 91精品伊人久久大香线蕉| 国产男女超爽视频在线观看| 中文字幕精品免费在线观看视频| 男女边摸边吃奶| 国产日韩欧美视频二区| 视频区图区小说| 免费黄网站久久成人精品| 亚洲熟女精品中文字幕| 亚洲五月色婷婷综合| 男的添女的下面高潮视频| 婷婷色综合www| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 亚洲成国产人片在线观看| 熟妇人妻不卡中文字幕| av片东京热男人的天堂| 一区二区日韩欧美中文字幕| 黑人欧美特级aaaaaa片| 岛国毛片在线播放| 丰满少妇做爰视频| 久久99一区二区三区| 欧美成人午夜精品| 日韩精品有码人妻一区| 日韩视频在线欧美| 久久热在线av| 在线天堂中文资源库| 午夜老司机福利剧场| 交换朋友夫妻互换小说| 美女视频免费永久观看网站| 亚洲国产av影院在线观看| 精品一区二区三卡| 黄片播放在线免费| 国产精品一区二区在线观看99| 日本欧美国产在线视频| 国产黄频视频在线观看| 久久精品国产鲁丝片午夜精品| 一本色道久久久久久精品综合| 少妇被粗大的猛进出69影院| 日本av手机在线免费观看| 99国产综合亚洲精品| 在线 av 中文字幕| 欧美亚洲 丝袜 人妻 在线| 香蕉精品网在线| av免费在线看不卡| 国产又色又爽无遮挡免| 国产av国产精品国产| 免费观看av网站的网址| 少妇 在线观看| 26uuu在线亚洲综合色| 少妇精品久久久久久久| 精品第一国产精品| 亚洲经典国产精华液单| 亚洲一区中文字幕在线| 亚洲熟女精品中文字幕| 一个人免费看片子| 黑人欧美特级aaaaaa片| 99国产综合亚洲精品| 久久久久国产精品人妻一区二区| 视频区图区小说| 巨乳人妻的诱惑在线观看| 亚洲国产精品一区三区| 亚洲av电影在线进入| 亚洲欧美中文字幕日韩二区| av福利片在线| 精品一区二区三卡| 久久精品久久精品一区二区三区| 永久网站在线| 久久久精品区二区三区| 一级毛片 在线播放| 1024香蕉在线观看| 美女福利国产在线| 天天躁夜夜躁狠狠久久av| 欧美日韩亚洲高清精品| 欧美日韩亚洲国产一区二区在线观看 | 久久午夜综合久久蜜桃| 午夜福利在线免费观看网站| 久久精品夜色国产| 亚洲av成人精品一二三区| 午夜福利乱码中文字幕| 黄色毛片三级朝国网站| 亚洲一码二码三码区别大吗| 国产成人欧美| 一级片'在线观看视频| 99re6热这里在线精品视频| 亚洲欧美一区二区三区久久| 亚洲av国产av综合av卡| 高清在线视频一区二区三区| 亚洲精品国产色婷婷电影| 90打野战视频偷拍视频| 久久久久精品性色| 视频区图区小说| 精品人妻在线不人妻| 黄色毛片三级朝国网站| 精品人妻偷拍中文字幕| 中文字幕亚洲精品专区| www.精华液| 国产成人精品福利久久| 欧美精品亚洲一区二区| 少妇人妻 视频| 成年动漫av网址| 亚洲精品av麻豆狂野| 亚洲av欧美aⅴ国产| 国产一级毛片在线| 精品午夜福利在线看| 91精品三级在线观看| 一本大道久久a久久精品| 久久精品亚洲av国产电影网| 91成人精品电影| 国产一区二区 视频在线| 最近中文字幕2019免费版| 国产精品一二三区在线看| 色吧在线观看| 99国产精品免费福利视频| 亚洲综合精品二区| 黄片无遮挡物在线观看| 亚洲国产毛片av蜜桃av| 精品少妇久久久久久888优播| 国产成人精品久久二区二区91 | 少妇精品久久久久久久| 天堂8中文在线网| 欧美激情高清一区二区三区 | 看免费成人av毛片| 国产老妇伦熟女老妇高清| 日韩伦理黄色片| 久热这里只有精品99| 9191精品国产免费久久| 亚洲精品自拍成人| 国产亚洲av片在线观看秒播厂| 亚洲情色 制服丝袜| 天堂中文最新版在线下载| 晚上一个人看的免费电影| 中文字幕色久视频| 欧美激情极品国产一区二区三区| 美女国产高潮福利片在线看| 日韩伦理黄色片| 国产av一区二区精品久久| 国产免费一区二区三区四区乱码| 国产精品偷伦视频观看了| 国产精品久久久av美女十八| 黄色毛片三级朝国网站| 久久免费观看电影| 涩涩av久久男人的天堂| 我的亚洲天堂| 大话2 男鬼变身卡| 999精品在线视频| 可以免费在线观看a视频的电影网站 | 丝袜美腿诱惑在线| 成人二区视频| 国产亚洲午夜精品一区二区久久| 波野结衣二区三区在线| 久久精品久久久久久久性| 日韩中文字幕视频在线看片| 国产在线视频一区二区| 国产精品99久久99久久久不卡 | 婷婷色综合www| 日本色播在线视频| 精品视频人人做人人爽| 久久精品国产综合久久久| 国产极品天堂在线| 国产精品久久久av美女十八| 卡戴珊不雅视频在线播放| 亚洲一区二区三区欧美精品| 国产亚洲精品第一综合不卡| 人人妻人人添人人爽欧美一区卜| 母亲3免费完整高清在线观看 | 街头女战士在线观看网站| 天天躁狠狠躁夜夜躁狠狠躁| 免费观看无遮挡的男女| 这个男人来自地球电影免费观看 | 永久网站在线| 精品99又大又爽又粗少妇毛片| www.熟女人妻精品国产| 黄频高清免费视频| 中文字幕亚洲精品专区| 在线观看国产h片| 肉色欧美久久久久久久蜜桃| 三上悠亚av全集在线观看| 亚洲国产精品一区三区|