• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    分布式環(huán)境下話題發(fā)現(xiàn)算法性能分析

    2018-09-12 05:43:48鄧璐賈焰方濱興周斌張濤劉心
    通信學報 2018年8期
    關(guān)鍵詞:級別文檔集群

    鄧璐,賈焰,方濱興,周斌,張濤,劉心

    ?

    分布式環(huán)境下話題發(fā)現(xiàn)算法性能分析

    鄧璐1,賈焰1,方濱興2,周斌1,張濤1,劉心1

    (1. 國防科技大學計算機學院,湖南 長沙 410073;2. 北京郵電大學計算機學院,北京 100876)

    社交網(wǎng)絡(luò)成為現(xiàn)在人們生活的一種重要方式,越來越多的人選擇通過社交網(wǎng)絡(luò)表達觀點、抒發(fā)心情。在海量的數(shù)據(jù)下,快速發(fā)現(xiàn)討論的內(nèi)容得到越來越多的研究者的關(guān)注,隨即出現(xiàn)了大量的話題發(fā)現(xiàn)算法。在大規(guī)模新浪微博數(shù)據(jù)環(huán)境下,針對3種經(jīng)典分布式話題發(fā)現(xiàn)算法,結(jié)合社交網(wǎng)絡(luò)平臺的特點提出了分析性能的測試方案,并根據(jù)測試方案比較與分析了3種算法的性能,指出了各算法的優(yōu)缺點,為后續(xù)應用提供參考。

    話題發(fā)現(xiàn);分布式環(huán)境;社交網(wǎng)絡(luò);性能分析

    1 引言

    互聯(lián)網(wǎng)正在逐步發(fā)展為無處不在的計算平臺和信息傳播平臺,這為基于互聯(lián)網(wǎng)的社交網(wǎng)絡(luò)服務(wù)應用的快速發(fā)展提供了契機。中國互聯(lián)網(wǎng)絡(luò)信息中心發(fā)布的統(tǒng)計信息顯示:截至2017年12月,中國的網(wǎng)民規(guī)模達到了7.72億[1]。這些用戶每天瀏覽、關(guān)注、發(fā)布數(shù)以千萬計的信息,因此,如何在如此巨大的數(shù)據(jù)規(guī)模下快速發(fā)現(xiàn)人們討論的內(nèi)容是一個基礎(chǔ)和流行的研究問題。

    很多研究都是基于這個問題展開的,且大多數(shù)已有工作都來源于話題發(fā)現(xiàn)和追蹤(TDT, topic detection and tracking)這個任務(wù)。話題發(fā)現(xiàn)自1996年以來就是TDT的子任務(wù)之一,它是將新聞、廣播、TV和其他媒體的信息流看作處理對象,將信息流中涉及的事件放入相關(guān)話題的過程。發(fā)展初期的信息通常由官方媒體發(fā)布,因此數(shù)據(jù)規(guī)模通常較小,單個機器節(jié)點就可以快速地完成處理。由于互聯(lián)網(wǎng)的快速發(fā)展以及移動終端使用的普及,各類社交媒體得到越來越多人的青睞,因此相關(guān)學者將研究重點放到郵件、論壇、微博等新型媒體。這類媒體的一個重要特征就是任意用戶都可以發(fā)布信息內(nèi)容,不再局限于官方媒體,而是由用戶共同營造話題,用戶的參與感更強。這就導致了話題發(fā)現(xiàn)任務(wù)需要處理的數(shù)據(jù)規(guī)模大幅度增加,大多數(shù)情況下單個機器節(jié)點已經(jīng)很難滿足快速完成任務(wù)的要求,分布式話題發(fā)現(xiàn)方法或?qū)⒃掝}發(fā)現(xiàn)方法并行化是現(xiàn)在話題發(fā)現(xiàn)任務(wù)的必然趨勢。

    本文首先回顧了主流的話題發(fā)現(xiàn)算法,在此基礎(chǔ)上,選擇了3種代表性的分布式話題發(fā)現(xiàn)算法:MrLDA算法,Mahout LDA算法和Spark LDA算法,簡單介紹了3種算法的工作原理。然后以運行時間和加速比為衡量指標,測試3種算法在不同數(shù)據(jù)規(guī)模、不同集群規(guī)模、不同迭代次數(shù)下的執(zhí)行情況。最后對3種算法的性能進行對比分析,指出各自的優(yōu)缺點,為后續(xù)應用提供參考。此項研究在實際的工程應用中有很大意義。

    2 主流話題發(fā)現(xiàn)算法介紹

    話題發(fā)現(xiàn)對于提供有效網(wǎng)絡(luò)輿情信息、輿情監(jiān)控和競爭情報等方面具有重大意義。各類話題發(fā)現(xiàn)方法都基于特定話題模型,而話題模型是研究話題發(fā)現(xiàn)的基礎(chǔ),目前主要有以下2類話題發(fā)現(xiàn)方法。

    第一類是基于向量空間模型的方法。它是相對傳統(tǒng)的模型化文檔方法,將文檔看作詞袋,每個文檔看作詞匯空間中的向量。TFIDF方法是用來衡量詞項權(quán)重比較常見的方法,它的基本思想是,如果某個詞匯或短語在一篇文檔中出現(xiàn)的頻率較高,并且在其他文檔中很少出現(xiàn),則認為該詞匯或短語具有很好的類別區(qū)分能力,適合表示文檔。2個文檔的相似性可以通過多種方法計算,一般采用余弦相似性方法,通過2個文檔向量夾角的余弦值衡量。很多基于距離的方法可以被應用到話題發(fā)現(xiàn)中,比如Spherical k-Means algorithm (Sk-Mean)[2]、Fuzzy Spherical k-Means (FSk-Means)[3-4]等。Makkonen等[5]將單一的事件向量分解為4個子向量,用4種不同類型的詞匯表征,分別是人物機構(gòu)指示詞、地點位置指示詞、時間日期指示詞和事件指示詞。將時間表達式進行形式化,并利用本體知識對地點信息進行擴展,進而應用在話題發(fā)現(xiàn)中。Wu等[6]提出一個重建文本向量的高效方法檢測新話題,該方法通過Jaccard相似系數(shù)和逆向頻率計算文本向量每一維的重要程度,基于重要程度重建文本向量,提高了文本聚類和關(guān)鍵話題抽取的準確性。

    第二類是基于概率模型的方法。概率話題模型[7-10]是發(fā)現(xiàn)隱藏話題的有效統(tǒng)計模型,得到越來越多研究者的青睞。其中,最具有代表性的是LDA模型[8]。它是在pLSI模型的基礎(chǔ)上改進的,認為文檔是在話題上的多項式分布,話題是在詞匯上的多項式分布,從而構(gòu)造了文檔的產(chǎn)生式模型:依據(jù)概率分布依次抽取話題和詞匯,迭代地產(chǎn)生出文檔中的每一個詞匯,需要參數(shù)估計的方法得到最終模型,比如variational inference[8, 11]、collapsed Gibbs sampling[12]等。該模型也成功地應用于Twitter數(shù)據(jù),Ramage等[13]提出一種基于標簽LDA(labeled LDA)的半監(jiān)督學習模型,可將Twitter消息按主旨、風格、狀態(tài)和社會角色這4個維度進行分類,以便用戶瀏覽感興趣的信息。Chen等[14]采用lifelong learing方法,在訓練模型時融入must-link集合和cannot-link集合:1) 對于多個文檔集合利用經(jīng)典的話題模型得到每個文檔對應的話題集合,基于該集合獲取詞匯間的must-link集合;2) 在測試數(shù)據(jù)上將must-link集合融入基于知識的話題模型(KBTM, knowledge-based topic model),根據(jù)求得的話題集合抽取其中的cannot-link集合;3) 將must-link集合和cannot-link集合重新應用到測試數(shù)據(jù)中,得到最終的話題集合。Lin等[15]提出一個雙稀疏話題模型,該模型同時考慮了文檔—主題分布的稀疏性和主題—詞匯的稀疏性,是建立在一篇文檔一般只包含幾個主題、一個主題所使用的詞匯也相對有限而不是分布在整個詞匯表的基礎(chǔ)上,將文檔的生成過程依托于固定主題集合和固定詞匯集合。

    相對于基于向量空間模型的方法,基于概率模型的方法的應用更為廣泛,特別是基于LDA模型的方法,在話題發(fā)現(xiàn)、情感分析等多個領(lǐng)域都得到了認可。本文針對LDA模型,選擇了3種典型的分布式算法:MrLDA算法[16],Mahout LDA算法[17]和Spark LDA[18],通過分析3種算法在不同條件下的性能情況,評估不同算法的優(yōu)勢。

    3 3種算法的原理

    LDA模型[8]是一個三層結(jié)構(gòu)的貝葉斯模型,是處理語料庫中文檔的產(chǎn)生式概率模型。文檔由隨機潛在的話題表示,話題則是詞匯上的分布。LDA模型的具體描述如下:一篇文檔=1,…,w是由數(shù)量為的詞匯組成,話題分布θ是基于參數(shù)的Dirichlet分布,文檔中詞匯對應的話題序列=1,…,z是基于話題分布θ產(chǎn)生的,任意詞匯w是根據(jù)分布(w|z)產(chǎn)生的。參數(shù)和是先驗參數(shù),整個語料庫采樣一次。參數(shù)是文檔級別的變量,每個文檔采樣一次。變量和是詞匯級別的變量,每個文檔下的每個詞匯采樣一次。在完成LDA模型的訓練后,可以通過推導方法求取文檔的話題分布。

    3.1 MrLDA算法原理

    MrLDA[16]是基于Hadoop MapReduce框架實現(xiàn)的大規(guī)模分布式LDA話題發(fā)現(xiàn)模型。其主要思想是通過對變分法的分布式化計算變分參數(shù),迭代計算全局LDA模型的參數(shù),從而提高LDA模型在分布式環(huán)境下的運行效率。

    MrLDA算法的迭代過程如圖1所示,分為3個部分:在并行的Mapper中計算特定文檔的變分參數(shù);在并行的Reducer中計算特定話題參數(shù);在Driver中更新全局參數(shù),同時監(jiān)控算法是否收斂,判斷是否結(jié)束迭代。

    3.2 Mahout LDA算法原理

    Mahout是一個強大的數(shù)據(jù)挖掘工具,也是一個分布式機器學習方法的集合。Mahout LDA[17]基于Hadoop MapReduce框架,將變分法和Gibbs 采樣相結(jié)合來計算參數(shù),提高了算法可處理的數(shù)據(jù)量級和算法本身的性能。

    Mahout LDA算法的本質(zhì)是貝葉斯公式和EM算法的結(jié)合。Mahout程序利用CVBo 算法來計算LDA模型,在Map過程中對向量和矩陣反復迭代求解,算出每個文檔的并且在更新writeModel階段將矩陣進行向量的相加。執(zhí)行完所有的Map過程后將整個數(shù)據(jù)集的聚合,最終在cleanup過程中將話題的索引作為key值,矩陣作為value值寫入Reduce過程。

    圖1 MrLDA算法原理

    3.3 Spark LDA算法原理

    Spark LDA[18]在Spark機器學習庫MLlib上實現(xiàn)了2個版本的LDA,分別為Spark EM LDA和Spark Online LDA。Spark EM LDA建立在Spark框架下,通過GraphX實現(xiàn)的LDA模型的算法,利用對圖的邊和頂點數(shù)據(jù)的操作訓練模型,并使用Gibbs采樣原理估計模型參數(shù),將訓練的話題—詞匯模型存儲在GraphX圖頂點上,屬于分布式存儲方式。Spark Online LDA建立在抽樣模式的基礎(chǔ)上,每次訓練模型是通過抽取一些文檔實現(xiàn)的,最終模型是多次訓練后的結(jié)果,參數(shù)估計采用貝葉斯變分的方法,利用矩陣存儲話題—詞匯模型,屬于本地模型。Spark EM LDA在訓練時,shuffle量非常大,極大地影響速度,同時,每輪迭代完畢后更新模型,導致收斂速度較慢。Spark Online LDA使用矩陣存儲模型,矩陣規(guī)模直接限制訓練文檔集的主題數(shù)和詞的數(shù)目,且在每次訓練完抽樣文本后更新模型。因而Spark Online LDA模型更新更及時,收斂速度更快。Online LDA Optimizer 通過在小批量數(shù)據(jù)上迭代采樣實現(xiàn)Online變分推斷,比較節(jié)省內(nèi)存。而EMLDAOptimizer得到的結(jié)果是建立在整個數(shù)據(jù)集基礎(chǔ)上的,更為全面,所以這里選擇Spark EM LDA進行實驗。

    Spark EM LDA實現(xiàn)的核心是GraphX以文檔到詞匯作為邊,以詞頻作為邊數(shù)據(jù),把語料庫構(gòu)造成圖,把對語料庫中每篇文檔的每個詞匯的操作轉(zhuǎn)化為對圖中每條邊上的操作。GraphX把文檔—話題矩陣和話題—詞匯矩陣存儲在文檔頂點和詞匯頂點上,把詞頻信息存儲在邊上。它把整個文檔的聚類結(jié)果矩陣、模型矩陣和語料庫詞頻矩陣都表示在圖結(jié)構(gòu)中,將LDA算法處理過程轉(zhuǎn)化為對邊的遍歷處理過程。

    4 測試計劃

    4.1 測試環(huán)境

    本文實驗是在騰訊云上實現(xiàn)的,租用128臺服務(wù)器節(jié)點,如圖2所示。每個節(jié)點的軟件環(huán)境如下:CentOS6.5, Ubuntu14.04, Jdk1.8, Hadoop2.6,0, Spark1.6.2。其中,有一個主節(jié)點的配置是8核處理器,64 GB內(nèi)存,500 GB硬盤,1 Mbit/s帶寬;其余節(jié)點的配置是8核處理器,32 GB內(nèi)存,100 GB硬盤,1 Mbit/s帶寬。

    圖2 測試分布式環(huán)境示意

    4.2 數(shù)據(jù)集

    測試數(shù)據(jù)來自新浪微博的真實數(shù)據(jù),爬取了2015年8月的微博內(nèi)容,經(jīng)過預處理,去除字數(shù)較少的博文,最終得到約1 900萬條左右的博文數(shù)據(jù),數(shù)據(jù)規(guī)模約為12 GB。3種算法都是基于LDA模型的,所以涉及話題數(shù)目的設(shè)定,這里統(tǒng)一將話題數(shù)目設(shè)置為20。

    4.3 測試指標

    本文主要從加速比和運行時間這2個指標對3種不同的分布式話題發(fā)現(xiàn)算法進行測試。

    加速比:測試3種算法在不同集群規(guī)模上的加速比。

    運行時間:測試3種算法在不同數(shù)據(jù)規(guī)模、不同迭代次數(shù)、不同集群規(guī)模上從開始運行到結(jié)束運行的時間之差。

    4.4 測試方案

    1) 集群規(guī)模:隨著集群規(guī)模的增加,算法的運行時間會呈現(xiàn)一定程度的減小,但是否會隨著集群規(guī)模的不斷增加,呈現(xiàn)不斷減小的趨勢是一個值得探索的問題。根據(jù)算法的實際情況,有選擇地對3種算法節(jié)點數(shù)設(shè)定為1、4、8、16、32、64、128的集群規(guī)模,研究在同一數(shù)據(jù)規(guī)模和迭代次數(shù)條件下算法的運行時間和加速比。

    2) 數(shù)據(jù)規(guī)模:計算3種算法執(zhí)行不同規(guī)模測試數(shù)據(jù)的運行時間。由于3種算法的執(zhí)行原理不同,對數(shù)據(jù)規(guī)模的適用情況也會有所差異,數(shù)據(jù)規(guī)模的選取可能會對算法的性能產(chǎn)生影響。分別對3種算法選取100萬、1 000萬和1億條博文的數(shù)據(jù)規(guī)模,研究在同一迭代次數(shù)和集群規(guī)模條件下算法的運行時間。

    3) 迭代次數(shù):3種算法都需要反復迭代處理,迭代次數(shù)太少會影響產(chǎn)生話題的質(zhì)量,迭代次數(shù)過多會影響算法效率,不同的迭代次數(shù)對算法的性能有一定的影響。分別對3種算法設(shè)定10、30、50的迭代次數(shù),研究在同一數(shù)據(jù)規(guī)模和集群規(guī)模條件下的運行時間。

    5 3種算法的性能

    5.1 MrLDA算法性能

    由于在單個節(jié)點上運行MrLDA算法的時間過長,因此集群規(guī)模最小設(shè)定為4個服務(wù)器節(jié)點。這里展示了MrLDA算法在百萬數(shù)據(jù)級別,不同迭代次數(shù)和不同集群規(guī)模下的運行時間和加速比,如圖3所示。

    1) 集群規(guī)模:從運行時間這個指標來看,對于100萬條博文規(guī)模的數(shù)據(jù),MrLDA算法在16個節(jié)點時出現(xiàn)量級上的降低,之后時間降落沒有很明顯。從加速比指標來看,加速比在32個節(jié)點時,都達到最高值或變化不大。

    圖3 MrLDA算法百萬級別下的測試

    2) 數(shù)據(jù)規(guī)模:MrLDA算法由于自身算法的局限性,沒有基于內(nèi)存消耗做優(yōu)化處理,因此實際能夠處理的數(shù)據(jù)量有限,在執(zhí)行千萬級別以上的數(shù)據(jù)規(guī)模時會出現(xiàn)錯誤警告,不適合處理超過百萬級別的數(shù)據(jù)規(guī)模。

    3) 迭代次數(shù):隨著迭代次數(shù)的增加,運行時間呈現(xiàn)變大趨勢。迭代次數(shù)越大時,隨著集群規(guī)模的增加,其相應運行時間的下降幅度越大,加速比的上升趨勢越明顯。MrLDA算法在30次迭代時未出現(xiàn)收斂,在50次迭代時出現(xiàn)收斂。

    5.2 Mahout LDA算法性能

    與MrLDA算法類似,Mahout LDA在單個服務(wù)器節(jié)點時間同樣過長,因此集群規(guī)模最小設(shè)定為4個服務(wù)器節(jié)點。這里分別展示了Mahout LDA算法在百萬、千萬、億級別的數(shù)據(jù)規(guī)模,不同迭代次數(shù)和不同集群規(guī)模下的運行時間和加速比,如圖4~圖6所示。

    1) 集群規(guī)模:Mahout LDA在百萬條博文規(guī)模上8個節(jié)點的運行時間最短,加速比最大。對于數(shù)據(jù)量為百萬級別的博文,最優(yōu)集群規(guī)模是8個節(jié)點左右。而以千萬條規(guī)模和億條規(guī)模條件為前提時,算法在64個節(jié)點處出現(xiàn)了拐點,由于數(shù)據(jù)規(guī)模為百萬級別時,過早出現(xiàn)了性能的“瓶頸”,因此只測試到64臺服務(wù)器節(jié)點規(guī)模。而數(shù)據(jù)規(guī)模為千萬和億級別時,測試到64臺服務(wù)器節(jié)點時,運行時間仍呈現(xiàn)下降趨勢,加速比仍出現(xiàn)上升趨勢,所以對于這2個數(shù)據(jù)規(guī)模級別,測試了128臺服務(wù)器節(jié)點下的執(zhí)行情況。

    圖4 Mahout LDA算法百萬級別下的測試

    圖5 Mahout LDA算法千萬級別下的測試

    圖6 Mahout LDA算法億級別下的測試

    2) 數(shù)據(jù)規(guī)模:在相同條件下,數(shù)據(jù)規(guī)模越大,算法的運行時間越長,加速比越大。即隨著數(shù)據(jù)規(guī)模的增加,雖然運行時間相應變長,但分布式實現(xiàn)帶來的優(yōu)勢也越顯著。

    3) 迭代次數(shù):與MrLDA算法類似,隨著迭代次數(shù)的增加,運行時間呈現(xiàn)大幅度增長。而在不同數(shù)據(jù)規(guī)模、不同集群規(guī)模、不同迭代次數(shù)下,Mahout LDA算法均未達到收斂。

    5.3 Spark LDA算法性能

    由于Spark LDA算法的普遍執(zhí)行時間較短,因此對于該算法的實驗是從服務(wù)器節(jié)點數(shù)量為1時開始測試的。這里分別展示了Spark LDA算法在百萬、千萬、億級別的數(shù)據(jù)規(guī)模,不同迭代次數(shù)和不同集群規(guī)模下的運行時間和加速比,如圖7~圖9所示。

    1) 集群規(guī)模:Spark LDA在百萬、千萬、億級別數(shù)據(jù)規(guī)模上,均在4臺服務(wù)器節(jié)點處運行時間最短,加速比最大。由于在3種數(shù)據(jù)規(guī)模級別下,該算法均過早出現(xiàn)了性能的“瓶頸”,因此只測試到32臺服務(wù)器節(jié)點規(guī)模。

    2) 數(shù)據(jù)規(guī)模:隨著數(shù)據(jù)規(guī)模的增加,執(zhí)行時間呈量級增加趨勢。千萬級數(shù)據(jù)以下時間可以控制在30 min內(nèi),億級別數(shù)據(jù)的時間消耗明顯與百萬級別數(shù)據(jù)和千萬級別數(shù)據(jù)不在一個量級上。這應該是與算法的并行框架——Spark有關(guān),該框架將中間結(jié)果寫入內(nèi)存,隨著數(shù)據(jù)規(guī)模的增大,中間結(jié)果也大幅度增加,內(nèi)存無法負荷,所以時間呈現(xiàn)大規(guī)模增加趨勢。在3種數(shù)據(jù)規(guī)模下,Spark LDA的加速比均在0.7~1.3這個較小區(qū)間變動,即并不是數(shù)據(jù)規(guī)模越大,分布式實現(xiàn)的優(yōu)勢越明顯,而是整體上保持穩(wěn)定。

    圖7 Spark LDA算法百萬級別下的測試

    3) 迭代次數(shù):與Mahout LDA算法類似,隨著迭代次數(shù)的增加,算法的運行時間呈現(xiàn)大幅度增長趨勢。而在不同數(shù)據(jù)規(guī)模、不同集群規(guī)模、不同迭代次數(shù)下,Spark LDA算法均未達到收斂,這也論證了該算法在每輪迭代完畢后更新模型,導致收斂速度較慢的這個原理。

    圖8 Spark LDA算法千萬級別下的測試

    圖9 Spark LDA算法億級別下的測試

    5.4 3種算法的分析對比

    表1~表3分別展示在不同數(shù)據(jù)規(guī)模下,MrLDA、Mahout LDA和Spark LDA算法的運行時間,其中,加粗數(shù)值表示在當前條件下,算法可以達到收斂狀態(tài)。

    3種算法基于的并行框架不同,在一定程度上可以很好地解釋實驗結(jié)果。MapReduce框架在復雜的挖掘算法中往往需要多個MapReduce作業(yè)才能完成,多個作業(yè)之間存在著冗余的磁盤讀寫開銷和多次資源申請過程,使基于MapReduce的算法實現(xiàn)存在嚴重的性能問題,MrLDA算法和Mahout算法都基于MapReduce框架,這就使在相同條件下,2種算法的運行時間均處于較大數(shù)量級,如當數(shù)據(jù)規(guī)模為百萬級別,集群規(guī)模為16個節(jié)點,迭代次數(shù)為30時,MrLDA算法的運行時間達到220.90 min,Mahout LDA算法的運行時間達到27.20 min,如表1所示。

    Spark框架得益于其在迭代計算和內(nèi)存計算上的優(yōu)勢,可以自動調(diào)度復雜的計算任務(wù),避免中間結(jié)果的磁盤讀寫和資源申請過程,在一定程度上提高了算法的性能。Spark LDA基于Spark框架,由于它將中間結(jié)果寫入內(nèi)存,因此運行時間處于較小數(shù)量級,同樣是在數(shù)據(jù)規(guī)模為百萬級別,集群規(guī)模為16個節(jié)點,迭代次數(shù)為30的條件下,Spark LDA的運行時間僅為3.40 min,如表1所示。但是隨著數(shù)據(jù)規(guī)模的增加,內(nèi)存沒有辦法負荷,所以它的時間呈大幅度上升趨勢,例如,在迭代次數(shù)為50的條件下,Mahout LDA算法在億級別和千萬級別下的運行時間比值較小,而Spark LDA算法在億級別和千萬級別下的運行時間比值呈現(xiàn)大規(guī)模增長趨勢,如表2和表3所示,這充分說明Spark LDA算法在巨大規(guī)模數(shù)據(jù)處理上的劣勢。

    表1 MrLDA、Mahout LDA和Spark LDA在不同集群規(guī)模和迭代次數(shù)下的運行時間

    表2 千萬級別下Mahout LDA和Spark LDA在不同集群規(guī)模和迭代次數(shù)下的運行時間

    表3 億級別下Mahout LDA和Spark LDA在不同集群規(guī)模和迭代次數(shù)下的運行時間

    在參數(shù)推導方面,MrLDA、Mahout LDA和Spark LDA分別基于變分方法、變分方法和Gibbs采樣方法。變分方法既能推斷隱變量,也能推斷未知參數(shù),其難點在于公式演算比較復雜,和Gibbs采樣方法相比,其具有不易計算但運行效率高的特點。而Gibbs采樣方法的特點是容易計算但速度慢。MrLDA基于變分方法,所以其運行效率應該最高,但是由于每一輪迭代后都會更新超參數(shù)并計算相應的Likelihood,在一定程度上影響了算法的執(zhí)行時間。Spark LDA基于Gibbs采樣方法,本來計算時間應該相對較長,但是其主要在內(nèi)存中完成,節(jié)省了大量中間結(jié)果的磁盤讀寫時間,所以時間反而相對較快。

    在數(shù)據(jù)規(guī)模方面,隨著數(shù)據(jù)規(guī)模的增大,增加計算節(jié)點數(shù)量,算法的運行時間會相應減少,且數(shù)據(jù)規(guī)模越大,效果越明顯。然而不同算法自身原理并不相同,對應數(shù)據(jù)規(guī)模的適用情況也會有所區(qū)別:MrLDA由于自身算法的局限,沒有基于內(nèi)存消耗做優(yōu)化處理,因此實際能夠處理的數(shù)據(jù)量有限,在處理超過百萬級別規(guī)模數(shù)據(jù)時存在問題。Mahout LDA隨著數(shù)據(jù)規(guī)模增大,時間增長幅度較小,比較適合處理大規(guī)模數(shù)據(jù)。例如,在集群規(guī)模為32,迭代次數(shù)為30的條件下,Mahout LDA算法在千萬級別下的運行時間為164.09 min,億級別下的運行時間為233.39 min,增長幅度較小,如表2和表3所示。Spark LDA隨著數(shù)據(jù)規(guī)模增大,時間增長幅度較大,在億級數(shù)據(jù)規(guī)模上相較前2種算法仍存在較小的運行時間優(yōu)勢,但是不適合處理超過億級別的數(shù)據(jù),而在百萬規(guī)模和千萬規(guī)模上優(yōu)勢明顯,更適合處理千萬級規(guī)模以下數(shù)據(jù)。例如,在集群規(guī)模為32,迭代次數(shù)為50的條件下,SparkLDA在百萬數(shù)據(jù)規(guī)模和千萬數(shù)據(jù)規(guī)模的運行時間遠小于Mahout LDA,而在億數(shù)據(jù)規(guī)模下的運行時間優(yōu)勢顯著減小,時間量級明顯增加,如表1~表3所示。

    在迭代次數(shù)方面,迭代次數(shù)與算法的運行時間呈線性相關(guān)。迭代次數(shù)太少會導致模型尚未收斂,影響話題的質(zhì)量,而迭代次數(shù)越大,其計算的資源消耗越高,運行時間也會越長。MrLDA算法在百萬數(shù)據(jù)規(guī)模,50次迭代設(shè)置下出現(xiàn)收斂,對應的話題發(fā)現(xiàn)質(zhì)量較好,而其他情況均未出現(xiàn)收斂,在一定程度上影響了算法話題發(fā)現(xiàn)的質(zhì)量,如表1所示。

    在集群規(guī)模方面,在相同迭代次數(shù)和數(shù)據(jù)規(guī)模下,隨著集群規(guī)模的增加,不同算法的運行時間出現(xiàn)先大幅降低后減少速率逐漸變緩,直至基本無變化或呈上升趨勢,而加速比呈現(xiàn)先增加后基本無變化或呈下降趨勢,且不同算法對應的拐點出現(xiàn)有所不同。這是因為在處理大規(guī)模數(shù)據(jù)時,當前現(xiàn)有的主流算法存在著瓶頸,當集群規(guī)模達到一定數(shù)量時,再增加計算節(jié)點也無法提高算法的性能。這在MrLDA、Mahout LDA和Spark LDA算法中均有體現(xiàn),例如,MrLDA算法的加速比在百萬級別的32節(jié)點出現(xiàn)拐點;Mahout LDA算法的加速比在百萬級別的8節(jié)點出現(xiàn)拐點,在千萬級別和億級別的64節(jié)點出現(xiàn)拐點;Spark LDA算法的加速比均在百萬、千萬、億級別的4節(jié)點出現(xiàn)最優(yōu)值。

    分布式話題模型的訓練在最近幾年得到越來越多研究者的關(guān)注,涌現(xiàn)了一大批相關(guān)模型。AliasLDA針對Gibbs采樣過程進行優(yōu)化,基于Alias Table使個話題的采樣時間復雜度由原來的()降低到(1)。LightLDA則針對采用的分布進行修改,將原來建立在話題上的詞匯、文檔聯(lián)合分布變?yōu)?個獨立的采樣過程且交替進行,分別只與詞匯和文檔相關(guān)。WarpLDA做了更多的工程級別的優(yōu)化,讓LightLDA更快。LDA* 則解決了頑健的采樣性能以及詞分布傾斜這2個難題,取得了更好的性能。LDA* 構(gòu)建于騰訊開源的系統(tǒng)Angel之上,得益于Angel開放的參數(shù)服務(wù)器架構(gòu)、良好的擴展性以及優(yōu)秀的編程接口設(shè)計,它可以輕松處理TB級別的數(shù)據(jù)和十億維度的話題模型。這些都是近幾年比較有代表性的分布式話題模型,也是以后分布式話題模型測試的努力方向。

    6 結(jié)束語

    本文針對社交網(wǎng)絡(luò)中的話題發(fā)現(xiàn)問題,在簡單介紹了MrLDA、Mahout LDA和Spark LDA算法基本原理的基礎(chǔ)上,測試了這3種典型分布式算法在面向不同數(shù)據(jù)規(guī)模、不同迭代次數(shù)、不同集群規(guī)模條件下的運行時間和加速比,并給出了不同情況下3種算法的數(shù)據(jù)規(guī)模適用性、迭代次數(shù)的設(shè)置以及集群規(guī)模的建議,由此可以為實際應用場景下,不同的現(xiàn)實需求選取較優(yōu)算法提供參考。下一步,將面向評價指標——困惑度,從話題質(zhì)量的角度分析各個算法的優(yōu)劣。

    [1] 中國互聯(lián)網(wǎng)絡(luò)信息中心. 第41次《中國互聯(lián)網(wǎng)絡(luò)發(fā)展狀況統(tǒng)計報告》[R]. 2018. China Internet Network Information Center. The 41th statistical report on Internet development in China[R]. 2018.

    [2] DHILLON I S, MODHA D S. Concept decompositions for large sparse text data using clustering[C]//Machine Learning. 2001:143-175.

    [3] KUMMAMURU K, DHAWALE A, KRISHNAPURAM R. Fuzzy co-clustering of documents and keywords[C]//The IEEE International Conference on Fuzzy Systems. 2003:772-777.

    [4] ZHAO Y, KARYPIS G. Soft clustering criterion functions for partitional document clustering:a summary of results[C]//Thirteenth ACM International Conference on Information & Knowledge Management. 2004: 246-247.

    [5] MAKKONEN J, AHONENMYKA H, SALMENKIVI M. Topic detection and tracking with spatio-temporal evidence[C]// European Conference on Ir Research. 2003: 251-265.

    [6] WU C, WANG B. Extracting topics based on Word2Vec and improved jaccard similarity coefficient[C]//IEEE Second International Conference on Data Science in Cyberspace. 2017: 389-397.

    [7] HOFMANN T. Probabilistic latent semantic indexing[C]//International ACM SIGIR Conference on Research and Development in Information Retrieval. 1999: 50-57.

    [8] BLEI D M, NG A Y, JORDAN M I. Latent dirichlet allocation[J]. J Machine Learning Research Archive, 2003, 3:993-1022.

    [9] STEYVERS M , GRIFFITHS T. Probabilistic topic models[J]. Handbook of Latent Semantic Analysis, 2007, 427(7): 424-440.

    [10] BLEI D, CARIN L, DUNSON D. Probabilistic topic models[C]//ACM SIGKDD International Conference Tutorials. 2011: 1.

    [11] BERNHARD S, JOHN P, THOMAS H. A collapsed variational bayesian inference algorithm for latent dirichlet allocation[C]//The Twentieth Conference on Neural Information Processing Systems. 2006:1353-1360.

    [12] GRIFFITHS T L, STEYVERS M. Finding scientific topics[J]. National Academy of Sciences of the United States of America, 2004: 5228-5235.

    [13] RAMAGE D. Characterizing microblogs with topic models[C]// International AAAI Conference on Weblogs and Social Media. 2010:130-137.

    [14] CHEN Z, LIU B. Mining topics in documents:standing on the shoulders of big data[C]//ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 2014: 1116-1125.

    [15] LIN T, TIAN W, MEI Q, et al. The dual-sparse topic model:mining focused topics and focused terms in short text[C]//International Conference on World Wide Web. 2014:539-550.

    [16] ZHAI K, BOYD G J, ASADI N, et al. MrLDA:a flexible large scale topic modeling package using variational inference in MapReduce[C]// International Conference on World Wide Web. 2012:879-888.

    [17] ARONSSON F. Large scale cluster analysis with Hadoop and Mahout[J]. Technology & Engineering. 2015.

    [18] MENG X R, BRADLEY J, BURAK Y, et al. MLlib: machine learning in apache spark[J]. Journal of Machine Learning Research, 2015, 17(1):1235-1241.

    Performance analysis of topic detection algorithms in distributed environment

    DENG Lu1, JIA Yan1, FANG Binxing2, ZHOU Bin1, ZHANG Tao1, LIU Xin1

    1. College of Computer, National University of Defense Technology, Changsha 410073, China 2. College of Computer, Beijing University of Posts and Telecommunications, Beijing 100876, China

    Social network has become a way of life, therefore more and more people choose social network to express their views and feelings. Quickly find what people are talking about in big data gets more and more attention. And a lot of related methods of topic detection spring up in this situation. The performance analysis project was proposed based on the characteristics of social network. According to the project, the performances of some typical topic detection algorithms were tested and compared in large-scale data of Sina Weibo. What’s more, the advantages and disadvantages of these algorithms were pointed out so as to provide references for later applications.?

    topic detection, distributed environment, social network, performance analysis

    TP391

    A

    10.11959/j.issn.1000?436x.2018136

    鄧璐(1989?),女,湖北松滋人,國防科技大學博士生,主要研究方向為社交網(wǎng)絡(luò)分析、數(shù)據(jù)挖掘、復雜網(wǎng)絡(luò)等。

    賈焰(1960?),女,四川成都人,國防科技大學教授、博士生導師,主要研究方向為社交網(wǎng)絡(luò)分析、信息安全等。

    方濱興(1960?),男,江西萬年人,中國工程院院士,北京郵電大學教授、博士生導師,主要研究方向為計算機體系結(jié)構(gòu)、計算機網(wǎng)絡(luò)與信息安全。

    周斌(1971?),男,江西南昌人,國防科技大學教授、博士生導師,主要研究方向為社交網(wǎng)絡(luò)分析、信息安全等。

    張濤(1993?),女,湖南常德人,國防科技大學碩士生,主要研究方向為社交網(wǎng)絡(luò)分析。

    劉心(1993?),女,湖南長沙人,國防科技大學碩士生,主要研究方向為社交網(wǎng)絡(luò)分析。

    2017?11?08;

    2018?07?03

    國家自然科學基金資助項目(No.61502517, No.61472433, No.61732004, No.61732022);國家重點研發(fā)計劃課題基金資助項目(No.0708068118002, No.2017YFB0803303)

    The National Natural Science Foundation of China (No.61502517, No.61472433, No.61732004, No.61732022), The National Key Research and Development Program of China (No.0708068118002, No.2017YFB0803303)

    猜你喜歡
    級別文檔集群
    痘痘分級別,輕重不一樣
    有人一聲不吭向你扔了個文檔
    海上小型無人機集群的反制裝備需求與應對之策研究
    一種無人機集群發(fā)射回收裝置的控制系統(tǒng)設(shè)計
    電子制作(2018年11期)2018-08-04 03:25:40
    邁向UHD HDR的“水晶” 十萬元級別的SIM2 CRYSTAL4 UHD
    新年導購手冊之兩萬元以下級別好物推薦
    你是什么級別的
    中學生(2017年13期)2017-06-15 12:57:48
    Python與Spark集群在收費數(shù)據(jù)分析中的應用
    勤快又呆萌的集群機器人
    基于RI碼計算的Word復制文檔鑒別
    国产黄色视频一区二区在线观看| 人妻 亚洲 视频| 考比视频在线观看| 亚洲欧美一区二区三区黑人| av片东京热男人的天堂| 91精品国产国语对白视频| 日韩中文字幕欧美一区二区 | 日本91视频免费播放| 国产一区二区三区综合在线观看| 免费观看a级毛片全部| 国产视频首页在线观看| 欧美成人午夜精品| 一区二区日韩欧美中文字幕| 51午夜福利影视在线观看| 欧美人与性动交α欧美精品济南到| 亚洲欧美一区二区三区久久| 亚洲精品在线美女| 99re6热这里在线精品视频| 亚洲精品日韩在线中文字幕| 夫妻午夜视频| 秋霞在线观看毛片| 欧美人与善性xxx| 麻豆av在线久日| 亚洲国产中文字幕在线视频| 一级a爱视频在线免费观看| 欧美在线黄色| 51午夜福利影视在线观看| 色吧在线观看| 国产老妇伦熟女老妇高清| videos熟女内射| 久久精品人人爽人人爽视色| 色吧在线观看| 亚洲四区av| tube8黄色片| 国产av精品麻豆| 日韩制服骚丝袜av| 夜夜骑夜夜射夜夜干| 国产乱人偷精品视频| 老汉色av国产亚洲站长工具| 免费观看a级毛片全部| 日韩成人av中文字幕在线观看| 国产乱来视频区| 赤兔流量卡办理| 亚洲国产欧美一区二区综合| 中国国产av一级| 精品少妇一区二区三区视频日本电影 | 国产成人欧美| 国产精品.久久久| 99精品久久久久人妻精品| 国产日韩一区二区三区精品不卡| 飞空精品影院首页| 亚洲人成77777在线视频| 久久久久精品久久久久真实原创| 一二三四中文在线观看免费高清| 亚洲国产成人一精品久久久| 大陆偷拍与自拍| 操美女的视频在线观看| 不卡av一区二区三区| 一级爰片在线观看| 国产成人精品无人区| 自拍欧美九色日韩亚洲蝌蚪91| 2021少妇久久久久久久久久久| 国产野战对白在线观看| 国产成人精品久久二区二区91 | 麻豆乱淫一区二区| 国产成人系列免费观看| 在线天堂中文资源库| av网站免费在线观看视频| 婷婷色综合大香蕉| 一边亲一边摸免费视频| 久久97久久精品| 最近2019中文字幕mv第一页| 久久精品久久久久久久性| 丁香六月天网| 国产不卡av网站在线观看| 国产免费现黄频在线看| a级毛片在线看网站| 日韩不卡一区二区三区视频在线| 精品一区在线观看国产| 又黄又粗又硬又大视频| 久久久久久久大尺度免费视频| 亚洲精华国产精华液的使用体验| 国产成人精品福利久久| 肉色欧美久久久久久久蜜桃| 男女下面插进去视频免费观看| 操出白浆在线播放| 久久热在线av| 亚洲精品国产av成人精品| 麻豆精品久久久久久蜜桃| 极品少妇高潮喷水抽搐| 欧美变态另类bdsm刘玥| 最近中文字幕2019免费版| 制服诱惑二区| 一级片'在线观看视频| 亚洲婷婷狠狠爱综合网| 亚洲欧美精品综合一区二区三区| 国产亚洲av片在线观看秒播厂| 18禁观看日本| 久久精品国产a三级三级三级| 欧美精品高潮呻吟av久久| 亚洲精品美女久久av网站| 亚洲激情五月婷婷啪啪| 最近最新中文字幕大全免费视频 | kizo精华| 亚洲精品美女久久av网站| 1024视频免费在线观看| 国产成人欧美在线观看 | 亚洲欧洲日产国产| 国产老妇伦熟女老妇高清| 亚洲精品成人av观看孕妇| 夜夜骑夜夜射夜夜干| 啦啦啦啦在线视频资源| 午夜福利视频在线观看免费| 人人妻人人澡人人爽人人夜夜| 成人手机av| bbb黄色大片| 亚洲情色 制服丝袜| 亚洲一区中文字幕在线| 国产成人欧美| 亚洲国产精品999| 国产欧美亚洲国产| av.在线天堂| 如日韩欧美国产精品一区二区三区| 777米奇影视久久| 美女福利国产在线| 一区二区三区激情视频| 久久狼人影院| 人体艺术视频欧美日本| 男人操女人黄网站| 亚洲欧洲精品一区二区精品久久久 | 人妻人人澡人人爽人人| 悠悠久久av| 精品人妻在线不人妻| 中文字幕另类日韩欧美亚洲嫩草| 亚洲色图 男人天堂 中文字幕| 亚洲精品乱久久久久久| 啦啦啦视频在线资源免费观看| 少妇人妻精品综合一区二区| 亚洲少妇的诱惑av| 黄片小视频在线播放| 国产福利在线免费观看视频| av福利片在线| 免费久久久久久久精品成人欧美视频| 亚洲国产欧美网| 黄色 视频免费看| 精品视频人人做人人爽| 精品国产露脸久久av麻豆| 青草久久国产| 久久久久久久久免费视频了| 久久久久久人人人人人| 女性生殖器流出的白浆| 欧美日韩视频精品一区| 亚洲精品国产一区二区精华液| 亚洲成人手机| 欧美 日韩 精品 国产| 成人亚洲精品一区在线观看| 日本午夜av视频| 一二三四中文在线观看免费高清| 高清在线视频一区二区三区| 天堂中文最新版在线下载| 久久久久国产一级毛片高清牌| 国产99久久九九免费精品| 老司机在亚洲福利影院| 亚洲精品久久成人aⅴ小说| 1024视频免费在线观看| av天堂久久9| 蜜桃国产av成人99| 看十八女毛片水多多多| 最近最新中文字幕免费大全7| 国产精品嫩草影院av在线观看| 一区二区日韩欧美中文字幕| 母亲3免费完整高清在线观看| 亚洲国产av新网站| 久久精品久久精品一区二区三区| 热99国产精品久久久久久7| 免费少妇av软件| 视频在线观看一区二区三区| 看免费av毛片| 伊人久久国产一区二区| 欧美日韩综合久久久久久| 中文字幕色久视频| 狂野欧美激情性bbbbbb| 亚洲成人国产一区在线观看 | 国产男女内射视频| 黄网站色视频无遮挡免费观看| h视频一区二区三区| 日韩人妻精品一区2区三区| 亚洲av电影在线观看一区二区三区| 久久人人爽人人片av| 伦理电影大哥的女人| 大码成人一级视频| 国产精品蜜桃在线观看| 精品福利永久在线观看| av国产精品久久久久影院| 日本欧美视频一区| 亚洲欧美成人综合另类久久久| 老司机影院成人| 国产精品二区激情视频| √禁漫天堂资源中文www| 如何舔出高潮| 亚洲精品视频女| 国产免费视频播放在线视频| avwww免费| 99热国产这里只有精品6| 久久久久精品性色| 欧美日韩亚洲综合一区二区三区_| 中文字幕最新亚洲高清| 国产色婷婷99| 国产精品秋霞免费鲁丝片| 亚洲欧美中文字幕日韩二区| 啦啦啦 在线观看视频| 一级片'在线观看视频| 久久久久久人人人人人| av在线观看视频网站免费| 国语对白做爰xxxⅹ性视频网站| 亚洲精品一二三| 精品久久久久久电影网| 国产一级毛片在线| 母亲3免费完整高清在线观看| 久久 成人 亚洲| 久久久精品免费免费高清| 国产精品秋霞免费鲁丝片| 亚洲精品第二区| 色网站视频免费| 欧美精品av麻豆av| 久久狼人影院| 中国三级夫妇交换| 狠狠精品人妻久久久久久综合| 精品福利永久在线观看| 亚洲欧美清纯卡通| 女人久久www免费人成看片| 免费久久久久久久精品成人欧美视频| 精品亚洲成国产av| 亚洲美女视频黄频| 老司机靠b影院| 久久久久久久久久久久大奶| av电影中文网址| 高清视频免费观看一区二区| √禁漫天堂资源中文www| 亚洲图色成人| 操出白浆在线播放| 亚洲精品国产区一区二| 亚洲精品久久久久久婷婷小说| 日韩欧美精品免费久久| 精品酒店卫生间| 国产精品 欧美亚洲| 黑人巨大精品欧美一区二区蜜桃| 老鸭窝网址在线观看| 男男h啪啪无遮挡| 亚洲人成网站在线观看播放| 日韩中文字幕视频在线看片| 久久精品国产a三级三级三级| 欧美日韩成人在线一区二区| 久热爱精品视频在线9| 99国产综合亚洲精品| 国产成人av激情在线播放| 精品一区二区三卡| 中文字幕色久视频| 国产日韩欧美亚洲二区| 免费在线观看黄色视频的| 亚洲欧美日韩另类电影网站| 国产有黄有色有爽视频| 中文字幕高清在线视频| 国产欧美亚洲国产| 黄色怎么调成土黄色| 久久精品熟女亚洲av麻豆精品| 亚洲美女视频黄频| 18禁观看日本| 国产 一区精品| 9热在线视频观看99| 亚洲人成77777在线视频| 欧美日韩视频高清一区二区三区二| 久久婷婷青草| 成人国语在线视频| 国产精品免费视频内射| 90打野战视频偷拍视频| 高清不卡的av网站| 亚洲久久久国产精品| 少妇 在线观看| 午夜福利在线免费观看网站| 一边亲一边摸免费视频| 蜜桃国产av成人99| 两性夫妻黄色片| 男人爽女人下面视频在线观看| 久久国产精品大桥未久av| 日韩成人av中文字幕在线观看| 日韩欧美一区视频在线观看| 日韩中文字幕视频在线看片| 午夜福利视频在线观看免费| 日日撸夜夜添| 亚洲伊人色综图| 如日韩欧美国产精品一区二区三区| 水蜜桃什么品种好| 美女大奶头黄色视频| 女人爽到高潮嗷嗷叫在线视频| 久久久久精品人妻al黑| 校园人妻丝袜中文字幕| 99re6热这里在线精品视频| 午夜久久久在线观看| 精品亚洲成国产av| 一级毛片 在线播放| 悠悠久久av| 最新的欧美精品一区二区| 亚洲一区中文字幕在线| 高清黄色对白视频在线免费看| 热re99久久国产66热| 欧美黑人欧美精品刺激| 9色porny在线观看| 免费在线观看完整版高清| 亚洲欧洲日产国产| 久久久精品免费免费高清| 久久久久国产一级毛片高清牌| 老熟女久久久| 亚洲欧洲国产日韩| 日韩制服丝袜自拍偷拍| 久久久久精品久久久久真实原创| 亚洲专区中文字幕在线 | 精品亚洲乱码少妇综合久久| 亚洲伊人久久精品综合| 日日啪夜夜爽| 色婷婷av一区二区三区视频| 女人高潮潮喷娇喘18禁视频| 一级毛片 在线播放| 熟妇人妻不卡中文字幕| 国产极品粉嫩免费观看在线| 国产爽快片一区二区三区| 国产熟女午夜一区二区三区| 黄色 视频免费看| 91国产中文字幕| 久久久久国产精品人妻一区二区| 老鸭窝网址在线观看| 国产老妇伦熟女老妇高清| 肉色欧美久久久久久久蜜桃| 又黄又粗又硬又大视频| 黄频高清免费视频| 欧美人与性动交α欧美软件| 国产免费福利视频在线观看| 国产片特级美女逼逼视频| 肉色欧美久久久久久久蜜桃| 久久精品亚洲熟妇少妇任你| 国产福利在线免费观看视频| 热re99久久国产66热| 亚洲精华国产精华液的使用体验| 精品一区二区免费观看| 女性被躁到高潮视频| 女人久久www免费人成看片| 啦啦啦中文免费视频观看日本| 人妻一区二区av| 成人18禁高潮啪啪吃奶动态图| 考比视频在线观看| 制服人妻中文乱码| 欧美激情 高清一区二区三区| 亚洲精品国产色婷婷电影| 一区福利在线观看| 国产片内射在线| 另类亚洲欧美激情| 久久久久人妻精品一区果冻| 国产成人一区二区在线| av天堂久久9| 热99久久久久精品小说推荐| 丰满乱子伦码专区| 亚洲,欧美精品.| av一本久久久久| 另类亚洲欧美激情| 国产精品女同一区二区软件| 亚洲精品美女久久av网站| 久久99热这里只频精品6学生| 99re6热这里在线精品视频| 观看美女的网站| 亚洲成av片中文字幕在线观看| 久久综合国产亚洲精品| 亚洲精品美女久久av网站| 久久精品久久精品一区二区三区| 日韩,欧美,国产一区二区三区| 欧美日韩视频高清一区二区三区二| 一本一本久久a久久精品综合妖精| 国产一区二区 视频在线| 欧美老熟妇乱子伦牲交| 免费久久久久久久精品成人欧美视频| 赤兔流量卡办理| 精品一区在线观看国产| 另类亚洲欧美激情| 欧美日韩视频高清一区二区三区二| 欧美黑人欧美精品刺激| 日日摸夜夜添夜夜爱| 国产精品二区激情视频| 啦啦啦视频在线资源免费观看| 美女高潮到喷水免费观看| 91精品国产国语对白视频| 国产一区二区激情短视频 | 国产精品一区二区在线不卡| 免费在线观看完整版高清| 黑人欧美特级aaaaaa片| 国产探花极品一区二区| 国产1区2区3区精品| 熟女av电影| 91老司机精品| 日韩熟女老妇一区二区性免费视频| 嫩草影院入口| 你懂的网址亚洲精品在线观看| 亚洲欧美清纯卡通| av网站免费在线观看视频| 九色亚洲精品在线播放| 大香蕉久久成人网| 欧美亚洲日本最大视频资源| 亚洲欧美成人综合另类久久久| 亚洲精品一区蜜桃| 精品久久蜜臀av无| 秋霞伦理黄片| av天堂久久9| 黄片小视频在线播放| 我的亚洲天堂| 亚洲成色77777| 欧美乱码精品一区二区三区| 国产成人精品无人区| 欧美日韩av久久| 欧美xxⅹ黑人| 777久久人妻少妇嫩草av网站| 婷婷色麻豆天堂久久| 麻豆精品久久久久久蜜桃| 成人黄色视频免费在线看| 狠狠精品人妻久久久久久综合| 国产一区二区在线观看av| 国产亚洲av片在线观看秒播厂| 亚洲综合色网址| 少妇被粗大的猛进出69影院| 中国国产av一级| 久久久久精品人妻al黑| 欧美日韩国产mv在线观看视频| 亚洲第一区二区三区不卡| 久久精品亚洲熟妇少妇任你| 亚洲av中文av极速乱| 天堂俺去俺来也www色官网| 哪个播放器可以免费观看大片| 成年av动漫网址| 国产成人91sexporn| 欧美av亚洲av综合av国产av | 99国产精品免费福利视频| 黄色毛片三级朝国网站| 欧美日韩亚洲综合一区二区三区_| 久久久久网色| 电影成人av| 亚洲欧美激情在线| 国产国语露脸激情在线看| 伊人久久国产一区二区| 午夜久久久在线观看| 人妻一区二区av| 久久韩国三级中文字幕| 男女免费视频国产| 一边摸一边做爽爽视频免费| 久久精品久久久久久噜噜老黄| 男女边吃奶边做爰视频| 日韩一区二区视频免费看| 中文字幕最新亚洲高清| 伦理电影大哥的女人| 婷婷色综合www| 国产伦人伦偷精品视频| a 毛片基地| 精品一区二区三区av网在线观看 | svipshipincom国产片| 一本一本久久a久久精品综合妖精| 国产成人免费无遮挡视频| 欧美激情高清一区二区三区 | 又大又黄又爽视频免费| 欧美精品高潮呻吟av久久| 丰满乱子伦码专区| 久久久久精品人妻al黑| 婷婷色综合www| 1024视频免费在线观看| 18禁观看日本| 久久久国产一区二区| 亚洲,欧美精品.| 国产成人a∨麻豆精品| 制服丝袜香蕉在线| 啦啦啦啦在线视频资源| 亚洲免费av在线视频| 国产淫语在线视频| 久久精品久久精品一区二区三区| av.在线天堂| 韩国av在线不卡| 日本一区二区免费在线视频| 国产又爽黄色视频| 成人18禁高潮啪啪吃奶动态图| 九草在线视频观看| 久久韩国三级中文字幕| 久久久久久久久久久免费av| 啦啦啦在线免费观看视频4| 女人高潮潮喷娇喘18禁视频| 狠狠精品人妻久久久久久综合| 欧美人与性动交α欧美精品济南到| 久久久久久久大尺度免费视频| 免费观看a级毛片全部| 亚洲国产欧美日韩在线播放| 国产精品一国产av| 老汉色∧v一级毛片| 欧美日韩一级在线毛片| 妹子高潮喷水视频| 这个男人来自地球电影免费观看 | 国产欧美亚洲国产| 亚洲精品av麻豆狂野| 高清视频免费观看一区二区| 校园人妻丝袜中文字幕| 九草在线视频观看| 久久 成人 亚洲| 国产成人精品福利久久| 欧美日韩视频高清一区二区三区二| 久久久欧美国产精品| av天堂久久9| 亚洲,欧美精品.| 中文字幕色久视频| 久久人人97超碰香蕉20202| 少妇人妻久久综合中文| 免费黄频网站在线观看国产| 国产欧美日韩综合在线一区二区| 99热全是精品| 成人手机av| 青春草国产在线视频| 交换朋友夫妻互换小说| 亚洲精品国产区一区二| 亚洲国产欧美在线一区| 亚洲久久久国产精品| 老司机深夜福利视频在线观看 | 电影成人av| 午夜精品国产一区二区电影| 久久久国产一区二区| 看免费成人av毛片| 老司机在亚洲福利影院| 成人国产麻豆网| 久久久精品免费免费高清| 男男h啪啪无遮挡| 色精品久久人妻99蜜桃| 亚洲伊人色综图| 国产人伦9x9x在线观看| 老司机影院毛片| 日韩一区二区三区影片| 中国三级夫妇交换| 精品少妇黑人巨大在线播放| 国产老妇伦熟女老妇高清| 婷婷色综合大香蕉| 男女无遮挡免费网站观看| 亚洲,一卡二卡三卡| av网站免费在线观看视频| 熟妇人妻不卡中文字幕| 亚洲欧洲精品一区二区精品久久久 | 亚洲精品,欧美精品| 午夜福利视频在线观看免费| 观看美女的网站| 久久99一区二区三区| 中文字幕制服av| 欧美国产精品一级二级三级| 国产男女超爽视频在线观看| 一级黄片播放器| 国产成人免费观看mmmm| 欧美人与善性xxx| 在线 av 中文字幕| 美女主播在线视频| 精品一品国产午夜福利视频| 午夜日韩欧美国产| 又大又爽又粗| 少妇精品久久久久久久| 啦啦啦中文免费视频观看日本| 国产精品久久久久久人妻精品电影 | 十八禁人妻一区二区| 午夜福利视频在线观看免费| 日本av手机在线免费观看| 在线天堂最新版资源| 婷婷成人精品国产| 亚洲精品国产一区二区精华液| videosex国产| 亚洲欧美激情在线| 精品久久蜜臀av无| av有码第一页| 国产精品免费视频内射| 国产97色在线日韩免费| 男女床上黄色一级片免费看| 一边摸一边抽搐一进一出视频| 操出白浆在线播放| kizo精华| 热99国产精品久久久久久7| 亚洲美女黄色视频免费看| 老熟女久久久| 久久久国产一区二区| 国产亚洲av片在线观看秒播厂| 1024香蕉在线观看| 欧美久久黑人一区二区| 在线观看免费视频网站a站| 夫妻午夜视频| 亚洲成人免费av在线播放| 亚洲欧洲日产国产| 国产欧美亚洲国产| 中文字幕精品免费在线观看视频| 美女大奶头黄色视频| 少妇人妻精品综合一区二区| 色精品久久人妻99蜜桃| 亚洲欧美激情在线| 少妇人妻久久综合中文| av视频免费观看在线观看| 亚洲,一卡二卡三卡| 老司机影院毛片| 国产 精品1| 亚洲激情五月婷婷啪啪| 飞空精品影院首页| 亚洲综合色网址| 在线精品无人区一区二区三| 又黄又粗又硬又大视频| 色精品久久人妻99蜜桃| 亚洲国产成人一精品久久久| 各种免费的搞黄视频| 热99久久久久精品小说推荐| 国精品久久久久久国模美| 成人免费观看视频高清| 99九九在线精品视频| 欧美精品一区二区大全| 悠悠久久av| 亚洲综合色网址|