• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于Bloom Filter的云內(nèi)容路由優(yōu)化

      2013-04-25 02:18:06金逸超尹麗英
      電子科技 2013年11期
      關(guān)鍵詞:隊列時延路由

      俞 冶,金逸超,尹麗英

      (1.嘉興市廣播電視集團 總工程師辦公室,浙江 嘉興314001;2.南洋理工大學(xué),新加坡639798;3.西安郵電大學(xué) 經(jīng)濟管理學(xué)院,陜西 西安710121;4.西安電子科技大學(xué) 經(jīng)濟管理學(xué)院,陜西 西安710071)

      隨著全媒體時代的來臨,媒體內(nèi)容分發(fā)經(jīng)歷了從模擬到數(shù)字,從標(biāo)清到高清,從信息孤島到互聯(lián)互通的一系列重大革新。當(dāng)前,媒體業(yè)務(wù)系統(tǒng)的IT化程度越來越高,用戶對于媒體互聯(lián)互通業(yè)務(wù)需求的不斷增長以及國家三網(wǎng)融合戰(zhàn)略的高速推進(jìn),傳統(tǒng)廣電業(yè)務(wù)系統(tǒng)低效、響應(yīng)時間長、可擴展性差等問題也逐漸暴露出來。在此背景下,云計算技術(shù)與廣電業(yè)務(wù)系統(tǒng)的結(jié)合,媒體云已成為實現(xiàn)廣電媒體內(nèi)容的彈性部署、高效分發(fā)的必經(jīng)之路[1]。系統(tǒng)的建設(shè)目標(biāo)為,使媒體內(nèi)容的管理與分發(fā),能夠按需分配、靈活調(diào)整、高效運行。

      在構(gòu)建媒體云的過程中,如何進(jìn)一步改善用戶的響應(yīng)時延是必須考慮的因素。媒體內(nèi)容響應(yīng)時延的長短將直接決定終端用戶的體驗,并最終成為用戶是否認(rèn)可并購買媒體云服務(wù)的依據(jù)。本文以此為目標(biāo),考慮在廣電混合云環(huán)境下,提出利用全局Bloom Filter優(yōu)化媒體云網(wǎng)絡(luò)中的內(nèi)容路由。在此基礎(chǔ)上,提出兩種優(yōu)化路由設(shè)計,使得用戶的平均響應(yīng)時延得到有效下降。

      文中將從理論推導(dǎo)和仿真實驗兩方面,對所提出的方案進(jìn)行驗證。在理論上,采用Jackson排隊網(wǎng)絡(luò)對傳統(tǒng)以及優(yōu)化后的路由策略進(jìn)行系統(tǒng)建模。在仿真實驗中,使用OMNeT++[2]網(wǎng)絡(luò)仿真器對路由策略進(jìn)行仿真。其結(jié)論與仿真結(jié)果的一致性良好。

      1 基于全局Bloom Filter的路由設(shè)計

      1.1 廣電云內(nèi)容分發(fā)系統(tǒng)架構(gòu)

      典型的廣電音視頻云系統(tǒng)如圖1所示,主要包括位于省廣電總臺的廣電云數(shù)據(jù)中心,以及分散在各個地市縣的小型內(nèi)容分發(fā)節(jié)點構(gòu)成的內(nèi)容分發(fā)網(wǎng)絡(luò)。廣電云數(shù)據(jù)中心包含集群式的虛擬化主機群,以提供基于存儲區(qū)域網(wǎng)絡(luò)(SAN)的媒體數(shù)據(jù)海量存儲,以及強大的云計算資源用于媒資信息的高效與彈性管理。廣電內(nèi)容分發(fā)網(wǎng)絡(luò)則用來備份與存儲媒體內(nèi)容到靠近終端用戶的地市縣廣電分發(fā)節(jié)點[3],從而縮短媒體內(nèi)容與用戶間的距離,提升用戶體驗?;诖讼到y(tǒng)架構(gòu),位于不同地理位置區(qū)域的用戶均能得到一致的、低時延的、快速響應(yīng)的用戶媒體內(nèi)容服務(wù)。

      圖1 廣電云內(nèi)容分發(fā)系統(tǒng)架構(gòu)內(nèi)容分發(fā)

      基于現(xiàn)有的廣電云內(nèi)容分發(fā)系統(tǒng)架構(gòu),本文將研究如何通過改善內(nèi)容分發(fā)策略,從而進(jìn)一步減少用戶響應(yīng)時延,提升用戶體驗。并將首先分析廣電云內(nèi)容分發(fā)進(jìn)程的排隊網(wǎng)絡(luò)模型。在此基礎(chǔ)上,討論基于分布式哈希表(DHT)的傳統(tǒng)內(nèi)容路由策略,同時給出了兩種利用Bloom Filter的新型內(nèi)容路由策略。

      1.2 媒體云內(nèi)容分發(fā)隊列分析

      媒體云內(nèi)容分發(fā)過程主要涉及到4個不同功能的處理與執(zhí)行隊列如圖2所示,其中3個隊列路由隊列、檢索隊列以及響應(yīng)隊列,位于每個內(nèi)容分發(fā)節(jié)點上;此外,還有位于媒體云數(shù)據(jù)中心的內(nèi)容提取隊列。路由隊列主要負(fù)責(zé)將特定的用戶請求路由到特定的內(nèi)容分發(fā)節(jié)點,在基于DHT的內(nèi)容路由策略中,節(jié)點和內(nèi)容會被哈希到同一個數(shù)據(jù)空間,根據(jù)內(nèi)容和節(jié)點的哈希值匹配映射,每個節(jié)點將會服務(wù)特定范圍的內(nèi)容請求。本文用μij標(biāo)識為從內(nèi)容分發(fā)網(wǎng)絡(luò)入口節(jié)點i路由到負(fù)責(zé)該請求分發(fā)節(jié)點j的處理速率。當(dāng)內(nèi)容請求達(dá)到該節(jié)點時,檢索隊列則負(fù)責(zé)本地檢測所請求的內(nèi)容是否已被分發(fā)節(jié)點緩存。標(biāo)識μl為分發(fā)節(jié)點的內(nèi)容檢測速率。若請求內(nèi)容已被緩存,則請求直接進(jìn)入響應(yīng)隊列,以服務(wù)用戶請求。標(biāo)識μr為內(nèi)容分發(fā)節(jié)點的請求響應(yīng)速率。若請求內(nèi)容未被緩存,則分發(fā)節(jié)點將首先向后端數(shù)據(jù)中心請求提取數(shù)據(jù),該請求將進(jìn)入數(shù)據(jù)中心的內(nèi)容提取隊列,待分發(fā)節(jié)點得到該內(nèi)容后,再響應(yīng)用戶請求。標(biāo)識μo為數(shù)據(jù)中心的請求響應(yīng)速率。

      圖2 媒體云內(nèi)容分發(fā)網(wǎng)絡(luò)的排隊網(wǎng)絡(luò)模型

      1.3 傳統(tǒng)內(nèi)容分發(fā)路由策略

      基于所給出的排隊網(wǎng)絡(luò)模型,給出了傳統(tǒng)的線性內(nèi)容路由策略的數(shù)據(jù)流分析,如圖3所示。在該策略中,用戶請求首先以一定的速率λ到達(dá)距離最近的內(nèi)容分發(fā)節(jié)點。在完成路由后,節(jié)點進(jìn)行本地內(nèi)容檢測,并根據(jù)是否緩存當(dāng)前請求內(nèi)容的情況,決定是否需要從數(shù)據(jù)中心獲取請求內(nèi)容。若緩存(cache)命中,則直接返回請求內(nèi)容;否則緩存丟失,該節(jié)點將向數(shù)據(jù)中心獲取請求內(nèi)容。最終,指定節(jié)點才對用戶請求做出響應(yīng)。

      圖3 傳統(tǒng)線性內(nèi)容路由策略

      1.4 利用Bloom Filter優(yōu)化內(nèi)容路由策略

      1.4.1 基本思路

      從對傳統(tǒng)線性路由策略的分析中可發(fā)現(xiàn),由于入口節(jié)點并不知道用戶所請求的內(nèi)容是否已經(jīng)存在于內(nèi)容分發(fā)網(wǎng)絡(luò)中,因此,大部分時間將被消耗在內(nèi)容路由和內(nèi)容檢索的過程中。

      基于此判斷,本文提出利用一個由所有內(nèi)容分發(fā)節(jié)點共同維護(hù)的全局Bloom Filter[4]來標(biāo)識已經(jīng)緩存在網(wǎng)絡(luò)中的內(nèi)容信息,從而使得每個內(nèi)容分發(fā)節(jié)點都能夠了解整個網(wǎng)絡(luò)中內(nèi)容緩存的情況。這樣,在內(nèi)容沒有被緩存的情況下,內(nèi)容分發(fā)節(jié)點可直接將用戶請求告知數(shù)據(jù)中心,從而減少整個用戶響應(yīng)時延。即根據(jù)內(nèi)容獲取的方式不同,將提出兩種新型的內(nèi)容路由策略,并行式路由和直通式路由。

      1.4.2 并行式路由

      并行式路由策略的數(shù)據(jù)流分析如圖4所示。當(dāng)用戶請求在進(jìn)入第一個內(nèi)容分發(fā)節(jié)點時,即根據(jù)Bloom Filter的標(biāo)識,來判斷所請求的內(nèi)容是否已被緩存。若緩存命中,則按照與傳統(tǒng)路由相同的策略,依次進(jìn)入內(nèi)容路由隊列、內(nèi)容檢索隊列以及請求響應(yīng)隊列。若請求內(nèi)容沒有被緩存,則入口節(jié)點通過多播(Multicast)的方式,并行地將請求發(fā)送至特定的內(nèi)容分發(fā)節(jié)點以及后端數(shù)據(jù)中心。后端數(shù)據(jù)中心首先將該內(nèi)容發(fā)送至入口節(jié)點,并回復(fù)給用戶。然后通過路由找到該內(nèi)容的指定節(jié)點后,再將該緩存從入口節(jié)點移至本地。這樣,在緩存丟失的情況下,該策略提高了內(nèi)容路由、內(nèi)容檢索與內(nèi)容獲取的串行執(zhí)行效率,減少了用戶的響應(yīng)時延。

      圖4 并行式路由策略

      1.4.3 直通式路由

      直通式路由策略的數(shù)據(jù)流分析如圖5所示。同樣的,當(dāng)用戶請求在進(jìn)入第一個內(nèi)容分發(fā)節(jié)點時,首先根據(jù)Bloom Filter判斷內(nèi)容是否被緩存。若緩存命中,則依照相同的數(shù)據(jù)流策略。若緩存丟失,則一方面將請求路由到指定節(jié)點就行緩存;另一方面將請求直接重定向到數(shù)據(jù)中心,繞過內(nèi)容分發(fā)網(wǎng)絡(luò)直接由數(shù)據(jù)中心給用戶響應(yīng)。在緩存丟失的情況下,相比并行式路由,該策略進(jìn)一步減少了響應(yīng)請求隊列的處理時間。但該方案也有顯著的缺點,其同時將請求的內(nèi)容推送至用戶端和指定的內(nèi)容分發(fā)節(jié)點,這將使數(shù)據(jù)中心端的數(shù)據(jù)吞吐量增加一倍。

      圖5 直通式路由策略

      2 內(nèi)容路由策略建模分析

      2.1 系統(tǒng)假設(shè)

      為了對本文所提出的路由策略進(jìn)行理論建模,文中給出一系列系統(tǒng)假設(shè):(1)在內(nèi)容分發(fā)網(wǎng)絡(luò)中,本文只考慮隊列處理時延,而忽略數(shù)據(jù)傳輸時延與傳播時延。事實上,在網(wǎng)絡(luò)系統(tǒng)中,相比較大的隊列處理時延,數(shù)據(jù)的傳輸時延與傳播時延較小,故可忽略不計。(2)根據(jù)文獻(xiàn)[5]對大規(guī)模媒體系統(tǒng)的分析,用戶的請求模型基本符合泊松過程[6]。本文假設(shè)進(jìn)入到每個內(nèi)容分發(fā)節(jié)點的用戶請求均符合泊松過程,并標(biāo)識λci為以內(nèi)容分發(fā)節(jié)點i為入口請求內(nèi)容為c的用戶請求速率期望。(3)假設(shè)每個隊列的處理速率服從指數(shù)分布,且所有分發(fā)節(jié)點的處理能力大致相同。這樣所有的服務(wù)隊列都能夠被建模成為M/M/1排隊模型。這些M/M/1隊列所組成的隊列流則可利用Jackson排隊網(wǎng)絡(luò)模型[7]進(jìn)行建模,從而得到這些策略下的平均用戶響應(yīng)時延的期望值。(4)假設(shè)內(nèi)容分發(fā)網(wǎng)絡(luò)中共有N個位于不同地點的內(nèi)容分發(fā)節(jié)點,內(nèi)容分發(fā)網(wǎng)絡(luò)中的節(jié)點i到節(jié)點j的網(wǎng)絡(luò)帶寬資源為Cij,內(nèi)容分發(fā)網(wǎng)絡(luò)到后端數(shù)據(jù)中心的網(wǎng)絡(luò)帶寬資源為Co。(5)根據(jù)已有文獻(xiàn)[8]對大規(guī)模網(wǎng)絡(luò)系統(tǒng)的分析,假設(shè)用戶請求媒體內(nèi)容的分布符合Zipf分布,即大量的用戶請求只針對小部分的媒體內(nèi)容。

      2.2 系統(tǒng)穩(wěn)定性

      在對路由策略進(jìn)行建模前,必須保證系統(tǒng)模型是穩(wěn)定的,否則得到的用戶響應(yīng)時延將趨向于無窮大。具體來說,為了保證系統(tǒng)穩(wěn)定,則在任意時間段內(nèi),每個隊列的長度必須是有限的,且網(wǎng)絡(luò)傳輸量不能超過網(wǎng)絡(luò)帶寬資源。

      首先考慮各個內(nèi)容分發(fā)節(jié)點的穩(wěn)定性。內(nèi)容分發(fā)節(jié)點之間通過信息交互,完成內(nèi)容路由功能。因此,內(nèi)容路由的速率必須大于用戶請求的速率。此外用戶請求的速率也不能大于節(jié)點間的網(wǎng)絡(luò)帶寬。即式(1)必須被滿足來保證內(nèi)容分發(fā)節(jié)點的穩(wěn)定性。

      此外,后端數(shù)據(jù)中心的穩(wěn)定性也必須得到保證。由于只有在內(nèi)容分發(fā)網(wǎng)絡(luò)緩存丟失的情況下,才會產(chǎn)生到數(shù)據(jù)中心的請求,所以到達(dá)數(shù)據(jù)中心的用戶速率取決于內(nèi)容是否已被緩存。標(biāo)識pc為內(nèi)容c是否被緩存,若已被緩存則pc=1,否則pc=0。這樣,到達(dá)數(shù)據(jù)中心的請求速率表示為。同樣,該速率不能超過數(shù)據(jù)中心的處理速率以及其帶寬資源。

      2.3 平均響應(yīng)時延

      在保證系統(tǒng)穩(wěn)定性的前提下,對上文中的3種路由策略所產(chǎn)生的平均響應(yīng)時延進(jìn)行理論分析。

      2.3.1 傳統(tǒng)內(nèi)容路由

      根據(jù)數(shù)據(jù)流分析,可以得到各個隊列上的請求到達(dá)速率如式(3)

      其中,λ1,λ2,λ3,λ4分別為內(nèi)容路由隊列、內(nèi)容檢索隊列、內(nèi)容提取隊列以及請求響應(yīng)隊列的處理速率;λ為總用戶請求速率;β為真實緩存丟失率。

      通過Jackson網(wǎng)絡(luò)模型,能夠得到各個隊列上的平均處理時延的期望。式(4)首先給出了內(nèi)容路由隊列的平均時延期望

      其中,N為內(nèi)容分發(fā)節(jié)點數(shù),「log2N?是基于DHT結(jié)構(gòu)的路由策略所要經(jīng)過節(jié)點的期望值;后一項則為每個內(nèi)容分發(fā)節(jié)點上處理時延的期望值。

      式(5)給出了傳統(tǒng)路由策略下,內(nèi)容檢索隊列的處理時延期望

      其中,μl為分發(fā)節(jié)點的內(nèi)容檢測速率。

      式(6)給出了傳統(tǒng)路由策略下,內(nèi)容提取隊列的處理時延期望

      其中,μo為數(shù)據(jù)中心的請求響應(yīng)速率。

      式(7)則給出了傳統(tǒng)路由策略下,請求響應(yīng)隊列的處理時延期望

      其中,μr為內(nèi)容分發(fā)節(jié)點的請求響應(yīng)速率。

      基于4個隊列上的處理時延期望,可得到傳統(tǒng)策略的總用戶平均響應(yīng)時延Rt,如式(8)

      2.3.2 并行式路由

      采用同樣的方式,依照并行式路由數(shù)據(jù)流模型,對并行式路由進(jìn)行理論分析,各個隊列上的請求到達(dá)速率如下

      其中,α'=α+fp-fn為系統(tǒng)判斷緩存命中的概率;α為真實緩存命中率;fp為引入Bloom Filter所產(chǎn)生的偽命中率;fn為同步全局Bloom Filter時,在兩次同步之間所產(chǎn)生的偽丟失率。fp和fn的理論分析將在下文給出。同樣,β'=1-α-fp+fn為系統(tǒng)判斷緩存丟失的概率。

      在并行式路由策略中,各個隊列的處理時延如式(10)~式(13)所示

      由此,可得到并行式路由策略下的平均用戶時延Rp

      2.3.3 直通式路由

      在直通式路由策略下,各個隊列上的請求到達(dá)速率如下

      可以發(fā)現(xiàn),λ1,λ2,λ3的表達(dá)式與并行式完全相同,因而直通式路由策略中的前3個隊列的處理時延也與并行式路由相同。直通式策略的不同點在于,在內(nèi)容響應(yīng)隊列上,緩存丟失情況下的用戶請求已經(jīng)直接由數(shù)據(jù)中心給予響應(yīng),因此其請求到達(dá)速率將會相應(yīng)減小為λ4=(α'-fp)λ。這樣可得到直通式路由策略下的平均用戶時延Rc如式

      3 內(nèi)容路由策略仿真分析

      3.1 仿真環(huán)境與參數(shù)設(shè)置

      本文利用OMNet++對廣電云內(nèi)容分發(fā)網(wǎng)絡(luò)進(jìn)行了仿真。仿真實驗設(shè)置共N=50個同構(gòu)的位于不同地理位置的內(nèi)容分發(fā)節(jié)點,這些節(jié)點按照DHT環(huán)的方式基于Chord協(xié)議[9]進(jìn)行協(xié)同工作。所有內(nèi)容分發(fā)節(jié)點的存儲空間為數(shù)據(jù)中心保存的總媒體內(nèi)容的2%。分發(fā)網(wǎng)絡(luò)的緩存替換策略采用最近最少使用(LRU)。實驗采用GT-ITM[10]來生成真實的Internet網(wǎng)絡(luò)拓?fù)淠P停琓ransit-Stub模型。本實驗只考慮一個媒體云數(shù)據(jù)中心,其中存有50 000個不同的媒體內(nèi)容,其總大小約為5 GB。每個內(nèi)容分發(fā)節(jié)點的處理速率為600個請求/秒,而數(shù)據(jù)中心的處理速率為1 200個請求/秒。本文假設(shè)用戶請求數(shù)據(jù)包的大小為60 Byte(即Sr=60 Byte)。此外,還設(shè)定每個分發(fā)節(jié)點的帶寬限制為100 MB/s,數(shù)據(jù)中心端的帶寬限制與之相同。

      實驗同時也設(shè)置了100個位于不同區(qū)域的用戶群,總請求速率符合泊松過程,其期望值為100個請求/秒。這些用戶通過Zipf分布生成,其分布參數(shù)為γ=0.79。在此設(shè)置下,式(1)和式(2)得以滿足,從而保證了系統(tǒng)的穩(wěn)定性。

      對于Bloom Filter的設(shè)置,本實驗為每個內(nèi)容的URL生成一個128位的MD5簽名[11],并將改簽名順序分為4個32位的Byte,每個Byte的模即為對應(yīng)的哈希值。因每個節(jié)點大致需要緩存1 000個不同的媒體內(nèi)容,因此每個節(jié)點負(fù)責(zé)的Bloom Filter的大小可設(shè)置為5 kB,而總的全局Bloom Filter即為250 kB。此外,采用Delta壓縮方式,對Bloom Filter和同步數(shù)據(jù)進(jìn)行壓縮,使得網(wǎng)絡(luò)數(shù)據(jù)傳輸量可減少約20%。仿真實驗將考慮兩種同步機制,定時同步和事件觸發(fā)同步。

      3.2 平均響應(yīng)時延

      在此試驗中,模擬了兩種數(shù)據(jù)量環(huán)境。一種是低網(wǎng)絡(luò)流量場景,即內(nèi)容訪問量和內(nèi)容大小成反比,最小的媒體內(nèi)容擁有最多的訪問量;另一種是大網(wǎng)絡(luò)流量場景,即內(nèi)容訪問量與內(nèi)容大小成正比,最大的媒體內(nèi)容擁有最多的訪問量。本實驗采用基于事件的同步方式,同步周期設(shè)置為每個內(nèi)容分發(fā)節(jié)點每服務(wù)400個請求進(jìn)行一次同步。通過設(shè)定Bloom Filter的初始狀態(tài),控制不同的緩存命中率,從而考察這些命中率下,用戶的平均響應(yīng)時延。該仿真持續(xù)了1 000 s。

      圖6給出了不同網(wǎng)絡(luò)環(huán)境和3種路由策略,用戶平均響應(yīng)時延與緩存命中率的關(guān)系。其中獨立的點為實驗仿真結(jié)果,而連續(xù)的線則為根據(jù)式(8)、式(14)和式(16),所得到的理論結(jié)果。由此可以發(fā)現(xiàn),實驗仿真結(jié)果與理論推導(dǎo)結(jié)果一致性良好。

      圖6(a)給出了低網(wǎng)絡(luò)流量場景下的實驗結(jié)果。其中根據(jù)仿真實驗的設(shè)置,理論推導(dǎo)的參數(shù)設(shè)置如下,λ=100 req/s,μt=300 req/s,μl=500 req/s,μo=1 200 req/s,μr=60 req/s??砂l(fā)現(xiàn),在所有的緩存命中率下,直通式路由策略下的用戶平均時延總是最小,而傳統(tǒng)線性策略所產(chǎn)生的用戶平均時延總是最大。在緩存命中率在0~100%變化時,當(dāng)緩存命中率為0時,并行路由與直通式路由所降低的用戶時延最多。其中并行式路由則降低了23.6%的用戶響應(yīng)時延,而直通式路由降低了65.2%的響應(yīng)時延。隨著緩存命中率的上升,3種路由策略下的平均用戶響應(yīng)時延逐漸變得一致。這是由于,在緩存命中的情況下,3種路由策略的數(shù)據(jù)流模型均是一致的。當(dāng)緩存命中率為100%時,3種路由策略取得了完全一致的用戶響應(yīng)時延。

      從圖6(a)中,還有一個有趣的現(xiàn)象,隨著緩存命中率的上升,傳統(tǒng)路由與并行式路由所產(chǎn)生的用戶響應(yīng)時延均逐漸變小,而直通式路由產(chǎn)生的響應(yīng)時延則逐漸變大。該現(xiàn)象說明只要數(shù)據(jù)中心端沒有產(chǎn)生網(wǎng)絡(luò)擁塞,將緩存丟失的用戶請求直接重定向到數(shù)據(jù)中心可有效降低用戶響應(yīng)時延。

      圖6(b)給出了大網(wǎng)絡(luò)流量場景下的實驗結(jié)果。其中根據(jù)仿真實驗的設(shè)置,理論推導(dǎo)的參數(shù)設(shè)置如下μt=100 req/s,μl=500 req/s,μo=260 req/s,μr=8 req/s。在該仿真設(shè)置中,相比傳統(tǒng)路由策略,并行式路由仍能夠在所有的緩存命中率下,一定程度的降低平均用戶響應(yīng)時延。而直通式路由在緩存命中率低于30%時,則會引發(fā)網(wǎng)絡(luò)擁塞,從而導(dǎo)致響應(yīng)時延甚至高過傳統(tǒng)式路由。但當(dāng)緩存命中率高于40%時,網(wǎng)絡(luò)擁塞現(xiàn)象消失,其產(chǎn)生的用戶響應(yīng)時延重新變?yōu)?種策略中的最小值。通過該現(xiàn)象的啟發(fā)將在下一步的工作中,提出一種基于文中3種內(nèi)容路由策略的自適應(yīng)路由方法。當(dāng)不會產(chǎn)生網(wǎng)絡(luò)擁塞時,采用直通式路由,而當(dāng)數(shù)據(jù)量變大時,則采用并行式路由來降低用戶響應(yīng)時延。

      圖6 不同網(wǎng)絡(luò)環(huán)境下,用戶平均響應(yīng)時延與緩存命中率的關(guān)系

      4 結(jié)束語

      本文在媒體云日益成為下一代廣電網(wǎng)絡(luò)核心發(fā)展方向的背景下,研究了媒體云內(nèi)容分發(fā)網(wǎng)絡(luò)的路由策略,以進(jìn)一步減少用戶響應(yīng)時延。在分析現(xiàn)有廣電云系統(tǒng)架構(gòu)以及內(nèi)容分發(fā)網(wǎng)絡(luò)特性的基礎(chǔ)上,提出利用全局Bloom Filter優(yōu)化媒體云網(wǎng)絡(luò)中的內(nèi)容路由,并通過兩種優(yōu)化的路由設(shè)計,使得用戶的平均響應(yīng)時延得到有效下降。此外采用Jackson排隊網(wǎng)絡(luò)模型對傳統(tǒng)的線性路由以及所提出的兩種路由策略進(jìn)行理論建模和數(shù)學(xué)分析,給出了平均用戶響應(yīng)時延的理論結(jié)果。同時使用OMNeT++網(wǎng)絡(luò)仿真器對媒體云內(nèi)容分發(fā)系統(tǒng)進(jìn)行了仿真,其仿真結(jié)果與理論結(jié)論均表現(xiàn)出良好的一致性。結(jié)果顯示,優(yōu)化后的路由策略,在不同的場景下,最多能夠節(jié)省65.2%的平均響應(yīng)時延。文中對廣電云內(nèi)容分發(fā)網(wǎng)絡(luò)中的內(nèi)容路由策略進(jìn)行了完整與全面的研究,所提出的新型路由策略將有利于媒體云網(wǎng)絡(luò)的構(gòu)建與優(yōu)化。

      [1] 盧群,姚永暉.云計算及廣電應(yīng)用需求探析[J].廣播與電視技術(shù),2010(10):44-53.

      [2]VARGA A.OMNeT++[EB/OL].(2007-01-05)[2013-04-06]http://www.hit.bme.hu/phd/vargaa/omnetpp.htm

      [3]VENKATA N P,WANG H J,PHILIP A,et al.Distributing streaming media content using cooperative networking[C].Proceedings of the 12th International Workshop on Network and Operating Systems Support for Digital Audio And Video,2002.

      [4]BLOOM B H.Space/time tradeoffs in hash coding with allowable errors[J].Communications of the ACM,1970(13):422-426.

      [5]H YU,ZHENG D,ZHAO B Y,et al.Understanding user behavior in large-scale video-on-demand systems[C].In Proceedings of ACM Eurosys,2006.

      [6]ARLITT M F,WILLIAMSON C L.Internet web servers:workload characterization and performance implications[J].IEEE/ACM Transactions on Networking,1997(5):631-645.

      [7]JACKSON J R.Jobshop-like queueing systems[J].Management Science,1963(10):131-142.

      [8]BRESLAU L,CAO P,F(xiàn)AN L,et al,Web caching and zipflike distributions:evidence and implications[C].Hangzhou:IEEE Infocom,1999.

      [9]ION S,ROBERT M,DAVID L N,et al.Chord:A scalable peer-to-peer lookup protocol for internet applications[J].Beijing:IEEE/ACM Transactions on Networking,2003(11):17-32.

      [10]ZEGURA E,CALVERT K,BHATTACHARJEE S.How to model an internetwork[C].IEEE Infocom,1996.

      [11]RIVEST R L.The md5 message digest algorithm[R].MA USA:Request for Comments(RFC)1321,1992.

      猜你喜歡
      隊列時延路由
      隊列里的小秘密
      基于多隊列切換的SDN擁塞控制*
      軟件(2020年3期)2020-04-20 00:58:44
      基于GCC-nearest時延估計的室內(nèi)聲源定位
      電子制作(2019年23期)2019-02-23 13:21:12
      在隊列里
      基于改進(jìn)二次相關(guān)算法的TDOA時延估計
      探究路由與環(huán)路的問題
      豐田加速駛?cè)胱詣玉{駛隊列
      FRFT在水聲信道時延頻移聯(lián)合估計中的應(yīng)用
      基于分段CEEMD降噪的時延估計研究
      PRIME和G3-PLC路由機制對比
      临海市| 宜州市| 内丘县| 丁青县| 米脂县| 望奎县| 越西县| 高清| 运城市| 志丹县| 锡林郭勒盟| 安溪县| 蒲城县| 阳朔县| 镇宁| 滁州市| 江北区| 诸城市| 阆中市| 灌南县| 桂东县| 元江| 营口市| 昭平县| 夏津县| 海南省| 黎城县| 广元市| 朔州市| 青州市| 靖远县| 高平市| 三穗县| 镇原县| 峨眉山市| 万源市| 宝兴县| 秀山| 曲麻莱县| 丹巴县| 新建县|