張超 李可 范平志
摘 要:針對無線移動設備數(shù)量的指數(shù)增長使得異構協(xié)作小小區(qū)(SBS)將承載大規(guī)模的流量負載問題,提出了一種基于協(xié)作SBS與流行度預測的在線熱點視頻緩存更新方案(OVCRP)。首先,分析在線熱點視頻的流行度在短期內變化情況;然后,構建k近鄰模型進行在線熱點視頻流行度的預測;最后,確定在線熱點視頻的緩存更新位置。為了選擇合適的位置存放在線熱點視頻,以最小化總體傳輸時延為目標,建立數(shù)學模型,設計整數(shù)規(guī)劃優(yōu)化算法。仿真實驗結果顯示,與隨機緩存(RANDOM)、最近最少使用(LRU)、最不經常使用(LFU)方案相比,OVCRP在平均緩存命中率和平均訪問時延方面具有明顯的優(yōu)勢,因此減輕了協(xié)作SBS的網(wǎng)絡負擔。
關鍵詞:異構網(wǎng)絡;在線熱點視頻;k近鄰模型;流行度預測;緩存更新
Abstract: The exponential growth in the number of wireless mobile devices leads that heterogeneous cooperative Small Base Stations (SBS) carry large-scale traffic load. Aiming at this problem, an Online-hot Video Cache Replacement Policy (OVCRP) based on cooperative SBS and popularity prediction was proposed. Firstly, the changes of popularity in short term of online-hot videos were analyzed, then a k-nearest neighbor model was constructed to predict the popularities of the online-hot videos, and finally the locations for cache replacement of online-hot videos were determined. In order to select appropriate locations to cache the online-hot videos, with minimization of overall transmission delay as the goal, a mathematical model was built and an integer programming optimization algorithm was designed. The simulation experiment results show that compared with the schemes such as RANDOM cache (RANDOM), Least Recently Used (LRU) and Least Frequently Used (LFU), the proposed OVCRP has obvious advantages in average cache hit rate and average access delay, reducing the network burden of cooperative SBS.
Key words: heterogeneous network; online-hot video; k-Nearest Neighbor (kNN) model; popularity prediction; cache replacement
公式有遺漏,需仔細核對。
0 引言
蜂窩網(wǎng)絡中的數(shù)據(jù)流量正呈現(xiàn)指數(shù)級的增長。根據(jù)思科CISCO(2016—2021)白皮書,到2021年全球移動數(shù)據(jù)流量每月將達到49EB,98%的移動數(shù)據(jù)流量都來自智能移動終端,78%的移動數(shù)據(jù)都是多媒體視頻數(shù)據(jù)[1]。為了應對5G通信網(wǎng)絡的數(shù)據(jù)流量需求而提出了一種新型的異構小小區(qū)的網(wǎng)絡架構。該網(wǎng)絡可以通過部署更多的離用戶更近的微基站來增加網(wǎng)絡容量。邊緣緩存技術應用到異構小小區(qū)網(wǎng)絡可以進一步減輕異構小小區(qū)網(wǎng)絡的傳輸壓力[2]。通過在小小區(qū)存放高流行度的內容,既減輕了回程鏈路的壓力,又減少了數(shù)據(jù)傳輸時延[3]。
緩存高流行度的內容可以提高緩存命中率。傳統(tǒng)的緩存更新方案以清除長期請求量比較少的內容來為高流行度的內容提供緩存空間[4]。例如,最近最少使用(Least Recently Used, LRU)和最不經常使用(Least Frequently Used, LFU)緩存更新算法都假設過去比較流行的內容在未來還會比較流行。對于相對穩(wěn)定的靜態(tài)內容,這些方案有比較高的緩存命中率,但是對于在線視頻,緩存命中率并不是很高,因為在線視頻是動態(tài)的且流行度急劇變化[5]。
文獻[6]基于內容傳輸網(wǎng)絡提出了一種多層緩存更新方案。在首層的緩存設備里,緩存的內容具有最高的流行度,并且緩存內容的流行度逐層遞減。每當一個新的內容被請求時,都會觸發(fā)緩存更新機制,對新內容進行緩存,并將最低層的最低流行度的內容清除出去。對于新緩存的內容,如果它的流行度過低的話,可能會占據(jù)緩存資源,增加網(wǎng)絡負擔。
基于Femtocell網(wǎng)絡模型,文獻[7]中提出了一種基于內容流行度的緩存更新方案,以高流行度的內容代替低流行度的內容。文中內容流行度的計算是基于用戶訪問頻率的,頻率越高流行度就高,類似于LFU的緩存更新策略。該方案只能“捕獲”長期流行的內容,不能夠準確分析短期內容的流行度。
來自西班牙的研究團隊對YouTube網(wǎng)站6天內產生SCI(Science)類別252255個視頻的累計觀看次數(shù)進行了考察,給出其中100個視頻累積觀看次數(shù)的降序排列圖,其中發(fā)現(xiàn)將近80%的累積觀看次數(shù)集中于10%的視頻內容[8]。在此,他們還對UGC(User Generated Content)視頻的流行度隨著時間的變化情況作了統(tǒng)計分析,發(fā)現(xiàn)一大部分新近產生的UGC視頻的流行度急劇變化,展現(xiàn)出其生存活躍時間較為短暫。
基于上述分析,本文認為,一方面需要從大量的視頻數(shù)據(jù)中快速找出高流行度的在線視頻內容;另一方面需要選擇合適的節(jié)點來存放高流行度的在線視頻來滿足大多數(shù)用戶需求,因此,本文提出了一種基于協(xié)作小小區(qū)和流行度預測的緩存更新方案(Online-hot Video Cache Replacement Policy, OVCRP)。
本文首先爬取嗶哩嗶哩(bilibili)視頻網(wǎng)站的在線視頻觀看量的數(shù)據(jù),分析了在線視頻的觀看量的變化情況和在線熱點視頻所占比重的狀況,然后,將在線視頻觀看量的數(shù)據(jù)集劃分為長度為11的時間序列數(shù)據(jù)集,構建k近鄰(k-Nearest Neighbors, kNN)模型進行流行度的預測。本文還分析了AP(Affinity Propagation)流行度預測的方案[9],并作了對比實驗。實驗結果顯示k近鄰模型整體的均方誤差較小,展現(xiàn)出良好的預測性能。最后,本文以最小化總體傳輸時延為優(yōu)化目標,建立數(shù)學模型,設計整數(shù)規(guī)劃優(yōu)化算法。該優(yōu)化算法可以求解具有大規(guī)模節(jié)點的目標問題,它具有求解速度快的特性。仿真結果顯示,OVCRP和隨機緩存(RANDOM cache, RANDOM)、LRU、LFU相比,具有較高的平均緩存命中率和較低的平均訪問時延。
1 在線視頻數(shù)據(jù)收集和流行度分析
嗶哩嗶哩(bilibili)作為國內最大的在線視頻服務網(wǎng)站之一,它每天服務的同時在線的用戶超過300萬,而且每天新上傳的在線視頻超過6萬。在線視頻的更新頻率是非常快的,并且它的流行度很難預測。最近研究顯示,大約20%在線視頻的流行度已不再顯示漸進的增長,而是展現(xiàn)出急劇的變化[5]。本文稱具有這種特性的在線視頻為在線熱點視頻。
現(xiàn)有文獻對在線視頻流行度的分析與預測存在一些缺陷。Chen等[10]通過對視頻播放量的靜態(tài)觀察研究視頻流行度。靜態(tài)視頻流行度一般指一段時間內視頻觀看的次數(shù)。為了提高靜態(tài)視頻流行度的預測精度和可靠性,Chen等[10]假設對視頻觀看次數(shù)的觀察周期都比較長(例如以天或周為觀察周期)。針對不同的視頻類型和觀測周期,結果發(fā)現(xiàn)它們服從Zipf分布、Power-Law分布、指數(shù)分布。然而,在線視頻的特性具有短期性、流行度動態(tài)性。上述分布并不能準確捕獲在線視頻的流行度,因此本文提出以時為測量單位進行視頻流行度的分析。
1.1 在線視頻的數(shù)據(jù)收集
Bilibili網(wǎng)站提供不同類型的視頻服務,包括動畫、娛樂、影視、游戲、生活等。本文選取上述5種較流行的服務類型的視頻作為研究對象,它們的觀看量超過了每天觀看總量的一半。程序設定每30min爬取每種類型的視頻10000個,并且只爬取在線視頻的觀看量。
1.2 流行度分析
本文收集2018-03-19—2018-04-19這一個月的在線視頻數(shù)據(jù)并定義在線視頻的流行度為30min內在線視頻的觀看量。
圖1展示了ID為4341186的在線視頻在3月23日一天內的流行度的變化情況。圖中的點代表30min內該視頻的觀看量。從圖1中看出,該視頻的觀看量在某段時間內具有急劇變化的狀況,因此稱這樣的視頻為在線熱點視頻。
圖2顯示在線熱點視頻所占的比重在3月22日—3月23日的變化情況。比重定義為半小時內觀看量高于指定閾值的在線視頻的數(shù)量與總的視頻數(shù)量之比。圖2設置了5個不同的閾值,閾值定義為在線視頻觀看量的界限,觀看量高于閾值的為在線熱點視頻。閾值為1000時,在線熱點視頻的比重最高大約為34%;閾值為2500時,在線熱點視頻的比重最高大約為23%;閾值為5000時,在線熱點視頻的比重最高大約為17%;閾值為7500時,在線熱點視頻的比重最高大約為13%;閾值為10000時,在線熱點視頻的比重最高大約為10%。圖2顯示,不同閾值的曲線大致上具有相同的變化趨勢,并且在這2天內,在線熱點視頻的比重變化狀況大致一樣。
圖3展示了閾值為2500時,在線熱點視頻的平均比重在一周內的變化情況。該圖展示的比重為當天在線熱點視頻的比重的平均值。在線熱點視頻的平均比重最高大約為20%,且發(fā)生在周六和周日;比重最低大約為16%。
圖4分析了500個在線視頻在一天內的流行度分布情況。從圖4中可以得出,大約20%的在線視頻占據(jù)總觀看量的80%,因此,本文設置流行度的閾值為2500,對于觀看量大于閾值的在線視頻視為在線熱點視頻。
2 運用k近鄰模型進行流行度預測
Ahmed等[9]并沒有考慮太多的假設來預測視頻內容的流行度,而僅僅考慮了視頻內容的觀看次數(shù)。Ahmed等通過2個步驟進行視頻內容流行度的預測:第一步,通過分析內容隨時間的不同行為進行分類,以揭示流行度變化的不同模式;第二步,基于步驟一產生的分類結果,靠追蹤視頻內容流行度隨著時間所展現(xiàn)的不同變化行為來預測內容未來的流行度。
在第一步中,采用AP(Affinity Propagation)聚類算法劃分內容的類別。AP算法的基本思想是將全部樣本看作網(wǎng)絡的節(jié)點,然后通過網(wǎng)絡中各條邊的消息傳遞計算出各樣本的聚類中心。聚類過程中,共有兩種消息在各節(jié)點間傳遞,分別是吸引度(responsibility)和歸屬度(availability)。AP算法通過迭代過程不斷更新每一個點的吸引度和歸屬度值,直到產生n個高質量的質心(Exemplar),同時將其余的數(shù)據(jù)點分配到相應的聚類中心。AP算法之后會得到聚類中心集合M,M={M1,M2,…,MW},其中W為時間窗口。在每一個時間窗口Mi∈W={m1,m2,…,mn},其中mi為質心,i∈{1,2,…,n}。
在第二步中,在集合M上構建概率模型進行視頻內容流行度的預測。內容在每一個時間窗口都歸屬于一個類,隨著時間的演變,會展現(xiàn)出一條路徑(由每一個時間窗口的類別構成)。被給給定此句不太通順長度為L的一條路徑(p={m1j,m2j,…,mLj}, j∈MW),依靠最大可能性概率P(mL+1j|p)可以計算下一時刻n+1時刻內容的流行度m*,如式(1)所示:
然而,本文對視頻內容不再劃分類別,直接根據(jù)內容的實際歷史數(shù)據(jù)進行流行度的預測。本文利用k近鄰回歸模型的“平均法”預測在線視頻流行度[11]。k近鄰模型產生的結果具有較強的一致性。首先,將收集的數(shù)據(jù)截斷為序列長度為11的數(shù)據(jù)集,選取序列的前10個元素為樣本實例,最后1個元素為對應的樣本標簽。k近鄰回歸算法1如下,其中i為實例序列,i為對應的實例標簽,這里k=11。具體算法1流程如下。
算法1 k近鄰回歸預測內容流行度算法。
輸入:視頻樣本訓練集T={(1,1),(2,2),…,(N,N)},N為樣本數(shù),序列實例;
輸出:序列實例對應的預測值pre。
1)根據(jù)給定的距離度量(歐氏距離),在視頻訓練集T中找出與實例最近的k個實例樣本,并令這k個實例樣本的集合為Nk();
2)在集合Nk()中,根據(jù)平均法決定所對應的預測值pre并輸出,其中pre=1k∑xi∈Nk()yi,i∈[1,k]。
下面,本文進行實驗來比較AP算法和k近鄰算法流行度預測的準確度。作為算法性能比較,本文采用均方誤差(Mean Square Error請補充MSE的英文全稱, MSE)指標。將預測結果產生的均方誤差進行比較,均方誤差小的算法性能比較好。本文依次對11~20采樣點時刻(時間窗口)的測試用例進行實驗,實驗結果如圖5所示。
在圖5中,縱坐標為均方誤差MSE,橫坐標為采樣點時刻(時間窗口)。實驗結果可以看出,kNN算法展現(xiàn)的結果曲線圖比較穩(wěn)定,而AP算法時好時壞,展現(xiàn)出相對不穩(wěn)定的狀態(tài)。從整體來看,kNN的整體均方誤差較小,具有較好的預測性能。
3 緩存更新模型建立與算法設計
3.1 基于整數(shù)規(guī)劃的緩存更新模型建立
協(xié)作小小區(qū)網(wǎng)絡如圖6所示。大量的微基站(Small Base Station, SBS)被一個宏基站(Macro Base Station, MBS)所服務。SBS直接連接MBS,MBS可以直接或通過SBS的重傳為用戶服務,而且,相鄰SBS通過無線或有線連接協(xié)作地交換信令或傳輸數(shù)據(jù)。由于網(wǎng)絡異構性,MBS的傳輸壓力很大程度上卸載到了SBS。本文定義由k近鄰模型預測得到的在線熱點視頻為content X。深色的圓柱體代表緩存content X的緩存設備。SBS之間通過協(xié)作性可以進行數(shù)據(jù)傳輸,并不需要大量的content X副本存在。由于限制了副本數(shù)量,不僅減少了存儲空間占用量,而且當內容不再流行時刪除副本所造成的開銷也會降低。本文考慮MBS保留一份content X的副本用來向合適的SBS上復制內容來緩解網(wǎng)絡壓力。
緩存更新的執(zhí)行周期對于網(wǎng)絡性能影響很大。周期太長會導致緩存命中率太低,周期太短又會產生大量開銷,因此,本文以數(shù)據(jù)采集的時間為緩存更新的執(zhí)行周期(即30min)。由于短時間內存在大量的用戶訪問在線熱點視頻,因此本文通過最小化content X緩存到其他SBS的時延開銷和用戶獲取content X的時延開銷之和執(zhí)行緩存更新方案。
本文令網(wǎng)絡中所有content X的集合為F,F(xiàn)={content1,content2,…,content j},其中content j表示第j個SBS存儲的content X。F包括FM(MBS存儲的content X)和FS(SBS存儲的content X)。V表示SBS和MBS的集合,V=VS∪VM={MBS,SBS1,SBS2,…,SBSv},其中VS表示SBS的集合,VM表示MBS的集合。定義τjv為content j緩存到SBSv的傳輸時延,τiv為SBSv向用戶i傳輸內容的傳輸時延。定義yjv為0、1變量,如果content j被緩存到SBSv,則yjv為1,反之為0;定義xiv也為0、1變量,如果SBSv向用戶i傳輸內容,則xiv為1,反之為0。為了便于敘述,本文定義MBS為SBS0,C為請求content X的用戶集合。
式(3)表示增加副本數(shù)量,但是會設定數(shù)量的上限N,以防止副本過多導致網(wǎng)絡性能下降;式(4)表示保證基站處有一個content X的副本;式(5)表示一個熱點content j只能緩存在一個SBS;式(6)表示一個用戶只和一個SBS進行通信;式(7)表示和用戶建立通信的SBS中必須存放用戶想要的content X。通過計算目標函數(shù)式(2)的最小值,便會得到第j個content X緩存的位置以及第i個用戶接入的訪問節(jié)點。
3.2 算法設計
本節(jié)主要對3.1節(jié)中建立的數(shù)學模型設計算法進行優(yōu)化求解[12]。首先將協(xié)作小小區(qū)網(wǎng)絡看成一個圖G,將MBS和SBS映射為圖里的點集V;將用戶映射到圖里的點集C;通信鏈路的連接狀態(tài)映射為圖里的邊(即x和y的值);content X的集合映射為圖里的設備集F;時延映射為圖中兩點之間的代價。通過4個步驟優(yōu)化求解,這4個步驟分別為:
3.2.1 近鄰用戶聚合
假設SBS的通信范圍較小,用戶的訪問時延相差不大,并且為了簡化算法,本文假設將一個SBS內的所有用戶聚合為一個用戶,并定義聚合后的用戶需求Di為聚合前SBS內的所有用戶數(shù)量。目標函數(shù)式(2)改為如下:
首先松弛約束條件式(8)、(9)為1≥xiv≥0和1≥yjv≥0,這樣整數(shù)規(guī)劃問題就成為線性規(guī)劃問題,便可以求得最優(yōu)分數(shù)解為(,)。本文從最優(yōu)分數(shù)解開始,逐漸優(yōu)化求整數(shù)解(x,y)。首先將最優(yōu)分數(shù)解(,)賦值給(x1,y1)。在圖G中,本文定義基點為MBS所代表的點,并定義sumBS為關于基點所有y值之和。由于基點保留一個content X副本,因此sumBS≥1并且為整數(shù)。如果sumBS>1,令S=sumBS-1。采取以下措施,在圖G中對基點進行分裂,分裂為S+1個同樣的基點。對于其中每一個基點,用戶連接它的狀態(tài)和用戶連接原來基點的狀態(tài)一樣。為了保證基點分配給位置v的y值不變,對于所有基點的y值,本文將此值定義為原來值的1/(S+1)倍。接下來,進行用戶需求的聚合。本文定義i=∑v∈Vxivτiv,并求得i,然后對i進行升序排序。假設1≤2≤…≤|C|,用戶需求聚合如算法2所示。
3.2.2 設備重新分配
首先,將解(x1,y1)賦值給(x2,y2)。對于xiv>0的位置v,并且位置v并沒有用戶需求,尋找離位置v最近的一個用戶i′,然后重新分配位置v的設備和被位置v服務的用戶到用戶i′。令A為位置v處最大x值與總的設備分數(shù)之和的商。將關于位置v的每一個y值的A倍分配給用戶i′的y值,剩下的1-A倍先保持不變。
對于用戶需求為0的位置v,但是關于位置v的y值不為0,需要將y值更正為0,采用如下方法yjj ← yjj+yjv,yjv=0。對于用戶i,若關于用戶i的y值之和大于1,需要將y值之和減小到1。根據(jù)文獻[12]的定理2.5,針對用戶i滿足xii≥1/2,∑i′∈Cxii′=1。也就是說:用戶i剩下的1-xii≤1/2被離用戶i最近的用戶i′(記為(i))所服務。下面使xii的值最大,最大為∑j∈Fyji。方法為:從(i)處獲取∑j∈Fyji-xii,并將獲取的這部分分配到用戶i的x值。設備重新分配偽代碼如算法3所示。
3.2.3 得到半整數(shù)解
將3.2.2節(jié)得到的解(x2,y2)賦值給(x3,y3)。在圖G中,本文定義位置v是半整數(shù)覆蓋的含義指的是∑j∈Fyjv∈{0,1/2,1}。本步驟的目標是使得xiv∈{0,1/2,1},yjv∈{0,1/2,1}。令v′=(v),為離位置v最近的位置v′。首先構建帶有權重的二分圖,圖的一邊是位置v,圖的另一邊是設備j,邊的權重是yjv,如圖7所示。
本文考慮7個SBS和100個內容,緩存在SBS中的在線熱點視頻的最大數(shù)量為4,視頻的流行度閾值為2500,用戶從本地SBS獲取內容的時延為0ms,用戶從附近SBS或MBS獲取內容的時延為20ms,用戶從遠端服務器獲取內容的時延為40ms,并且內容的流行度分布滿足圖4的分布。實驗設置在一個時間單元內產生80000次請求,共產生11組時間單元的內容請求。在前10組的請求數(shù)據(jù)中,運用RANDOM、LRU、LFU和OVCRP決定出最終緩存在SBS上的內容并在最后一組實驗數(shù)據(jù)上進行性能評估。因為流行度預測的時間序列為10,需要根據(jù)前10組請求數(shù)據(jù)產生出長度為10的時間序列。本次實驗使用兩個性能指標進行評估,平均緩存命中率和平均訪問時延。平均緩存命中率指的是命中SBS中緩存的總請求次數(shù)和所有用戶總的請求次數(shù)的比[7],如式(11):
平均緩存命中率=總緩存命中的次數(shù)所有用戶總請求次數(shù)(11)
平均訪問時延指的是所有用戶的訪問時延和總用戶數(shù)量的比[16],如式(12):
平均訪問時延=所有用戶的總訪問時延總用戶數(shù)量(12)
圖9(a)顯示了緩存容量對平均緩存命中率的影響,其中緩存容量為10~45。從圖9(a)中可以看出,隨著緩存容量的逐漸增大,各種方案的緩存命中率也隨著增加,但是,OVCRP的緩存命中率最高,其次是LFU,最后是LRU和RANDOM。OVCRP的緩存命中率要高于LFU約17.48%、高于LRU約35.26%、高于RANDOM約35.82%。LRU和RANDOM的緩存命中率大致一樣,這是由于LRU和RANDOM不能準確分析在線熱點視頻的流行度,然而OVCRP能精確分析出在線熱點視頻的流行度,并且考慮了SBS之間的協(xié)作性,因此展現(xiàn)出較高的緩存命中率。
圖9(b)顯示了緩存容量對平均訪問時延的影響,OVCRP具有最低的平均訪問時延,其次是LFU,最后是LRU和RANDOM策略。這是由于,OVCRP充分考慮了SBS之間的協(xié)作性,使得用戶可以訪問鄰近的SBS,省去了用戶訪問遠端服務器的過程,從而降低了用戶的訪問時延。從圖9中可以看出,平均緩存命中率和平均訪問時延呈現(xiàn)出相反的情況。平均緩存命中率越高,平均訪問時延就越小;平均緩存命中率越低,平均訪問時延就越大。
5 結語
通過分析在線視頻的流行度,本文提出了一種基于SBS協(xié)作和流行度預測的在線熱點視頻緩存更新策略。因為熱點內容具有短期爆發(fā)性、流行度高的特點,因此,本文將數(shù)據(jù)劃分成短序列樣本,通過構建k近鄰模型進行在線熱點視頻流行度的預測。由于短期內大量的用戶訪問在線熱點視頻,因此本文通過最小化總體時延構建整數(shù)規(guī)劃的數(shù)學模型;最后,通過設計圖算法求解。仿真實驗從平均緩存命中率和平均訪問時延兩個方面評估OVCRP,并將OVCRP和RANDOM、LRU和LFU傳統(tǒng)方案進行比較。實驗結果表明,從平均緩存命中率方面,OVCRP要高于LFU、LRU和RANDOM;在平均訪問時延方面,OVCRP展現(xiàn)出最低的平均訪問時延,具有良好的性能;但是本文并未考慮用戶位置的變化場景,接下來將結合用戶的移動性[17]進行異構協(xié)作小小區(qū)緩存更新方案的研究。
參考文獻 (References)
[1] CISCO. CISCO visual networking index: global mobile data traffic forecast update 2016—2021[EB/OL]. [2018-09-20]. http://www.cisco.com/c/en/us/solutions/collateral/serviceprovider/visual-networking-index-vni/mobile-white-paper-c11-520862.html.
[2] 吳天昊.邊緣緩存網(wǎng)絡中的內容分發(fā)及基站休眠算法研究[D].北京:北京郵電大學,2018.(WU T H. Research on content distribution and base station sleep management algorithms in edge caching networks[D]. Beijing: Beijing University of Posts and Telecommunications, 2018.)
[3] WANG X, LI X, LEUNG V C M, et al. A framework of cooperative cell caching for the future mobile networks[C]// Proceedings of the 2015 48th Hawaii International Conference on System Sciences. Piscataway, NJ: IEEE, 2015: 5404-5413.
[4] 席海東.智慧協(xié)同網(wǎng)絡中內容流行度預測與緩存替換策略研究[D]. 北京:北京交通大學,2018.(XI H D. Research on content-popularity prediction and caching replacement schemes in smart identifier network[D]. Beijing: Beijing Jiaotong University, 2018.)
[5] ROY S D, MEI T, ZENG W, et al. Towards cross-domain learning for social video popularity prediction [J]. IEEE Transactions on Multimedia, 2013, 15(6): 1255-1267.
[6] MIAO F, CHEN D, JIN L. Multi-level PLRU cache algorithm for content delivery networks [C]// Proceedings of the 2017 10th International Symposium on Computational Intelligence and Design. Piscataway,NJ:IEEE, 2017, 1: 320-323.
[7] PINGYOD A, SOMCHIT Y. Content updating method in femtocaching[C]// Proceedings of the 2014 11th International Joint Conference on Computer Science and Software Engineering (JCSSE). Piscataway, NJ: IEEE, 2014: 123-127.
[8] CHA M, KWAK H, RODRIGUEZ P, et al. I tube, you tube, everybody tubes: analyzing the worlds largest user generated content video system[C]// Proceedings of the 7th ACM SIGCOMM Conference on Internet Measurement. New York: ACM, 2007: 1-14.
[9] AHMED M, SPAGNA S, HUICI F, et al. A peek into the future: predicting the evolution of popularity in user generated content[C]// Proceedings of the Sixth ACM International Conference on Web Search and Data Mining. New York: ACM, 2013: 607-616.
[10] CHEN Y, ZHANG B, LIU Y, et al. Measurement and modeling of video watching time in a large-scale Internet video-on-demand system[J]. IEEE Transactions on Multimedia, 2013, 15(8): 2087-2098.
[11] ZHANG M L, ZHOU Z H. ML-KNN: a lazy learning approach to multi-label learning [J]. Pattern Recognition, 2007, 40(7): 2038-2048.
[12] FRIGGSTAD Z, SALAVATIPOUR M R. Minimizing movement in mobile facility location problems [J]. ACM Transactions on Algorithms, 2011, 7(3): 28.
[13] PSOUNIS K, PRABHAKAR B. A randomized Web-cache replacement scheme[C]// INFOCOM 2001: Proceedings of the 2001 Twentieth Annual Joint Conference of the IEEE Computer and Communications Societies. Piscataway, NJ: IEEE, 2001: 1407-1415.
[14] KHALEEL M S A, OSMAN S E F, SIROUR H A N. Proposed ALFUR using intelegent Agent comparing with LFU, LRU, SIZE and PCCIA cache replacement techniques[C]// Proceedings of the 2017 International Conference on Communication, Control, Computing and Electronics Engineering. Piscataway, NJ: IEEE, 2017: 1-6.
[15] ARLITT M, CHERKASOVA L, DILLEY J, et al. Evaluating content management techniques for Web proxy caches[J]. ACM SIGMETRICS Performance Evaluation Review, 2000, 27(4): 3-11.
[16] CHANG Z, GU Y, HAN Z, et al. Context-aware data caching for 5G heterogeneous small cells networks[C]// Proceedings of the 2016 IEEE International Conference on Communications. Piscataway, NJ: IEEE, 2016: 1-6.
[17] 宋天鳴.異構密集小小區(qū)中基于用戶移動性的邊緣緩存策略[D].北京:北京郵電大學,2018.(SONG T M. Edge caching strategy based on user mobility in dense small cell networks[D]. Beijing: Beijing University of Posts and Telecommunications, 2018.)