于俊洋,胡志剛,周 舟,楊 柳
(1. 中南大學(xué)軟件學(xué)院 長(zhǎng)沙 410075;2. 河南大學(xué)軟件學(xué)院 河南 開封 475001)
計(jì)算機(jī)系統(tǒng)能耗估量模型研究
于俊洋1,2,胡志剛1,周 舟1,楊 柳1
(1. 中南大學(xué)軟件學(xué)院 長(zhǎng)沙 410075;2. 河南大學(xué)軟件學(xué)院 河南 開封 475001)
為了解決計(jì)算機(jī)能耗估量問題,本文分析了計(jì)算機(jī)各部件的參數(shù)對(duì)能耗變化的貢獻(xiàn)程度和參數(shù)之間的相關(guān)度,選取最能代表系統(tǒng)能耗變化的可監(jiān)測(cè)參數(shù)建立了CMP模型,CMP模型可根據(jù)計(jì)算機(jī)系統(tǒng)處理任務(wù)時(shí)的狀態(tài)不同而選取不同的能耗變化主導(dǎo)元件,利用這些元件的監(jiān)測(cè)參數(shù)對(duì)計(jì)算機(jī)系統(tǒng)能耗進(jìn)行估量。本文在各種任務(wù)狀態(tài)下進(jìn)行了實(shí)驗(yàn),結(jié)果證明,CMP模型在計(jì)算機(jī)能耗估量中要優(yōu)于常用的FAN模型和Cubic模型,尤其是在計(jì)算機(jī)做數(shù)據(jù)密集型任務(wù)的時(shí)候。
CMP模型; 能耗模型; 能效; 能耗估量
傳統(tǒng)的數(shù)據(jù)中心規(guī)模有限,對(duì)能耗和能效關(guān)注度不夠,而云計(jì)算及大規(guī)模數(shù)據(jù)中心的興起使得服務(wù)節(jié)點(diǎn)規(guī)模巨大,能耗成為成本控制中一個(gè)不可缺少的研究問題。云計(jì)算的發(fā)展受電力成本的制約[1]。研究表明,服務(wù)節(jié)點(diǎn)4年的能耗基本上等同于其硬件成本。云平臺(tái)可通過虛擬機(jī)的遷移,基于能效的副本管理等策略進(jìn)行節(jié)能,但仍有一個(gè)關(guān)鍵性的問題需要進(jìn)一步研究:如何建立起準(zhǔn)確的計(jì)算機(jī)系統(tǒng)能耗估量模型。
數(shù)量較少的計(jì)算機(jī)系統(tǒng)可通過測(cè)量設(shè)備來對(duì)計(jì)算機(jī)集群能耗進(jìn)行度量,但對(duì)于云計(jì)算平臺(tái)和大數(shù)據(jù)中心來說,完全依賴測(cè)量設(shè)備無論是從經(jīng)濟(jì)上還是部署上來考慮都是比較困難的。
目前,對(duì)于單個(gè)計(jì)算機(jī)系統(tǒng)能耗估量的模型大致可以分為兩類:比例型和兩段型,這兩種類型都是根據(jù)資源利用率進(jìn)行評(píng)估。比例模型比較直觀,認(rèn)為計(jì)算機(jī)的能耗和其硬件設(shè)備的利用率成正比。兩段模型認(rèn)為計(jì)算機(jī)能耗是由固定能耗和可變能耗兩部分組成。固定能耗是開機(jī)就引起的能耗,例如風(fēng)扇、二極管的啟動(dòng)等;可變能耗與計(jì)算機(jī)的負(fù)載相關(guān),如CPU利用率、磁盤轉(zhuǎn)速等。相比較而言,兩段模型更為準(zhǔn)確,因?yàn)橛?jì)算機(jī)只要開機(jī)就會(huì)耗電。文獻(xiàn)[2]研究表明,8核Xenon處理器在其空閑狀態(tài)下是所有核都運(yùn)轉(zhuǎn)狀態(tài)下能耗的60%。但是,無論是比例模型還是兩段模型,都認(rèn)為計(jì)算機(jī)的能耗和負(fù)載相關(guān)。
基于資源利用率的計(jì)算機(jī)能耗模型已經(jīng)有了一些,例如:文獻(xiàn)[3]用硬件計(jì)數(shù)器獲得CPU使用情況,進(jìn)而建模估量預(yù)測(cè)計(jì)算機(jī)的整體能耗。文獻(xiàn)[4]提出了基于硬件性能計(jì)數(shù)器的線性模型,目前最為流行的是文獻(xiàn)[5]提出的線性模型,該模型通過CPU利用率來進(jìn)行能耗估量?;颈磉_(dá)式如下:
文獻(xiàn)[6]在此基礎(chǔ)上提出了以CPU利用率為基礎(chǔ)的Cubic模型。Google在其數(shù)據(jù)中心也使用了基于CPU利用率的線性模型估量各服務(wù)器節(jié)點(diǎn)能耗[7]。實(shí)際情況是,目前CPU能耗在整個(gè)計(jì)算機(jī)系統(tǒng)中的能耗約占25%[8],在分布式數(shù)據(jù)中心,該比例更低[9]。因此單純以CPU利用率作為主要變量設(shè)計(jì)的能耗模型在數(shù)據(jù)密集型事務(wù)越來越多的今天,對(duì)系統(tǒng)能耗的估量并不準(zhǔn)確。
圖1顯示了三種典型的服務(wù)器IBMP670、Sun Ultra SparcT2000和Google自己設(shè)計(jì)的服務(wù)器各部件所占能耗比例[10]??梢钥闯?,并非是某一種部件完全主導(dǎo)能耗。
基于此,本文提出了CMP模型。模型設(shè)計(jì)思想是計(jì)算機(jī)系統(tǒng)在不同任務(wù)狀態(tài)時(shí),CPU、Disk和Memory對(duì)能耗變化的主導(dǎo)作用是變化的,選取能代表三者負(fù)載的盡可能少的參數(shù)來建模,模型目標(biāo)不僅要能估量計(jì)算密集型任務(wù)下服務(wù)器的能耗,而且要在WEB事務(wù)型和數(shù)據(jù)密集型任務(wù)下保持較高準(zhǔn)確度。
2.1 各部件的能耗度量參數(shù)
針對(duì)計(jì)算機(jī)能耗模型,選擇度量參數(shù)直接關(guān)系到能耗模型的準(zhǔn)確程度。計(jì)算機(jī)系統(tǒng)中最重要,且能耗變化范圍最大的3個(gè)主要部件是CPU、Disk和Memory。其他部件,要么功率變化有限,比如電扇電源,要么功率波動(dòng)范圍小,比如網(wǎng)卡。所以,能耗模型參數(shù)就從這3個(gè)主要部件中選取。
參數(shù)選擇的標(biāo)準(zhǔn):1) 有足夠的代表性,能夠代表這些主要部件的能耗變化;2) 容易監(jiān)測(cè),在Windows系統(tǒng)和Linux系統(tǒng)下均可獲得這樣的參數(shù);3) 參數(shù)盡可能少,因?yàn)樵谀芎墓懒恐?,用太多的參?shù)既不利于能耗模型的移植,也會(huì)給計(jì)算機(jī)系統(tǒng)帶來額外的負(fù)擔(dān)。
設(shè)P為計(jì)算機(jī)系統(tǒng)的功率,則:
式中,σ表示計(jì)算機(jī)系統(tǒng)中除CPU、Disk和Memory之外的其他部件功率。CPU的功率和它的利用率有關(guān),所以可以得到:
所以在選擇代表CPU能耗變化的監(jiān)控參數(shù)時(shí),選擇%Processor Time。%Processor Time是處理器用來執(zhí)行非閑置線程時(shí)間的百分比。對(duì)處理器是否空閑的計(jì)算是在系統(tǒng)時(shí)鐘的內(nèi)部采樣間隔期間(10 ms)執(zhí)行的,這個(gè)參數(shù)是CPU最常用的計(jì)數(shù)器,它表明了CPU的使用率。
內(nèi)存的能耗首先還是和其利用率有關(guān),每增加512 M的內(nèi)存,其能耗增加1~3 W。對(duì)于內(nèi)存的能耗可以用下式表達(dá)[11]:
式中,Pread為讀狀態(tài)功率;Pwrite為寫狀態(tài)功率;Pactive為活動(dòng)狀態(tài);Pref為刷新狀態(tài);Ppre為預(yù)充電功耗,由于內(nèi)存的刷新是自動(dòng)刷新,刷新頻率是固定的,可以和預(yù)充電一起看作常量。這樣就可以得出,內(nèi)存的能耗除了和內(nèi)存利用率有關(guān),最大的關(guān)聯(lián)對(duì)象是內(nèi)存的讀寫頻率,所以本文選擇了%Memory used和Page Faults/sec作內(nèi)存能耗代表。
%Memory used是內(nèi)存實(shí)際利用率,代表內(nèi)存被使用的空間。Page Faults/sec是每秒鐘出錯(cuò)頁面的平均數(shù)量。每個(gè)錯(cuò)誤操作中只有一個(gè)頁面出錯(cuò),計(jì)算單位為每秒出錯(cuò)頁面數(shù)量。一般來說,內(nèi)存讀寫頻率越大,內(nèi)存越活躍,Page Faults值越大。Page Faults和內(nèi)存的讀寫頻率直接相關(guān),它包括硬錯(cuò)誤和軟錯(cuò)誤,硬錯(cuò)誤必須訪問硬盤,所以這個(gè)參數(shù)不但反映內(nèi)存的讀寫頻率,也間接反映硬盤讀寫狀況。
在線性模型中,硬盤能耗的變化考慮比較少,這是因?yàn)榫€性模型從根本上來說還是計(jì)算密集型模型,它所計(jì)算的能耗變化主要是CPU的能耗變化,認(rèn)為其他的部件能耗變化對(duì)系統(tǒng)能耗變化影響有限或和CPU能耗變化是一致的。但實(shí)際情況并不如此,在數(shù)據(jù)密集型任務(wù)中,由于CPU的利用率有限,變化也有限,對(duì)計(jì)算機(jī)系統(tǒng)能耗變化影響有限,而這時(shí)硬盤負(fù)載會(huì)有變化,能耗也有變化。硬盤能耗的研究,是根據(jù)硬盤的狀態(tài)和該狀態(tài)下的磁頭操作來進(jìn)行分析。硬盤的操作一般分為定位、讀、寫和空閑,而硬盤的能耗一般由下式計(jì)算:
所以本文采集Disk的%Idle Time和Disk Bytes/s兩個(gè)參數(shù)。%Idle Time是硬盤空閑時(shí)間,也就是不執(zhí)行讀寫和旋轉(zhuǎn)定位的時(shí)間。那么剩余時(shí)間就是處于讀寫和定位的時(shí)間。Disk Bytes/s是每秒鐘磁盤讀寫數(shù)據(jù)量,這是讀寫操作的具體流量參數(shù)。
通過對(duì)計(jì)算機(jī)能耗的分析,選擇出5個(gè)參數(shù),下一步就要分析這5個(gè)參數(shù),選擇更少的參數(shù)來代表。
2.2 能耗參數(shù)的分析和篩選
由于CPU在計(jì)算機(jī)系統(tǒng)的特殊地位,%Processor Time幾乎是所有模型中必不可少的參數(shù),所以,這個(gè)參數(shù)確定。那么就主要分析%Memory used、Page Faults/s、%Disk Idle Time和Disk Bytes/s之間的關(guān)系。為了具體說明參數(shù)的選擇和分析,以配置相應(yīng)參數(shù)的DELL 2950服務(wù)器為例,如表1所示。
表2是通過HP LoadRunner工具在對(duì)DELL 2950服務(wù)器逐步增加負(fù)載時(shí),服務(wù)器相應(yīng)參數(shù)的變化。
由于數(shù)據(jù)的單位不統(tǒng)一,首先要對(duì)表2中數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理,本文設(shè)橫向?yàn)閅,縱向?yàn)閄。第j個(gè)指標(biāo)的樣本均值為第j個(gè)指標(biāo)的樣本方差標(biāo)準(zhǔn)化為經(jīng)過標(biāo)準(zhǔn)化處理之后可以得到標(biāo)準(zhǔn)化矩陣:
通過標(biāo)準(zhǔn)化的數(shù)據(jù),可以計(jì)算相關(guān)系數(shù)矩陣R=(rij)m×m,其中:
本文根據(jù)上述步驟編程解得這4個(gè)參數(shù)的相關(guān)系數(shù)矩陣為:
式(8)是計(jì)算出來的各參數(shù)之間的相關(guān)性矩陣。其中,x1,x2,x3,x4分別代表%Memory used,Page Faults/s,%Disk Idle Time,Disk Bytes/s。通過相關(guān)矩陣可以得到x1和其他3個(gè)參數(shù)相關(guān)度最低,用其他參數(shù)代表它就不夠準(zhǔn)確,本文選擇%Memory used作為第2個(gè)參數(shù)。在剩余3個(gè)參數(shù)中,x2與這4個(gè)參數(shù)的平均相關(guān)度最高,在4個(gè)參數(shù)中,x2可以兼顧內(nèi)存和硬盤兩個(gè)組件的參數(shù),所以,選擇Page faults作為第3個(gè)參數(shù)。
從理論上分析,每當(dāng)有Page faults的時(shí)候,如果是硬性錯(cuò)誤,就必然需要從硬盤上讀寫數(shù)據(jù),硬盤讀寫的頻率某種程度反映的就是內(nèi)存中Page faults,二者是正比關(guān)系,并且Page faults和%Memory used的關(guān)系在參數(shù)組中也占優(yōu)。圖2是從微觀的角度來看Page faults和硬盤負(fù)載(讀、寫與尋址)在同一分鐘內(nèi)的變化趨勢(shì),可以看出,二者的變化趨勢(shì)基本一致。所以,Page faults代表%Disk Idle Time和DiskBytes/s無論是理論上還是實(shí)際上都支持,也就是Page faults代表了磁盤的負(fù)載和磁盤的讀寫狀況。
于是篩選出%Processor Time,%Memory used和Page Faults/s作為計(jì)算機(jī)系統(tǒng)能耗估量建模的基本參數(shù)。下一步就是根據(jù)這些參數(shù)建立能耗估量模型。
通過上述觀察和分析,本文提出了選擇的3個(gè)參數(shù)為變量的能耗估量模型——CMP模型。在進(jìn)行建模的時(shí)候,重點(diǎn)考慮兩種情況:計(jì)算密集狀態(tài)和非計(jì)算密集狀態(tài)下計(jì)算機(jī)系統(tǒng)的能耗變化。計(jì)算密集狀態(tài)是CPU在能耗的變化中占據(jù)主導(dǎo)地位,內(nèi)存和硬盤處于低負(fù)載,對(duì)能耗影響較小。非計(jì)算密集狀態(tài)一般是處理WEB事務(wù)型任務(wù)和數(shù)據(jù)密集型任務(wù)時(shí)產(chǎn)生的,此時(shí)的CPU、內(nèi)存和硬盤都有一定的負(fù)載,能耗是由它們共同決定的。以往的能耗模型偏重于考慮計(jì)算密集型的情況,因?yàn)樵谟?jì)算密集型任務(wù)中CPU變化比較多,但是內(nèi)存和硬盤變化有限。在數(shù)據(jù)密集型的狀況下CPU變化小,對(duì)計(jì)算機(jī)系統(tǒng)整體能耗影響有限,而硬盤能耗變化較多。
為什么要在研究中把這兩種狀態(tài)分開來?因?yàn)樵趦?nèi)存和硬盤低負(fù)載的狀況下,它們對(duì)計(jì)算機(jī)整體能耗的影響接近I/O、主板等設(shè)備,如同聲音被背景噪聲所湮沒。而CPU在低利用率狀態(tài)下仍舊保持一定能耗,顯然,在計(jì)算密集狀態(tài)下,主導(dǎo)計(jì)算機(jī)系統(tǒng)能耗變化的就是CPU。在非計(jì)算密集型任務(wù)狀態(tài)下,由于內(nèi)存和硬盤的利用率達(dá)到一定的值,或者說能耗超出了一定范圍,這個(gè)狀態(tài)下,計(jì)算機(jī)系統(tǒng)能耗就由CPU、內(nèi)存和硬盤共同主導(dǎo)。
計(jì)算密集狀態(tài)和非計(jì)算密集狀態(tài)的閾值如何界定?本文定義式(3)中(Pcpumax?Pidle)為ΔPcpu,在本例中操作系統(tǒng)啟動(dòng)必要服務(wù)后(非測(cè)試任務(wù)),CPU負(fù)載波動(dòng)就超過5%。對(duì)于本服務(wù)器來說,5%的利用率是個(gè)基本變動(dòng)量,并且,ΔPcpu的5%占計(jì)算機(jī)系統(tǒng)的能耗比例比較低,如果硬盤和內(nèi)存的負(fù)載能耗低于ΔPcpu的5%之后,它們就已經(jīng)不構(gòu)成影響計(jì)算機(jī)系統(tǒng)能耗的最主要元素,所以本服務(wù)器的能耗變化閾取ΔPcpu的5%(CPU性能越高,此閾值越低)。據(jù)此,該閾值可表達(dá)如下:
式中,ΔPmemory、ΔPdisk分別為內(nèi)存、硬盤滿負(fù)載和Idle狀態(tài)下能耗的差值,Memoryutilization為內(nèi)存利用率,Pf為Page Faults/s,Pfmax為硬盤滿負(fù)載時(shí)Page Faults/s的平均值。在此例子中,可以解得計(jì)算密集狀態(tài)的區(qū)間是:Memoryutilization≤40% And Pf≤1 094。兩者關(guān)系是And,只有同時(shí)滿足這兩個(gè)條件的時(shí)候,CPU在能耗變化過程中才起到主導(dǎo)作用,任何一方超過此閾值,主導(dǎo)因素就是三者。
表3是該服務(wù)器在不同負(fù)載下能耗的值,根據(jù)已有數(shù)據(jù),通過閾值劃分狀態(tài),繪制計(jì)算密集狀態(tài)下CPU和能耗的PLOT圖像如圖3所示,y代表能耗,x代表CPU利用率。FAN模型認(rèn)為CPU的變化主導(dǎo)了計(jì)算機(jī)系統(tǒng)的變化,并且建立了線性模型。根據(jù)圖3并結(jié)合SPEC[12]公開發(fā)布的一些服務(wù)器CPU和能耗關(guān)系數(shù)據(jù),發(fā)現(xiàn)即使在計(jì)算密集型任務(wù)中,CPU的利用率和能耗之間的關(guān)系并不是簡(jiǎn)單的線性關(guān)系。在CPU負(fù)載進(jìn)行增加時(shí),能耗明顯收斂于某個(gè)固定的值,且有一定的曲度。因此,這種情況下的建??梢钥紤]線性回歸模型、指數(shù)回歸模型和冪回歸模型。
根據(jù)現(xiàn)有數(shù)據(jù)分別選擇線性回歸、指數(shù)回歸和冪回歸進(jìn)行建模,計(jì)算得到這3種模型的擬合優(yōu)度R2在冪回歸模型中最高,為0.991 7。所以,在典型計(jì)算狀態(tài)下能耗模型采用冪回歸模型。求解出模型為:
式中,x為CPU非閑置線程時(shí)間的百分比。對(duì)于非計(jì)算密集型計(jì)算狀態(tài),建立多元線性回歸方程。
對(duì)于n組觀測(cè)值,其方程組的形式為:
即:
將表中數(shù)據(jù)帶入該方程即可得到方程組,根據(jù)該方程組在誤差平方和最小的情況下,利用最小二乘法求解參數(shù),進(jìn)而得到模型。解出模型為:
綜上,DELL2950的CMP能耗模型為:
本文用CMP模型分別和最常用的FAN模型,Cubic模型進(jìn)行準(zhǔn)確度比較。通過第3節(jié)建立的DELL2950能耗模型比較這三種模型。對(duì)于實(shí)驗(yàn)測(cè)試,計(jì)算密集型本文選擇了SPEC[12]的JVM2008測(cè)試,該測(cè)試囊括了各種類型的算法測(cè)試,本文將其作為計(jì)算密集型用例,WEB事務(wù)型采用的是HP LoadRunner[13]用4000虛擬用戶進(jìn)行測(cè)試,數(shù)據(jù)密集型采用的是iozone[14],能耗測(cè)量工具選用的是北電儀表Power Bay-SSM。
其中SPEC是美國(guó)的一個(gè)第三方標(biāo)準(zhǔn)協(xié)會(huì),SPEC-JVM囊括了各種數(shù)據(jù)密集型的算法測(cè)試,iozone是國(guó)際通用的文件系統(tǒng)讀寫測(cè)試工具,在能耗研究中也用于數(shù)據(jù)密集型行為操作的測(cè)試。
通過圖4可以看出,在能耗估量模型中,WEB事務(wù)密集型的LoadRunner測(cè)試中用FAN和CMP能耗估量差別不大,CMP優(yōu)勢(shì)些微,幾乎持平,用SPEC的JVM2008測(cè)試,CMP模型略優(yōu)于FAN模型,在iozone下進(jìn)行數(shù)據(jù)密集型操作時(shí),CMP模型明顯要優(yōu)于FAN模型。說明FAN模型雖然有一定的準(zhǔn)確度,但對(duì)能耗主導(dǎo)元件考慮沒有CMP模型全面,在某些情況下準(zhǔn)確度明顯低于CMP模型。
本文選擇了CMP方法對(duì)IBMX3650和HPProliantDL380G5也進(jìn)行了同樣建模,測(cè)試結(jié)果表明在計(jì)算密集任務(wù)中,CMP比FAN模型估量準(zhǔn)確度平均要提高1個(gè)百分點(diǎn)左右,在數(shù)據(jù)密集任務(wù)中,要提高2~3個(gè)百分點(diǎn)左右。并且,服務(wù)器的配置中磁盤的配置量越大,CMP的優(yōu)勢(shì)越明顯。在存儲(chǔ)系統(tǒng)占據(jù)數(shù)據(jù)中心能耗27%~40%[15-16]的今天,用這種方式對(duì)各服務(wù)節(jié)點(diǎn)進(jìn)行能耗估量,將具有很大潛力。
實(shí)驗(yàn)結(jié)果說明了在計(jì)算機(jī)系統(tǒng)中,由于任務(wù)類型不同,計(jì)算機(jī)所處的狀態(tài)不同,計(jì)算機(jī)的組成元件對(duì)能耗變化起到的作用也會(huì)發(fā)生變化,其能耗變化主導(dǎo)元件并不單一。
通過實(shí)驗(yàn)可以看出,CMP對(duì)計(jì)算機(jī)系統(tǒng)能耗估量,準(zhǔn)確度要高于FAN模型和Cubic模型。計(jì)算機(jī)系統(tǒng)建立CMP模型之后,只需監(jiān)測(cè)計(jì)算機(jī)系統(tǒng)中3個(gè)參數(shù)就可以迅速估量出計(jì)算機(jī)系統(tǒng)的整體能耗,方法的可操作性可移植性都比較強(qiáng)。
通過CMP在建模時(shí)的分析,可以看出,控制CPU的利用率,控制磁盤的數(shù)據(jù)輸入輸出速度(磁盤轉(zhuǎn)速)都是降低能耗,提高計(jì)算機(jī)系統(tǒng)能效的方法,同樣這些方法也是云計(jì)算中提高計(jì)算機(jī)能效研究的熱點(diǎn)。所以,CMP能耗的模型為提高計(jì)算機(jī)系統(tǒng)的電能利用效率,增加單位耗電量?jī)?nèi)完成的任務(wù)數(shù)目提供了研究基礎(chǔ)。據(jù)此,下一步研究工作的重點(diǎn)是通過這些模型進(jìn)一步研究計(jì)算機(jī)任務(wù)和能效的關(guān)系,設(shè)計(jì)出提高計(jì)算機(jī)能效的工作模式和能提高云平臺(tái)能效的任務(wù)調(diào)度方法。
[1] ARMBRUST M, FOX A, GRIFFITH R, et al. A view of cloud computing[J]. Communications of the ACM, 2010, 53(4): 50-58.
[2] RIVOIRE S, RANGANATHAN P, KOZYRAKIS C. A comparison of high-level full-system power models[J]. HotPower, 2008(8): 3-4.
[3] BIRCHER W L, JOHN L K. Complete system power estimation: a trickle-down approach based on performance events[C]//IEEE International Symposium on Performance Analysis of Systems & Software, 2007. Boston, MA, USA: IEEE, 2007: 158-168.
[4] LI T, JOHN L K. Run-time modeling and estimation of operating system power consumption[J]. ACM SIGMETRICS Performance Evaluation Review, 2003, 31(1): 160-171.
[5] FAN X, WEBER W D, BARROSO L A. Power provisioning for a warehouse-sized computer[J]. ACM SIGARCH Computer Architecture News, 2007, 35(2): 13-23.
[6] ZHANG X, LU J J, QIN X, et al. A high-level energy consumption model for heterogeneous data centers[J]. Simulation Modelling Practice and Theory, 2013, 39: 41-55.
[7] FAN X, WEBER W D, BARROSO L A. Power provisioning for a warehouse-sized computer[J]. ACM SIGARCH Computer Architecture News, 2007, 35(2): 13-23.
[8] LEFURGY C, WANG X, WARE M. Server-level power control[C]//Fourth International Conference on Autonomic Computing. Jacksonville, FL, USA: IEEE, 2007: 4-5.
[9] FAN X, WEBER W D, BARROSO L A. Power provisioning for a warehouse-sized computer[J]. ACM SIGARCH Computer Architecture News, 2007, 35(2): 13-23.
[10] MEISNER D, GOLD B T, WENISCH T F. PowerNap: Eliminating server idle power[J]. ACM SIGARCH Computer Architecture News, 2009, 37(1): 205-216.
[11] CASTA?é G G, Nú?EZ A, LLOPIS P, et al. E-mc 2: a formal framework for energy modelling in cloud computing[J]. Simulation Modelling Practice and Theory, 2013, 39: 56-75.
[12] The Standard Performance Evaluation Corporation. SPECjvm2008 User’s Guide[EB/OL]. (2008-04-16). https:// www.spec.org/jvm2008/docs/UserGuide.html.
[13] Hewlett-Packard, HP Software Division. HP LoadRunner [EB/OL]. [2014-03-02]. http://en.wikipedia.org/wiki/ HP_LoadRunner.
[14] WILLIAM D. Norcott. Iozone Filesystem Benchmark. [EB/OL]. (2006-10-26). http://www.iozone.org/.
[15] U.S. Environmental Protection Agency. EPA Report on server and data center energy efficiency [EB/OL]. (2007-08-02). https://escholarship.org/uc/item/74g2r0vg.pdf.
[16] BATTLES B, BELLEVILLE C, GRABAU S, et al. Reducing data center power consumption through efficient storage[EB/OL]. (2007-02-09). http://www.it-executive.nl/ images/downloads/reducing-datacenter-power.pdf.
編 輯 蔣 曉
A CMP Energy Consumption Estimate Model for Computer Systems
YU Jun-yang1,2, HU Zhi-gang1, ZHOU Zhou1, and YANG Liu1
(1. Software School, Central South University Changsha 410075; 2. Software School, Henan University Kaifeng Henan 475001)
As the development of cloud computing and the emergence of large data centers, computer system energy consumption and efficiency increasingly become a focus of research. This paper aims at solving the problem of computer’s energy estimation. The energy-consumption contributions of the all components in a computer are analyzed. A CMP energy consumption model which reflects the dominant monitored parameters of system energy consumption is constructed. This model could choose different dominant parameters according to the state of the computer’s major components. Experiments show that during a variety of workloads and different task types, the CMP model can achieve a higher accuracy on power estimation than FAN and Cubic model, especially when computers doing data intensive tasks.
CMP model; energy consumption model; energy efficiency; power estimation
TP301.41
A
10.3969/j.issn.1001-0548.2015.03.018
2013 ? 11 ? 21;
2014 ? 03 ? 20
國(guó)家自然科學(xué)基金(61272148,61301136,60970038);博士點(diǎn)基金(20120162110061,20120162120091)
于俊洋(1982? ),男,博士生,主要從事云計(jì)算、并行與分布式系統(tǒng)方面的研究.