湯 雷
(安徽三聯(lián)學(xué)院 計(jì)算機(jī)工程學(xué)院,安徽 合肥 230601)
近年來,云計(jì)算已在學(xué)術(shù)界和工程領(lǐng)域引起廣泛關(guān)注,通過租賃給用戶云服務(wù),越來越多的公司開始提供云服務(wù),越來越多的數(shù)據(jù)中心被建立,迅速改變IT產(chǎn)業(yè)的發(fā)展.最近研究表明數(shù)據(jù)中心占美國總能量消耗的1–2%[1],僅僅在美國,所有的數(shù)據(jù)中心以每兆瓦時(shí)一百美金的價(jià)格耗資超過10億美元,這是一種常見價(jià)格[2].由于大部分電力產(chǎn)量來源于煤炭燃燒,所以數(shù)據(jù)中心的巨大消耗還導(dǎo)致大量的碳排放[3].從云服務(wù)供應(yīng)商角度來看,租賃云服務(wù)的目標(biāo)是為了獲得收入,因此如何消減數(shù)據(jù)中心的花費(fèi)是他們應(yīng)當(dāng)面臨的實(shí)際問題.
數(shù)據(jù)中心通常由若干行機(jī)架組成,每個(gè)機(jī)架包含服務(wù)器、交換機(jī)和通信線路,如圖一所示.數(shù)據(jù)中心不同部分消耗不同比例的能量,如圖二所示.從圖二我們可以看出冷卻服務(wù)器消耗了數(shù)據(jù)中心的大部分能量,在下面章節(jié)部分我們將研究數(shù)據(jù)中心不同方面的低功耗技術(shù).
如圖一所示,冷卻服務(wù)器消耗了云數(shù)據(jù)中心的大部分功率,有大量文章研究如何減少數(shù)據(jù)中心所需的能量.
數(shù)據(jù)中心的總功率可以表示為:
在最近發(fā)展的Lyapunov優(yōu)化基礎(chǔ)上,作者在[7]中研究了地理位置分散的數(shù)據(jù)中心熱效應(yīng)批量作業(yè)調(diào)度問題,傳統(tǒng)的優(yōu)化技術(shù)例如動態(tài)規(guī)劃是耗時(shí)的并且不易在實(shí)踐中采用,他們將數(shù)據(jù)中心冷卻功耗模擬為:
在[12]中冷卻系統(tǒng)的成本按以下函數(shù)建模:
這里的Q是指服務(wù)器總能量消耗,他們從另一個(gè)維度研究解決冷卻服務(wù)器成本,比如一個(gè)控制熱量產(chǎn)生的系統(tǒng)解決方案.
其他工作實(shí)例如[8]在本著利潤最大化目標(biāo)的近似算法的幾個(gè)不同模型下研究熱感知調(diào)度問題.
從圖二我們可以發(fā)現(xiàn)處理器是數(shù)據(jù)中心的第二大消耗者.大量研究表明從降低速度上降低能耗是一項(xiàng)節(jié)省CPU能耗的新型技術(shù).降低速度允許動態(tài)改變處理器的速度,從而提高數(shù)據(jù)中心的能源效率.為了充分利用能源,在限制需求和性能的基礎(chǔ)上,動態(tài)速度降低就是調(diào)整處理器的速度.在文章[9]、[10]關(guān)于動態(tài)速度降低的論述中,如果運(yùn)行速度大于零時(shí),處理器能耗的建模為:
α是能耗指數(shù),通常冪指數(shù)值α=3.γ是攤銷指數(shù),分布范圍為(0,1).
如果該裝置以大于0的速度運(yùn)行,那么功率消耗函數(shù)p(s)可以表示為:
圖三 數(shù)據(jù)中心網(wǎng)絡(luò)[13]
α是能耗指數(shù).
數(shù)據(jù)中心網(wǎng)絡(luò)使很多服務(wù)器包括交換機(jī)、路由器和通信線路互相連接,數(shù)據(jù)中心網(wǎng)絡(luò)體系結(jié)構(gòu)通常設(shè)計(jì)為三層式架構(gòu)[13],如圖三所示例.近來研究發(fā)現(xiàn),數(shù)據(jù)中心網(wǎng)絡(luò)鏈路使用率是非常低的,因此浪費(fèi)網(wǎng)絡(luò)元素的許多能量.傳統(tǒng)的工作主要集中在提高服務(wù)器利用率和減少服務(wù)器功耗,然而并沒有把網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)和網(wǎng)絡(luò)流量等網(wǎng)絡(luò)元素考慮在內(nèi).與上述方法不同,很多學(xué)者從網(wǎng)絡(luò)元素方面來研究減少數(shù)據(jù)中心功耗.
隨著IaaS(基礎(chǔ)設(shè)施即服務(wù))云資源激增,數(shù)據(jù)中心存儲子系統(tǒng)的能源消耗也急劇上升,如圖三所示,存儲主要負(fù)責(zé)整個(gè)數(shù)據(jù)中心功耗的百分之四,數(shù)據(jù)中心存儲子系統(tǒng)能耗的份額預(yù)計(jì)會進(jìn)一步增加,因?yàn)镮aaS云計(jì)算比其他云服務(wù)發(fā)展的更快.
磁盤驅(qū)動器是輔助存儲系統(tǒng)的核心,因此研究在磁盤驅(qū)動器上降低功耗是非常重要的,在[15]中,作者提出磁盤驅(qū)動器的總功耗可以表示為:
這里pst是主軸電機(jī)功率,psk是探求功率,pct是需要的接口操作.
本文中我們給出相關(guān)云數(shù)據(jù)中心低功耗技術(shù)的調(diào)查,了解到云數(shù)據(jù)中心是主要消耗者,因?yàn)樗麄兡壳罢谙恼麄€(gè)世界能量的1.3%,但很大一部分能量沒有被充分利用,因此降低功耗和提高能量使用率是云供應(yīng)商需要研究的實(shí)際問題.
限于篇幅很多方面還沒有涉及到,比如利用水的效率使數(shù)據(jù)中心消耗更少的水以及使用綠色能源(比如風(fēng)能源)替代棕色能源(比如煤炭)減少碳排放的方法.
〔1〕P.Sehgal,V.Tarasov,E.Zadok.Optim izing energy and performance for server-class file system workloads.ACM Transactions on Storage(TOS),2010,6(3):10.
〔2〕R.T.Kaushik,M.Bhandarkar.Greenhdfs:towards an energy-conserving,storage-efficient,hybrid hadoop compute cluster.Proceedings of the USENIX Annual Technical Conference.2010:109.
〔3〕Power Scorecard.Electricity from Coal,Retrieved in April 2008.http://www.powerscorecard.org/tech detail.cfm?resource id=2.
〔4〕F.Ahmad and T.N.Vijaykumar.Joint optimization of idle and cooling power in data centers while maintaining response time.In Proceedings of the Architectural support for programm ing languages and operating systems(ASPLOS),2010.
〔5〕Facts&Stats:Data Architecture and More Data.http://blog.infotech.com/facts-stats/facts-stats-data-architecture-and-more-data/.
〔6〕W.Huang,M.Allen-Ware,J.B.Carter,et al.Tapo:Thermal-aware power optim ization techniques for servers and data centers.Green Computing Conference and W orkshops(IGCC),2011 International.IEEE,2011:1-8.
〔7〕M.Polverini,A.Cianfrani,S.Ren,et al.Thermal-Aware Scheduling of Batch Jobs in Geographically Distributed Data Centers.IEEE Transactions on cloud computing,2014,vol.2,no.1,pp.71-84.
〔8〕Mukherjee K,Khuller S,Deshpande A.Algorithms for the thermal scheduling problem [C]//Parallel& Distributed Processing (IPDPS),2013 IEEE 27th International Symposium on.IEEE,2013:949-960.
〔9〕S.Albers,H.Fujiwara. “Energy-efficient algorithms for flow time minimization”.In Proc.of STACS 2006.
〔10〕A.W ierman,L.L.H.Andrew,A.Tang. “Power-Aware Speed Scaling in Processor Sharing Systems”.In Proc.of IEEE Infocom 2009.
〔11〕YAO,F.,DEMERS,A.,AND SHENKER,S.1995.A scheduling model for reduced CPU energy.In Proceedings of the IEEE Syposium on Foundations of Computer Science.IEEE Computer Society Press,Los Alam itos,CA,374–382.
〔12〕Moore JD,Chase J S,Ranganathan P,et al.Making Scheduling" Cool":Temperature-Aware W orkload Placement in Data Centers.USEN IX annual technical conference,General Track.2005:61-75.
〔13〕Heller B,Seetharaman S,Mahadevan P,et al.Elastic-Tree:Saving Energy in Data Center Networks.NSDI.2010,10:249-264.
〔14〕W.Fang,X.Liang,S.Li,L.Chiaraviglio,and N.Xiong,“VMPlanner:optim izing virtual machine placement and traffic flow routing to reduce network power costs in cloud data centers,”J.Computer Network,vol.57,no.1,pp.179–196,Jan.2013.
〔15〕Bostoen T,Mullender S,Berbers Y.Power-reduction techniques for data-center storage systems[J].ACM Computing Surveys(CSUR),2013,45(3):33.