在高性能計算當中,海量數(shù)據(jù)的計算、存儲與傳輸是并舉的三要素。在最理想的情況下,三者應該呈等比例縮放,以相匹配的步調(diào)共同發(fā)展,但這畢竟只是理想情況。事實上,多核、眾核、混合架構等新技術的出現(xiàn),讓計算遠遠走在前面,存儲和互聯(lián)往往成為限制系統(tǒng)性能發(fā)揮的瓶頸。目前最為流行的是集群系統(tǒng),其節(jié)點數(shù)目隨系統(tǒng)計算能力提升而增加。這樣一來,節(jié)點內(nèi)部及節(jié)點之間的高速I/O就顯得尤為關鍵。
當高性能計算機逐漸越過百萬億次的門檻,沖向下一個數(shù)量級千萬億次時,到底哪種技術才有可能勝任如此龐大系統(tǒng)的高速互聯(lián)呢?這個熱點議題正是日前召開的HPC顧問委員會亞洲研討會的研討焦點。
慎選互聯(lián)技術
系統(tǒng)互聯(lián)帶來的瓶頸被形象地稱為“互聯(lián)墻”,中科院計算所副研究員霍志剛認為,不僅高密度節(jié)點給系統(tǒng)互聯(lián)帶來了很大壓力,我們過去長期依賴的經(jīng)驗也顯得過時了,很難再用處理器主頻與內(nèi)存容量、I/O速度的簡單匹配來指導更大規(guī)模的高性能計算機設計。當規(guī)模變得龐大,規(guī)則就有可能被打破,過去的一些小問題也開始被放大,甚至可能影響到整個系統(tǒng)。
霍志剛是我國正在研制的千萬億次高性能計算機——曙光6000的通信與容錯課題的負責人。他表示,曙光6000對于高速互聯(lián)網(wǎng)絡的考量主要有幾個方面:首先是兼顧低成本與高性能。高性能主要表現(xiàn)在要有可接受的低延遲,系統(tǒng)規(guī)模增大時能與之匹配擴展,以及具有良好的可用性,不會再重蹈過去使用InfiniBand技術時的覆轍。除此之外,系統(tǒng)廠商還需要有對所采用互聯(lián)技術的出色的技術支持,并且保證開放性,“最起碼要有多個廠商可以提供產(chǎn)品和解決方案,以免發(fā)生技術壟斷”。
InfiniBand前景看好
美國橡樹嶺國家實驗室,這個以高性能計算模擬核爆而聞名的機構也同樣遭遇了系統(tǒng)互聯(lián)難題。該實驗室今年最新部署的一套“蜘蛛”(Spider)系統(tǒng)的峰值性能達到了1.38PFlops,是世界上最為龐大的高性能計算機之一。該實驗室研究科學家王非一介紹,他在解決問題時采用了與HPC顧問委員會及合作伙伴共同研制開發(fā)的辦法,最終決定采用InfiniBand高速互聯(lián)技術搭建“蜘蛛”。將所有節(jié)點連接在一起的線纜長度超過5km,InfiniBand端口超過3000個。
Gilad Shainer是HPC顧問委員會主席,他領導的這一致力于提供HPC實踐并探索其未來發(fā)展的全球性組織,目前已擁有廠商、用戶等110多個會員單位。對于系統(tǒng)互聯(lián)問題,他同樣態(tài)度鮮明,認為需要改變過去服務器與網(wǎng)絡帶寬的分配比率,網(wǎng)絡互聯(lián)設備需要針對每代系統(tǒng)平臺提供4倍的性能,而發(fā)展中的InfiniBand將是千萬億次高性能計算機采用的理想技術。
Gilad Shainer進一步分享了HPC顧問委員會與系統(tǒng)互聯(lián)技術相關的實測數(shù)據(jù)。在MPQC、NAMD等大型并行量子化學、分子動力學等Benchmark測試中,結果顯示,相比千兆以太網(wǎng)和萬兆以太網(wǎng),InfiniBand技術在性能表現(xiàn)和可擴展性方面都有著明顯優(yōu)勢,從DDR到QDR模式演進后,這種優(yōu)勢更是壓倒性的。
據(jù)了解,InfiniBand技術目前在高端HPC應用較多,比如走鵑(Roadrunner)、蜘蛛(Spider)都采用了這項技術。在今年全球HPC Top500的系統(tǒng)中,前10名中有4套,前100名中有59套系統(tǒng)都采用了InfiniBand,而且還呈繼續(xù)增長的趨勢?;糁緞偢嬖V記者,曙光6000應該毫無懸念地采用InfiniBand互聯(lián)技術,只是曙光6000為異構系統(tǒng),將大量采用龍芯處理器,他們正在仔細考量InfiniBand對龍芯的支持程度如何,以及研究技術實現(xiàn)曙光6000上的InfiniBand虛擬化。