在最初著手設計集裝箱式數據中心時,我將它們視為一種針對驗收測試、安裝中斷、布線和總體性能等多年來一直困擾IT部門的眾多問題的解決方案。隨著技術的不斷發(fā)展,我們找到了一些能夠消除電能使用效率(PUE)值居高不下的辦法。
反過來,這也促使x64服務器的設計具有更高的效率;ù罅烤μ嵘龁卧鋮s效率這種提供寒冷空氣環(huán)境的傳統(tǒng)理念已經成為了歷史。
能夠降低PUE值的因素有許多種。多核x64 CPU的出現讓傳統(tǒng)的1U服務器在保持了原有的功率的同時,極大地提升了電源使用效率。與CPU匹配的低功耗內存使得當今的服務器擁有更優(yōu)秀的GFLOPS/watt指標。與此同時,電源供應效率也得到了大幅提升,這降低了服務器的熱負載。
最大的突破在于人們已經意識到冷卻與集裝箱內的服務器引擎之間必需實現分離。我們目前已經嘗試了水冷、屋頂制冷和側壁制冷等方式。在這一過程中,如果我們在服務器上使用了更大的風扇,溫度會出現下降,在放滿機架的相同房間內,我們可以使用5英寸或更大的風扇進行冷卻。(在技術層面,更大的風扇和更合理的空氣流幾乎是金科玉律,因此5英寸的風扇肯定比3/4英寸的風扇冷卻效果要好。)
與此同時,大量研究顯示,在美國和歐盟的許多地區(qū)高溫天氣的時間并不長,在北方許多地方基本上就沒有炎熱天氣。針對零環(huán)境溫度設計集裝箱式服務器群的理念開始被廣泛接受。
進氣口溫度為40℃ 的x64 商用現貨服務器可裝入集裝箱內。通常,?-U服務器集群采用大型風扇進行冷卻并共用冗余電源。需要注意的是,這些服務器并不是刀片式服務器,刀片式服務器的基礎架構和復雜的包裝方式會限制冷卻作業(yè)。老舊的大型機和小型機也存在同樣的問題。
40℃(104F℉)對于許多位于北方地區(qū)的集裝箱式數據中心來說非常理想,但是為了獲得許多附加的好處,這一溫度需要提升。磁盤驅動器通常環(huán)境溫度指標為55℃。40℃這一溫度可能也適合這些驅動器,但是溫度最好是提升至45℃(113℉)。
環(huán)境溫度指標為70C的SSD以及60℃或 65℃的新硬盤驅動器正在解決這一問題。以后帶有硬盤的服務器都將能滿足45℃這一目標。
另一個方案是將所有的這些存儲都放入統(tǒng)一的機架中或集裝箱中。這種方案非常適合虛擬化云模式。它們允許服務器進氣溫度達到45℃。需要在驅動器之間進行冷卻和輸送空氣流的存儲單元可以進行更好的優(yōu)化,這樣一來它們也能夠在進氣溫度為45℃的環(huán)境中工作。
這樣會給PUE帶來什么影響呢?放置集裝箱的“車間”擁有非常出色的PUE。沒有了冷卻負載,這些電力將會用于照明和人員辦公。集裝箱的電力負載幾乎全部是計算機設備的。開銷主要是冷卻風扇,但是大型風扇的設計將會大幅減少。集裝箱式數據中心的PUE凈值在零環(huán)境溫度中低于1.10。
此外,還有一些降低服務器電力使用的小技巧,這其中包括使用大型共用式電力供應系統(tǒng)為服務器集群集中供應12V直流電。
我們還可以在單個服務器機架上采取一些其它措施,如使用尺寸更大的風扇,但是這需要安裝排氣管道。我們的宗旨是創(chuàng)建更為綠色環(huán)保的數據中心。
那么下一步發(fā)展趨勢是什么呢?在2014年晚些時候,我們或許會看到內存與CPU將在模塊中實現緊密整合。如果這成為了現實,那么服務器的性能將出現大幅提升,同時電力使用量將會出現下降。這意味著參與運行的設備數量將會減少,處理過程將更節(jié)能,數據中心的總用電量將下降,但是PUE可能會出現小幅增長。
此外,我們還將會看到微軟服務器的出現。這些低功耗、高密度服務器能夠與冷卻設置實現更完美的匹配。