我如何為數據中心供電?
克勞德·香農 (Claude Shannon ) 于 1948 年撰寫“通信的數學理論”時開始了這一切,他將信息的通信簡化為 1 和 0,本質上是二進制數字。該理論導致了在現實世界充滿噪音的環(huán)境中無錯誤地傳輸數據的能力。香農在 2016 年 4 月 30 日將滿 100 歲。
移動到未來 68 年(我已經工作了將近 67 年,所以那是很長的時間!),谷歌宣布他們和 Rackspace 正在開發(fā)一種新的服務器設計,Zaius POWER9 服務器,它將取代英特爾的 x86現有處理器,并用 IBM 的新 POWER9 處理器取而代之(盡管有一些非常好的新的 48V 直接轉換設計適用于英特爾處理器,您將在本文后面看到 ST Microelectronics 和 Intersil 列舉幾個電源參與者。) ,震撼了數據中心世界。電源效率是現在的主要推動力,因此谷歌甚至更進一步地展望未來,可能使用基于 ARM 的處理器來幫助節(jié)省更多能源。服務器架構設計也將被重新設計。
此外,谷歌加入了 Facebook 的開放計算項目,并立即提出了一項新設計,以幫助云數據中心降低巨額能源費用。新的機架設計將直接向服務器提供 48V 電壓,以取代目前大多數服務器使用的 12V。谷歌聲稱電轉換損耗將減少30%。
因此,48V 將被傳送到主板并進一步轉換為 1V 或更低,以便為盡可能靠近該 IC 的處理器供電——哦,是的——并且沒有可能導致處理器錯誤的噪聲。
在我們進入服務器的電源管理解決方案之前,讓我們先來看看數據中心是什么樣的,以及隨著 5G 和物聯網的到來而導致的快速增長的互聯網使用需要克服的挑戰(zhàn)數據中心的云增長為每個數據中心增加了數十兆瓦甚至更多。
谷歌數據中心
讓我們首先看看 Google 的一個園區(qū)網絡機房、路由器和交換機內部,這些機房使數據中心能夠相互通信。有無數光纖網絡將 Google 數據中心站點連接在一起,其運行速度比您的家庭互聯網連接快 200,000 倍。光纖電纜沿著黃色電纜橋架延伸,在這張圖片中可以在天花板附近看到。
冷卻數據中心的熱量
當我們查看服務器通道的后面時,我們會發(fā)現一個不太華麗的陣列,由數百個風扇組成,它們將服務器機架中的熱空氣排入冷卻單元以進行再循環(huán)。
看在上帝的份上,把水喝了,Gunga Din!
巨大的儲水箱可容納多達 240,000 加侖(900,000 升)的水,用于冷卻數據中心的廢熱。隔熱水箱裝有水,水將流動并輸送到數據中心的核心進行冷卻。
許多其他數據中心使用冷卻器或空調裝置來冷卻機架。據谷歌稱,這種技術在能源使用方面會產生 30-70% 的開銷。谷歌的數據中心解決方案是將水作為一種節(jié)能的冷卻方式作為替代方案。
他們?yōu)樗麄兊姆掌鳈C架設計了定制的冷卻系統(tǒng),稱為“ Hot Huts ”。這些系統(tǒng)用作熱空氣的臨時存儲,這些熱空氣將離開服務器的熱空氣與數據中心地板的其余部分隔離開來。每個 Hot Hut 單元的頂部都有風扇,它們將通過水冷盤管從服務器后面抽出熱空氣。離開 Hot Hut 的冷空氣返回到數據中心的環(huán)境空氣中,服務器可以在此高效循環(huán)中將冷空氣吸入其中以冷卻它們。蒸發(fā)冷卻在 冷卻塔中效果很好。當來自數據中心的熱水通過加速其蒸發(fā)的材料流下塔時,一些水將變成蒸汽。風扇將這種蒸汽吹起,從而帶走過程中的多余熱量。然后,塔可以將冷卻水返回數據中心。
在谷歌位于哈米納的數據中心設施中,芬蘭 海水用于冷卻,無需冷卻器。他們選擇這個位置是因為它的寒冷氣候和它在芬蘭灣的位置。設計的冷卻系統(tǒng)將冷水從海中泵入設施,通過熱交換器將熱量從它們的操作轉移到海水中,然后冷卻這些水,然后再將其返回海灣。這種高效的方法提供了全年所需的所有冷卻,而無需安裝任何機械冷卻器。像這樣的服務器樓層需要大量空間和高效的電源來為全球運行全系列的 Google 產品。在芬蘭的哈米納,谷歌選擇翻新一家舊造紙廠,以利用該建筑的基礎設施以及靠近芬蘭灣冷卻水域的優(yōu)勢。
此外,為了更好地節(jié)約用水,兩個數據中心采用 100% 循環(huán)水供電,并收集雨水冷卻三分之一。這個想法很簡單:他們不使用飲用水(或飲用水)進行冷卻,而是使用不可飲用的水源并對其進行足夠的清潔,以便可以用于冷卻。
懸停在愛荷華州康瑟爾布拉夫斯的地板上方,可以在圖 6 中看到數據中心的龐大規(guī)模。服務器上方的這個空間是配電系統(tǒng)的主要空間,無論是交流還是 400V?,F在,這將我們帶到了本文電源解決方案部分的技術視圖。