在真正的數據中心出現之前,服務器就已經安裝在19英寸機架中。數據中心建筑的空氣冷卻技術也發展到很高的水平,數據中心的配電也是一項非常成熟的技術。而在過去的幾年,數據中心技術只有一些增量的改變。
考慮到這一切,人們可能會認為數據中心硬件的設計已經很標準,其未來的變化只是一些調整。不過這種想法是錯誤的。數據中心機架、冷卻、配電方面還有很多前沿技術和方法。有一些技術已推出多年,有些技術似乎突然出現。但并非所有技術都會獲得市場驅動力。
機架的革命
對于習慣于服務器機架成排垂直部署的人來說,進入法國提供商OVH公司運營的云計算數據中心之一就會有一種錯亂的感覺。與業界的標準做法背道而馳,數據中心的服務器機架不是垂直排列部署的,而是水平堆疊部署的。OVH公司希望成為歐洲主要的云計算提供商,該公司基于VMware和OpenStack的平臺即服務(PaaS)公共云并為客戶托管企業私有云。
雖然OCP的創始人都是針對大型云計算廠商,但有跡象表明,這些想法已經進一步擴展到托管數據中心服務商。在這里,提供商對數據中心空間中的硬件沒有最終控制權,因此它無法提供OCP設想的單片數據中心架構,但是一些客戶正在接受這個想法,而OCP已經發布了設施指南,并提出“OCP就緒”的理念,這意味著OCP機架和OCP硬件將得到歡迎和支持。
OCP提出了一種新的機架設計,它將更多的硬件裝入與傳統機架相同的空間。通過使用機架內的更多空間,它允許采用21英寸規格的設備,而不是通常的19英寸。它還允許更深的套件,OpenU的1U尺寸為48mm,而普通機架的1U尺寸為44.5mm。
該設計還使用直流電源,通過機架背面的是電源分配總線。這種方法吸引了像Facebook公司這樣的大規模用戶,因為它允許數據中心取消IT工具包中的多個電源。它沒有采用交流電源,而是在每個設備中將其整流為直流電,并且在一個地方完成。
Open Rack版本1使用12V直流電源,版本2中也允許使用48V直流電源,這也增加了機架內鋰離子電池的選項,可以將其作為一種分布式UPS系統。
新版本旨在標準化用于在機架內循環液體冷卻劑的歧管,以及用于柜門的熱交換器,并包括完全浸入式冷卻系統的選項。目前尚不清楚其詳細的規格是什么,但它們將來自OCP的機架和電源項目,以及其先進的冷卻解決方案子項目。
在過去的幾十年里,液體冷卻技術展現出巨大的潛力。液體比空氣具有更高的捕獲和移除熱量的能力,而液體冷卻機架中的硬件是對現有冷卻實踐的重大改變。因此,液體冷卻一直列在那些不值得付出額外代價和精力的技術名單上。
如果數據中心每個機架功率低于20kW,采用空氣冷卻技術可以有效地降低成本,并且無需采用液體冷卻技術。如果機架的功率密度通常低于20kW,大多數數據中心可以在不必采用液體冷卻技術的情況下輕松構建。
然而,有兩種可能性將液體冷卻推向應用前沿:首先,用于人工智能等技術的GPU和其他專用硬件將驅動功率密度上升。其次,對于那些實施液體冷卻的公司來說,還有其他好處。一旦實施,液體冷卻為數據中心設施開辟了很大的靈活性。風冷式機架是冷卻系統的一部分,必須包括空調、空氣處理和控制系統,并包括整個建筑物的墻壁和地板。
液冷機架只需要一條電纜連接,可以單獨放置在水泥地板上、鋪有地毯的空間或小機柜中。這可能很難應用在零售托管空間中,因為它會影響IT設備的部署和運營。因此,除非最終客戶特別需要液體冷卻技術,否則不會采用。但它確實適用于數據中心日益增加的靈活性,其中設備提供商可以控制硬件,并且沒有建筑級別的冷卻遏制系統。
小型邊緣計算設施通常是微型數據中心,并不具備數據中心的多種資源。而其他數據中心正在重新利用的建筑物內建設,通常是小規模的增量。液體冷卻系統可以很好地滿足這些要求。
早期的大型機采用的是水冷卻技術,但在現代,數據中心采用各種液體的冷卻技術。
當前名稱:數據中心硬件正在發生哪些變化?
當前地址:http://m.newbst.com/hangye/fwqtg/n7923.html
聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯