天天做天天爱夜夜爽毛片毛片,精品午夜福利1000在线观看,被喂春药蹂躏的欲仙欲死视频,大地资源二在线观看免费高清

 

攝圖網_400206061_wx_創意太極背景(企業商用)

近年來,液冷技術在數據中心領域的遭遇可以用一個詞形容:又冷又熱。

技術冷:作為冷卻介質,液體的冷卻效能遠遠高于空氣,所以在冷卻效果上比風冷更“冷”一籌。

關注熱: 隨著技術發展與產業環境、政策變化,液冷再度受到行業關注,且熱度持續增加。

產品熱:數據中心產業上游的設備廠商對液冷熱情高漲,相關產品與研發層出不窮,產業下游的云廠商們也開展了不同程度的技術探索。

應用冷:產業中游的數據中心對液冷態度謹慎,尚無數據中心企業宣布液冷規模化部署計劃。

液冷為何突然在數據中心領域熱起來?產業“冷”“熱”差別的原因何在?液冷技術在數據中心的應用離爆發還有多久?筆者試為你梳理解析這些問題,并給出個人判斷。

液冷非一日之寒  計算愈來愈熱

展開討論前,先明確液冷的定義:液冷是使用液體作為熱量傳輸的媒介,為發熱部件換熱帶走熱量,傳遞到遠處再進行冷卻,實現散熱的技術。

相較于風冷以空氣為冷卻媒介,通過風扇和壓縮制冷,液體的比熱容遠高于空氣,單位體積熱容量是風冷的1000倍以上,熱量傳導效率更高。

液冷風冷對比

液冷與風冷相關性能對比

這一原理很早就被發現,并被最早應用于工業、航天領域的散熱,至今被使用的“冷板”一詞據說就來源于阿波羅登月計劃,將液冷用于宇航員體溫控制。

在數據中心領域,液冷始終與計算產生的熱量緊緊聯系在一起。

萌芽:

上世紀60~90年代,數據中心還被稱為“機房”,采用集成電路的大型主機進行高速數據處理時有過熱宕機的風險,以IBM為首的廠商研發了液冷系統應用在大型主機,并取得顯著效果,其中就包括著名的IBM360/91型計算機。

遇冷:

計算技術的迭代,使得液冷隨后“遇冷”。

上世紀末,隨著超大規模集成電路取代晶體管,在計算效率提升的同時,計算機和芯片產生的功耗、熱量斷崖式下跌,風冷的散熱效率足以滿足。在成本、安全顧慮、部署簡易性等因素影響下,風冷超越液冷成為數據中心的主流散熱技術。

興起:

高密度計算興起,液冷再受青睞。

后摩爾定律時代,芯片功耗與服務器功耗逐步上升,數據中心單機柜功率密度也不斷增大, 2020年數據中心平均機柜功率已增長至8.5KW,傳統風冷散熱在換熱性能及能耗上面臨瓶頸。業內普遍認為,傳統風冷已經無法滿足高密度計算的發展需求,正如中國信通院云大所所長何寶宏表示“再大的風也吹不冷滾燙的‘芯’了”。

因此,液冷于近年來再度進入數據中心視野,逐漸受到業界關注。

液冷數據中心:更好散熱 更低能耗

時移世易,面對當前計算技術與散熱需求,在數據中心應用液冷技術的優勢正日漸顯現。

首先是散熱效率。據綠色網格研究,每機柜 15-25 kW 的功率密度是“未使用背板換熱器等其他制冷設備”的風冷解決方案上限,而液冷系統可以支持的機柜功率是兩倍以上,甚至可以擴展到單機架超100kw。液冷可以支持數據中心高功率的散熱,提高換熱效率,且能減少服務器散熱熱點,有效抑制元件內部溫度的瞬間提升,延長芯片壽命。

傳統高耗能風冷數據中心各部分能耗占比

傳統高耗能風冷數據中心各部分能耗占比

其次節能降耗。與傳統風冷技術相比,液冷系統耗電量方面約比風冷系統節省電量30%-50%。要知道,在傳統數據中心,制冷系統占數據中心整體能耗的40%以上。數據中心使用液冷可有效降低能耗,提高能源利用效率,降低PUE值和電力成本。

第三,提高計算密度,減少風扇震動噪音。相較于傳統風冷,液冷數據中心去掉了空調系統和對應的風冷基礎設施,也不需要設置冷暖通道,節省了大量空間可以容納更多服務器,提高計算密度和可銷售空間。不同液冷方式可減少或避免風扇的使用,有效降低震動和機房噪音,而震動會直接影響IT系統的穩定性和壽命。

綜合來看,數據中心液冷技術,既契合了計算的未來高功率趨勢,滿足服務器芯片散熱需求,又能實現數據中心節能降耗,正愈發受到數據中心產業的廣泛關注。

產品與技術創新不斷  上游設備廠商踴躍

近些年,很多企業展開液冷在數據中心應用的研發,形成了多種部署方式和產品。

部署最多、服務器不直接接觸液體,不需要對數據中心機房進行重新改造的冷板式液冷。

將發熱器件完全浸沒在冷卻液中,散熱效率更高,實施難度更大需要對機房其他系統改造的浸沒式液冷。

別具一格,將冷卻液直接噴淋到發熱器件表面進行熱交換的噴淋式液冷。

不同液冷方式、代表產品及廠商,筆者一年前曾撰文《泡澡、淋浴、冷氣片——數據中心液冷模式與應用一覽》。

阿里云液冷

阿里云在IDCC大會現場展示的浸沒式液冷模塊

時隔一年,液冷在數據中心的熱度更盛,各大設備廠商紛紛發力,有的首度推出液冷產品,有的將液冷上升為發展戰略,上游產品、解決方案頻出,各有側重:

去年12月的“第十六屆中國IDC產業年度大典”上,專注浸沒式液冷進行多年自主研發的阿里云正式向業界發布行業首款單相浸沒液冷解決方案——磐久液冷一體機系列Immersion DC 1000。據阿里云數據,該解決方案可在全球任何氣象區域部署并可輕松實現極致PUE1.09。

2022年初,浪潮信息將“All in液冷”寫入公司戰略,全棧布局液冷,實現了全產品線支持冷板式液冷。浪潮信息表示,可以實現液冷從核心部件到整體解決方案全覆蓋,提供液冷數據中心從規劃咨詢到設計施工的全生命周期交付。

2022年初,寧暢推出了新系列液冷服務器,該系列包含高密度、通用機架等多品類產品,可適用于眾多IT應用場景。隨后在液冷服務器基礎上,推出全系統定制液冷方案,實現從需求梳理、架構設計、機房部署到運維服務的全系統定制。

2022年4月,新華三發布新一代冷板式液冷系統解決方案。該液冷系統由H3C UniServer R4900LC G5 液冷服務器、42U通用機柜、分布式CDU等部件組成,通過了中國計量科學研究中心的能源計量認證,夏季模式PUE可達1.047,整機全年平均PUE1.042。

今年下半年,科華數據陸續發布多款數據中心液冷產品:科華數能S³液冷儲能系統、針對邊緣計算中心和中小型中心節能改造的抽屜式水-風液冷CDU、板式液冷微模塊數據中心。該微模塊數據中心冷循環系統采用機柜式CDU-300KW,散熱量可達300KW。

……

可以看出,過去一年中,數據中心液冷產品更加豐富,技術進一步加強,商業化進程加速。

顧慮幾重 數據中心觀望

如果只是一篇普通文章,寫到這里,得出“數據中心液冷形勢一片大好”的結論就足夠了。

然而,筆者梳理過近兩年來數據中心液冷領域的動作后發現,大部分來自產業上游的設備廠商,服務器、CDU(數據中心液冷分配裝置)、TANK(機柜液冷柜)、CPU/GPU、冷卻液、整體解決方案,尤以服務器廠商為甚。產業下游,也僅有以阿里云為首的幾家云廠商,基于自身業務需求和技術先進性等因素,進行液冷研發與部署。

這其中,少了最不可或缺的產業中游——數據中心企業的身影。

據筆者了解,相較于上游廠商的踴躍態勢,僅個別企業按客戶需求提供了機房改造部署,大部分數據中心對液冷仍持觀望態度:認可液冷的散熱與節能優勢,會主動了解液冷產品、技術細節,在內部做學習或小型探索,但無公開的大規模液冷部署行動和計劃。

筆者收集了數據中心對液冷技術的諸多顧慮:

可靠性。數據中心第一要務是保障業務連續性,浸沒和噴淋式會直接接觸電子器件,是否會出現器件腐蝕情況,包括冷板式在內,冷卻液泄露怎么辦,服務器功能和使用壽命是否會受影響,液冷技術的可靠性是數據中心、用戶的大擔憂。

部署難度。液冷不僅僅改變制冷系統,數據中心的服務器、網絡設備、監控系統等都要隨之改變,新建數據中心從設計到建設、調試運維都與此前不同,此前項目經驗等無法復用,周期長難度大。存量數據中心的承重、管路等設計因循傳統機架,如果進行液冷部署改造,同樣會帶來新增成本、部署難度問題。

運維與售后。無論冷板、浸沒還是噴淋,液體進入到IT機柜內部,給建設、測試和運維帶來新的挑戰,目前缺乏成熟的運維經驗和標準化要求。此外,有數據中心提出,液冷的服務器等產品售后維修政策也尚不成熟。

成本。雖然液冷能耗低所以數據中心OpEx降低,但前期CapEx明顯高于風冷數據中心。哪怕忽視液冷服務器、CDU等設備的價格,單冷卻液價格也并非小數目,阿里云就曾對外表示“使用的冷卻液價格堪比茅臺”。

除去上述疑慮,數據中心對液冷“謹慎”的最根本原因,在于液冷的市場接受度——數據中心的互聯網、電商、視頻、金融等用戶大多尚不接受液冷。

液冷主流成必然 爆發尚欠一陣風

提高新技術的接受度是一個漫長的過程,如今政策為液冷按下了快進鍵。

由于用電量大,社會普遍將數據中心定義為高耗能產業,隨著“2030年碳達峰、2060年碳中和”戰略目標提出,數據中心面臨的能耗限制愈來愈嚴。

2021年7月,工信部印發的《新型數據中心發展三年行動計劃(2021-2023年)》要求:“到2023年底,新建大型及以上數據中心PUE降低到1.3以下,嚴寒和寒冷地區力爭降低到1.25以下。”

2021年12月,發改委等四部門發布的《貫徹落實碳達峰碳中和目標要求推動數據中心和 5G 等新型基礎設施綠色高質量發展實施方案》表示“新建大型、超大型數據中心電能利用效率不高于 1.3,逐步對電能利用效率超過 1.5 的數據中心進行節能降碳改造。”

中央及各級主管部門政策對數據中心PUE考核提出更嚴要求,各地能評指標持續收緊,數據中心面臨前所未有的能耗和散熱挑戰。多位數據中心企業高管向筆者表示,上述政策的出臺,使得“液冷成為必然”,嚴格政策限制下“數據中心要想合規,PUE值再繼續往下降,只能靠液冷了。”

過去一年以來,雙碳政策助推下,液冷技術的研發投入加大、產品和技術成熟度不斷提高,液冷在數據中心的發展前景毋庸置疑。

但要想實現液冷在數據中心的爆發,不僅僅欠缺全產業的共同努力,欠缺更多行業標準的制定與完善,還差一場風,一場擁有強驅動力的風——市場需求。

從萌芽到如今再度興起,液冷的發展始終源于計算的散熱。

如今政策、技術條件都已經具備,當下一波海量數據計算爆發式增長,帶動市場對數據中心的需求爆發時,液冷才將真正迎來在數據中心的爆發。

這個時間或許是兩年后、四年后,又或許,很快來臨。

關注中國IDC圈官方微信:idc-quan 我們將定期推送IDC產業最新資訊

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高興

  • 震驚

  • 憤怒

  • 無聊

  • 無奈

  • 謊言

  • 槍稿

  • 不解

  • 標題黨
2025-04-29 17:08:57
2025-04-22 15:33:36
2024-09-20 18:08:41
2024-09-09 17:58:54
國內資訊 珠海工廠篤行二十載 施耐德電氣引領數據中心制冷革新
目前,珠海工廠已成為施耐德電氣全國唯一、全球房級空調產量最大的精密空調生產基地,樹立起精密空調領域的行業標桿。 <詳情>
2024-08-06 13:28:50
數據中心液冷 首批數據中心液冷國標立項 2026年發布
兩項數據中心液冷領域國家標準為《數據中心冷板式液冷系統技術規范》與《數據中心冷板式液冷機柜通用規范》。 <詳情>
倒計時1天 | 來服貿會參加一場貫穿AI與算力全景生態的活動
2025-09-12 13:27:07
浙江南湖(中國航信)人工智能產業園區揭牌!
2025-09-10 16:44:00
幽靈數據中心困擾美國 電力公司陷預測困境
2025-09-05 17:19:01
投資84.66億元,新星市國信清控智算中心30000P建設項目招標公告
2025-09-05 17:17:01
福建華銳總經理林波一行到訪螞蟻集團,深入洽談智算領域長期戰略合作方向
2025-09-05 13:17:36
【ISSE國際智慧空間展】智構空間,慧聚未來 | 預登記早鳥福利發送,展會亮點搶先看!
2025-09-05 10:52:41
規劃320000P、24000架,飛拓張家口智算中心一期中標候選人公示發布
2025-09-04 17:13:24
風液混合:數據中心冷卻不容忽視的“中場戰事”
2025-09-04 17:11:55
【9月ISSE國際智慧空間展】數據中心篇:數字基座 助力數字貿易生態
2025-09-03 16:47:32
智算中心新麻煩:AI大模型訓練功率波動將危及電網?
2025-09-03 10:41:33
總投資8億元、1300P,平潭兩岸融合智算中心二期項目9月即將投產
2025-09-02 16:32:29
【數字匠人】盛達全球王鼎然:從本土到全球:以匠人精神重塑機房搬遷生態價值鏈
2025-09-02 16:31:12
715.5億營收的背后,中興通訊用“AI+算力”再造增長極
2025-09-02 16:29:06
Gartner張吟鈴:算力“過?!本哂兄芷谛院蛥^域性
2025-09-02 12:19:12
劉烈宏:“東數西算”戰略成果顯著,八大樞紐節點智算規模已占全國八成
2025-09-01 16:24:22
主站蜘蛛池模板: 凯里市| 称多县| 蕲春县| 那坡县| 岫岩| 望都县| 淮阳县| 清徐县| 藁城市| 孟村| 宁武县| 大渡口区| 界首市| 吉林省| 涪陵区| 永春县| 吉隆县| 祁连县| 建湖县| 绍兴县| 北碚区| 内丘县| 临西县| 广宗县| 衡水市| 内乡县| 景洪市| 绵阳市| 南投市| 明水县| 永福县| 阿瓦提县| 曲阜市| 青铜峡市| 淮北市| 湖南省| 洛隆县| 房山区| 河间市| 太仓市| 怀远县|