伺服器散熱技術:風冷 vs 水冷完整比較、最新技術解析【2025】|VibeFix

伺服器散熱技術完整解析|風冷 vs 水冷

伺服器散熱不良會造成什麼問題

「伺服器跑一跑自己會關機...」

「機房電費比租金還貴...」

這些問題通常都跟散熱有關。伺服器過熱會自動降頻甚至關機,而散熱系統的電費往往佔資料中心總電費的 30-40%。

隨著 AI 運算需求爆發,單台伺服器功耗從過去的 200W 飆升到現在的 1000W 甚至更高,散熱技術變得比以往更重要。

server-overheating-consequences-diagram

一、散熱基礎知識

1.1 熱從哪裡來?

伺服器的熱量主要來自:

元件 發熱比例 說明
CPU 40-50% 運算核心,發熱最大來源
GPU 30-40% AI/圖形運算,功耗極高
記憶體 10-15% DDR 高速運作會發熱
儲存 5-10% SSD/HDD 運作發熱
電源 5-10% 電源轉換產生熱能

1.2 散熱的基本原理

熱量傳遞有三種方式:

  1. 傳導:熱量透過接觸傳遞(如散熱膏、散熱片)
  2. 對流:熱量透過流體帶走(如風扇、冷卻液)
  3. 輻射:熱量透過電磁波散出(效果較小)

伺服器散熱主要靠傳導 + 對流。

1.3 什麼是 PUE?

PUE(Power Usage Effectiveness):資料中心能源效率指標。

公式:PUE = 總用電 ÷ IT 設備用電

PUE 效率 說明
2.0 散熱用電等於 IT 用電
1.5 一般 傳統資料中心
1.2 良好 優化過的機房
1.1 優秀 Google 等級

PUE 越接近 1 越好,代表散熱耗電越少。


二、風冷散熱

2.1 風冷運作原理

風冷是最傳統的散熱方式。

流程:
1. 冷空氣從機櫃前方進入
2. 經過伺服器,帶走熱量
3. 熱空氣從後方排出
4. 冷氣系統冷卻空氣,循環使用

2.2 風冷的類型

類型 說明 適用
伺服器內建風扇 每台伺服器自帶風扇 基本配置
精密空調 專業機房空調 資料中心
冷熱通道隔離 分開冷熱氣流 中大型機房
列間冷卻 在機櫃列間放冷氣 高密度機房

2.3 風冷的優缺點

優點:
- 技術成熟,維護簡單
- 成本較低
- 不需要額外管路

缺點:
- 散熱能力有限(約 300W/U)
- 噪音大
- PUE 較高(1.4-1.8)

hot-cold-aisle-containment-diagram

三、水冷散熱

3.1 水冷運作原理

水冷利用液體的高比熱容,更有效地帶走熱量。

流程:
1. 冷卻水流過 CPU/GPU 的水冷頭
2. 帶走熱量的水流到散熱端
3. 透過冷水機或冷卻塔散熱
4. 冷卻後的水循環回來

3.2 水冷的類型

類型 說明 散熱能力
後門熱交換器 機櫃後門有水冷系統 中等
列間水冷 冷卻單元放在機櫃列間 中高
直接液冷(DLC) 水管直接接到 CPU/GPU
浸沒式 整台伺服器泡在冷卻液 極高

3.3 直接液冷(DLC)

DLC(Direct Liquid Cooling):冷卻液直接接觸 CPU/GPU。

優點:
- 散熱效率極高(可達 1000W+)
- PUE 可降到 1.1-1.2
- 噪音大幅降低

缺點:
- 需要專用冷卻設備
- 維護複雜
- 初期成本高

適用:AI 伺服器、高效能運算(HPC)

3.4 水冷 vs 風冷比較

項目 風冷 水冷
散熱能力 300W/U 1000W+/U
初期成本
維護成本 中高
PUE 1.4-1.8 1.1-1.3
噪音
適用場景 一般伺服器 高功耗運算
air-cooling-vs-liquid-cooling-comparison

四、浸沒式冷卻

4.1 什麼是浸沒式冷卻?

整台伺服器浸泡在不導電的冷卻液中。

這不是開玩笑,是真的技術。

4.2 浸沒式冷卻類型

類型 說明 效率
單相浸沒 冷卻液保持液態
兩相浸沒 冷卻液沸騰氣化帶走熱量 極高

4.3 浸沒式的優缺點

優點:
- 散熱效率最高
- PUE 可達 1.02-1.05
- 完全無噪音
- 無需空調系統

缺點:
- 成本極高
- 維護需要專業設備
- 冷卻液昂貴
- 設備需要改裝

4.4 誰在用浸沒式冷卻?

  • Microsoft:海底資料中心實驗
  • Google:部分 AI 訓練設施
  • Bitcoin 礦場:24/7 高負載運算

目前主要用於極高密度、追求極致效率的場景。

immersion-cooling-system-diagram

五、AI 伺服器散熱趨勢

5.1 AI 伺服器的散熱挑戰

NVIDIA DGX H100:單機功耗超過 10kW。

傳統風冷根本冷不了。

5.2 液冷成為主流

AI 伺服器幾乎都採用直接液冷:
- NVIDIA 官方推薦液冷方案
- Google、Meta 大規模部署液冷
- 台灣廠商積極投入液冷模組

5.3 未來趨勢

趨勢 說明
液冷普及 從高階延伸到中階伺服器
兩相浸沒 效率更高,逐漸商業化
熱能回收 把伺服器廢熱拿來供暖
邊緣液冷 Edge 設備也開始用液冷

FAQ 常見問題

Q1:小公司需要考慮水冷嗎?

A:通常不需要。如果只有幾台一般伺服器,風冷就夠了。除非你跑 AI 訓練或高密度運算。

Q2:水冷會不會漏水損壞設備?

A:專業水冷系統有多重保護機制,漏水風險很低。但確實需要定期維護和監控。

Q3:風冷機房怎麼降低 PUE?

A:冷熱通道隔離、提高空調效率、使用變頻冷氣、適當提高機房溫度(ASHRAE 建議可到 27°C)。

Q4:浸沒式冷卻液是什麼?

A:通常是 3M Novec 系列或礦物油。特點是不導電、沸點適中、對設備無害。但價格昂貴。

Q5:伺服器可以不開冷氣嗎?

A:不建議。伺服器建議在 18-27°C 環境運作。溫度過高會降頻,過低會增加結露風險。


散熱方案選擇建議與規模對照表

散熱選擇建議:
| 規模 | 功耗 | 建議方案 |
|------|------|----------|
| 小型辦公室 | <5kW | 風冷 + 冷氣 |
| 中型機房 | 5-50kW | 精密空調 + 冷熱通道 |
| 大型資料中心 | 50kW+ | 混合風冷水冷 |
| AI/HPC | 高密度 | 直接液冷或浸沒式 |

想了解更多伺服器硬體知識,請參考 伺服器完整指南

延伸閱讀:
- 伺服器類型總覽
- 伺服器機櫃選購指南
- AI 伺服器完整指南
- 伺服器 CPU 怎麼選


還是搞不定?讓我們幫你

專業工程師團隊 24 小時內回覆,幫你解決各種技術問題。

免費諮詢


參考資料

  1. ASHRAE,「Thermal Guidelines for Data Processing Environments」,ASHRAE(2021)
  2. Google,「Data Center Efficiency」,Google Data Centers(2024)
  3. NVIDIA,「DGX Systems Cooling Requirements」,NVIDIA(2024)
  4. Uptime Institute,「Data Center Cooling Strategies」,Uptime Institute(2024)
分享文章:
V

VibeFix

專門解決 AI Vibe Coding 後的疑難雜症,讓你的專案順利上線。

這篇文章有幫到你嗎?

如果還有問題,讓我們直接幫你解決!

聯繫我們