伺服器散熱技術完整解析|風冷 vs 水冷
伺服器散熱不良會造成什麼問題
「伺服器跑一跑自己會關機...」
「機房電費比租金還貴...」
這些問題通常都跟散熱有關。伺服器過熱會自動降頻甚至關機,而散熱系統的電費往往佔資料中心總電費的 30-40%。
隨著 AI 運算需求爆發,單台伺服器功耗從過去的 200W 飆升到現在的 1000W 甚至更高,散熱技術變得比以往更重要。

一、散熱基礎知識
1.1 熱從哪裡來?
伺服器的熱量主要來自:
| 元件 | 發熱比例 | 說明 |
|---|---|---|
| CPU | 40-50% | 運算核心,發熱最大來源 |
| GPU | 30-40% | AI/圖形運算,功耗極高 |
| 記憶體 | 10-15% | DDR 高速運作會發熱 |
| 儲存 | 5-10% | SSD/HDD 運作發熱 |
| 電源 | 5-10% | 電源轉換產生熱能 |
1.2 散熱的基本原理
熱量傳遞有三種方式:
- 傳導:熱量透過接觸傳遞(如散熱膏、散熱片)
- 對流:熱量透過流體帶走(如風扇、冷卻液)
- 輻射:熱量透過電磁波散出(效果較小)
伺服器散熱主要靠傳導 + 對流。
1.3 什麼是 PUE?
PUE(Power Usage Effectiveness):資料中心能源效率指標。
公式:PUE = 總用電 ÷ IT 設備用電
| PUE | 效率 | 說明 |
|---|---|---|
| 2.0 | 差 | 散熱用電等於 IT 用電 |
| 1.5 | 一般 | 傳統資料中心 |
| 1.2 | 良好 | 優化過的機房 |
| 1.1 | 優秀 | Google 等級 |
PUE 越接近 1 越好,代表散熱耗電越少。
二、風冷散熱
2.1 風冷運作原理
風冷是最傳統的散熱方式。
流程:
1. 冷空氣從機櫃前方進入
2. 經過伺服器,帶走熱量
3. 熱空氣從後方排出
4. 冷氣系統冷卻空氣,循環使用
2.2 風冷的類型
| 類型 | 說明 | 適用 |
|---|---|---|
| 伺服器內建風扇 | 每台伺服器自帶風扇 | 基本配置 |
| 精密空調 | 專業機房空調 | 資料中心 |
| 冷熱通道隔離 | 分開冷熱氣流 | 中大型機房 |
| 列間冷卻 | 在機櫃列間放冷氣 | 高密度機房 |
2.3 風冷的優缺點
優點:
- 技術成熟,維護簡單
- 成本較低
- 不需要額外管路
缺點:
- 散熱能力有限(約 300W/U)
- 噪音大
- PUE 較高(1.4-1.8)

三、水冷散熱
3.1 水冷運作原理
水冷利用液體的高比熱容,更有效地帶走熱量。
流程:
1. 冷卻水流過 CPU/GPU 的水冷頭
2. 帶走熱量的水流到散熱端
3. 透過冷水機或冷卻塔散熱
4. 冷卻後的水循環回來
3.2 水冷的類型
| 類型 | 說明 | 散熱能力 |
|---|---|---|
| 後門熱交換器 | 機櫃後門有水冷系統 | 中等 |
| 列間水冷 | 冷卻單元放在機櫃列間 | 中高 |
| 直接液冷(DLC) | 水管直接接到 CPU/GPU | 高 |
| 浸沒式 | 整台伺服器泡在冷卻液 | 極高 |
3.3 直接液冷(DLC)
DLC(Direct Liquid Cooling):冷卻液直接接觸 CPU/GPU。
優點:
- 散熱效率極高(可達 1000W+)
- PUE 可降到 1.1-1.2
- 噪音大幅降低
缺點:
- 需要專用冷卻設備
- 維護複雜
- 初期成本高
適用:AI 伺服器、高效能運算(HPC)
3.4 水冷 vs 風冷比較
| 項目 | 風冷 | 水冷 |
|---|---|---|
| 散熱能力 | 300W/U | 1000W+/U |
| 初期成本 | 低 | 高 |
| 維護成本 | 低 | 中高 |
| PUE | 1.4-1.8 | 1.1-1.3 |
| 噪音 | 大 | 小 |
| 適用場景 | 一般伺服器 | 高功耗運算 |

四、浸沒式冷卻
4.1 什麼是浸沒式冷卻?
整台伺服器浸泡在不導電的冷卻液中。
這不是開玩笑,是真的技術。
4.2 浸沒式冷卻類型
| 類型 | 說明 | 效率 |
|---|---|---|
| 單相浸沒 | 冷卻液保持液態 | 高 |
| 兩相浸沒 | 冷卻液沸騰氣化帶走熱量 | 極高 |
4.3 浸沒式的優缺點
優點:
- 散熱效率最高
- PUE 可達 1.02-1.05
- 完全無噪音
- 無需空調系統
缺點:
- 成本極高
- 維護需要專業設備
- 冷卻液昂貴
- 設備需要改裝
4.4 誰在用浸沒式冷卻?
- Microsoft:海底資料中心實驗
- Google:部分 AI 訓練設施
- Bitcoin 礦場:24/7 高負載運算
目前主要用於極高密度、追求極致效率的場景。

五、AI 伺服器散熱趨勢
5.1 AI 伺服器的散熱挑戰
NVIDIA DGX H100:單機功耗超過 10kW。
傳統風冷根本冷不了。
5.2 液冷成為主流
AI 伺服器幾乎都採用直接液冷:
- NVIDIA 官方推薦液冷方案
- Google、Meta 大規模部署液冷
- 台灣廠商積極投入液冷模組
5.3 未來趨勢
| 趨勢 | 說明 |
|---|---|
| 液冷普及 | 從高階延伸到中階伺服器 |
| 兩相浸沒 | 效率更高,逐漸商業化 |
| 熱能回收 | 把伺服器廢熱拿來供暖 |
| 邊緣液冷 | Edge 設備也開始用液冷 |
FAQ 常見問題
Q1:小公司需要考慮水冷嗎?
A:通常不需要。如果只有幾台一般伺服器,風冷就夠了。除非你跑 AI 訓練或高密度運算。
Q2:水冷會不會漏水損壞設備?
A:專業水冷系統有多重保護機制,漏水風險很低。但確實需要定期維護和監控。
Q3:風冷機房怎麼降低 PUE?
A:冷熱通道隔離、提高空調效率、使用變頻冷氣、適當提高機房溫度(ASHRAE 建議可到 27°C)。
Q4:浸沒式冷卻液是什麼?
A:通常是 3M Novec 系列或礦物油。特點是不導電、沸點適中、對設備無害。但價格昂貴。
Q5:伺服器可以不開冷氣嗎?
A:不建議。伺服器建議在 18-27°C 環境運作。溫度過高會降頻,過低會增加結露風險。
散熱方案選擇建議與規模對照表
散熱選擇建議:
| 規模 | 功耗 | 建議方案 |
|------|------|----------|
| 小型辦公室 | <5kW | 風冷 + 冷氣 |
| 中型機房 | 5-50kW | 精密空調 + 冷熱通道 |
| 大型資料中心 | 50kW+ | 混合風冷水冷 |
| AI/HPC | 高密度 | 直接液冷或浸沒式 |
想了解更多伺服器硬體知識,請參考 伺服器完整指南。
延伸閱讀:
- 伺服器類型總覽
- 伺服器機櫃選購指南
- AI 伺服器完整指南
- 伺服器 CPU 怎麼選
還是搞不定?讓我們幫你
專業工程師團隊 24 小時內回覆,幫你解決各種技術問題。
參考資料
- ASHRAE,「Thermal Guidelines for Data Processing Environments」,ASHRAE(2021)
- Google,「Data Center Efficiency」,Google Data Centers(2024)
- NVIDIA,「DGX Systems Cooling Requirements」,NVIDIA(2024)
- Uptime Institute,「Data Center Cooling Strategies」,Uptime Institute(2024)