:::
科研案例
AI算力躍進,決戰散熱技術
發佈日期:2025-12-15
案例摘要:
經濟部產業技術司也透過科技專案,長期聚焦於高效能運算與先進散熱技術的研發,並攜手工研院及其陽科技、一詮精密、廣運、復盛精密、訊凱國際、技嘉科技等國內企業,共同打造完整的AI伺服器散熱供應鏈生態系,努力讓台灣從「散熱元件供應大國」轉型為「高階系統解決方案出口者」。
內容說明:
大量GPU進行訓練與推理,產生極高熱能,如何有效降溫,決定資料中心能源效率表現
隨著人工智慧(AI)與高效能運算(HPC)應用蓬勃發展,全球資料中心的能源消耗快速攀升,散熱技術正面臨前所未有的挑戰與契機。特別是近期掀起話題的ChatGPT等生成式AI,需要大量GPU進行訓練與推理,其所使用的高階晶片功耗動輒千瓦以上,使得伺服器機櫃產生極高的熱能。散熱不再只是配角,而是決定AI算力能否穩定發揮、資料中心能源效率能否提升的關鍵環節。
高階晶片功耗所謂的「千瓦級」,指的是其熱設計功耗(Thermal Design Power,TDP),表示晶片在高負載運作時所產生的最大熱量,單位為瓦特(W)。TDP數值愈高,表示晶片在高速運作時發熱愈大,對散熱系統的要求也愈高。這項指標不僅影響伺服器運行穩定性,更是規劃AI資料中心時的關鍵考量之一。
自2017年以來,英特爾(Intel)、超微(AMD)、輝達(NVIDIA)三大晶片廠商旗艦CPU與GPU的TDP 均呈現大幅上升趨勢:Intel Xeon伺服器處理器從200W,預計到2025年提升至500W;AMD EPYC亦從180W躍升至500W,而輝達的資料中心GPU則從300W(V100)預期攀升至1,000W(B100/B200),成長幅度最高。這些數據反映出AI與HPC所需之運算密度快速上升,直接推升晶片熱設計功耗與散熱需求。

▲ 英特爾、超微、輝達旗艦晶片TDP變化趨勢。
資料來源:工研院產科國際所整理,2025年8月。
晶片功耗不斷提升,讓傳統依靠風扇與鰭片的氣冷方式,已經無法有效應對高熱密度的負載。產業界因此加速轉向液冷與雙相冷卻等更高效率的技術。尤其是當晶片的散熱設計功率(TDP)突破1.5千瓦時,傳統的單相水冷用水流方式帶走熱能,已漸顯不足,必須依靠液體氣化吸熱的雙相冷卻,甚至直接使用整機浸沒式液冷系統,也就是把伺服器放進特殊絕緣液體中,藉由液體的沸騰與冷凝循環來帶走熱量,才能有效且大幅提升熱傳導與散熱效能。
舉例來說,Supermicro在COMPUTEX 2025發表資料中心積木解決方案(DCBBS),以及新一代DLC2液冷技術。這套系統能以最高45°C的進水來提升冷卻效率,散熱效率高達98%,換句話說,它能降低約四成用電量、減少六成空間使用,並節省四成的用水量,讓總擁有成本(TCO)下降約兩成,且最快三個月就能完成部署落地。此外,Amazon Web Services(AWS)也於2025年公開其InRow Heat Exchanger (IRHX)液冷技術,這項技術最大優點是不用大幅改建既有機房,就能支援高功耗GPU的運行需求。
在全球散熱技術競賽中,台灣已是風扇、熱導管、散熱模組等關鍵零組件的主要供應者,相關產品市占率超過七成。憑藉深厚的電子產業基礎與政府的支持,近年來取得多項突破性進展,經濟部產業技術司也透過科技專案,長期聚焦於高效能運算與先進散熱技術的研發,並攜手工研院及其陽科技、一詮精密、廣運、復盛精密、訊凱國際、技嘉科技等國內企業,共同打造完整的AI伺服器散熱供應鏈生態系,努力讓台灣從「散熱元件供應大國」轉型為「高階系統解決方案出口者」。
其中一項代表成果「千瓦級蒸汽腔均溫蓋板」,是在晶片表面導入特殊設計的蒸汽腔均溫蓋板(VC Lid),利用水的相變化原理大幅提升熱傳導效率,單位面積帶熱能力達傳統銅質介面十倍,晶片散熱效果可提升三成至一倍。
目前這項技術已經打入美國高效能運算晶片大廠供應鏈,成為新一代高功率AI晶片的核心散熱解方。另一項突破則是「雙相浸沒式冷卻系統」,將整機設備浸沒在絕緣液體中,透過液體沸騰與冷凝循環帶走熱量,散熱能力突破過去單相浸沒式約600W的上限,一舉提升至1,500W以上,成功突破了現有散熱天花板,成為全球首創的千瓦級晶片冷卻技術。
從晶片到系統的完整散熱方案,台灣不僅掌握了尖端散熱技術研發能力,更能與國際大廠接軌合作,在經濟部產業技術司的推動下,千瓦級散熱模組與雙相浸沒式冷卻系統,也已成功應用於全球IC設計大廠,協助應對新世代高功耗AI晶片的熱管理需求,讓晶片穩定性與能源效率同步提升,在全球HPC產業鏈中占有一席之地。未來可望持續拓展應用至邊緣AI、車載HPC、國防通訊、高速資料交換與衛星地面站等高熱密度設備領域,強化我國在全球運算基礎設施供應鏈中的戰略地位。
作者:陳祉妤|工研院產科國際所產業分析師
水與熱之爭,千瓦級技術上場
AI、雲端與高效能運算(HPC)的熱潮持續推升晶片功耗上限。十年前,伺服器處理器的散熱設計功率(TDP)多在200至300W,如今最新一代的AI加速器與高階GPU,單顆功耗動輒超過700W,新世代晶片甚至逼近1,400W。散熱,已從輔助角色變成「運算性能瓶頸的決定因素」。傳統氣冷技術雖然成本低,但受限於空間與效率,已難以應付千瓦級晶片的高熱需求。隨著算力不斷提升,液冷逐漸取代氣冷,成為新一輪資料中心競爭的核心技術。
液冷主要分為冷板與浸沒式兩種。市場研究機構MarketsandMarkets預估,全球資料中心液冷市場將從2025年的28.4億美元,成長到2032年的211.4億美元,年複合成長率(CAGR)達33.2%。其中,冷板液冷滲透率最高,預計2026年將應用於超過一半的新建高效能資料中心;浸沒式雖然比例較低,但在高密度部署中被視為有效解決方案。業界普遍認為,2025年至2027年將是液冷技術從驗證走向大規模商用的關鍵轉折期。
看準這股趨勢,經濟部產業技術司支持工研院及國內業者,展開冷板與浸沒式液冷的研發與實測,讓台灣能與國際同步接軌,並逐步進入國際供應鏈。其中,冷板技術已是液冷散熱的主流,透過冷卻液直接引導到晶片正上方的金屬腔微流道,藉此把熱帶走。若是單相冷板(Single-Phase Cold Plate),冷卻液在吸熱的過程中始終保持液態,系統穩定、控制容易,適合大規模部署。至於雙相冷板(Two-Phase Cold Plate),則是利用液體受熱後汽化的特性,能吸收更多能量,散熱效率比單相再提升,但設計和壓力控制的要求更高。
目前在NVIDIA合作的新一代AI伺服器方案中,Blackwell晶片已導入單相冷板系統,搭配高效熱交換器,實現單晶片千瓦級散熱。而AMD的Instinct MI300系列加速器晶片,也已針對液冷環境進行優化。
浸沒式冷卻是一種把整台設備直接泡在絕緣冷卻液裡的方式,能大幅減少風扇使用,非常適合空間緊湊、耗電量又高的運算環境。單相浸沒式的做法是讓冷卻液保持液態,靠循環泵(幫浦)把熱帶走,系統設計相對簡單;雙相浸沒式則是讓冷卻液在高溫下沸騰吸熱,蒸氣上升後再被冷凝器降溫成液體回流,散熱效率更高,甚至能處理單顆超過1.5kW的晶片。2024年時,日本NTT就在千葉縣建立「Data Center Trial Field」測試場域,同時驗證浸沒式與液冷系統,並在既有機房試行雙相液冷,尋找既能有效降溫又能節能的解決方案。
除技術突破,散熱的另一個重點在於能源效率與永續。晶片散熱不僅關乎性能,更攸關整體能耗。空冷機房的能源使用效率(Power Usage Effectiveness,PUE)通常在1.6以上,而液冷系統可將PUE壓低到1.3以下,代表在同樣的晶片算力下,冷卻所需的電力支出會明顯減少。隨著全球推動碳中和與用電限制,液冷已不再是高性能運算的「錦上添花」,而是邁向千瓦級晶片的必然選擇。
因應高功耗晶片的散熱挑戰,技術司已藉由科技專案,支持工研院針對超高發熱晶片與高密度伺服器的應用情境,展開冷板液冷與浸沒式冷卻的全方位技術部署。千瓦級晶片的時代已經來臨,但過去令人頭痛的散熱難題,正在透過冷板與浸沒式等新技術逐步化解,未來AI伺服器與HPC系統發展將不再受限晶片散熱瓶頸。
冷板技術將成為大規模AI叢集的標配,而浸沒式則在超高密度伺服器與極端功耗場景中大放異彩。下一步產業將迎來液冷標準化、模組化與餘熱利用的新戰場,換言之,晶片性能的比拚,不再只是奈米製程與架構設計的競賽,也是一場關於「水」與「熱」的戰爭。千瓦級晶片散熱時代,已經來臨。

▲ 空氣冷卻與液體冷卻方案。
資料來源:工研院,2025年9月。
作者:簡恆傑|工研院電光系統所正工程師暨專案經理
雙相浸沒式,超級PC冷卻祕技
在超級電腦與AI運算的軍備競賽中,最困難的挑戰既不是晶片製程節點、也不是演算法瓶頸,而是熱。當今單顆高階GPU熱設計功耗(TDP)已突破千瓦等級,散熱成了限制晶片發揮的關鍵挑戰。
原本運用在核能反應爐的冷卻方式—雙相浸沒式冷卻(Two-Phase Immersion Cooling),如今正走進資料中心與高效能運算(HPC)的舞台中央。這項技術不僅是超級電腦的隱形武器,更可能改寫未來全球AI與HPC的資料中心硬體設計版圖。為此,經濟部產業技術司積極布局國內散熱技術能量,支持工研院與國內業者投入研發與測試,助台灣資通訊產業搶占先機。
不同於傳統氣冷或單相水冷板技術,雙相浸沒式讓伺服器直接「浸泡」在絕緣冷卻液中運行。這些冷卻液具備電氣絕緣性,沸點通常落在40至60℃。當晶片發熱時,液體吸熱後沸騰產生蒸汽泡,蒸汽泡上升接觸到冷凝器,冷凝器將蒸汽降溫凝結,凝結後的冷卻液再度回流,形成自然循環。整個過程發生在封閉液槽內,不需大量風扇與風道,傳熱效率更是傳統氣冷的數十倍,不僅能解決高階晶片的散熱問題,也能大幅降低資料中心的能源消耗。

▲ 雙項浸沒式冷卻循環原理。
資料來源:工研院,2025年9月。
此外,相較於冷板水冷,雙相浸沒式冷卻具備有全面冷卻、架構簡潔與能耗降低等顯著優勢。首先,它能均勻覆蓋所有元件,不僅僅針對CPU或GPU核心,連同電源模組、記憶體與網路卡都能獲得高效散熱。其次,因為免去了複雜的冷板、水管與接頭設計,系統結構變得更簡潔,維護成本降低。同時,由於伺服器不再需要大量的高速風扇,大幅減少噪音與能耗,可以讓整體能源使用效率(PUE)更接近理想值。對資料中心而言,這不只是解決高功耗的技術,更是提升能源效率與永續發展的長遠策略。
市場研究機構Business Research Industry調查,全球資料中心浸沒式冷卻市場2025年規模將達12.4億美元,並以27.94%的年複合成長率(CAGR)擴張,2034年將突破39.8億美元。雖然相較於冷板式液冷,浸沒式需要重新設計機房的基礎建設,短期市場滲透率不及冷板技術,但長期成長潛力仍被高度看好。
推動這股浪潮的動能主要來自三方面。第一,AI晶片發熱量正快速上升,最新一代GPU發熱量已達1,200W以上。第二,全球永續環境趨勢下,節能法規與碳中和目標將推動資料中心採取更低PUE的散熱方案。第三,高算力密度的空間要求下,雙相浸沒式的高密度伺服器部署特性,非常適用於未來小型化與模組化的推論型AI資料中心需求。
不過,目前雙相浸沒式在市場導入的進程中,仍存在環境、成本與標準化三大難題。首先是冷卻液成本高昂,雙相浸沒式的冷卻液為氟化類液體,這種全氟/多氟烷基物質(PFAS)氟化液在歐盟已面臨逐步禁用壓力,更環保與符合安全要求的新型冷卻液開發刻不容緩。此外雙相冷卻液的價格高昂,如3M Novec™每公升可達數十美元,高昂的冷卻液成本支出,造成多數業者維持觀望的態度。最後,浸沒式技術在冷卻液與伺服器之間的材料相容性,以及可靠度測試及安全規範仍缺乏統一標準,這也延緩這項冷卻技術的市場化腳步。
面對挑戰,經濟部產業技術司已補助工研院,針對雙相浸沒式進行晶片沸騰器、腔體冷凝器與性能驗證用腔體平台開發,為雙相浸沒式奠定本土研發基礎。雙相浸沒式不僅是超級電腦的冷卻秘技,也可能是AI與高密度運算的必備核心技術。
在可見的未來,隨著散熱設計提升、冷卻液材料的環保創新,與系統規範標準化,這項技術有望逐漸貼近市場,對未來的超級電腦與高算力AI應用而言,雙相浸沒式冷卻或許就是打開下一個十年的關鍵鑰匙。
作者:簡恆傑|工研院電光系統所正工程師暨專案經理
點閱數:
651