商傳媒|記者責任編輯/綜合外電報導
針對輝達新一代Blackwell晶片耗能劇增等挑戰,全球最大雲端服務商亞馬遜旗下AWS(Amazon Web Services)宣布,將推出自研液冷硬體「In-Row Heat Exchanger(IRHX)」,以解決AI訓練所需高密度GPU集群所帶來的冷卻瓶頸,並正式導入全新P6e運算實例支援客戶部署大型AI模型。
輝達GB200 NVL72是目前最密集的AI GPU方案,單一機架即整合72顆Blackwell GPU,需強效散熱設計。亞馬遜原本考慮全面改建液冷資料中心;但考量工程時程與水資源用量成本過高,遂選擇自研IRHX模組,可直接部署於現有與新建機房中,提供規模化液冷解方。
AWS運算及網通業務副總裁布朗(Dave Brown)指出:「現有液冷方案在其他供應商中或許適用小規模部署,但對AWS等超大規模營運商而言,完全無法滿足需求」。AWS進一步表示,P6e運算實例已正式上線,支援輝達Blackwell架構,鎖定大語言模型(LLM)與生成式AI應用。
據悉,AWS此舉將與微軟Azure與AI雲業者CoreWeave展開正面競爭,後者已提供GB200 NVL72相關叢集部署。亞馬遜多年來積極推動雲端硬體垂直整合策略,已具備自研通用運算晶片、AI加速器、儲存伺服器與網路交換器能力。根據亞馬遜2025年第一季財報,AWS創下自2014年來最高營業利潤率,該事業群為集團主要獲利來源。
除亞馬遜外,微軟2023年亦推出自家冷卻模組Sidekicks支援其Maia AI晶片,顯示液冷散熱已成雲端基礎建設關鍵技術。法人指出,高密度AI叢集趨勢將帶動台灣伺服器代工、熱交換器、液冷模組、導熱材料等族群需求上揚。
業界預期,隨著生成式AI導入加速、AI晶片功耗飆升,未來1~3年內,資料中心升級液冷需求將爆發式成長,可望成為升級AI基礎設施的下一波關鍵動能。