輝達(NVIDIA)揭示 AI 工廠新藍圖,力推「從晶片到電網」開放式資料中心生態系

發佈時間:2025/10/15

AI 工廠時代來臨 新一代網路技術 "Spectrum-X" 登場

輝達(NVIDIA)在美國 2025 年開放運算計畫全球高峰會(OCP Global Summit)前夕舉行媒體說明會,正式發表下一代人工智慧(AI)資料中心的全新願景——「Chip-to-Grid(從晶片到電網)」開放式整合架構,涵蓋從晶片設計、電力、散熱到網路的全方位系統整合。

輝達資料中心行銷主管 Joe Delett 表示,隨著 AI 算力需求爆發,資料中心正從傳統伺服器群轉型為「AI 超級工廠(AI Factory)」,成為能訓練模型、推論並產生收益的智慧製造樞紐。他指出:「未來的超大型 AI 資料中心,必須讓網路、運算、電力與散熱系統協同設計,才能達到極致效率。」

在這次大會中,輝達宣布與 Meta 合作導入「Spectrum-X Ethernet」技術,構建開放式高效能 AI 網路。這一技術平台包含「Spectrum-XGS」與「Spectrum-X Ethernet」,是目前唯一針對大規模 AI 工作負載設計的乙太網路基礎設施。

官方指出,該技術能提供 1.4 倍訓練效能3 倍推論效能,且在不同工作負載間不會發生延遲或衝突。甲骨文的 Oracle Cloud 也將在其「星際之門(Stargate)」資料中心導入此技術,以提升 GPU 間的通訊效率。

Delett 補充表示:「傳統資料中心容易產生網路瓶頸,而 Spectrum-X 可維持超過 95%的 GPU 通訊效率,使整個叢集如同單一高效能超級工廠運作。」

新 GPU 世代:Blackwell 與 Rubin 亮相

輝達同時公開了新一代 GPU 產品線。繼「Hopper」之後的「Blackwell」GPU,再次刷新開源基準測試紀錄,推論速度比前一代快達 15 倍

Delett 指出,高效能 AI 運算可直接轉化為高報酬:「只需投資 500 萬美元的設備與營運成本,即可創造 7500 萬美元的推論收益,投資報酬率(ROI)提升 15 倍。」

下一代 GPU「Rubin」則基於 Blackwell 架構打造,具備 8 ExaFLOPS 運算效能,並採用 400Gbps SERDES 技術,使 NVLink 頻寬翻倍

能源與冷卻革新:導入 800V 直流與浸沒式散熱

為了提升資料中心能源效率,輝達引入 800V DC 直流供電系統全液體浸沒式散熱技術。該技術可在 45°C 的高溫冷卻液環境中穩定運作,既能降低冷卻成本,也提升整體運算效能。

此外,輝達也在電力模組中加入超級電容(Supercapacitor),使電力儲能容量提升 20 倍,確保 AI 工廠在高密度運算下仍能維持穩定供電。

開放合作:攜手英特爾、三星、富士通

輝達同時宣布擴大開放式合作生態。

Delett 強調:「透過硬體與軟體的協同設計,我們讓效能不斷自我優化。Blackwell 與 Rubin 的表現,會隨著時間持續進化。」

輝達以「Chip-to-Grid(從晶片到電網)」為核心戰略,從單一晶片供應商邁向完整 AI 基礎設施供應者,進而鞏固其在 AI 工廠時代的主導地位,也代表資料中心產業將全面進入「整合設計與液冷電力」的新競爭階段。

提到的股票

概念股

參考資料

編輯整理:Celine