輝達發表次世代 AI 平台「Rubin」 效能躍進、全面重塑資料中心架構

發佈時間:2026/01/06

6 顆晶片極限共設計 推論效能飆升 5 倍、AI 成本降至十分之一

輝達(NVIDIA)在 2026 年 CES 大展正式揭曉全面重新設計的次世代人工智慧(AI)運算平台「Rubin」,宣告其資料中心級 AI 基礎架構已進入全新世代。執行長黃仁勳於拉斯維加斯主題演講中指出,儘管 Rubin 晶片的電晶體數量僅較前一代增加 1.6 倍,但最大 AI 推論效能卻提升高達 5 倍,展現跳躍式成長。

Rubin 以發現暗物質證據的美國天文學家「薇拉・魯賓(Vera Rubin)」命名,目前已進入量產階段,預計 2026 年下半年開始大規模部署。

打破單晶片思維 六大核心晶片同步重設

黃仁勳指出,Rubin 的關鍵突破在於「極限共設計(Extreme Co-design)」。輝達首度打破每代僅更新一至兩顆晶片的慣例,將整個系統的六大核心元件全部重新設計,包括 Vera CPU、Rubin GPU、第六代 NVLink 交換器、ConnectX-9、BlueField-4 以及 Spectrum-6 網路交換晶片。

他強調,Vera CPU 與 Rubin GPU 並非單純同時推出,而是從架構層級即進行深度整合,能以雙向、高頻寬、低延遲方式共享資料,網路卡與交換晶片也為此量身打造,直到整體平台成熟才對外揭露。

NVFP4 精準運算技術登場 推論速度再翻倍

Rubin 平台另一大亮點,是輝達全新精準度架構 NVFP4(4 位元浮點)Tensor Core。黃仁勳表示,NVFP4 並非單一資料格式,而是能依照 Transformer 模型各層需求,動態調整精準度與運算結構。

在需要高準確度的層級採用 FP8,而在可容忍誤差、運算量龐大的區段切換至 NVFP4,並於硬體層級實現,使整體推論速度提升逾 2 倍,並計畫推動為產業標準。

無線化模組設計 組裝 5 分鐘、全液冷運作

在硬體形態上,Vera Rubin Compute Tray 也徹底翻新。單一模組整合 2 顆 Vera CPU、4 顆 Rubin GPU、8 顆 ConnectX-9 與 1 顆 BlueField-4,模組內完全取消纜線設計。

黃仁勳指出,過去 Blackwell 系統需 43 條內部線材,而 Rubin 透過晶片共設計完全消除佈線,使整機組裝時間從 2 小時縮短至 5 分鐘,並採用 45 度溫水進行 100% 液冷,無需額外冷卻設備,可節省約 6%資料中心總耗電。

18 個運算模組搭配通訊交換層,即構成 Vera Rubin NVL72 機櫃,72 顆 GPU 可如同單一巨型 GPU 運作。

Vera CPU 主打能效比 網路頻寬同步升級

Rubin 平台的大腦 Vera CPU,採用相容 Armv9.2 的 88 顆客製 Olympus 核心,透過「空間多執行緒(Spatial Multithreading)」設計,讓 176 條執行緒皆能維持接近完整效能,達到等同 176 顆實體核心的運算效果。

在網路方面,第六代 NVLink 交換器導入 400Gbps SerDes 技術,單一機櫃內頻寬高達 240TB/s;ConnectX-9 網卡則為每顆 GPU 提供 1.6Tbps 傳輸能力,顯著強化叢集效能。

訓練效率大增 推論成本降 9 成

輝達表示,Rubin 系統在訓練 10 兆參數等級模型時,僅需 Blackwell 四分之一的系統規模,即可在相同時間內完成任務;資料中心「每瓦產出(Factory Throughput)」提升約 10 倍,AI 推論成本可望降至原本的十分之一。

此外,Rubin 平台全面支援「機密運算(Confidential Computing)」,確保資料在傳輸、儲存與運算過程中皆維持加密。

雲端巨擘搶先採用 鎖定 AI 工廠時代

輝達透露,微軟(Microsoft)、亞馬遜旗下 AWS、Google Cloud 與甲骨文(Oracle)等雲端服務商,已規劃在 2026 年下半年導入 Vera Rubin NVL72 機櫃,打造新一代「AI 工廠」。輝達也同步推進機器人、自駕車與實體 AI 應用,試圖將 Rubin 平台從資料中心延伸至整個產業生態系。

黃仁勳強調:「摩爾定律已放緩,未來 AI 的突破,必須靠整個系統的重構。」Rubin 正是輝達為下一個 AI 十年所押下的關鍵籌碼。

提到的股票

概念股

參考資料

編輯整理:Celine