輝達(NVIDIA)今年八成高階 GPU 採用 Blackwell 架構,AI 伺服器需求推升出貨動能

發佈時間:2025/07/28

根據市調機構 TrendForce 最新預測,輝達(NVIDIA)今年出貨的高階圖形處理器(GPU)中,超過 80%將採用全新 Blackwell 架構。隨著人工智慧(AI)伺服器需求強勁,包括 GB200 與 HGX B200 等「超級晶片」產品已正式進入大規模出貨階段。

雲端大廠擴建資料中心 ODM 訂單湧現

TrendForce 指出,甲骨文(Oracle)位於北美的 AI 資料中心擴建計畫推動了鴻海(2317)、美超微(Supermicro)、廣達(2382)等 ODM 廠商訂單激增;其中,美超微的主要成長動能來自於 GB200 機架伺服器的大型專案,並在 AI 伺服器領域取得多項訂單。

GB200 專案帶動 ODM 營收 雲端巨頭加速建置 AI 基礎設施

所謂的 GB200 機架專案,係以輝達 Blackwell 晶片為核心,打造高效能 AI 伺服器系統,涵蓋設計、建置至運營一條龍服務。Amazon Web Services(AWS)、Google、Meta 等科技巨頭紛紛導入該架構,加速其 AI 學習基礎設施的升級。

TrendForce 分析,伺服器市場逐步回穩,ODM 業者轉向 AI 伺服器領域投入資源,成為主要營收來源。廣達憑藉與 Meta、AWS、Google 等長期合作關係,擴大 GB200 與下一代 GB300 機架伺服器的接單規模;WiWynn 則主攻應用特定 AI 晶片(ASIC)的伺服器設計,並支援 AWS 開發的 AI 訓練晶片「Trainium」為主力產品,預期在與 Meta 與微軟(Microsoft)深化合作下,下半年營運將持續成長。

AI 資料中心推升水冷需求 冷卻供應鏈同步升溫

AI 資料中心對散熱效率與系統擴展性要求提升,水冷式(液冷)散熱方案成為主流。TrendForce 指出,隨著水冷技術導入加速,Forcetek、Danfoss、Auras 等關鍵零組件供應商正在快速成長。

水冷系統利用水或液體導熱,相較於傳統空冷系統,需更複雜的冷卻基礎設施。新建 AI 資料中心多採水冷對應設計,以提升能源效率與系統穩定性。

Forcetek 與 Auras 切入水冷供應鏈 獲 AWS、Meta 青睞

Forcetek 已開始出貨應用於 GB300 的 QD 耦合器,搭配母公司 AVC 開發的冷卻板(Cold Plate)應用於 GB300 NVL72 機架系統。此外,針對 AWS ASIC 架構的水冷系統也已進入量產階段。

Auras 則向甲骨文、美超微與惠普等主要客戶供應水冷散熱模組。TrendForce 預估,Auras 近期亦已向 Meta 出貨,未來有望成為 AWS 與 Meta 的第二供應來源,為冷卻解決方案供應鏈再添成長動能。

提到的股票

概念股

參考資料

編輯整理:Celine