三星電子開發 SOCAMM2 超小型記憶體模組,並向輝達供應樣品

發佈時間:2025/12/19

三星電子宣布,已成功開發新一代超小型可拆卸記憶體模組 SOCAMM2(Small Outline Compression Attached Memory Module 2),並正向 AI 晶片龍頭輝達(NVIDIA)供應樣品,雙方已展開深度技術合作,共同優化其在加速器與 AI 伺服器基礎架構中的應用。

與輝達協作優化 鎖定次世代 AI 推論平台

三星電子表示,SOCAMM2 是在與輝達的技術協作下,針對輝達加速器平台進行最佳化設計,可滿足次世代 AI 推論平台對高反應速度與高電力效率的嚴格要求,目前已開始向客戶供應樣品。

採 LPDDR5X 架構 頻寬翻倍、功耗大降

SOCAMM2 採用第五代高效能、低功耗 LPDDR5X DRAM 打造,相較於傳統伺服器常用的 RDIMM(Registered DIMM)模組,具備明顯優勢:

三星指出,SOCAMM2 同時兼顧高頻寬與低功耗,特別適合 AI 資料中心與高密度運算環境。

可拆式模組設計 維護升級更彈性

與傳統將 LPDDR 記憶體直接焊接於主機板不同,SOCAMM2 採用可拆卸模組結構,讓系統在不中斷運作的情況下即可進行更換與升級,大幅提升資料中心維運效率。

三星強調,該設計不僅降低系統停機風險,也有助於改善整體能源效率與熱穩定性,進而減輕伺服器散熱與冷卻成本。

水平安裝結構 有利散熱與系統整合

SOCAMM2 採取水平安裝於伺服器主板的設計,能有效提升空間利用率,並提供更高的散熱彈性,包括:

三星指出,此架構也更有利於與 CPU、AI 加速器整合,打造高效能 AI 伺服器系統。

AI 推論需求升溫 記憶體成關鍵瓶頸

隨著大型語言模型(LLM)應用快速擴展,AI 工作負載正從「訓練導向」轉向「推論導向」。業界普遍認為,AI 系統已逐步由「運算受限(Compute-bound)」轉為「記憶體受限(Memory-bound)」,使高效能、低功耗記憶體的重要性大幅提升。

在推論場景下,模型需產生大量輸出 Token,導致記憶體頻寬與能耗需求同步上升,也推高 AI 服務整體成本。

攜手制定 JEDEC 標準 擴大 LPDDR 伺服器生態系

三星電子表示,正與海外合作夥伴共同參與 JEDEC(國際半導體標準組織) 的 SOCAMM2 標準制定工作,目標是推動 LPDDR 記憶體正式進入伺服器與資料中心主流應用。

輝達:次世代 AI 資料中心須兼顧效能與能耗

輝達董事迪恩.哈里斯(Dion Harris)指出,AI 工作負載正從訓練擴展至推論與實體 AI(Physical AI),未來資料中心必須同時滿足高效能與高電力效率的記憶體需求。

他表示,輝達正與三星密切合作,持續優化 SOCAMM2 等次世代記憶體方案,以滿足 AI 基礎架構對速度、反應性與能效的全面要求。

在 AI 推論需求爆發、資料中心能耗壓力持續攀升的背景下,三星 SOCAMM2 被視為新一代伺服器記憶體的重要解方。隨著輝達導入測試與 JEDEC 標準逐步成形,LPDDR 架構有望正式打入高效能伺服器核心市場,為 AI 基礎設施帶來新一波技術轉型。

提到的股票

概念股

參考資料

編輯整理:Celine