三星電子開發 SOCAMM2 超小型記憶體模組,並向輝達供應樣品

三星電子宣布,已成功開發新一代超小型可拆卸記憶體模組 SOCAMM2(Small Outline Compression Attached Memory Module 2),並正向 AI 晶片龍頭輝達(NVIDIA)供應樣品,雙方已展開深度技術合作,共同優化其在加速器與 AI 伺服器基礎架構中的應用。
與輝達協作優化 鎖定次世代 AI 推論平台
三星電子表示,SOCAMM2 是在與輝達的技術協作下,針對輝達加速器平台進行最佳化設計,可滿足次世代 AI 推論平台對高反應速度與高電力效率的嚴格要求,目前已開始向客戶供應樣品。
採 LPDDR5X 架構 頻寬翻倍、功耗大降
SOCAMM2 採用第五代高效能、低功耗 LPDDR5X DRAM 打造,相較於傳統伺服器常用的 RDIMM(Registered DIMM)模組,具備明顯優勢:
頻寬提升超過 2 倍
功耗降低超過 55%
在高負載 AI 工作環境下仍能維持穩定效能
三星指出,SOCAMM2 同時兼顧高頻寬與低功耗,特別適合 AI 資料中心與高密度運算環境。
可拆式模組設計 維護升級更彈性
與傳統將 LPDDR 記憶體直接焊接於主機板不同,SOCAMM2 採用可拆卸模組結構,讓系統在不中斷運作的情況下即可進行更換與升級,大幅提升資料中心維運效率。
三星強調,該設計不僅降低系統停機風險,也有助於改善整體能源效率與熱穩定性,進而減輕伺服器散熱與冷卻成本。
水平安裝結構 有利散熱與系統整合
SOCAMM2 採取水平安裝於伺服器主板的設計,能有效提升空間利用率,並提供更高的散熱彈性,包括:
更自由的散熱片配置
優化氣流設計
支援風冷與水冷等多元散熱方案
三星指出,此架構也更有利於與 CPU、AI 加速器整合,打造高效能 AI 伺服器系統。
AI 推論需求升溫 記憶體成關鍵瓶頸
隨著大型語言模型(LLM)應用快速擴展,AI 工作負載正從「訓練導向」轉向「推論導向」。業界普遍認為,AI 系統已逐步由「運算受限(Compute-bound)」轉為「記憶體受限(Memory-bound)」,使高效能、低功耗記憶體的重要性大幅提升。
在推論場景下,模型需產生大量輸出 Token,導致記憶體頻寬與能耗需求同步上升,也推高 AI 服務整體成本。
攜手制定 JEDEC 標準 擴大 LPDDR 伺服器生態系
三星電子表示,正與海外合作夥伴共同參與 JEDEC(國際半導體標準組織) 的 SOCAMM2 標準制定工作,目標是推動 LPDDR 記憶體正式進入伺服器與資料中心主流應用。
輝達:次世代 AI 資料中心須兼顧效能與能耗
輝達董事迪恩.哈里斯(Dion Harris)指出,AI 工作負載正從訓練擴展至推論與實體 AI(Physical AI),未來資料中心必須同時滿足高效能與高電力效率的記憶體需求。
他表示,輝達正與三星密切合作,持續優化 SOCAMM2 等次世代記憶體方案,以滿足 AI 基礎架構對速度、反應性與能效的全面要求。
在 AI 推論需求爆發、資料中心能耗壓力持續攀升的背景下,三星 SOCAMM2 被視為新一代伺服器記憶體的重要解方。隨著輝達導入測試與 JEDEC 標準逐步成形,LPDDR 架構有望正式打入高效能伺服器核心市場,為 AI 基礎設施帶來新一波技術轉型。