SK 海力士量產 192GB AI 記憶體模組!SOCAMM2 登場 劍指輝達下一代平台

發佈時間:2026/04/21

主打 AI 伺服器應用 瞄準推理時代記憶體瓶頸

SK 海力士宣布,正式量產基於第六代 10 奈米級(1c)製程的 LPDDR5X 低功耗 DRAM,推出容量達 192GB 的 SOCAMM2 新型記憶體模組,鎖定 AI 伺服器與資料中心市場。

SOCAMM2(Small Outline Compression Attached Memory Module 2)為一種以行動裝置低功耗記憶體為基礎、重新優化至伺服器環境的模組產品,具備高密度、可插拔與低功耗等特性,特別適用於下一代 AI 運算場景。

效能大躍進:頻寬翻倍、功耗降 75%

SK 海力士表示,此次量產的 SOCAMM2 採用 1c 製程 LPDDR5X 晶片堆疊,與傳統伺服器用的 RDIMM(Registered DIMM)相比,頻寬提升超過兩倍,能源效率則改善逾 75%。

在實際應用上,SOCAMM2 資料傳輸速度可達到 9.6Gbps,並透過壓縮式連接器設計,提高訊號完整性與模組擴展性,同時支援快速更換,有助於降低資料中心維運成本。

此外,該產品可顯著降低資料中心的耗電與散熱需求,進一步改善整體總持有成本(TCO)。

鎖定輝達 Vera Rubin 平台 深化 AI 生態布局

SK 海力士指出,SOCAMM2 是專為輝達(NVIDIA)下一代 AI 平台「Vera Rubin」所打造,預計隨該平台於今年下半年推出同步導入市場。

相較於傳統 LPDDR 記憶體多以焊接方式固定於主機板,SOCAMM2 改採模組化設計,可更靈活部署於 CPU 或 GPU 附近,作為介於高頻寬記憶體(HBM)與 RDIMM 之間的「中介層記憶體」。

此架構有助於解決 HBM 容量限制與功耗問題,並提升 AI 系統在訓練與推理過程中的資料存取效率。

AI 推理需求爆發 SOCAMM2 成關鍵解方

隨著 AI 應用逐步由訓練階段轉向推理階段,大型語言模型(LLM)對低功耗與高效率記憶體的需求急速上升。SK 海力士強調,SOCAMM2 可有效緩解數千億參數模型在運算過程中面臨的「記憶體瓶頸」問題,提升整體系統效能。

公司也表示,已提前建立穩定量產體系,以滿足全球雲端服務供應商(CSP)日益成長的需求。

建立 AI 記憶體新標準 搶攻資料中心升級商機

SK 海力士首席行銷長金柱善指出,192GB SOCAMM2 的推出,為 AI 記憶體性能樹立新標準,未來將持續與全球 AI 客戶深化合作,強化公司在 AI 基礎建設市場的領先地位。

市場分析認為,在 AI 算力需求持續爆發下,從 HBM 到新型模組記憶體的多層級架構正逐步成形,SOCAMM2 有望成為資料中心升級的重要關鍵元件之一。

提到的股票

概念股

參考資料

編輯整理:Celine