Nvidia 推出新晶片 H200,強化其 AI 運算競爭力
發佈時間:2023/11/14
為什麼重要
Nvidia 的新晶片 H200 將提升 AI 服務的效能,這將使得 AI 服務能更快地產生答案,對於服務的提供商和使用者來說,將有助於提升其 AI 服務的效能和吸引力。
背景故事
Nvidia 主導了 AI 晶片市場,並為 OpenAI 的 ChatGPT 服務以及許多類似的生成 AI 服務提供動力。
Nvidia 的前一代頂級晶片 H100 擁有 80 gigabytes 的高頻寬記憶體,並由 Micron Technology 和 SK Hynix 提供記憶體。
發生了什麼
Nvidia 推出新的晶片 H200,並且推出新的平台和 CPU 架構,進一步強化該公司對 AI 技術的承諾。
H200 將超越 Nvidia 現有的頂級 H100 晶片,主要的升級是更多的高頻寬記憶體,這是晶片中最昂貴的部分,決定了它能快速處理多少數據。
H200 擁有 141-gigabytes 的高頻寬記憶體,比其前一代 H100 的 80 gigabyte 高。
接下來如何
Nvidia 表示新的產品將在明年開始推出,Amazon Web Services、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure 將是首批提供 H200 晶片訪問的雲服務提供商,此外還包括專業的 AI 雲服務提供商 CoreWeave、Lambda 和 Vultr。
他們說什麼
Micron Technology 在 9 月表示,該公司正在努力成為 Nvidia 的供應商。
SK Hynix 在上個月表示,AI 晶片正在幫助恢復銷售。
提到的股票
概念股
編輯整理:Ryan Chen