微軟採用自家 AI 模型,降低 MS365 運營成本
為什麼重要
微軟採用自家或第三方 AI 模型,將直接影響企業生產力軟體工具平臺 MS365 的市場競爭力,降低成本同時提升效能。
ASIC 和 SLM 的結合,對於降低 AI 服務運營成本具有重大意義,影響包括 Google、Amazon、Microsoft 及 Meta 在內的雲服務提供商及其客戶。
背景故事
#ASIC、#小型語言模型、#Nvidia
近期人工智慧生態系在硬體和軟體方面都迎來了巨大變革,特定用途的定製半導體(ASIC)取代了 GPU 成為主流,而在軟體方面,小型語言模型(SLM)開始受到關注。
ASIC 作為 AI 加速器近期在業界受到關注,因其相比於通用 GPU 在特定推理運算上的能耗更低。通常 ASIC 是由雲服務提供商(CSP)與 Broadcom、Marvell 等公司共同開發。
Nvidia 和 OpenAI 透過推出新技術和模型來適應這一趨勢,例如 Nvidia 的 AI CPU「Grace」和 OpenAI 的專注於推理的 GPT4-o3。
發生了什麼
#微軟、#GitHub Copilot、#Phi 模型
微軟計劃於 10 月 24 日採用自家或第三方 AI 模型,以脫離對 OpenAI 的 GPT 模型的依賴。微軟旗下的 GitHub 已在 10 月預告這一變化,將 Google 和 Anthropic 的 LLM 作為 GPT-4o 的替代品加入其編碼輔助工具「GitHub Copilot」。
這次轉變將應用於企業生產力軟體工具平臺 MS365 的 Copilot,目前大多數企業尚未採用 MS365 Copilot,導致其尚未實現有效盈利,這一情況部分是由於高昂的價格政策所致。
微軟計劃使用去年公開的自家小型語言模型「Phi」來替代 GPT,因為 Phi 對計算效能的需求較低,有助於降低成本,即使未來 MS365 Copilot 新增更多功能。
接下來如何
#運營成本、#成本效益、#競爭力
微軟採用自家或第三方 AI 模型,特別是小型語言模型「Phi」,預計將降低 MS365 Copilot 的運營成本,並可能提高其對企業客戶的吸引力。
ASIC 和 SLM 的結合將進一步推動 AI 服務的成本效益,使得更多企業能夠實現高效且節能的 AI 運算。
Nvidia 和 OpenAI 等公司將繼續開發和推廣新技術,以應對硬體和軟體方面的變革,保持在 AI 領域的競爭力。
他們說什麼
微軟未具名訊息人士表示,採用「Phi」模型是因為其對計算效能的需求較低,有助於降低成本。
Nvidia 透過結合基於 Arm 架構的 AI CPU「Grace」和 AI GPU 來降低資料中心的能耗,展示了公司對於節能高效 AI 運算的承諾。