微軟採自家小型語言模型 SLM Phi 取代 GPT
為什麼重要
微軟採用自家小型語言模型 Phi 替代 GPT,將直接影響 AI 技術成本效益及運算效率,對於 AI 加速器與晶片產業帶來新機遇。
AI 技術發展趨勢可能從「大型語言模型」轉向「小型語言模型」,有機會為特定行業提供更合適的 AI 解決方案,但如此一來,也對 Nvidia、OpenAI 等公司的市場地位形成挑戰。
背景故事
微軟過去投資約 140 億美元於 OpenAI,獲得 GPT 模型的獨家使用權,以此強化其 MS365 平台的 Copilot 功能。
GPT 作為一個大型語言模型(LLM),運算成本高昂,導致基於 LLM 的 365 Copilot 難以獲利。
從博通(Broadcom)和邁威爾(Marvell)設計的 AI 加速器及 ASIC(特定應用積體電路)興起的過程中,可以嗅到從 GPU 到 ASIC、從 LLM 到小型語言模型(SLM)的轉變趨勢。
發生了什麼
微軟宣佈計劃更改其 MS365 平台中 Copilot 功能所採用的 AI 模型,將使用自家的 SLM Phi 來代替 GPT。
相較於 LLM,SLM 在運算成本、速度上皆有顯著優勢,SLM 的訓練成本約 1000 萬美元,而 LLM 訓練成本超過 1 億美元。
即使是專注於開發 LLM 的 OpenAI 也發布了輕量級模型 GPT4-o3 mini,Google 亦推出了 Gemini 2.0 Flash,顯示業界普遍認同 SLM。
接下來如何
微軟採用 SLM Phi,可望解決 MS365 Copilot 獲利問題,同時提升運算效率和成本效益。
從 LLM 到 SLM 的轉變趨勢,可能衝擊到 Nvidia 和 OpenAI 的市場地位,促使更多公司採用 SLM 技術。
SLM 的應用將不僅限於通用 AI 模型,還將擴充套件到特定行業的知識學習,如 Salesforce 的客戶關係管理(CRM)工具。
他們說什麼
「LLM 和 SLM 在速度和成本上的差異主要源於引數和演演算法的不同。」- 無名 AI 專家
「SLM 適用於特定行業的知識學習,這將是未來 AI 發展的一個重要方向。」- 行業分析師。