三星發表超微型 AI 模型,標榜性能超越 Google、中國 DeepSeek

三星電子重返人工智慧(AI)舞台焦點。該公司在論文平台 Arxiv 上公開一項突破性研究,展示自家開發的超小型 AI 模型,在推理能力測試中超越 Google「Gemini」與中國 DeepSeek 等巨頭。這款模型僅擁有 700 萬個參數,體積僅為一般大型語言模型(LLM)的萬分之一,卻展現出更高的推理準確率,成為 AI 界「小而強」的新代表。
🔹僅 700 萬參數、精準度勝大型語言模型
根據論文〈Less is More: Recursive Reasoning with Tiny Networks(小而更強:以超小型網路進行遞迴推理)〉,由三星綜合技術研究院(SAIT)AI 實驗室的資深研究員 Alexia Jorquera Martino 主導。研究團隊提出一種全新的「超小型遞迴模型(Tiny Recursive Model, TRM)」,能透過多次自我檢討與修正,大幅減少錯誤,並提升邏輯推理表現。
與傳統 LLM 一次性輸出答案不同,TRM 會針對初始回答進行「自我審視」,最多可進行 16 次內部推理循環。模型會生成一個「隱藏推理記憶體(Hidden Reasoning Memory)」來記錄思考過程,逐步優化答案,類似人類在解題時不斷修正邏輯的過程。
🔹推理測試成績勝出 Google、DeepSeek
在 AI 推理基準測試 ARC-AGI-1 中,三星 TRM 取得 45%正確率,超越 Google「Gemini 2.5 Pro」的 37%及中國 DeepSeek R1 的 15.8%。在今年更新的 ARC-AGI-2 測試中,TRM 的表現仍以 8%正確率領先其他同級模型。
Martino 表示:「AI 的智慧不在於模型大小,而在於能否不斷重複思考、修正與進步。TRM 證明小型模型也能具備人類式的推理能力。」
TRM 僅使用兩層網路結構(Layer),但透過高頻次的遞迴推理取代了大規模參數與深層架構。相比 OpenAI 與 Google 正在嘗試的「Chain-of-Thought(思維鏈)」或「Test-time computing(測試時運算)」技術,TRM 結構更簡單、效率更高。
🔹三星重燃 AI 自主研發信心
三星近年曾以自研生成式 AI「Gauss(高斯)」引發關注,但 2025 年取消「三星開發者大會(SDC)」後,一度傳出 AI 策略轉向、內部研發停滯的疑慮。公司近期與 OpenAI 執行長 Sam Altman 多次會面,並推動 GPT 導入企業內部應用,被外界視為「開放式 AI 策略轉型」。
然而,這篇來自 SAIT 的研究論文顯示,三星並未放棄自行研發 AI,而是在 AI「低成本、高效率」推理方向上持續深耕。分析人士指出,TRM 具備應用於自駕車、機器人、行動裝置等「On-device AI(端側 AI)」的潛力,代表三星正穩健地為 AI 長期布局奠定基礎。