微軟近日公布了其 Azure AI 平台的一系列更新,其中包括 Phi-3 小型語言模型(SLMs)系列的擴展。
該公司新增了兩個新模型——Phi-3.5-MoE 和 Phi-3.5-mini,旨在提高效率和準確性。微軟新模型的主要優勢之一是其多語言能力,現在支持超過 20 種語言。Phi-3.5-MoE 是一個擁有 420 億個參數的 Mixture of Experts 模型,將 16 個小型模型整合為一個。通過這種方式,微軟能夠結合小型模型的速度和計算效率,以及大型模型的質量和準確度。
Phi-3.5-mini 的規模則顯著較小,擁有 38 億個參數,但其多語言能力為全球更廣泛的使用場景解鎖了可能性。該模型支持阿拉伯語、中文、捷克語、丹麥語、荷蘭語、英語、芬蘭語、法語、德語、希伯來語、匈牙利語、意大利語、日語、韓語、挪威語、波蘭語、葡萄牙語、俄語、西班牙語、瑞典語、泰語、土耳其語和烏克蘭語。
微軟表示,基於用戶反饋,Phi-3.5-mini 是對兩個月前推出的 Phi-3-mini 模型的重要更新。除了兩個新模型外,微軟還在 Azure AI 中推出了多個新工具和服務,以便於從非結構化數據中提取洞察。
微軟將在 Azure AI 模型作為服務上推出 AI21 Jamba 1.5 Large 和 Jamba 1.5 模型,這些模型提供了長上下文處理能力。其他公告還包括 Azure 機器學習的 VS Code 擴展的普遍可用性,以及 Azure AI 語言中的對話性 PII 檢測服務的普遍可用性。
微軟 Azure AI 平台的企業副總裁 Eric Boyd 表示:「我們將持續在 Azure AI 堆疊中進行投資,以為客戶帶來尖端創新,使其能夠安全和自信地構建、部署和擴展 AI 解決方案。」