微軟發表Phi-2 模型:27 億參數,某些效能指標優於Llama-2-7B

根據IT 之家11 月17 日消息,微軟在Ignite 2023 大會上發布了旗下最小的語言模型Phi-2,共有27 億參數,相比較先前版本有明顯提升。 Microsoft Research 機器學習基礎小組負責人Sebastien Bubeck 在Twitter 上發布了「MT-Bench」基準測試的螢幕截圖,該基準測試了具有強大語言模型(例如GPT-4)的大型和小型語言模型的實際功能。根據結果,Phi-2 在某些方面優於Meta 的Llama-2-7 B 模型。據悉,微軟今年6 月發表Phi-1,只有13 億參數,適用於QA 問答、聊天格式和程式碼等等場景。 9 月,微軟更新發布了Phi-1.5 版本,同樣為13 億參數,可以寫詩、寫電子郵件和故事,以及總結文字。

Total
0
Shares
Related Posts