據IT 之家9 月12 日報導,微軟研究院昨日發布了名為phi-1.5 的全新預訓練語言模型,共有13 億個參數,適用於QA 問答、聊天格式和代碼等等場景。 phi-1.5 採用來自Stack Overflow 平台關於Python 板塊的Q&_A 內容、codecontests 中的競爭代碼、合成Python 教科書,gpt-3.5-turbo-0301 生成等各種數據集,此外還包括各種NLP 合成文本組成的新數據源。微軟表示在測試常識、語言理解和邏輯推理的基準下,phi-1.5 的表現超出了大部分參數低於100 萬的模型。 phi-1.5 在AGI_ 得分上超過了擁有70 億參數、來自Meta 的llama-2;在帶LM-_ Harness 的GPT4 AL 跑分套件中,可以媲美70 億參數的llama-2。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)