據Qubit1月2日報導,華為諾亞方舟實驗室等聯合推出了一款新的大型語言模型架構:盤古π。 通過增強非線性,該架構比傳統變壓器得到改進,可以顯著解決特徵崩潰問題,使模型輸出更具表現力。 據悉,在相同數據訓練的情況下,盤古π(7B)在多任務處理方面超過了LLaMA 2,實現了10%的推理加速。 SOTA高達1B規模。 同時,基於這一架構,華為還提煉了一個名為「雲山」的大型財法模型。 這項工作由AI大成陶領導。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)