Selon le rapport qubit, des chercheurs du Microsoft Asia Research Institute (MSRA) ont proposé une nouvelle architecture de grand modèle Retentive Network (RetNet) dans l'article "Retentive Network: A Successor to Transformer for Large Language Models", qui est considéré comme le domaine de grands modèles Successeur de Transformer. Les données expérimentales montrent que sur les tâches de modélisation du langage : RetNet peut atteindre une perplexité comparable à Transformer, la vitesse de raisonnement est de 8,4 fois, l'utilisation de la mémoire est réduite de 70 % et il a une bonne évolutivité. Et lorsque la taille du modèle est supérieure à une certaine échelle, RetNet fonctionnera mieux que Transformer.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 1
  • Partager
Commentaire
0/400
Rico@jwvip
· 2024-05-06 08:10
Garder BUIDL🧐
Voir l'originalRépondre0
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)