Selon un rapport d'IT House du 12 septembre, Microsoft Research a publié hier un nouveau modèle de langage pré-entraîné appelé phi-1.5, avec un total de 1,3 milliard de paramètres, adapté au contrôle qualité, aux questions et réponses, au format de chat, au code et à d'autres scénarios. phi-1.5 utilise divers ensembles de données tels que le contenu Q&_A sur la section Python de la plateforme Stack Overflow, les codes de compétition dans les concours de code, les manuels Python synthétiques, la génération gpt-3.5-turbo-0301, etc., en plus de nouvelles données composées de divers Textes synthétiques PNL.source de données. Microsoft a déclaré que selon les tests de bon sens, de compréhension du langage et de raisonnement logique, phi-1.5 surpasse la plupart des modèles avec des paramètres inférieurs à 1 million. phi-1,5 dépasse le lama-2 de Meta avec 7 milliards de paramètres dans le score AGI_ ; dans la suite de scores de course GPT4 AL avec LM-_ Harness, il est comparable à lama-2 avec 7 milliards de paramètres.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)