Babbitt News, récemment, le laboratoire d'intelligence artificielle de Shanghai (Shanghai AI Laboratory) a publié XTuner, une boîte à outils open source pour la formation de grands modèles, qui a une fois de plus abaissé le seuil de formation de grands modèles. Il est rapporté que XTuner se concentre sur le processus de réglage fin, fournissant un cadre de réglage fin léger pour divers grands modèles open source, consolidant une fois de plus les attributs pratiques des outils du système open source à chaîne complète. XTuner prend en charge l'adaptation de plusieurs niveaux de matériel. Les développeurs n'ont besoin que d'un minimum de 8 Go de mémoire vidéo grand public pour former un « grand modèle exclusif » adapté à des scénarios de demande spécifiques.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Babbitt News, récemment, le laboratoire d'intelligence artificielle de Shanghai (Shanghai AI Laboratory) a publié XTuner, une boîte à outils open source pour la formation de grands modèles, qui a une fois de plus abaissé le seuil de formation de grands modèles. Il est rapporté que XTuner se concentre sur le processus de réglage fin, fournissant un cadre de réglage fin léger pour divers grands modèles open source, consolidant une fois de plus les attributs pratiques des outils du système open source à chaîne complète. XTuner prend en charge l'adaptation de plusieurs niveaux de matériel. Les développeurs n'ont besoin que d'un minimum de 8 Go de mémoire vidéo grand public pour former un « grand modèle exclusif » adapté à des scénarios de demande spécifiques.