Le 12 octobre, KLCII a annoncé que la série de modèles de grandes langues Aquila Aquila a été entièrement mise à niveau vers Aquila2, et le paramètre Aquila2-34B de 34 milliards a été ajouté. Il est rapporté que le nouveau modèle fonctionne bien dans l’inférence et la généralisation, et a réalisé une série de réalisations dans des scénarios tels que les agents, la génération de code et la récupération de la littérature.
Dans le même temps, KLCII a également publié un compartiment familial open source, comprenant la série de modèles Aquila2, une nouvelle version du modèle vectoriel sémantique BGE, le cadre d’entraînement parallèle efficace FlagScale et le sous-ensemble de calcul d’attention haute performance FlagAttention. Ces projets open source favoriseront l’innovation collaborative dans la recherche sur les grands modèles.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
KLCII: La famille Aquila de grands modèles linguistiques Aquila a été entièrement mise à niveau avec l’ajout de 34 milliards de paramètres Aquila2-34B
Le 12 octobre, KLCII a annoncé que la série de modèles de grandes langues Aquila Aquila a été entièrement mise à niveau vers Aquila2, et le paramètre Aquila2-34B de 34 milliards a été ajouté. Il est rapporté que le nouveau modèle fonctionne bien dans l’inférence et la généralisation, et a réalisé une série de réalisations dans des scénarios tels que les agents, la génération de code et la récupération de la littérature.
Dans le même temps, KLCII a également publié un compartiment familial open source, comprenant la série de modèles Aquila2, une nouvelle version du modèle vectoriel sémantique BGE, le cadre d’entraînement parallèle efficace FlagScale et le sous-ensemble de calcul d’attention haute performance FlagAttention. Ces projets open source favoriseront l’innovation collaborative dans la recherche sur les grands modèles.