Selon un rapport d'IT House du 12 août, Microsoft Research s'est récemment associé à l'Université de Californie à Berkeley pour développer un nouveau modèle de grande langue (LLM) appelé Gorilla, qui est supérieur à GPT-4 en termes de précision et de flexibilité dans Appels API. . On dit que Gorilla LLM utilise une technique appelée "formation sensible à la récupération" pour permettre à LLM d'apprendre la sémantique des appels d'API et de générer un contenu textuel sémantiquement et grammaticalement correct. Microsoft Research a déclaré que même si la documentation de l'API change, la sémantique et la syntaxe correctes peuvent toujours être générées lors de l'appel de l'API. Bien que GPT-4 soit le LLM le plus puissant développé par OpenAI, il peut contrôler divers scénarios tels que la génération de texte, la langue de traduction et le contenu des réponses. Cependant, l'appel API est son défaut. Il ne peut pas comprendre la sémantique des appels API et ne peut que générer et API documents texte similaire. Dans une étude récente, Gorilla a surpassé GPT-4 sur diverses tâches d'appel d'API. GPT-4 a un taux de précision de 85 % dans les appels d'API, tandis que le taux de précision de Gorilla peut atteindre 95 %. De plus, Gorilla possède également la compétence que GPT-4 n'a pas, qui peut générer des appels d'API corrects pour les API sans ensembles de données de formation.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Selon un rapport d'IT House du 12 août, Microsoft Research s'est récemment associé à l'Université de Californie à Berkeley pour développer un nouveau modèle de grande langue (LLM) appelé Gorilla, qui est supérieur à GPT-4 en termes de précision et de flexibilité dans Appels API. . On dit que Gorilla LLM utilise une technique appelée "formation sensible à la récupération" pour permettre à LLM d'apprendre la sémantique des appels d'API et de générer un contenu textuel sémantiquement et grammaticalement correct. Microsoft Research a déclaré que même si la documentation de l'API change, la sémantique et la syntaxe correctes peuvent toujours être générées lors de l'appel de l'API. Bien que GPT-4 soit le LLM le plus puissant développé par OpenAI, il peut contrôler divers scénarios tels que la génération de texte, la langue de traduction et le contenu des réponses. Cependant, l'appel API est son défaut. Il ne peut pas comprendre la sémantique des appels API et ne peut que générer et API documents texte similaire. Dans une étude récente, Gorilla a surpassé GPT-4 sur diverses tâches d'appel d'API. GPT-4 a un taux de précision de 85 % dans les appels d'API, tandis que le taux de précision de Gorilla peut atteindre 95 %. De plus, Gorilla possède également la compétence que GPT-4 n'a pas, qui peut générer des appels d'API corrects pour les API sans ensembles de données de formation.