Selon le rapport qubit, l'équipe de Tsinghua Tang Jie a publié un nouveau travail WebGLM, un robot de chat en réseau de questions-réponses avec des paramètres de 10 milliards (l'article a été sélectionné pour KDD2023). Selon les rapports, dans le test de comparaison des performances, le niveau de WebGLM a été supérieur à celui du WebGPT à 13,5 milliards de paramètres d'OpenAI, et dans l'évaluation humaine, il est même comparable au modèle à 175 milliards de paramètres.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Selon le rapport qubit, l'équipe de Tsinghua Tang Jie a publié un nouveau travail WebGLM, un robot de chat en réseau de questions-réponses avec des paramètres de 10 milliards (l'article a été sélectionné pour KDD2023). Selon les rapports, dans le test de comparaison des performances, le niveau de WebGLM a été supérieur à celui du WebGPT à 13,5 milliards de paramètres d'OpenAI, et dans l'évaluation humaine, il est même comparable au modèle à 175 milliards de paramètres.