أفاد Pinwan في 22 سبتمبر أنه وفقًا لصفحة Arxiv، أطلق فريق بحث وتطوير من جامعة Suzhou مؤخرًا نموذجًا مفتوح المصدر seq2 seq يسمى OpenBA. يُذكر أن OpenBA هو نموذج تسلسلي ثنائي اللغة غير متماثل يحتوي على 15 مليار معلمة، وهو أيضًا أول نموذج لغة كبير ينضم إلى مجتمع النماذج مفتوحة المصدر الصيني. توضح الورقة أن الباحثين استخدموا تقنية فعالة واستراتيجية تدريب ثلاثية المراحل لتدريب نموذج OpenBA من الصفر. تظهر التجارب أن أداء OpenBA أفضل من LLaMA-70 B في معيار BELEBELE، وأفضل من BLOOM-176 B في معيار MMLU، وأفضل من GLM-130 B في معيار C-_ (الصلب). .
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
أفاد Pinwan في 22 سبتمبر أنه وفقًا لصفحة Arxiv، أطلق فريق بحث وتطوير من جامعة Suzhou مؤخرًا نموذجًا مفتوح المصدر seq2 seq يسمى OpenBA. يُذكر أن OpenBA هو نموذج تسلسلي ثنائي اللغة غير متماثل يحتوي على 15 مليار معلمة، وهو أيضًا أول نموذج لغة كبير ينضم إلى مجتمع النماذج مفتوحة المصدر الصيني. توضح الورقة أن الباحثين استخدموا تقنية فعالة واستراتيجية تدريب ثلاثية المراحل لتدريب نموذج OpenBA من الصفر. تظهر التجارب أن أداء OpenBA أفضل من LLaMA-70 B في معيار BELEBELE، وأفضل من BLOOM-176 B في معيار MMLU، وأفضل من GLM-130 B في معيار C-_ (الصلب). .