وفقًا لتقرير صادر عن IT House في 12 سبتمبر، أصدرت شركة Microsoft Research أمس نموذجًا جديدًا للغة تم تدريبه مسبقًا يسمى phi-1.5، بإجمالي 1.3 مليار معلمة، مناسب لسؤال وجواب QA وتنسيق الدردشة والتعليمات البرمجية وسيناريوهات أخرى. يستخدم phi-1.5 مجموعات بيانات متنوعة من محتوى الأسئلة والأجوبة الخاص بمنصة Stack Overflow في قسم Python، وأكواد المنافسة في مسابقات البرمجة، وكتب Python المدرسية الاصطناعية، وتوليد gpt-3.5-turbo-0301، وما إلى ذلك، بالإضافة إلى البيانات الجديدة المكونة من مختلف البرمجة اللغوية العصبية الاصطناعية text.data source. وقالت مايكروسوفت إنه في ظل معايير اختبار الحس السليم وفهم اللغة والتفكير المنطقي، يتفوق phi-1.5 على معظم النماذج ذات المعلمات التي تقل عن مليون. يتفوق phi-1.5 على llama-2 من Meta مع 7 مليار معلمة في درجة AGI_؛ في مجموعة نقاط التشغيل GPT4 AL مع LM-_ Harness، يمكن مقارنته بـ llama-2 مع 7 مليار معلمة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
وفقًا لتقرير صادر عن IT House في 12 سبتمبر، أصدرت شركة Microsoft Research أمس نموذجًا جديدًا للغة تم تدريبه مسبقًا يسمى phi-1.5، بإجمالي 1.3 مليار معلمة، مناسب لسؤال وجواب QA وتنسيق الدردشة والتعليمات البرمجية وسيناريوهات أخرى. يستخدم phi-1.5 مجموعات بيانات متنوعة من محتوى الأسئلة والأجوبة الخاص بمنصة Stack Overflow في قسم Python، وأكواد المنافسة في مسابقات البرمجة، وكتب Python المدرسية الاصطناعية، وتوليد gpt-3.5-turbo-0301، وما إلى ذلك، بالإضافة إلى البيانات الجديدة المكونة من مختلف البرمجة اللغوية العصبية الاصطناعية text.data source. وقالت مايكروسوفت إنه في ظل معايير اختبار الحس السليم وفهم اللغة والتفكير المنطقي، يتفوق phi-1.5 على معظم النماذج ذات المعلمات التي تقل عن مليون. يتفوق phi-1.5 على llama-2 من Meta مع 7 مليار معلمة في درجة AGI_؛ في مجموعة نقاط التشغيل GPT4 AL مع LM-_ Harness، يمكن مقارنته بـ llama-2 مع 7 مليار معلمة.