Відповідно до звіту IT House від 12 вересня, Microsoft Research вчора випустила нову попередньо підготовлену мовну модель під назвою phi-1.5 із загальною кількістю 1,3 мільярда параметрів, яка підходить для QA Q&A, формату чату, коду та інших сценаріїв. phi-1.5 використовує різні набори даних із контенту Q&_A платформи Stack Overflow у розділі Python, кодів змагань у конкурсах кодів, синтетичних підручників Python, покоління gpt-3.5-turbo-0301 тощо, на додаток до нових даних, складених із різних синтетичних NLP тексти Джерело даних. Microsoft заявила, що згідно з тестами здорового глузду, розуміння мови та логічних міркувань phi-1.5 перевершує більшість моделей з параметрами нижче 1 мільйона. phi-1.5 перевершує llama-2 від Meta з 7 мільярдами параметрів у оцінці AGI_; у наборі оцінок GPT4 AL з LM-_ Harness його можна порівняти з llama-2 із 7 мільярдами параметрів.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Відповідно до звіту IT House від 12 вересня, Microsoft Research вчора випустила нову попередньо підготовлену мовну модель під назвою phi-1.5 із загальною кількістю 1,3 мільярда параметрів, яка підходить для QA Q&A, формату чату, коду та інших сценаріїв. phi-1.5 використовує різні набори даних із контенту Q&_A платформи Stack Overflow у розділі Python, кодів змагань у конкурсах кодів, синтетичних підручників Python, покоління gpt-3.5-turbo-0301 тощо, на додаток до нових даних, складених із різних синтетичних NLP тексти Джерело даних. Microsoft заявила, що згідно з тестами здорового глузду, розуміння мови та логічних міркувань phi-1.5 перевершує більшість моделей з параметрами нижче 1 мільйона. phi-1.5 перевершує llama-2 від Meta з 7 мільярдами параметрів у оцінці AGI_; у наборі оцінок GPT4 AL з LM-_ Harness його можна порівняти з llama-2 із 7 мільярдами параметрів.