Відповідно до звіту IT House від 12 вересня, Microsoft Research вчора випустила нову попередньо підготовлену мовну модель під назвою phi-1.5 із загальною кількістю 1,3 мільярда параметрів, яка підходить для QA Q&A, формату чату, коду та інших сценаріїв. phi-1.5 використовує різні набори даних із контенту Q&_A платформи Stack Overflow у розділі Python, кодів змагань у конкурсах кодів, синтетичних підручників Python, покоління gpt-3.5-turbo-0301 тощо, на додаток до нових даних, складених із різних синтетичних NLP тексти Джерело даних. Microsoft заявила, що згідно з тестами здорового глузду, розуміння мови та логічних міркувань phi-1.5 перевершує більшість моделей з параметрами нижче 1 мільйона. phi-1.5 перевершує llama-2 від Meta з 7 мільярдами параметрів у оцінці AGI_; у наборі оцінок GPT4 AL з LM-_ Harness його можна порівняти з llama-2 із 7 мільярдами параметрів.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити