De acordo com um relatório da IT House de 12 de setembro, a Microsoft Research lançou ontem um novo modelo de linguagem pré-treinado chamado phi-1.5, com um total de 1,3 bilhão de parâmetros, adequado para perguntas e respostas de controle de qualidade, formato de chat, código e outros cenários. phi-1.5 usa vários conjuntos de dados do conteúdo de perguntas e respostas da plataforma Stack Overflow na seção Python, códigos de competição em codecontests, livros sintéticos de Python, geração gpt-3.5-turbo-0301, etc., além de novos dados compostos de vários sintéticos de PNL textos. fonte de dados. A Microsoft disse que, em benchmarks que testam o bom senso, a compreensão da linguagem e o raciocínio lógico, o phi-1.5 supera a maioria dos modelos com parâmetros abaixo de 1 milhão. phi-1.5 excede o lhama-2 do Meta com 7 bilhões de parâmetros na pontuação AGI_; no conjunto de pontuação de corrida GPT4 AL com LM-_ Harness, é comparável ao lhama-2 com 7 bilhões de parâmetros.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
De acordo com um relatório da IT House de 12 de setembro, a Microsoft Research lançou ontem um novo modelo de linguagem pré-treinado chamado phi-1.5, com um total de 1,3 bilhão de parâmetros, adequado para perguntas e respostas de controle de qualidade, formato de chat, código e outros cenários. phi-1.5 usa vários conjuntos de dados do conteúdo de perguntas e respostas da plataforma Stack Overflow na seção Python, códigos de competição em codecontests, livros sintéticos de Python, geração gpt-3.5-turbo-0301, etc., além de novos dados compostos de vários sintéticos de PNL textos. fonte de dados. A Microsoft disse que, em benchmarks que testam o bom senso, a compreensão da linguagem e o raciocínio lógico, o phi-1.5 supera a maioria dos modelos com parâmetros abaixo de 1 milhão. phi-1.5 excede o lhama-2 do Meta com 7 bilhões de parâmetros na pontuação AGI_; no conjunto de pontuação de corrida GPT4 AL com LM-_ Harness, é comparável ao lhama-2 com 7 bilhões de parâmetros.