Según un informe de IT House del 12 de septiembre, Microsoft Research lanzó ayer un nuevo modelo de lenguaje previamente entrenado llamado phi-1.5, con un total de 1.300 millones de parámetros, adecuado para preguntas y respuestas de calidad, formato de chat, código y otros escenarios. phi-1.5 utiliza varios conjuntos de datos del contenido de preguntas y respuestas de la plataforma Stack Overflow en la sección Python, códigos de competencia en concursos de códigos, libros de texto sintéticos de Python, generación gpt-3.5-turbo-0301, etc., además de nuevos datos compuestos de varios datos sintéticos de PNL. textos fuente de datos. Microsoft dijo que según los puntos de referencia que prueban el sentido común, la comprensión del lenguaje y el razonamiento lógico, phi-1.5 supera a la mayoría de los modelos con parámetros inferiores a 1 millón. phi-1.5 supera a llama-2 de Meta con 7 mil millones de parámetros en la puntuación AGI_; en el conjunto de puntuación de ejecución GPT4 AL con LM-_ Harness, es comparable a llama-2 con 7 mil millones de parámetros.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Según un informe de IT House del 12 de septiembre, Microsoft Research lanzó ayer un nuevo modelo de lenguaje previamente entrenado llamado phi-1.5, con un total de 1.300 millones de parámetros, adecuado para preguntas y respuestas de calidad, formato de chat, código y otros escenarios. phi-1.5 utiliza varios conjuntos de datos del contenido de preguntas y respuestas de la plataforma Stack Overflow en la sección Python, códigos de competencia en concursos de códigos, libros de texto sintéticos de Python, generación gpt-3.5-turbo-0301, etc., además de nuevos datos compuestos de varios datos sintéticos de PNL. textos fuente de datos. Microsoft dijo que según los puntos de referencia que prueban el sentido común, la comprensión del lenguaje y el razonamiento lógico, phi-1.5 supera a la mayoría de los modelos con parámetros inferiores a 1 millón. phi-1.5 supera a llama-2 de Meta con 7 mil millones de parámetros en la puntuación AGI_; en el conjunto de puntuación de ejecución GPT4 AL con LM-_ Harness, es comparable a llama-2 con 7 mil millones de parámetros.