Menurut laporan IT House pada 12 September, Microsoft Research kemarin merilis model bahasa terlatih baru yang disebut phi-1.5, dengan total 1,3 miliar parameter, cocok untuk Tanya Jawab QA, format obrolan, kode, dan skenario lainnya. phi-1.5 menggunakan berbagai kumpulan data seperti konten Tanya Jawab di bagian Python pada platform Stack Overflow, kode kompetisi dalam kontes kode, buku teks Python sintetik, generasi gpt-3.5-turbo-0301, dll., selain data baru yang terdiri dari berbagai Teks sintetik NLP, sumber data. Microsoft mengatakan bahwa berdasarkan tolok ukur yang menguji akal sehat, pemahaman bahasa, dan penalaran logis, phi-1.5 mengungguli sebagian besar model dengan parameter di bawah 1 juta. phi-1.5 melebihi llama-2 dari Meta dengan 7 miliar parameter dalam skor AGI_; dalam rangkaian skor berjalan GPT4 AL dengan LM-_ Harness, ini sebanding dengan llama-2 dengan 7 miliar parameter.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Menurut laporan IT House pada 12 September, Microsoft Research kemarin merilis model bahasa terlatih baru yang disebut phi-1.5, dengan total 1,3 miliar parameter, cocok untuk Tanya Jawab QA, format obrolan, kode, dan skenario lainnya. phi-1.5 menggunakan berbagai kumpulan data seperti konten Tanya Jawab di bagian Python pada platform Stack Overflow, kode kompetisi dalam kontes kode, buku teks Python sintetik, generasi gpt-3.5-turbo-0301, dll., selain data baru yang terdiri dari berbagai Teks sintetik NLP, sumber data. Microsoft mengatakan bahwa berdasarkan tolok ukur yang menguji akal sehat, pemahaman bahasa, dan penalaran logis, phi-1.5 mengungguli sebagian besar model dengan parameter di bawah 1 juta. phi-1.5 melebihi llama-2 dari Meta dengan 7 miliar parameter dalam skor AGI_; dalam rangkaian skor berjalan GPT4 AL dengan LM-_ Harness, ini sebanding dengan llama-2 dengan 7 miliar parameter.