Sumber gambar: Dihasilkan oleh alat AI Tak Terbatas
Saat ChatGPT memicu kegemaran global, model AI di belakangnya tiba-tiba melonjak. Semua orang ingin tahu, apa saja dimensi dan standar untuk mengevaluasi level model besar?
Peluncuran ChatGPT memungkinkan kita untuk melihat kesenjangan antara China dan Amerika Serikat di AIGC Jadi, apa status pengembangan model besar China saat ini? Peluang dan tantangan apa yang akan dihadapi pengembangan model skala besar China di masa depan?
Kami saat ini berada dalam masa kritis untuk pengembangan kecerdasan buatan umum Menghadapi tren pengembangan penelitian independen pada model besar oleh berbagai institusi, bagaimana cara meningkatkan efisiensi daya komputasi dan secara efektif menghindari duplikasi tingkat rendah?
Beberapa orang di industri khawatir AI akan menghancurkan manusia. Apakah kekhawatiran ini tidak berdasar? Bagaimana kita dapat mencegah masalah sebelum terjadi, dan mewujudkan hasil yang dapat diprediksi dan perilaku AI yang dapat dikendalikan?
Dengan berbagai pertanyaan tentang AIGC, **Tencent Research Institute secara eksklusif mewawancarai Wu Hequan, seorang akademisi dari Chinese Academy of Engineering dan pakar otoritatif di bidang komunikasi di negara saya. **
【Pewawancara】
Niu Fulian Peneliti Senior, Tencent Research Institute
Wu Chunling Peneliti Senior di Tencent Research Institute
Wang Qiang Pakar Senior dari Tencent Research Institute
(selanjutnya disebut T)
Skala total kekuatan komputasi China saat ini dibandingkan dengan Amerika Serikat: ada kesenjangan tetapi tidak besar
**T: Beberapa orang mengatakan bahwa pengembangan model skala besar China adalah 1-2 tahun di belakang negara asing, apa pendapat Anda tentang perkembangan model skala besar China saat ini? **
**Wu Hequan: **China memulai lebih lambat dari Amerika Serikat dalam pengembangan model skala besar. Setelah ChatGPT keluar, banyak unit domestik menyatakan bahwa mereka sedang mengembangkan model skala besar generatif. Saat ini, hanya ada beberapa perusahaan seperti Microsoft dan Google di Amerika Serikat Dibandingkan dengan penelitian model skala besar, negara saya memiliki lebih banyak unit yang mengembangkan model skala besar daripada Amerika Serikat, tetapi jumlah subjek penelitian yang besar tidak berarti bahwa China memiliki tingkat penelitian dan pengembangan dalam model skala besar. Dikatakan bahwa jumlah parameter model domestik besar mencapai 1,75 triliun, melebihi GPT-4, tetapi tidak ada laporan penerapannya. **Meskipun beberapa perusahaan China mengklaim meluncurkan chatbot yang mirip dengan ChatGPT, mereka saat ini tidak sebaik ChatGPT dalam hal dukungan multibahasa, dan masih ada celah dalam hal kecepatan respons dalam hal kemampuan dialog China. **
**Kami hanya memperhatikan ChatGPT sekarang, yang menargetkan tugas generatif dan terutama menyelesaikan pembuatan bahasa seperti mengobrol dan menulis. Model BERT Google lebih memperhatikan penilaian dan pengambilan keputusan, menekankan pemahaman bahasa seperti menjawab pertanyaan dan ekstraksi hubungan semantik. tugas, teknologi model BERT juga patut mendapat perhatian kita. **Evaluasi tingkat model skala besar harus multidimensi, kelengkapan, rasionalitas, kemudahan penggunaan, kecepatan respons, biaya, efisiensi energi, dll. **Secara umum, kesenjangan antara pengembangan model skala besar di negara saya dan negara asing adalah 1-2 tahun Dasarnya masih belum jelas, dan tidak ada artinya menarik kesimpulan ini sekarang. **
Perusahaan China memiliki keunggulan alami dibandingkan perusahaan asing dalam memperoleh korpus China dan pemahaman tentang budaya China ** China memiliki kategori manufaktur paling lengkap dan memiliki kondisi yang menguntungkan untuk melatih AIGC untuk industri nyata. Dari segi daya komputasi, China sudah memiliki landasan yang baik. **Menurut laporan OpenAI, daya komputasi yang diperlukan untuk melatih model GPT3 setinggi 3,64EFlops/hari, yang setara dengan 3-4 Pengcheng Cloud Brain II (Pengcheng Cloud Brain II adalah 1Eflops, yaitu puluhan miliaran perhitungan floating-point per detik). **Menurut data pada akhir tahun 2022, Amerika Serikat menyumbang 36% kekuatan komputasi global, dan China menyumbang 31%. Di antaranya, China secara signifikan lebih tinggi daripada Amerika Serikat (menurut data di akhir tahun 2021, skala komputasi cerdas di Amerika Serikat menyumbang 15% dari total skala komputasi cerdas global, dan China menyumbang 26%) negara saya bukan hanya perusahaan Internet besar dengan daya komputasi yang besar, tetapi juga laboratorium nasional dan Laboratorium yang didukung oleh beberapa pemerintah kota juga memiliki sumber daya komputasi skala besar.Dapat dikatakan bahwa China juga dapat mencapai dukungan daya komputasi yang diperlukan untuk melatih model besar. **Dipahami bahwa Pengcheng Lab sedang merancang Pengcheng Cloud Brain III, yang memiliki daya komputasi 16EFlops, yang tiga kali lebih tinggi dari GPT-3. Diperkirakan menelan biaya 6 miliar yuan dan akan terus memberikan komputasi yang kuat kekuatan untuk pelatihan kecerdasan buatan dukungan kuat.
Penelitian dan pengembangan AIGC China: Perlu mengenali kesenjangan, fokus pada tantangan, dan berinovasi
**T: Selain landasan kami yang baik dalam daya komputasi, menurut Anda tantangan apa yang ada dalam membangun model berskala besar di China? **
Wu Hequan: Daya komputasi saja tidak cukup. Kami masih menghadapi banyak tantangan dalam aspek-aspek berikut:
**Pertama-tama, fondasi model besar adalah kerangka pembelajaran mendalam. Tensorflow dan PyTorch di Amerika Serikat telah mengembangkan ekologi kerangka pembelajaran mendalam selama bertahun-tahun. Meskipun perusahaan domestik juga telah mengembangkan kerangka pembelajaran mendalam secara mandiri, uji pasar saja tidak cukup, dan ekologi masih perlu dibangun.
**Kedua, memperluas AIGC ke aplikasi industri mungkin memerlukan lebih dari satu model besar. Cara mengintegrasikan beberapa model besar secara efisien memiliki tantangan dalam standardisasi dan fusi data.
Ketiga, model besar membutuhkan pelatihan data yang masif. Cina memiliki peradaban ribuan tahun, tetapi sebagian besar simpanan budaya yang kaya belum didigitalkan. Bahasa Cina kurang dari 0,1% korpus yang digunakan dalam pelatihan ChatGPT. Meskipun perusahaan Internet negara saya memiliki sejumlah besar data jaringan seperti e-commerce, jejaring sosial, dan pencarian, jenis datanya tidak cukup komprehensif, dan kredibilitas pengetahuan online tidak dijamin secara ketat. digunakan untuk pelatihan masih membutuhkan banyak pekerjaan penambangan.
Keempat, chip GPU yang diandalkan oleh pelatihan model besar diwakili oleh chip Nvidia A100, tetapi chip tersebut telah dilarang diekspor ke China oleh Amerika Serikat, dan kinerja GPU domestik memerlukan pengujian lebih lanjut. masih ada celah dalam efisiensi.
Kelima, tidak sedikit teknisi yang terlibat dalam penelitian AI di China, tetapi masih ada kekurangan talenta dengan kemampuan desain arsitektur dan pembisik pelatihan data AIGC. Sebelum munculnya ChatGPT, beberapa orang berpikir bahwa jumlah makalah dan paten di China dalam AI sebanding dengan Amerika Serikat **Peluncuran ChatGPT membuat kami melihat kesenjangan antara China dan Amerika Serikat di AIGC. Sekarang kita perlu memahami dengan jelas dan memperhatikan tantangan yang kita hadapi, membuat inovasi nyata, mengubah tantangan menjadi peluang, dan memberikan kontribusi China ke babak baru jalur AI. **
Disarankan untuk membuka platform daya komputasi nasional untuk mendukung berbagai pelatihan model berskala besar
**T: ChatGPT tidak diragukan lagi merupakan inovasi besar. Bagaimana seharusnya China mendorong inovasi seperti ini di masa mendatang, dan aspek pekerjaan apa yang harus dilakukannya? **
**Wu Hequan: **Pengembangan kecerdasan buatan dari diskriminatif menjadi generatif merupakan tonggak inovasi, dan sudah mulai memasuki jalur kecerdasan buatan umum. Dari GPT-3 ke GPT-4, telah berkembang dari input teks menjadi input grafik parsial, yaitu meningkatkan kemampuan untuk memahami grafik, Atas dasar ini, tidak jauh untuk mengimplementasikan arsitektur pembelajaran yang mendalam dan model umum untuk mendukung input data multi-modal. Ya, tetapi generalisasi tugas model besar dan penyempurnaan pemanggilan model besar sesuai permintaan masih memerlukan investasi dan inovasi yang lebih besar. Pembelajaran data tanpa label dan tanpa pengawasan untuk grafik dan video jauh lebih sulit daripada bahasa dan masukan teks.
Kami sekarang berada dalam masa kritis pengembangan menuju kecerdasan buatan umum. Bagi negara kami, ini adalah kesempatan langka untuk pengembangan lompatan dan juga tantangan berat. Kekuatan komputasi, model, dan data adalah kondisi yang diperlukan untuk keberhasilan ChatGPT dan juga akan menjadi faktor penting untuk keberhasilan kecerdasan buatan umum Selain itu, ekologi, mekanisme, dan bakat yang paling inovatif adalah kuncinya. China sebanding dengan Amerika Serikat dalam hal skala total daya komputasi, tetapi koordinasi daya komputasi di seluruh pusat data masih menghadapi tantangan institusional, dan tingkat pemanfaatan serta efisiensi daya komputasi di banyak pusat komputasi cerdas tidak tinggi. **Banyak unit meneliti model besar secara mandiri, dan duplikasi tingkat rendah tidak dapat dihindari.Direkomendasikan untuk membentuk kekuatan bersama dengan pembagian kerja yang masuk akal di bawah koordinasi ilmu pengetahuan dan teknologi nasional dan rencana industri. Disarankan untuk membuka platform daya komputasi laboratorium nasional untuk mendukung berbagai pelatihan model berskala besar. Misalnya, daya komputasi Pengcheng Cloud Brain telah mencapai 3/4 dari total kapasitas, yang dapat mendukung skala 200 miliar parameter sebanding dengan GPT-3 Model besar bahasa Cina pra-terlatih sumber terbuka. **Pada saat yang sama, disarankan untuk membentuk aliansi daya komputasi untuk memusatkan sumber daya daya komputasi dari GPU kelas atas yang ada dan menyediakan daya komputasi yang diperlukan untuk pelatihan data model berskala besar. **Saat ini, "China Computing Power Network (C2NET)" terutama dibangun oleh Laboratorium Pengcheng telah terhubung ke lebih dari 20 komputasi cerdas skala besar, komputasi super, dan pusat data, dan kekuatan komputasi heterogen agregat telah mencapai 3EFlops. mereka, daya komputasi AI yang dikembangkan sendiri melebihi 1,8EFlops. Selain itu, aplikasi chatbots hanyalah cara intuitif untuk melatih dan menguji AIGC, tetapi mengobrol tidak hanya diperlukan, perlu dikembangkan berbagai model untuk aplikasi industri berdasarkan model besar, sehingga membuat model besar efektif di industri sedini mungkin Kembangkan lebih banyak bakat dalam penerapan semua lapisan masyarakat. **
Aplikasi industri model besar membutuhkan talenta komprehensif yang memahami teknologi industri dan pelatihan AI
**T: Sejauh ini kami telah melihat penerapan ChatGPT di beberapa bidang, seperti chatbots, pembuatan teks, dan pengenalan suara. Akankah ada beberapa peluang aplikasi di industri dan lapangan fisik di masa depan? Kendala apa yang masih dihadapi dalam penerapan model besar di industri fisik? **
**Wu Hequan: **Berdasarkan chatbot ChatGPT yang ada, setelah melengkapi pelatihan pengetahuan industri dan perusahaan yang relevan, mereka dapat melakukan pekerjaan layanan pelanggan yang cerdas di perusahaan, menggantikan pekerja untuk menyediakan layanan pra-penjualan dan purna jual kepada pelanggan. Dalam proses desain dan pembuatan yang memerlukan pemrograman perangkat lunak, ChatGPT dapat menggantikan pemrogram untuk menyelesaikan tugas pemrograman dan memeriksa bug perangkat lunak. Dapat melakukan pengumpulan, penerjemahan dan pengaturan dokumen dan bahan yang dibutuhkan dalam proses desain dan produksi. Setelah pelatihan profesional, model besar seperti AIGC dapat digunakan untuk merancang perangkat lunak EDA, seperti perangkat lunak alat untuk desain IC. Di perusahaan animasi dan game, robot yang dilatih berdasarkan model besar mirip AIGC dapat menulis skrip, membuat skrip game, dan memprogramnya sesuai petunjuk, serta menyelesaikan rendering animasi 3D.
Namun, ChatGPT bukanlah model umum, dan sulit untuk menerapkannya secara langsung ke proses pembuatan industri nyata, namun dapat didasarkan pada prinsip pelatihan ChatGPT dan menggunakan grafik pengetahuan industri dan perusahaan untuk in- pelatihan mendalam. Dimungkinkan untuk mengembangkan model besar yang didedikasikan untuk perusahaan untuk menyelesaikan ini. Tantangan pekerjaan pertama adalah membutuhkan talenta yang tidak hanya akrab dengan proses pengunggahan perusahaan dan teknologi tautan kunci, tetapi juga menguasai pelatihan data besar kecerdasan buatan teknologi.
Dari fokus pada hasil hingga fokus pada proses, integrasi teknologi dan sistem hukum mendominasi proses penalaran AIGC
**T:ChatGPT juga akan membuat berbagai kesalahan, dan itu juga akan membawa beberapa masalah etika, keamanan, dan privasi. Saat menerapkan model besar di masa mendatang, bagaimana kita dapat menciptakan lingkungan pengembangan yang inklusif dan aman? **
**Wu Hequan:**Munculnya AI generatif telah mendorong perhatian masyarakat terhadap kecerdasan buatan ke ketinggian yang belum pernah terjadi sebelumnya.Sementara memicu peningkatan penelitian AI di kalangan ilmiah dan industri, banyak ahli khawatir bahwa kecerdasan buatan akan menghancurkan manusia dan panggilan untuk Menghentikan penelitian tentang GPT-5. Kekhawatiran beberapa ahli bukannya tidak berdasar, karena proses berpikir robot ChatGPT saat ini buram. Manusia telah menciptakan ChatGPT, tetapi saat ini manusia tidak sepenuhnya memahami proses penalarannya. Yang tidak dapat diketahui akan menjadi tidak terkendali, dan ada risiko kelainan robot , anomi etika, dan perilaku di luar kendali.
**Solusinya bukanlah menghentikan penelitian tentang kecerdasan buatan, tetapi berfokus pada penelitian AIGC alih-alih berfokus pada hasil, merancang, dan memimpin proses penalarannya, sehingga hasil dapat diharapkan dan perilaku dapat dikontrol. **Promosi dan penerapan model besar di masa depan memerlukan evaluasi yang aman dan kredibel oleh lembaga yang berkualifikasi, dan proses penalaran model besar dapat dilacak setelah pemeriksaan. Pada saat yang sama, perlu untuk menetapkan undang-undang dan peraturan tata kelola AI yang sesuai untuk mencegah pelatihan AIGC yang menyesatkan, meminta pertanggungjawaban subjek pelatihan AIGC, dan menghukum berat orang yang bersekongkol dan bersekongkol dengan kejahatan. Melalui teknologi yang saling melengkapi dan sistem hukum, kecerdasan buatan telah menjadi asisten manusia yang benar-benar setia.
Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
Wawancara Tengyan | Akademisi Wu Hequan: Keuntungan, tantangan, dan jalur inovasi pengembangan model skala besar Tiongkok
Saat ChatGPT memicu kegemaran global, model AI di belakangnya tiba-tiba melonjak. Semua orang ingin tahu, apa saja dimensi dan standar untuk mengevaluasi level model besar?
Peluncuran ChatGPT memungkinkan kita untuk melihat kesenjangan antara China dan Amerika Serikat di AIGC Jadi, apa status pengembangan model besar China saat ini? Peluang dan tantangan apa yang akan dihadapi pengembangan model skala besar China di masa depan?
Kami saat ini berada dalam masa kritis untuk pengembangan kecerdasan buatan umum Menghadapi tren pengembangan penelitian independen pada model besar oleh berbagai institusi, bagaimana cara meningkatkan efisiensi daya komputasi dan secara efektif menghindari duplikasi tingkat rendah?
Beberapa orang di industri khawatir AI akan menghancurkan manusia. Apakah kekhawatiran ini tidak berdasar? Bagaimana kita dapat mencegah masalah sebelum terjadi, dan mewujudkan hasil yang dapat diprediksi dan perilaku AI yang dapat dikendalikan?
Dengan berbagai pertanyaan tentang AIGC, **Tencent Research Institute secara eksklusif mewawancarai Wu Hequan, seorang akademisi dari Chinese Academy of Engineering dan pakar otoritatif di bidang komunikasi di negara saya. **
【Pewawancara】
Niu Fulian Peneliti Senior, Tencent Research Institute
Wu Chunling Peneliti Senior di Tencent Research Institute
Wang Qiang Pakar Senior dari Tencent Research Institute
(selanjutnya disebut T)
Skala total kekuatan komputasi China saat ini dibandingkan dengan Amerika Serikat: ada kesenjangan tetapi tidak besar
**T: Beberapa orang mengatakan bahwa pengembangan model skala besar China adalah 1-2 tahun di belakang negara asing, apa pendapat Anda tentang perkembangan model skala besar China saat ini? **
**Wu Hequan: **China memulai lebih lambat dari Amerika Serikat dalam pengembangan model skala besar. Setelah ChatGPT keluar, banyak unit domestik menyatakan bahwa mereka sedang mengembangkan model skala besar generatif. Saat ini, hanya ada beberapa perusahaan seperti Microsoft dan Google di Amerika Serikat Dibandingkan dengan penelitian model skala besar, negara saya memiliki lebih banyak unit yang mengembangkan model skala besar daripada Amerika Serikat, tetapi jumlah subjek penelitian yang besar tidak berarti bahwa China memiliki tingkat penelitian dan pengembangan dalam model skala besar. Dikatakan bahwa jumlah parameter model domestik besar mencapai 1,75 triliun, melebihi GPT-4, tetapi tidak ada laporan penerapannya. **Meskipun beberapa perusahaan China mengklaim meluncurkan chatbot yang mirip dengan ChatGPT, mereka saat ini tidak sebaik ChatGPT dalam hal dukungan multibahasa, dan masih ada celah dalam hal kecepatan respons dalam hal kemampuan dialog China. **
**Kami hanya memperhatikan ChatGPT sekarang, yang menargetkan tugas generatif dan terutama menyelesaikan pembuatan bahasa seperti mengobrol dan menulis. Model BERT Google lebih memperhatikan penilaian dan pengambilan keputusan, menekankan pemahaman bahasa seperti menjawab pertanyaan dan ekstraksi hubungan semantik. tugas, teknologi model BERT juga patut mendapat perhatian kita. **Evaluasi tingkat model skala besar harus multidimensi, kelengkapan, rasionalitas, kemudahan penggunaan, kecepatan respons, biaya, efisiensi energi, dll. **Secara umum, kesenjangan antara pengembangan model skala besar di negara saya dan negara asing adalah 1-2 tahun Dasarnya masih belum jelas, dan tidak ada artinya menarik kesimpulan ini sekarang. **
Perusahaan China memiliki keunggulan alami dibandingkan perusahaan asing dalam memperoleh korpus China dan pemahaman tentang budaya China ** China memiliki kategori manufaktur paling lengkap dan memiliki kondisi yang menguntungkan untuk melatih AIGC untuk industri nyata. Dari segi daya komputasi, China sudah memiliki landasan yang baik. **Menurut laporan OpenAI, daya komputasi yang diperlukan untuk melatih model GPT3 setinggi 3,64EFlops/hari, yang setara dengan 3-4 Pengcheng Cloud Brain II (Pengcheng Cloud Brain II adalah 1Eflops, yaitu puluhan miliaran perhitungan floating-point per detik). **Menurut data pada akhir tahun 2022, Amerika Serikat menyumbang 36% kekuatan komputasi global, dan China menyumbang 31%. Di antaranya, China secara signifikan lebih tinggi daripada Amerika Serikat (menurut data di akhir tahun 2021, skala komputasi cerdas di Amerika Serikat menyumbang 15% dari total skala komputasi cerdas global, dan China menyumbang 26%) negara saya bukan hanya perusahaan Internet besar dengan daya komputasi yang besar, tetapi juga laboratorium nasional dan Laboratorium yang didukung oleh beberapa pemerintah kota juga memiliki sumber daya komputasi skala besar.Dapat dikatakan bahwa China juga dapat mencapai dukungan daya komputasi yang diperlukan untuk melatih model besar. **Dipahami bahwa Pengcheng Lab sedang merancang Pengcheng Cloud Brain III, yang memiliki daya komputasi 16EFlops, yang tiga kali lebih tinggi dari GPT-3. Diperkirakan menelan biaya 6 miliar yuan dan akan terus memberikan komputasi yang kuat kekuatan untuk pelatihan kecerdasan buatan dukungan kuat.
Penelitian dan pengembangan AIGC China: Perlu mengenali kesenjangan, fokus pada tantangan, dan berinovasi
**T: Selain landasan kami yang baik dalam daya komputasi, menurut Anda tantangan apa yang ada dalam membangun model berskala besar di China? **
Wu Hequan: Daya komputasi saja tidak cukup. Kami masih menghadapi banyak tantangan dalam aspek-aspek berikut:
**Pertama-tama, fondasi model besar adalah kerangka pembelajaran mendalam. Tensorflow dan PyTorch di Amerika Serikat telah mengembangkan ekologi kerangka pembelajaran mendalam selama bertahun-tahun. Meskipun perusahaan domestik juga telah mengembangkan kerangka pembelajaran mendalam secara mandiri, uji pasar saja tidak cukup, dan ekologi masih perlu dibangun.
**Kedua, memperluas AIGC ke aplikasi industri mungkin memerlukan lebih dari satu model besar. Cara mengintegrasikan beberapa model besar secara efisien memiliki tantangan dalam standardisasi dan fusi data.
Ketiga, model besar membutuhkan pelatihan data yang masif. Cina memiliki peradaban ribuan tahun, tetapi sebagian besar simpanan budaya yang kaya belum didigitalkan. Bahasa Cina kurang dari 0,1% korpus yang digunakan dalam pelatihan ChatGPT. Meskipun perusahaan Internet negara saya memiliki sejumlah besar data jaringan seperti e-commerce, jejaring sosial, dan pencarian, jenis datanya tidak cukup komprehensif, dan kredibilitas pengetahuan online tidak dijamin secara ketat. digunakan untuk pelatihan masih membutuhkan banyak pekerjaan penambangan.
Keempat, chip GPU yang diandalkan oleh pelatihan model besar diwakili oleh chip Nvidia A100, tetapi chip tersebut telah dilarang diekspor ke China oleh Amerika Serikat, dan kinerja GPU domestik memerlukan pengujian lebih lanjut. masih ada celah dalam efisiensi.
Kelima, tidak sedikit teknisi yang terlibat dalam penelitian AI di China, tetapi masih ada kekurangan talenta dengan kemampuan desain arsitektur dan pembisik pelatihan data AIGC. Sebelum munculnya ChatGPT, beberapa orang berpikir bahwa jumlah makalah dan paten di China dalam AI sebanding dengan Amerika Serikat **Peluncuran ChatGPT membuat kami melihat kesenjangan antara China dan Amerika Serikat di AIGC. Sekarang kita perlu memahami dengan jelas dan memperhatikan tantangan yang kita hadapi, membuat inovasi nyata, mengubah tantangan menjadi peluang, dan memberikan kontribusi China ke babak baru jalur AI. **
Disarankan untuk membuka platform daya komputasi nasional untuk mendukung berbagai pelatihan model berskala besar
**T: ChatGPT tidak diragukan lagi merupakan inovasi besar. Bagaimana seharusnya China mendorong inovasi seperti ini di masa mendatang, dan aspek pekerjaan apa yang harus dilakukannya? **
**Wu Hequan: **Pengembangan kecerdasan buatan dari diskriminatif menjadi generatif merupakan tonggak inovasi, dan sudah mulai memasuki jalur kecerdasan buatan umum. Dari GPT-3 ke GPT-4, telah berkembang dari input teks menjadi input grafik parsial, yaitu meningkatkan kemampuan untuk memahami grafik, Atas dasar ini, tidak jauh untuk mengimplementasikan arsitektur pembelajaran yang mendalam dan model umum untuk mendukung input data multi-modal. Ya, tetapi generalisasi tugas model besar dan penyempurnaan pemanggilan model besar sesuai permintaan masih memerlukan investasi dan inovasi yang lebih besar. Pembelajaran data tanpa label dan tanpa pengawasan untuk grafik dan video jauh lebih sulit daripada bahasa dan masukan teks.
Kami sekarang berada dalam masa kritis pengembangan menuju kecerdasan buatan umum. Bagi negara kami, ini adalah kesempatan langka untuk pengembangan lompatan dan juga tantangan berat. Kekuatan komputasi, model, dan data adalah kondisi yang diperlukan untuk keberhasilan ChatGPT dan juga akan menjadi faktor penting untuk keberhasilan kecerdasan buatan umum Selain itu, ekologi, mekanisme, dan bakat yang paling inovatif adalah kuncinya. China sebanding dengan Amerika Serikat dalam hal skala total daya komputasi, tetapi koordinasi daya komputasi di seluruh pusat data masih menghadapi tantangan institusional, dan tingkat pemanfaatan serta efisiensi daya komputasi di banyak pusat komputasi cerdas tidak tinggi. **Banyak unit meneliti model besar secara mandiri, dan duplikasi tingkat rendah tidak dapat dihindari.Direkomendasikan untuk membentuk kekuatan bersama dengan pembagian kerja yang masuk akal di bawah koordinasi ilmu pengetahuan dan teknologi nasional dan rencana industri. Disarankan untuk membuka platform daya komputasi laboratorium nasional untuk mendukung berbagai pelatihan model berskala besar. Misalnya, daya komputasi Pengcheng Cloud Brain telah mencapai 3/4 dari total kapasitas, yang dapat mendukung skala 200 miliar parameter sebanding dengan GPT-3 Model besar bahasa Cina pra-terlatih sumber terbuka. **Pada saat yang sama, disarankan untuk membentuk aliansi daya komputasi untuk memusatkan sumber daya daya komputasi dari GPU kelas atas yang ada dan menyediakan daya komputasi yang diperlukan untuk pelatihan data model berskala besar. **Saat ini, "China Computing Power Network (C2NET)" terutama dibangun oleh Laboratorium Pengcheng telah terhubung ke lebih dari 20 komputasi cerdas skala besar, komputasi super, dan pusat data, dan kekuatan komputasi heterogen agregat telah mencapai 3EFlops. mereka, daya komputasi AI yang dikembangkan sendiri melebihi 1,8EFlops. Selain itu, aplikasi chatbots hanyalah cara intuitif untuk melatih dan menguji AIGC, tetapi mengobrol tidak hanya diperlukan, perlu dikembangkan berbagai model untuk aplikasi industri berdasarkan model besar, sehingga membuat model besar efektif di industri sedini mungkin Kembangkan lebih banyak bakat dalam penerapan semua lapisan masyarakat. **
Aplikasi industri model besar membutuhkan talenta komprehensif yang memahami teknologi industri dan pelatihan AI
**T: Sejauh ini kami telah melihat penerapan ChatGPT di beberapa bidang, seperti chatbots, pembuatan teks, dan pengenalan suara. Akankah ada beberapa peluang aplikasi di industri dan lapangan fisik di masa depan? Kendala apa yang masih dihadapi dalam penerapan model besar di industri fisik? **
**Wu Hequan: **Berdasarkan chatbot ChatGPT yang ada, setelah melengkapi pelatihan pengetahuan industri dan perusahaan yang relevan, mereka dapat melakukan pekerjaan layanan pelanggan yang cerdas di perusahaan, menggantikan pekerja untuk menyediakan layanan pra-penjualan dan purna jual kepada pelanggan. Dalam proses desain dan pembuatan yang memerlukan pemrograman perangkat lunak, ChatGPT dapat menggantikan pemrogram untuk menyelesaikan tugas pemrograman dan memeriksa bug perangkat lunak. Dapat melakukan pengumpulan, penerjemahan dan pengaturan dokumen dan bahan yang dibutuhkan dalam proses desain dan produksi. Setelah pelatihan profesional, model besar seperti AIGC dapat digunakan untuk merancang perangkat lunak EDA, seperti perangkat lunak alat untuk desain IC. Di perusahaan animasi dan game, robot yang dilatih berdasarkan model besar mirip AIGC dapat menulis skrip, membuat skrip game, dan memprogramnya sesuai petunjuk, serta menyelesaikan rendering animasi 3D.
Namun, ChatGPT bukanlah model umum, dan sulit untuk menerapkannya secara langsung ke proses pembuatan industri nyata, namun dapat didasarkan pada prinsip pelatihan ChatGPT dan menggunakan grafik pengetahuan industri dan perusahaan untuk in- pelatihan mendalam. Dimungkinkan untuk mengembangkan model besar yang didedikasikan untuk perusahaan untuk menyelesaikan ini. Tantangan pekerjaan pertama adalah membutuhkan talenta yang tidak hanya akrab dengan proses pengunggahan perusahaan dan teknologi tautan kunci, tetapi juga menguasai pelatihan data besar kecerdasan buatan teknologi.
Dari fokus pada hasil hingga fokus pada proses, integrasi teknologi dan sistem hukum mendominasi proses penalaran AIGC
**T:ChatGPT juga akan membuat berbagai kesalahan, dan itu juga akan membawa beberapa masalah etika, keamanan, dan privasi. Saat menerapkan model besar di masa mendatang, bagaimana kita dapat menciptakan lingkungan pengembangan yang inklusif dan aman? **
**Wu Hequan:**Munculnya AI generatif telah mendorong perhatian masyarakat terhadap kecerdasan buatan ke ketinggian yang belum pernah terjadi sebelumnya.Sementara memicu peningkatan penelitian AI di kalangan ilmiah dan industri, banyak ahli khawatir bahwa kecerdasan buatan akan menghancurkan manusia dan panggilan untuk Menghentikan penelitian tentang GPT-5. Kekhawatiran beberapa ahli bukannya tidak berdasar, karena proses berpikir robot ChatGPT saat ini buram. Manusia telah menciptakan ChatGPT, tetapi saat ini manusia tidak sepenuhnya memahami proses penalarannya. Yang tidak dapat diketahui akan menjadi tidak terkendali, dan ada risiko kelainan robot , anomi etika, dan perilaku di luar kendali.
**Solusinya bukanlah menghentikan penelitian tentang kecerdasan buatan, tetapi berfokus pada penelitian AIGC alih-alih berfokus pada hasil, merancang, dan memimpin proses penalarannya, sehingga hasil dapat diharapkan dan perilaku dapat dikontrol. **Promosi dan penerapan model besar di masa depan memerlukan evaluasi yang aman dan kredibel oleh lembaga yang berkualifikasi, dan proses penalaran model besar dapat dilacak setelah pemeriksaan. Pada saat yang sama, perlu untuk menetapkan undang-undang dan peraturan tata kelola AI yang sesuai untuk mencegah pelatihan AIGC yang menyesatkan, meminta pertanggungjawaban subjek pelatihan AIGC, dan menghukum berat orang yang bersekongkol dan bersekongkol dengan kejahatan. Melalui teknologi yang saling melengkapi dan sistem hukum, kecerdasan buatan telah menjadi asisten manusia yang benar-benar setia.