Mantan CEO Google Eric Schmidt: Bagaimana kecerdasan buatan akan mengubah cara penelitian ilmiah dilakukan

Ditulis oleh: Eric Schmidt

Sumber: Tinjauan Teknologi MIT

Sumber gambar: Dihasilkan oleh alat AI Tak Terbatas

Ini adalah musim panas dengan cuaca ekstrem, dengan gelombang panas yang belum pernah terjadi sebelumnya, kebakaran hutan, dan banjir melanda negara-negara di seluruh dunia. Untuk memenuhi tantangan memprediksi cuaca ekstrem seperti itu secara akurat, raksasa semikonduktor Nvidia sedang membangun "kembar digital" bertenaga kecerdasan buatan dari seluruh planet.

Kembar digital, yang disebut Earth-2, akan menggunakan prediksi FourCastNet. FourCastNet adalah model kecerdasan buatan yang menggunakan puluhan terabyte data sistem Bumi untuk memprediksi cuaca selama dua minggu ke depan dengan lebih cepat dan lebih akurat daripada metode peramalan saat ini.

Sistem prakiraan cuaca biasa mampu menghasilkan sekitar 50 prakiraan untuk minggu depan. Dan FourCastNet dapat memprediksi ribuan kemungkinan, secara akurat menangkap risiko bencana yang jarang namun mematikan, memberikan waktu yang berharga bagi populasi yang rentan untuk bersiap dan mengungsi.

Revolusi yang telah lama ditunggu-tunggu dalam pemodelan iklim hanyalah permulaan. Dengan munculnya kecerdasan buatan, sains akan menjadi lebih menarik -- dan dalam beberapa hal lebih sulit untuk dikenali. Efek dari pergeseran ini akan jauh melampaui lab; mereka akan mempengaruhi kita semua.

Jika kita mengadopsi strategi yang tepat untuk mengatasi masalah sains yang paling mendesak dengan regulasi yang baik dan dukungan yang sesuai untuk penggunaan AI yang inovatif, AI dapat menulis ulang proses ilmiah. Kita dapat membangun masa depan di mana alat bertenaga AI tidak hanya membebaskan kita dari pekerjaan yang tidak berguna dan memakan waktu, tetapi juga membimbing kita menuju penemuan dan penemuan kreatif, mendorong terobosan yang jika tidak dilakukan membutuhkan waktu puluhan tahun untuk mencapainya.

Dalam beberapa bulan terakhir, kecerdasan buatan hampir identik dengan model bahasa besar, atau LLM, tetapi dalam sains ada banyak arsitektur model berbeda yang dapat memiliki dampak yang lebih besar. Sebagian besar kemajuan dalam ilmu pengetahuan selama dekade terakhir telah dibuat melalui model "klasik" kecil yang berfokus pada masalah tertentu. Model-model ini telah menghasilkan perbaikan besar. Baru-baru ini, model pembelajaran mendalam berskala besar yang mulai menggabungkan pengetahuan lintas domain dan AI generatif telah memperluas jangkauan dari apa yang mungkin.

Misalnya, para ilmuwan di McMaster University dan Massachusetts Institute of Technology telah menggunakan model AI untuk mengidentifikasi antibiotik guna melawan patogen yang menurut Organisasi Kesehatan Dunia adalah salah satu bakteri kebal antibiotik paling berbahaya di dunia bagi pasien rumah sakit. Selain itu, model DeepMind Google dapat mengontrol plasma dalam reaksi fusi nuklir, membawa kita lebih dekat ke revolusi energi bersih. Dan dalam perawatan kesehatan, Badan Pengawas Obat dan Makanan AS telah menyetujui 523 perangkat yang menggunakan kecerdasan buatan, 75 persen di antaranya digunakan dalam radiologi.

Reimagining Science

Intinya, proses ilmiah yang kita pelajari di sekolah dasar akan tetap sama: melakukan penelitian latar belakang, mengidentifikasi hipotesis, mengujinya dengan eksperimen, menganalisis data yang terkumpul, dan menarik kesimpulan. Tetapi kecerdasan buatan memiliki potensi untuk merevolusi bagaimana komponen ini akan terlihat di masa depan.

AI telah mengubah cara beberapa ilmuwan melakukan kajian literatur. Alat seperti PaperQA dan Elicit memanfaatkan LLM untuk memindai basis data artikel dan menghasilkan ringkasan singkat dan akurat dari literatur yang ada -- termasuk kutipan.

Setelah tinjauan literatur selesai, para ilmuwan membuat hipotesis untuk diuji. Tugas inti LLM adalah memprediksi kata berikutnya dalam sebuah kalimat, hingga melengkapi kalimat dan paragraf. Teknik ini membuat LLM sangat cocok untuk mengatasi skala yang melekat dalam hierarki ilmiah dan memungkinkan mereka memprediksi penemuan besar berikutnya dalam fisika atau biologi.

AI juga dapat memperluas jaring pencarian hipotetis dan mengecilkan jaring pencarian lebih cepat. Dengan demikian, alat AI dapat membantu merumuskan hipotesis yang lebih kuat, seperti model yang menyarankan kandidat obat baru yang lebih menjanjikan. Simulasi sekarang menjalankan urutan besarnya lebih cepat daripada yang mereka lakukan beberapa tahun yang lalu, memungkinkan para ilmuwan untuk mencoba lebih banyak opsi desain dalam simulasi sebelum melakukan eksperimen dunia nyata.

Misalnya, para ilmuwan di California Institute of Technology menggunakan model simulasi cairan kecerdasan buatan untuk secara otomatis merancang kateter yang lebih baik yang dapat mencegah aliran balik bakteri dan menyebabkan infeksi. Kemampuan ini secara fundamental akan mengubah proses inkremental penemuan ilmiah, yang memungkinkan para peneliti merancang solusi optimal sejak awal, tidak seperti yang telah kita lihat selama bertahun-tahun dengan inovasi filamen dalam desain bola lampu. , berkembang melalui rantai panjang desain yang disempurnakan secara bertahap.

Memasuki tahap eksperimen, kecerdasan buatan akan dapat melakukan eksperimen lebih cepat, lebih murah, dan dalam skala yang lebih besar. Misalnya, kita dapat membuat mesin yang ditenagai oleh kecerdasan buatan, dengan ratusan mikrotubulus yang bekerja siang dan malam, membuat sampel dengan kecepatan yang tidak dapat ditandingi manusia. Alih-alih membatasi diri pada enam percobaan, para ilmuwan dapat menggunakan alat AI untuk menjalankan seribu percobaan.

Para ilmuwan khawatir tentang hibah, publikasi, atau proses kepemilikan berikutnya tidak lagi terikat pada eksperimen aman dengan peluang keberhasilan tertinggi; mereka akan bebas mengejar hipotesis yang lebih berani dan lebih interdisipliner. Misalnya, saat mengevaluasi molekul baru, peneliti cenderung memilih kandidat yang secara struktural mirip dengan yang sudah kita ketahui, tetapi model AI tidak harus memiliki bias dan keterbatasan yang sama.

Pada akhirnya, sebagian besar sains akan dilakukan di "laboratorium otonom" -- platform robotik otonom yang digabungkan dengan kecerdasan buatan. Di sini, kita dapat menghadirkan kemampuan kecerdasan buatan dari dunia digital ke dunia fisik. Laboratorium otomatis semacam itu sudah bermunculan di perusahaan seperti Emerald Cloud Lab dan Artificial, dan bahkan Argonne National Laboratory.

Terakhir, dalam fase analisis dan ringkasan, lab otomatis akan melampaui otomatisasi dan menggunakan LLM untuk menafsirkan dan merekomendasikan eksperimen berikutnya untuk dijalankan berdasarkan hasil eksperimen yang dihasilkan. Kemudian, sebagai mitra dalam proses penelitian, asisten lab AI dapat memesan perlengkapan untuk menggantikan yang digunakan dalam eksperimen sebelumnya dan menyiapkan serta menjalankan eksperimen yang direkomendasikan berikutnya dalam semalam. Hasilnya sudah siap saat para peneliti masih tidur di rumah.

Kemungkinan dan Keterbatasan

Peneliti muda mungkin menggigil gugup di kursi mereka di prospek. Untungnya, pekerjaan baru yang muncul dari revolusi ini mungkin lebih kreatif dan tidak seceroboh kebanyakan pekerjaan laboratorium saat ini.

Alat AI dapat menurunkan hambatan masuk bagi ilmuwan baru dan membuka peluang bagi mereka yang biasanya dikecualikan dari lapangan. Dengan LLM yang dapat membantu dalam membangun kode, siswa STEM tidak perlu lagi menguasai bahasa pengkodean misterius, membuka pintu menara gading untuk bakat non-tradisional baru, dan mempermudah ilmuwan untuk mendapatkan eksposur ke bidang di luar bidang mereka sendiri. Segera, LLM yang dilatih khusus dapat melampaui penyediaan draf pertama karya tertulis, seperti proposal hibah, dan dapat dikembangkan untuk memberikan tinjauan "peer" terhadap makalah baru bersama dengan peninjau manusia.

Alat AI memiliki potensi yang luar biasa, tetapi kita harus menyadari di mana kontak manusia masih penting, dan jangan terlalu berlebihan. Misalnya, tidak mudah untuk berhasil menggabungkan kecerdasan buatan dan robotika melalui laboratorium otomatis. Sebagian besar pengetahuan diam-diam yang dipelajari para ilmuwan di lab sulit untuk ditransfer ke robotika bertenaga AI. Demikian pula, kita harus menyadari keterbatasan LLM saat ini, terutama halusinasi, sebelum kita memberi mereka banyak dokumen, penelitian, dan analisis.

Perusahaan seperti OpenAI dan DeepMind masih memimpin dengan terobosan baru, model, dan makalah penelitian, tetapi dominasi industri saat ini tidak akan bertahan selamanya. Sejauh ini, DeepMind unggul dalam berfokus pada masalah yang terdefinisi dengan baik dengan tujuan dan metrik yang jelas. Kesuksesannya yang paling terkenal adalah pada kompetisi Critical Assessment of Structure Prediction dua tahunan, di mana tim peneliti memprediksi bentuk protein yang tepat berdasarkan urutan asam aminonya.

Dari tahun 2006 hingga 2016, skor rata-rata untuk kategori tersulit adalah sekitar 30 hingga 40 pada skala CASP 1 hingga 100. Tiba-tiba, pada tahun 2018, model AlphaFold DeepMind mencetak 58 poin. Dua tahun kemudian, versi terbaru yang disebut AlphaFold2 mencetak 87 poin, meninggalkan saingan manusianya jauh di belakang.

Berkat sumber daya open source, kami mulai melihat pola di mana industri mencapai tolok ukur tertentu dan kemudian akademisi turun tangan untuk menyempurnakan model tersebut. Setelah DeepMind merilis AlphaFold, Minkyung Baek dan David Baker dari University of Washington merilis RoseTTAFold, yang menggunakan kerangka kerja DeepMind untuk memprediksi struktur kompleks protein daripada struktur protein tunggal yang awalnya dapat ditangani oleh AlphaFold. Terlebih lagi, akademisi lebih terlindung dari tekanan kompetitif pasar, sehingga mereka dapat menjelajah melampaui masalah yang terdefinisi dengan baik dan kesuksesan terukur yang menarik DeepMind.

Selain mencapai ketinggian baru, AI dapat membantu memvalidasi apa yang sudah kita ketahui dengan mengatasi krisis replikasi ilmiah. Sekitar 70% ilmuwan melaporkan bahwa mereka tidak dapat mereplikasi percobaan ilmuwan lain -- jumlah yang menyedihkan. Karena AI mengurangi biaya dan upaya menjalankan eksperimen, dalam beberapa kasus akan lebih mudah untuk mereplikasi hasil atau menarik kesimpulan yang tidak dapat direplikasi, membantu meningkatkan kepercayaan pada sains.

Kunci untuk replikasi dan kepercayaan adalah transparansi. Di dunia yang ideal, segala sesuatu dalam sains akan terbuka, mulai dari artikel tanpa paywall hingga data, kode, dan model sumber terbuka. Sayangnya, karena bahaya yang dapat ditimbulkan oleh model seperti itu, tidak selalu praktis untuk membuka sumber semua model. Dalam banyak kasus, risiko transparansi penuh lebih besar daripada manfaat kepercayaan dan keadilan. Tetap saja, selama kita bisa transparan tentang model -- khususnya model AI klasik dengan penggunaan yang lebih terbatas -- kita harus membuatnya menjadi sumber terbuka.

Pentingnya Regulasi

Di semua area ini, keterbatasan dan risiko AI yang melekat harus selalu diingat. AI adalah alat yang sangat kuat karena memungkinkan manusia untuk mencapai lebih banyak hal dengan lebih sedikit waktu, lebih sedikit pendidikan, dan lebih sedikit peralatan. Namun kemampuan tersebut juga menjadikannya senjata berbahaya yang bisa jatuh ke tangan yang salah. Andrew White, seorang profesor di University of Rochester, menandatangani kontrak dengan OpenAI untuk berpartisipasi dalam tes "tim merah", yang dapat mengungkap risiko GPT-4 sebelum dirilis. Menggunakan model bahasa dan memberi mereka alat, White menemukan bahwa GPT-4 dapat menyarankan senyawa berbahaya dan bahkan memesannya dari pemasok bahan kimia. Untuk menguji prosesnya, dia mengirim senyawa uji (aman) ke rumahnya minggu berikutnya. OpenAI mengatakan menggunakan temuan White untuk men-tweak GPT-4 sebelum dirilis.

Bahkan manusia dengan niat yang sangat baik masih bisa mendorong AI untuk menghasilkan hasil yang buruk. Kita seharusnya tidak terlalu khawatir tentang membuat Terminator dan, seperti yang dikatakan ilmuwan komputer Stuart Russell, kita harus lebih khawatir tentang menjadi Raja Midas. Raja ingin semua yang disentuhnya diubah menjadi emas, dan karena itu, pelukan yang tidak disengaja membunuh putrinya sendiri.

Kami tidak memiliki mekanisme apa pun untuk menyebabkan AI mengubah tujuannya, meskipun AI merespons tujuannya dengan cara yang tidak dapat kami prediksi. Asumsi yang sering dikutip adalah bahwa AI diminta untuk menghasilkan penjepit kertas sebanyak mungkin. Bertekad untuk mencapai tujuannya, model tersebut membajak jaringan listrik dan membunuh setiap manusia yang mencoba menghentikannya saat klip kertas terus menumpuk. Dunia telah menjadi berantakan. AI menepuk pantatnya dan pergi; itu telah melakukan tugasnya. (Sebagai penghormatan atas eksperimen pemikiran terkenal ini, banyak karyawan OpenAI membawa klip kertas bermerek).

OpenAI telah berhasil menerapkan serangkaian perlindungan yang mengesankan, tetapi itu akan tetap ada selama GPT-4 ditempatkan di server OpenAI. Suatu hari mungkin akan segera tiba ketika seseorang berhasil mereplikasi model dan meletakkannya di server mereka sendiri. Model mutakhir seperti ini perlu dilindungi untuk mencegah pencuri merobohkan pagar keamanan AI yang ditambahkan dengan hati-hati oleh pengembang aslinya.

Untuk mengatasi penggunaan buruk AI yang disengaja dan tidak disengaja, kita memerlukan regulasi yang masuk akal dan terinformasi dari raksasa teknologi dan model sumber terbuka yang tidak mencegah kita menggunakan AI dengan cara yang menguntungkan sains. Sementara perusahaan teknologi membuat kemajuan dalam keamanan AI, regulator pemerintah saat ini tidak siap untuk memberlakukan undang-undang yang sesuai dan harus berbuat lebih banyak untuk tetap mengikuti perkembangan terbaru.

Di luar peraturan, pemerintah -- bersama dengan filantropi -- dapat mendukung proyek ilmiah dengan keuntungan sosial yang tinggi tetapi keuntungan finansial atau insentif akademis yang kecil. Beberapa bidang sangat mendesak, termasuk perubahan iklim, biosekuriti, dan kesiapsiagaan menghadapi pandemi. Di area inilah kami paling membutuhkan kecepatan dan skala yang disediakan oleh simulasi AI dan lab otomatis.

Sejauh pertimbangan keamanan memungkinkan, pemerintah juga dapat membantu mengembangkan kumpulan data besar dan berkualitas tinggi seperti yang diandalkan AlphaFold. Kumpulan data terbuka adalah barang publik: bermanfaat bagi banyak peneliti, tetapi peneliti memiliki sedikit insentif untuk membuatnya sendiri. Pemerintah dan organisasi filantropi dapat berkolaborasi dengan universitas dan perusahaan untuk mengidentifikasi tantangan besar dalam sains yang akan mendapat manfaat dari penggunaan database yang kuat.

Kimia, misalnya, memiliki bahasa yang menyatukan bidang, yang tampaknya membantu model AI menganalisisnya dengan mudah. Tetapi tidak ada yang dapat mengumpulkan data properti molekuler yang disimpan dalam lusinan database dengan benar, menyangkal wawasan kami tentang bidang yang dapat dicapai model AI jika kami hanya memiliki satu sumber. Pada saat yang sama, biologi kekurangan data yang diketahui dan dapat dihitung sebagai dasar fisika atau kimia, dan subbidang seperti protein yang tidak teratur secara intrinsik tetap misterius bagi kita. Dengan demikian, diperlukan upaya yang lebih terpadu untuk memahami -- dan bahkan mendokumentasikan -- data untuk membangun basis data yang komprehensif.

Jalan menuju adopsi AI yang luas dalam sains masih panjang, dan kami harus melakukan banyak hal, mulai dari membangun database yang tepat hingga menegakkan peraturan yang tepat, mengurangi bias dalam algoritme AI, hingga memastikan akses yang sama ke sumber daya komputasi lintas batas.

Meskipun demikian, ini adalah momen yang sangat optimis. Pergeseran paradigma keilmuan sebelumnya, seperti proses keilmuan atau munculnya big data, bersifat inward-looking dan dapat membuat ilmu pengetahuan menjadi lebih presisi dan terorganisir. Pada saat yang sama, AI bersifat ekspansif, memungkinkan kami menggabungkan informasi dengan cara baru dan mendorong kreativitas dan kemajuan ilmiah ke level baru.

Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)