Tinjauan Teknologi MIT: Bagaimana Risiko Eksistensial Menjadi Meme Terbesar di AI

Ditulis oleh: Will Douglas Surga

Sumber: Tinjauan Teknologi MIT

Sumber gambar: Dihasilkan oleh alat AI Tak Terbatas

Siapa Takut Robot? Sepertinya banyak orang yang seperti itu. Saat ini, jumlah tokoh terkemuka yang membuat pernyataan publik atau menandatangani surat terbuka yang memperingatkan bahaya bencana kecerdasan buatan sangat mencengangkan.

Ratusan ilmuwan, pemimpin bisnis, dan pembuat kebijakan telah angkat bicara, mulai dari pelopor pembelajaran mendalam Geoffrey Hinton dan Yoshua Bengio, hingga CEO perusahaan AI terkemuka seperti Sam Altman dan Demis Hassabis, hingga Rep. California Ted Lieu bersama mantan Presiden Estonia Kersti Kaljulaid.

Penegasan paling gamblang yang ditandatangani oleh semua tokoh ini dan lebih banyak lagi adalah pernyataan 22 kata yang dirilis dua minggu lalu oleh Center for Artificial Intelligence Safety (CAIS), sebuah organisasi penelitian yang berbasis di San Francisco, yang menyatakan bahwa “mengurangi risiko kepunahan yang ditimbulkan oleh kecerdasan buatan Itu harus menjadi prioritas global, bersama dengan risiko skala sosial lainnya seperti pandemi dan perang nuklir."

Kata-kata ini disengaja. "Jika kami akan menggunakan pernyataan gaya tes Rorschach, kami akan mengatakan 'risiko eksistensial' karena itu bisa berarti banyak hal bagi banyak orang yang berbeda," kata direktur CAIS Dan Hendrycks. bukan tentang menjatuhkan ekonomi. "Itulah mengapa kita berbicara tentang 'risiko kepunahan', meskipun banyak dari kita juga mengkhawatirkan berbagai risiko lainnya," kata Hendrycks.

Kami pernah ke sana sebelumnya: malapetaka AI hadir dengan hype AI. Tapi kali ini rasanya berbeda. Jendela Overton telah bergeser. Apa yang dulunya merupakan pandangan ekstrem kini menjadi arus utama, menjadi berita utama dan perhatian para pemimpin dunia. "Suara kekhawatiran tentang AI terlalu keras untuk diabaikan," kata Jenna Burrell, direktur riset di Data and Society, sebuah organisasi yang mempelajari dampak sosial dari teknologi.

Apa yang telah terjadi? Apakah kecerdasan buatan benar-benar menjadi (lebih) berbahaya? Mengapa orang-orang yang pertama kali memperkenalkan teknologi ini sekarang mulai membunyikan alarm?

Memang, pandangan ini terbagi di lapangan. Pekan lalu, kepala ilmuwan Meta Yann LeCun, yang berbagi Penghargaan Turing 2018 dengan Hinton dan Bengio, menyebut teori kiamat itu "konyol". Aidan Gomez, kepala eksekutif perusahaan kecerdasan buatan Cohere, mengatakan itu adalah "penggunaan waktu kita yang konyol".

Demikian pula, yang lain mencemoohnya. “Tidak ada lagi bukti sekarang selain pada tahun 1950 bahwa kecerdasan buatan akan menimbulkan risiko eksistensial ini,” kata Meredith Whittaker, Presiden Signal. Whittaker adalah salah satu pendiri dan mantan direktur AI Now Institute, yang merupakan laboratorium penelitian. yang mempelajari implikasi kebijakan kecerdasan buatan. "Cerita hantu itu menular - ketakutan benar-benar mengasyikkan dan merangsang."

"Ini juga merupakan cara untuk melihat masa lalu semua yang terjadi hari ini," kata Burrell. "Ini menunjukkan bahwa kita belum melihat bahaya yang nyata atau serius."

Ketakutan kuno

Kekhawatiran tentang mesin yang dapat berkembang dan berkembang sendiri telah ada sejak Alan Turing. Futuris seperti Vernor Vinge dan Ray Kurzweil mempopulerkan ide-ide ini dengan berbicara tentang apa yang disebut "Singularitas", tanggal hipotetis ketika kecerdasan buatan melampaui kecerdasan manusia dan diambil alih oleh mesin.

Namun inti dari kekhawatiran ini adalah pertanyaan tentang kontrol: jika (atau kapan) mesin menjadi lebih pintar, bagaimana manusia dapat mempertahankan dominasinya? Dalam makalah tahun 2017 berjudul "Bagaimana AI menimbulkan risiko eksistensial?" Karina Vold, seorang filsuf AI di University of Toronto (yang juga menandatangani pernyataan CAIS), memaparkan argumen dasar di balik kekhawatiran ini.

Argumen tersebut memiliki tiga premis utama. Pertama, adalah mungkin bagi manusia untuk menciptakan mesin superintelijen yang melampaui semua kecerdasan lainnya. Kedua, kita berisiko kehilangan kendali atas agen superintelijen yang mampu mengungguli kita. Ketiga, ada kemungkinan agen superintelijen akan melakukan hal-hal yang tidak kita inginkan.

Menyatukan semua ini, adalah mungkin untuk membuat mesin yang akan melakukan hal-hal yang tidak kita inginkan, termasuk menghancurkan kita, dan kita tidak akan dapat menghentikannya.

Ada juga kasus berbeda untuk skenario ini. Ketika Hinton mengemukakan keprihatinannya tentang kecerdasan buatan pada bulan Mei, dia mengutip contoh robot yang mengubah rute jaringan untuk memberi diri mereka lebih banyak kekuatan. Tapi superintelligence (atau AGI) tidak diperlukan. Mesin bodoh juga bisa menjadi bencana jika memiliki terlalu banyak ruang. Banyak skenario melibatkan penyebaran yang sembrono atau jahat daripada bot yang melayani diri sendiri.

Dalam makalah yang diterbitkan online minggu lalu, peneliti kecerdasan buatan Stuart Russell dan Andrew Critch di University of California, Berkeley (yang juga menandatangani pernyataan CAIS) menawarkan taksonomi risiko eksistensial. Risiko-risiko ini berkisar dari chatbot pemberi saran viral yang memberi tahu jutaan orang untuk keluar dari perguruan tinggi, hingga industri otonom yang mengejar tujuan ekonomi yang berbahaya, hingga negara-bangsa yang membangun senjata super bertenaga AI.

Dalam banyak kasus yang dibayangkan, model teoretis mencapai tujuan yang diberikan manusia, tetapi dengan cara yang tidak baik bagi kita. Bagi Hendrycks, yang mempelajari seberapa dalam model pembelajaran terkadang berperilaku dengan cara yang tidak terduga ketika masukan yang diberikan tidak terlihat dalam data pelatihan, sistem AI bisa menjadi bencana karena merusak daripada mahakuasa. "Jika Anda memberikan tujuan dan menemukan solusi eksotis, itu membawa kita pada perjalanan yang aneh," katanya.

Masalah dengan kemungkinan masa depan ini adalah bahwa mereka bergantung pada serangkaian "jika" yang membuatnya terdengar seperti fiksi ilmiah. Vold sendiri mengakuinya. "Karena peristiwa yang membentuk atau memicu [risiko eksistensial] belum pernah terjadi sebelumnya, argumen bahwa mereka menimbulkan ancaman seperti itu harus bersifat teoretis," tulisnya. "Kelangkaan mereka juga membuat spekulasi tentang bagaimana atau kapan peristiwa semacam itu terjadi menjadi subyektif dan tidak dapat diverifikasi secara empiris."

Jadi mengapa lebih banyak orang mempercayai ide-ide ini daripada sebelumnya? "Orang yang berbeda berbicara tentang risiko untuk alasan yang berbeda, dan mereka dapat mengartikannya secara berbeda," kata François Chollet, seorang peneliti AI di Google. Tapi ini adalah narasi yang tak tertahankan: "Risiko eksistensial selalu menjadi cerita yang bagus."

"Ada unsur mitologis, hampir religius yang tidak bisa diabaikan," kata Whittaker. "Saya pikir kita perlu menyadari bahwa mengingat apa yang dijelaskan tidak memiliki dasar bukti, itu lebih dekat dengan kepercayaan, semangat religius, daripada wacana ilmiah."

Penularan Kiamat

Ketika para peneliti pembelajaran mendalam pertama kali mulai mencapai serangkaian kesuksesan -- pikirkan skor pengenalan gambar pemecah rekor Hinton dan rekan-rekannya dalam kompetisi ImageNet 2012, dan kemenangan AlphaGo pertama DeepMind atas juara manusia pada tahun 2015, Hype segera berubah menjadi kiamat juga. Ilmuwan terkemuka seperti Hawking dan ahli kosmologi Martin Rees, serta para pemimpin teknologi terkenal seperti Elon Musk, telah memperingatkan tentang risiko eksistensial. Tapi karakter ini bukan ahli AI.

Berdiri di atas panggung di San Jose delapan tahun lalu, Andrew Ng, pelopor pembelajaran mendalam dan kemudian kepala ilmuwan di Baidu, menertawakan ide tersebut.

"Di masa depan yang jauh, mungkin ada ras robot pembunuh," kata Andrew Ng kepada hadirin di Konferensi Teknologi GPU Nvidia 2015. "Tapi hari ini saya tidak berkomitmen untuk mencegah kecerdasan buatan menjadi jahat karena saya mengkhawatirkan kelebihan populasi di Mars." (Pernyataan Ng dilaporkan pada saat itu oleh situs berita teknologi The Register.)

Andrew Ng, salah satu pendiri lab kecerdasan buatan Google pada tahun 2011 dan sekarang menjadi CEO Landing AI, telah mengulangi ungkapan ini dalam wawancara sejak saat itu. Tapi sekarang dia kurang optimis. "Saya tetap berpikiran terbuka dan berbicara dengan beberapa orang untuk belajar lebih banyak," katanya kepada saya. "Perkembangan yang cepat membuat para ilmuwan memikirkan kembali risiko."

Seperti banyak orang, Ng mengungkapkan keprihatinannya tentang pesatnya perkembangan AI generatif dan potensi penyalahgunaannya. Bulan lalu, dia mencatat, gambar ledakan yang dihasilkan oleh AI yang beredar luas di Pentagon membuat orang-orang ketakutan, membuat pasar saham turun.

"Sayangnya, AI sangat kuat sehingga tampaknya juga menimbulkan masalah besar," kata Ng. Tapi dia tidak berbicara tentang robot pembunuh: "Saat ini, saya masih kesulitan melihat bagaimana kecerdasan buatan dapat menyebabkan kepunahan kita".

Apa yang berbeda dari sebelumnya adalah kesadaran luas tentang apa yang bisa dilakukan oleh AI. ChatGPT membuat teknologi tersebut tersedia untuk umum akhir tahun lalu. "AI tiba-tiba menjadi topik hangat di arus utama," kata Chollet. "Orang-orang menganggap serius kecerdasan buatan karena mereka melihat lompatan kemampuan yang tiba-tiba sebagai pertanda akan lebih banyak lompatan yang akan datang."

Selain itu, pengalaman berbicara dengan chatbot bisa meresahkan. Percakapan adalah sesuatu yang secara umum dipahami sebagai sesuatu yang dilakukan orang dengan orang lain. “Ini menambah rasa legitimasi pada gagasan bahwa AI itu seperti manusia atau lawan bicara yang berakal,” kata Whittaker. “Saya pikir itu membuat orang percaya bahwa jika AI dapat mensimulasikan komunikasi manusia, itu juga dapat melakukan XYZ. "

"Itulah mengapa saya mulai merasa bahwa percakapan tentang risiko bertahan hidup cukup tepat -- membuat kesimpulan tanpa bukti," katanya.

Sedang mencari

Kami punya alasan untuk marah. Saat regulator mengejar industri teknologi, ada pertanyaan tentang jenis aktivitas apa yang harus atau tidak boleh dibatasi. Menyoroti risiko jangka panjang daripada kerugian jangka pendek (seperti perekrutan yang diskriminatif atau informasi yang salah) memfokuskan kembali regulator pada masalah hipotetis di masa depan.

"Saya menduga ancaman kendala peraturan yang nyata telah mendorong sikap," kata Burrell. "Berbicara tentang risiko eksistensial dapat memvalidasi kekhawatiran regulator tanpa merusak peluang bisnis." Dia berkata: "AI superintelijen yang mengkhianati kemanusiaan Kedengarannya menakutkan, tetapi juga jelas sesuatu yang belum terjadi."

Membesar-besarkan kekhawatiran tentang risiko eksistensial juga baik untuk bisnis dengan cara lain. Chollet menunjukkan bahwa perusahaan AI teratas membutuhkan kita untuk berpikir bahwa AGI akan datang, dan merekalah yang membangunnya. "Jika Anda ingin orang berpikir bahwa apa yang Anda kerjakan itu kuat, ada baiknya membuat mereka takut akan hal itu," katanya.

Whittaker mengambil pandangan serupa. "Menjadikan diri Anda sebagai pencipta entitas yang mungkin lebih kuat dari manusia merupakan hal yang penting," katanya.

Semua ini tidak penting jika itu hanya pemasaran atau hype. Tetapi memutuskan apa yang berisiko dan tidak memiliki konsekuensi. Di dunia dengan anggaran dan rentang perhatian yang terbatas, cedera yang tidak seekstrim perang nuklir mungkin diabaikan karena menurut kami itu bukan prioritas.

“Ini adalah pertanyaan penting, terutama mengingat meningkatnya fokus pada keselamatan dan keamanan sebagai kerangka sempit intervensi kebijakan,” kata Sarah Myers West, direktur pelaksana AI Now Institute.

Ketika Perdana Menteri Rishi Sunak bertemu dengan kepala perusahaan AI, termasuk Sam Altman dan Demis Hassabis, pada bulan Mei, pemerintah Inggris mengeluarkan pernyataan yang mengatakan: "Perdana Menteri dan CEO membahas risiko teknologi, dari disinformasi dan keamanan negara, hingga ancaman eksistensial".

Seminggu sebelumnya, Altman memberi tahu Senat AS bahwa kekhawatiran terbesarnya adalah bahwa industri AI akan sangat merugikan dunia. Kesaksian Altman memicu seruan untuk jenis agensi baru untuk mengatasi kerugian yang belum pernah terjadi sebelumnya ini.

Dengan pergeseran jendela Overton, apakah kerusakan telah terjadi? "Jika kita berbicara tentang masa depan yang jauh, jika kita berbicara tentang risiko mitis, maka kita benar-benar membingkai ulang masalah sebagai masalah yang ada di dunia fantasi, dan solusinya bisa ada di dunia fantasi," Whittaker berkata.

Tetapi Whittaker juga mencatat bahwa diskusi kebijakan seputar AI telah berlangsung selama bertahun-tahun, lebih lama dari ketakutan baru-baru ini. "Saya tidak percaya pada keniscayaan," katanya. "Kita akan melihat hype dilawan. Itu akan memudar."

Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate.io
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)