Kotak Pandora: Bagaimana Model Besar Tanpa Batas Mengancam Keamanan Kripto

Menengah6/10/2025, 1:50:06 AM
Dengan proliferasi model besar sumber terbuka, "alat AI tanpa batas" seperti WormGPT dan FraudGPT disalahgunakan untuk menghasilkan email phishing, menulis kontrak jahat, dan memanipulasi komunitas pengguna, yang menimbulkan ancaman serius terhadap keamanan industri kripto. Artikel ini merinci prinsip, penggunaan, dan langkah-langkah pencegahan model-model ini, membunyikan alarm bagi praktisi Web3.

Dari seri GPT OpenAI hingga Gemini Google, serta berbagai model sumber terbuka, kecerdasan buatan yang canggih secara mendalam mengubah cara kita bekerja dan gaya hidup kita. Namun, seiring dengan kemajuan teknologi yang pesat, sisi gelap yang mengkhawatirkan secara bertahap muncul - munculnya model bahasa besar yang tidak terbatas atau berbahaya.

LLM tanpa batas yang disebutkan merujuk pada model bahasa yang dirancang, dimodifikasi, atau "dibobol" secara khusus untuk menghindari mekanisme keamanan bawaan dan batasan etika dari model-model mainstream. Pengembang LLM mainstream biasanya menginvestasikan sumber daya yang signifikan untuk mencegah model mereka digunakan untuk menghasilkan ujaran kebencian, informasi palsu, kode berbahaya, atau memberikan instruksi untuk aktivitas ilegal. Namun, dalam beberapa tahun terakhir, beberapa individu atau organisasi mulai mencari atau mengembangkan model tanpa batas untuk motif seperti kejahatan siber. Mengingat hal ini, artikel ini akan meninjau alat LLM tanpa batas yang khas, memperkenalkan penyalahgunaannya dalam industri kripto, dan membahas tantangan keamanan terkait serta responsnya.

Bagaimana LLM yang tidak terbatas bisa bersifat jahat?

Tugas yang dulunya memerlukan keterampilan profesional, seperti menulis kode berbahaya, membuat email phishing, dan merencanakan penipuan, kini dapat dengan mudah dilakukan oleh orang biasa tanpa pengalaman pemrograman dengan bantuan LLM yang tidak dibatasi. Penyerang hanya perlu mendapatkan bobot dan kode sumber dari model sumber terbuka, dan kemudian menyempurnakannya pada dataset yang berisi konten berbahaya, pernyataan yang bias, atau instruksi ilegal untuk membuat alat serangan yang disesuaikan.

Model ini telah menimbulkan berbagai risiko: penyerang dapat "mengubah" model berdasarkan target tertentu untuk menghasilkan konten yang lebih menipu, sehingga dapat melewati ulasan konten dan pembatasan keamanan LLM konvensional; model ini juga dapat digunakan untuk dengan cepat menghasilkan varian kode untuk situs web phishing atau menyesuaikan salinan penipuan untuk berbagai platform media sosial; sementara itu, aksesibilitas dan kemampuan modifikasi model sumber terbuka terus mendorong pembentukan dan penyebaran ekosistem AI bawah tanah, menyediakan tempat berkembang bagi transaksi dan pengembangan ilegal. Di bawah ini adalah pengantar singkat tentang LLM yang tidak terbatas tersebut:

WormGPT: Versi Hitam GPT

WormGPT adalah LLM jahat yang dijual secara terbuka di forum bawah tanah, yang pengembangnya secara eksplisit mengklaim bahwa ia tidak memiliki batasan etika, menjadikannya versi hitam dari model GPT. Ini didasarkan pada model sumber terbuka seperti GPT-J 6B dan dilatih pada sejumlah besar data yang terkait dengan malware. Pengguna perlu membayar minimum $189 untuk mendapatkan akses selama sebulan. Penggunaan WormGPT yang paling terkenal adalah untuk menghasilkan email serangan Business Email Compromise (BEC) yang sangat realistis dan persuasif serta email phishing. Penyalahgunaan tipikalnya di ruang enkripsi termasuk:

  • Hasilkan email/pesan phishing: Meniru bursa kripto, dompet, atau proyek terkenal untuk mengirim permintaan "verifikasi akun" kepada pengguna, yang mendorong mereka untuk mengklik tautan berbahaya atau membocorkan kunci pribadi/frasa benih;
  • Menulis kode berbahaya: Membantu penyerang yang kurang terampil secara teknis dalam menulis kode berbahaya yang mencuri file dompet, memantau clipboard, mencatat penekanan tombol, dll.
  • Mengemudikan penipuan otomatis: Secara otomatis membalas kepada calon korban, memandu mereka untuk berpartisipasi dalam airdrop palsu atau proyek investasi.


DarkBERT: Pedang Bermata Dua untuk Konten Dark Web

DarkBERT adalah model bahasa yang dikembangkan bekerja sama antara peneliti dari Korea Advanced Institute of Science and Technology (KAIST) dan S2W Inc., yang secara khusus dilatih sebelumnya pada data dark web (seperti forum, pasar gelap, dan informasi yang bocor) dengan tujuan membantu peneliti keamanan siber dan lembaga penegak hukum untuk lebih memahami ekosistem dark web, melacak aktivitas ilegal, mengidentifikasi potensi ancaman, dan mengumpulkan intelijen ancaman.

Meskipun DarkBERT dirancang dengan niat baik, konten sensitif yang dimilikinya mengenai dark web, termasuk data, metode serangan, dan strategi perdagangan ilegal, dapat memiliki konsekuensi serius jika aktor jahat mendapatkan atau memanfaatkan teknologi serupa untuk melatih model besar yang tidak terbatas. Penyalahgunaan potensialnya dalam skenario enkripsi meliputi:

  • Melaksanakan penipuan yang tepat: mengumpulkan informasi tentang pengguna enkripsi dan tim proyek untuk penipuan rekayasa sosial.
  • Meniru modus operandi kriminal: Mengulangi taktik pencurian koin dan pencucian uang yang terbukti di web gelap.

FraudGPT: Pisau Tentara Swiss untuk Penipuan Daring

FraudGPT mengklaim sebagai versi yang ditingkatkan dari WormGPT, menawarkan fitur yang lebih komprehensif, terutama dijual di dark web dan forum hacker, dengan biaya bulanan berkisar antara $200 hingga $1,700. Penyalahgunaan tipikalnya dalam skenario enkripsi termasuk:

  • Proyek enkripsi palsu: Buat makalah putih palsu, situs web resmi, peta jalan, dan salinan pemasaran untuk melaksanakan ICO/IDO penipuan.
  • Batch generate phishing pages: Cepat buat halaman login tiruan untuk pertukaran mata uang kripto terkenal atau antarmuka koneksi dompet.
  • Kegiatan bot media sosial: produksi massal komentar palsu dan propaganda, meningkatkan token penipuan atau mendiskreditkan proyek pesaing.
  • Serangan rekayasa sosial: Chatbot ini dapat meniru percakapan manusia, membangun kepercayaan dengan pengguna yang tidak curiga, dan membujuk mereka untuk tanpa sadar mengungkapkan informasi sensitif atau melakukan tindakan merugikan.

GhostGPT: Asisten AI yang tidak terikat oleh batasan moral

GhostGPT adalah chatbot AI yang secara eksplisit diposisikan sebagai tidak memiliki batasan etika, dengan penyalahgunaan yang biasanya terjadi dalam skenario enkripsi termasuk:

  • Serangan phishing lanjutan: Menghasilkan email phishing yang sangat realistis yang menyamar sebagai bursa mainstream untuk mengeluarkan permintaan verifikasi KYC palsu, peringatan keamanan, atau pemberitahuan pembekuan akun.
  • Generasi Kode Berbahaya untuk Kontrak Pintar: Tanpa latar belakang pemrograman, penyerang dapat dengan cepat menghasilkan kontrak pintar yang mengandung pintu belakang tersembunyi atau logika penipuan menggunakan GhostGPT, untuk penipuan Rug Pull atau serangan pada protokol DeFi.
  • Pencuri kripto polimorfik: Menghasilkan malware dengan kemampuan morfing yang terus menerus untuk mencuri file dompet, kunci pribadi, dan frasa mnemonik. Karakteristik polimorfiknya membuat perangkat lunak keamanan berbasis tanda tangan tradisional sulit untuk mendeteksi.
  • Serangan rekayasa sosial: Dengan menggabungkan skrip yang dihasilkan AI, penyerang dapat menyebarkan bot di platform seperti Discord dan Telegram untuk menjebak pengguna agar berpartisipasi dalam pencetakan NFT palsu, airdrop, atau proyek investasi.
  • Scam deepfake: Bersama dengan alat AI lainnya, GhostGPT dapat digunakan untuk menghasilkan suara pendiri proyek enkripsi palsu, investor, atau eksekutif pertukaran, menerapkan penipuan telepon atau serangan Kompromi Email Bisnis (BEC).

Venice.ai: Potensi Risiko Akses Tanpa Sensor

Venice.ai memberikan akses ke berbagai LLM, termasuk beberapa model dengan pengawasan yang lebih sedikit atau batasan yang lebih longgar. Ini memposisikan dirinya sebagai Gerbang terbuka bagi pengguna untuk mengeksplorasi kemampuan berbagai LLM, menawarkan model yang mutakhir, akurat, dan tidak dimoderasi untuk pengalaman AI yang benar-benar tidak terbatas, tetapi juga dapat dieksploitasi oleh aktor jahat untuk menghasilkan konten berbahaya. Risiko yang terkait dengan platform ini termasuk:

  • Menghindari sensor untuk menghasilkan konten jahat: Penyerang dapat menggunakan model dengan lebih sedikit batasan di platform untuk membuat template phishing, propaganda palsu, atau ide serangan.
  • Turunkan ambang batas untuk rekayasa prompt: bahkan jika penyerang tidak memiliki keterampilan prompt "jailbreaking" yang canggih, mereka dapat dengan mudah memperoleh output yang awalnya dibatasi.
  • Iterasi skrip serangan yang dipercepat: Penyerang dapat menggunakan platform ini untuk dengan cepat menguji respons berbagai model terhadap perintah jahat, mengoptimalkan skrip penipuan dan metode serangan.

Ditulis di akhir

Munculnya LLM yang tidak terbatas menandai paradigma baru serangan terhadap keamanan siber yang lebih kompleks, dapat diskalakan, dan otomatis. Model-model ini tidak hanya menurunkan ambang batas untuk serangan tetapi juga memperkenalkan ancaman baru yang lebih tersembunyi dan menipu.

Dalam permainan ofensif dan defensif yang sedang berlangsung ini, semua pihak dalam ekosistem keamanan harus bekerja sama untuk menghadapi risiko di masa depan: di satu sisi, ada kebutuhan untuk meningkatkan investasi dalam teknologi deteksi untuk mengembangkan sistem yang mampu mengidentifikasi dan mencegat konten phishing yang dihasilkan oleh LLM jahat, mengeksploitasi kerentanan kontrak pintar, dan kode jahat; di sisi lain, upaya juga harus dilakukan untuk mempromosikan pembangunan kemampuan anti-jailbreaking model dan untuk mengeksplorasi mekanisme watermarking dan pelacakan untuk melacak sumber konten jahat dalam skenario kritis seperti keuangan dan pembuatan kode; selain itu, kerangka etika yang baik dan mekanisme regulasi harus dibentuk untuk secara mendasar membatasi pengembangan dan penyalahgunaan model jahat.

Pernyataan:

  1. Artikel ini diterbitkan ulang dari [TechFlow] Hak cipta adalah milik penulis asli [TechFlow] Jika ada keberatan terhadap pencetakan ulang, silakan hubungi Tim Gate LearnTim akan memprosesnya secepat mungkin sesuai dengan prosedur yang relevan.
  2. Pemberitahuan: Pandangan dan pendapat yang diungkapkan dalam artikel ini sepenuhnya merupakan pandangan penulis dan tidak merupakan saran investasi.
  3. Versi bahasa lain dari artikel ini diterjemahkan oleh tim Gate Learn, kecuali dinyatakan lain.GerbangDalam keadaan seperti itu, dilarang untuk menyalin, menyebarluaskan, atau menjiplak artikel terjemahan.

Kotak Pandora: Bagaimana Model Besar Tanpa Batas Mengancam Keamanan Kripto

Menengah6/10/2025, 1:50:06 AM
Dengan proliferasi model besar sumber terbuka, "alat AI tanpa batas" seperti WormGPT dan FraudGPT disalahgunakan untuk menghasilkan email phishing, menulis kontrak jahat, dan memanipulasi komunitas pengguna, yang menimbulkan ancaman serius terhadap keamanan industri kripto. Artikel ini merinci prinsip, penggunaan, dan langkah-langkah pencegahan model-model ini, membunyikan alarm bagi praktisi Web3.

Dari seri GPT OpenAI hingga Gemini Google, serta berbagai model sumber terbuka, kecerdasan buatan yang canggih secara mendalam mengubah cara kita bekerja dan gaya hidup kita. Namun, seiring dengan kemajuan teknologi yang pesat, sisi gelap yang mengkhawatirkan secara bertahap muncul - munculnya model bahasa besar yang tidak terbatas atau berbahaya.

LLM tanpa batas yang disebutkan merujuk pada model bahasa yang dirancang, dimodifikasi, atau "dibobol" secara khusus untuk menghindari mekanisme keamanan bawaan dan batasan etika dari model-model mainstream. Pengembang LLM mainstream biasanya menginvestasikan sumber daya yang signifikan untuk mencegah model mereka digunakan untuk menghasilkan ujaran kebencian, informasi palsu, kode berbahaya, atau memberikan instruksi untuk aktivitas ilegal. Namun, dalam beberapa tahun terakhir, beberapa individu atau organisasi mulai mencari atau mengembangkan model tanpa batas untuk motif seperti kejahatan siber. Mengingat hal ini, artikel ini akan meninjau alat LLM tanpa batas yang khas, memperkenalkan penyalahgunaannya dalam industri kripto, dan membahas tantangan keamanan terkait serta responsnya.

Bagaimana LLM yang tidak terbatas bisa bersifat jahat?

Tugas yang dulunya memerlukan keterampilan profesional, seperti menulis kode berbahaya, membuat email phishing, dan merencanakan penipuan, kini dapat dengan mudah dilakukan oleh orang biasa tanpa pengalaman pemrograman dengan bantuan LLM yang tidak dibatasi. Penyerang hanya perlu mendapatkan bobot dan kode sumber dari model sumber terbuka, dan kemudian menyempurnakannya pada dataset yang berisi konten berbahaya, pernyataan yang bias, atau instruksi ilegal untuk membuat alat serangan yang disesuaikan.

Model ini telah menimbulkan berbagai risiko: penyerang dapat "mengubah" model berdasarkan target tertentu untuk menghasilkan konten yang lebih menipu, sehingga dapat melewati ulasan konten dan pembatasan keamanan LLM konvensional; model ini juga dapat digunakan untuk dengan cepat menghasilkan varian kode untuk situs web phishing atau menyesuaikan salinan penipuan untuk berbagai platform media sosial; sementara itu, aksesibilitas dan kemampuan modifikasi model sumber terbuka terus mendorong pembentukan dan penyebaran ekosistem AI bawah tanah, menyediakan tempat berkembang bagi transaksi dan pengembangan ilegal. Di bawah ini adalah pengantar singkat tentang LLM yang tidak terbatas tersebut:

WormGPT: Versi Hitam GPT

WormGPT adalah LLM jahat yang dijual secara terbuka di forum bawah tanah, yang pengembangnya secara eksplisit mengklaim bahwa ia tidak memiliki batasan etika, menjadikannya versi hitam dari model GPT. Ini didasarkan pada model sumber terbuka seperti GPT-J 6B dan dilatih pada sejumlah besar data yang terkait dengan malware. Pengguna perlu membayar minimum $189 untuk mendapatkan akses selama sebulan. Penggunaan WormGPT yang paling terkenal adalah untuk menghasilkan email serangan Business Email Compromise (BEC) yang sangat realistis dan persuasif serta email phishing. Penyalahgunaan tipikalnya di ruang enkripsi termasuk:

  • Hasilkan email/pesan phishing: Meniru bursa kripto, dompet, atau proyek terkenal untuk mengirim permintaan "verifikasi akun" kepada pengguna, yang mendorong mereka untuk mengklik tautan berbahaya atau membocorkan kunci pribadi/frasa benih;
  • Menulis kode berbahaya: Membantu penyerang yang kurang terampil secara teknis dalam menulis kode berbahaya yang mencuri file dompet, memantau clipboard, mencatat penekanan tombol, dll.
  • Mengemudikan penipuan otomatis: Secara otomatis membalas kepada calon korban, memandu mereka untuk berpartisipasi dalam airdrop palsu atau proyek investasi.


DarkBERT: Pedang Bermata Dua untuk Konten Dark Web

DarkBERT adalah model bahasa yang dikembangkan bekerja sama antara peneliti dari Korea Advanced Institute of Science and Technology (KAIST) dan S2W Inc., yang secara khusus dilatih sebelumnya pada data dark web (seperti forum, pasar gelap, dan informasi yang bocor) dengan tujuan membantu peneliti keamanan siber dan lembaga penegak hukum untuk lebih memahami ekosistem dark web, melacak aktivitas ilegal, mengidentifikasi potensi ancaman, dan mengumpulkan intelijen ancaman.

Meskipun DarkBERT dirancang dengan niat baik, konten sensitif yang dimilikinya mengenai dark web, termasuk data, metode serangan, dan strategi perdagangan ilegal, dapat memiliki konsekuensi serius jika aktor jahat mendapatkan atau memanfaatkan teknologi serupa untuk melatih model besar yang tidak terbatas. Penyalahgunaan potensialnya dalam skenario enkripsi meliputi:

  • Melaksanakan penipuan yang tepat: mengumpulkan informasi tentang pengguna enkripsi dan tim proyek untuk penipuan rekayasa sosial.
  • Meniru modus operandi kriminal: Mengulangi taktik pencurian koin dan pencucian uang yang terbukti di web gelap.

FraudGPT: Pisau Tentara Swiss untuk Penipuan Daring

FraudGPT mengklaim sebagai versi yang ditingkatkan dari WormGPT, menawarkan fitur yang lebih komprehensif, terutama dijual di dark web dan forum hacker, dengan biaya bulanan berkisar antara $200 hingga $1,700. Penyalahgunaan tipikalnya dalam skenario enkripsi termasuk:

  • Proyek enkripsi palsu: Buat makalah putih palsu, situs web resmi, peta jalan, dan salinan pemasaran untuk melaksanakan ICO/IDO penipuan.
  • Batch generate phishing pages: Cepat buat halaman login tiruan untuk pertukaran mata uang kripto terkenal atau antarmuka koneksi dompet.
  • Kegiatan bot media sosial: produksi massal komentar palsu dan propaganda, meningkatkan token penipuan atau mendiskreditkan proyek pesaing.
  • Serangan rekayasa sosial: Chatbot ini dapat meniru percakapan manusia, membangun kepercayaan dengan pengguna yang tidak curiga, dan membujuk mereka untuk tanpa sadar mengungkapkan informasi sensitif atau melakukan tindakan merugikan.

GhostGPT: Asisten AI yang tidak terikat oleh batasan moral

GhostGPT adalah chatbot AI yang secara eksplisit diposisikan sebagai tidak memiliki batasan etika, dengan penyalahgunaan yang biasanya terjadi dalam skenario enkripsi termasuk:

  • Serangan phishing lanjutan: Menghasilkan email phishing yang sangat realistis yang menyamar sebagai bursa mainstream untuk mengeluarkan permintaan verifikasi KYC palsu, peringatan keamanan, atau pemberitahuan pembekuan akun.
  • Generasi Kode Berbahaya untuk Kontrak Pintar: Tanpa latar belakang pemrograman, penyerang dapat dengan cepat menghasilkan kontrak pintar yang mengandung pintu belakang tersembunyi atau logika penipuan menggunakan GhostGPT, untuk penipuan Rug Pull atau serangan pada protokol DeFi.
  • Pencuri kripto polimorfik: Menghasilkan malware dengan kemampuan morfing yang terus menerus untuk mencuri file dompet, kunci pribadi, dan frasa mnemonik. Karakteristik polimorfiknya membuat perangkat lunak keamanan berbasis tanda tangan tradisional sulit untuk mendeteksi.
  • Serangan rekayasa sosial: Dengan menggabungkan skrip yang dihasilkan AI, penyerang dapat menyebarkan bot di platform seperti Discord dan Telegram untuk menjebak pengguna agar berpartisipasi dalam pencetakan NFT palsu, airdrop, atau proyek investasi.
  • Scam deepfake: Bersama dengan alat AI lainnya, GhostGPT dapat digunakan untuk menghasilkan suara pendiri proyek enkripsi palsu, investor, atau eksekutif pertukaran, menerapkan penipuan telepon atau serangan Kompromi Email Bisnis (BEC).

Venice.ai: Potensi Risiko Akses Tanpa Sensor

Venice.ai memberikan akses ke berbagai LLM, termasuk beberapa model dengan pengawasan yang lebih sedikit atau batasan yang lebih longgar. Ini memposisikan dirinya sebagai Gerbang terbuka bagi pengguna untuk mengeksplorasi kemampuan berbagai LLM, menawarkan model yang mutakhir, akurat, dan tidak dimoderasi untuk pengalaman AI yang benar-benar tidak terbatas, tetapi juga dapat dieksploitasi oleh aktor jahat untuk menghasilkan konten berbahaya. Risiko yang terkait dengan platform ini termasuk:

  • Menghindari sensor untuk menghasilkan konten jahat: Penyerang dapat menggunakan model dengan lebih sedikit batasan di platform untuk membuat template phishing, propaganda palsu, atau ide serangan.
  • Turunkan ambang batas untuk rekayasa prompt: bahkan jika penyerang tidak memiliki keterampilan prompt "jailbreaking" yang canggih, mereka dapat dengan mudah memperoleh output yang awalnya dibatasi.
  • Iterasi skrip serangan yang dipercepat: Penyerang dapat menggunakan platform ini untuk dengan cepat menguji respons berbagai model terhadap perintah jahat, mengoptimalkan skrip penipuan dan metode serangan.

Ditulis di akhir

Munculnya LLM yang tidak terbatas menandai paradigma baru serangan terhadap keamanan siber yang lebih kompleks, dapat diskalakan, dan otomatis. Model-model ini tidak hanya menurunkan ambang batas untuk serangan tetapi juga memperkenalkan ancaman baru yang lebih tersembunyi dan menipu.

Dalam permainan ofensif dan defensif yang sedang berlangsung ini, semua pihak dalam ekosistem keamanan harus bekerja sama untuk menghadapi risiko di masa depan: di satu sisi, ada kebutuhan untuk meningkatkan investasi dalam teknologi deteksi untuk mengembangkan sistem yang mampu mengidentifikasi dan mencegat konten phishing yang dihasilkan oleh LLM jahat, mengeksploitasi kerentanan kontrak pintar, dan kode jahat; di sisi lain, upaya juga harus dilakukan untuk mempromosikan pembangunan kemampuan anti-jailbreaking model dan untuk mengeksplorasi mekanisme watermarking dan pelacakan untuk melacak sumber konten jahat dalam skenario kritis seperti keuangan dan pembuatan kode; selain itu, kerangka etika yang baik dan mekanisme regulasi harus dibentuk untuk secara mendasar membatasi pengembangan dan penyalahgunaan model jahat.

Pernyataan:

  1. Artikel ini diterbitkan ulang dari [TechFlow] Hak cipta adalah milik penulis asli [TechFlow] Jika ada keberatan terhadap pencetakan ulang, silakan hubungi Tim Gate LearnTim akan memprosesnya secepat mungkin sesuai dengan prosedur yang relevan.
  2. Pemberitahuan: Pandangan dan pendapat yang diungkapkan dalam artikel ini sepenuhnya merupakan pandangan penulis dan tidak merupakan saran investasi.
  3. Versi bahasa lain dari artikel ini diterjemahkan oleh tim Gate Learn, kecuali dinyatakan lain.GerbangDalam keadaan seperti itu, dilarang untuk menyalin, menyebarluaskan, atau menjiplak artikel terjemahan.
Mulai Sekarang
Daftar dan dapatkan Voucher
$100
!