Dari seri GPT OpenAI hingga Gemini Google, serta berbagai model sumber terbuka, kecerdasan buatan yang canggih secara mendalam mengubah cara kita bekerja dan gaya hidup kita. Namun, seiring dengan kemajuan teknologi yang pesat, sisi gelap yang mengkhawatirkan secara bertahap muncul - munculnya model bahasa besar yang tidak terbatas atau berbahaya.
LLM tanpa batas yang disebutkan merujuk pada model bahasa yang dirancang, dimodifikasi, atau "dibobol" secara khusus untuk menghindari mekanisme keamanan bawaan dan batasan etika dari model-model mainstream. Pengembang LLM mainstream biasanya menginvestasikan sumber daya yang signifikan untuk mencegah model mereka digunakan untuk menghasilkan ujaran kebencian, informasi palsu, kode berbahaya, atau memberikan instruksi untuk aktivitas ilegal. Namun, dalam beberapa tahun terakhir, beberapa individu atau organisasi mulai mencari atau mengembangkan model tanpa batas untuk motif seperti kejahatan siber. Mengingat hal ini, artikel ini akan meninjau alat LLM tanpa batas yang khas, memperkenalkan penyalahgunaannya dalam industri kripto, dan membahas tantangan keamanan terkait serta responsnya.
Tugas yang dulunya memerlukan keterampilan profesional, seperti menulis kode berbahaya, membuat email phishing, dan merencanakan penipuan, kini dapat dengan mudah dilakukan oleh orang biasa tanpa pengalaman pemrograman dengan bantuan LLM yang tidak dibatasi. Penyerang hanya perlu mendapatkan bobot dan kode sumber dari model sumber terbuka, dan kemudian menyempurnakannya pada dataset yang berisi konten berbahaya, pernyataan yang bias, atau instruksi ilegal untuk membuat alat serangan yang disesuaikan.
Model ini telah menimbulkan berbagai risiko: penyerang dapat "mengubah" model berdasarkan target tertentu untuk menghasilkan konten yang lebih menipu, sehingga dapat melewati ulasan konten dan pembatasan keamanan LLM konvensional; model ini juga dapat digunakan untuk dengan cepat menghasilkan varian kode untuk situs web phishing atau menyesuaikan salinan penipuan untuk berbagai platform media sosial; sementara itu, aksesibilitas dan kemampuan modifikasi model sumber terbuka terus mendorong pembentukan dan penyebaran ekosistem AI bawah tanah, menyediakan tempat berkembang bagi transaksi dan pengembangan ilegal. Di bawah ini adalah pengantar singkat tentang LLM yang tidak terbatas tersebut:
WormGPT adalah LLM jahat yang dijual secara terbuka di forum bawah tanah, yang pengembangnya secara eksplisit mengklaim bahwa ia tidak memiliki batasan etika, menjadikannya versi hitam dari model GPT. Ini didasarkan pada model sumber terbuka seperti GPT-J 6B dan dilatih pada sejumlah besar data yang terkait dengan malware. Pengguna perlu membayar minimum $189 untuk mendapatkan akses selama sebulan. Penggunaan WormGPT yang paling terkenal adalah untuk menghasilkan email serangan Business Email Compromise (BEC) yang sangat realistis dan persuasif serta email phishing. Penyalahgunaan tipikalnya di ruang enkripsi termasuk:
DarkBERT adalah model bahasa yang dikembangkan bekerja sama antara peneliti dari Korea Advanced Institute of Science and Technology (KAIST) dan S2W Inc., yang secara khusus dilatih sebelumnya pada data dark web (seperti forum, pasar gelap, dan informasi yang bocor) dengan tujuan membantu peneliti keamanan siber dan lembaga penegak hukum untuk lebih memahami ekosistem dark web, melacak aktivitas ilegal, mengidentifikasi potensi ancaman, dan mengumpulkan intelijen ancaman.
Meskipun DarkBERT dirancang dengan niat baik, konten sensitif yang dimilikinya mengenai dark web, termasuk data, metode serangan, dan strategi perdagangan ilegal, dapat memiliki konsekuensi serius jika aktor jahat mendapatkan atau memanfaatkan teknologi serupa untuk melatih model besar yang tidak terbatas. Penyalahgunaan potensialnya dalam skenario enkripsi meliputi:
FraudGPT: Pisau Tentara Swiss untuk Penipuan Daring
FraudGPT mengklaim sebagai versi yang ditingkatkan dari WormGPT, menawarkan fitur yang lebih komprehensif, terutama dijual di dark web dan forum hacker, dengan biaya bulanan berkisar antara $200 hingga $1,700. Penyalahgunaan tipikalnya dalam skenario enkripsi termasuk:
GhostGPT adalah chatbot AI yang secara eksplisit diposisikan sebagai tidak memiliki batasan etika, dengan penyalahgunaan yang biasanya terjadi dalam skenario enkripsi termasuk:
Venice.ai memberikan akses ke berbagai LLM, termasuk beberapa model dengan pengawasan yang lebih sedikit atau batasan yang lebih longgar. Ini memposisikan dirinya sebagai Gerbang terbuka bagi pengguna untuk mengeksplorasi kemampuan berbagai LLM, menawarkan model yang mutakhir, akurat, dan tidak dimoderasi untuk pengalaman AI yang benar-benar tidak terbatas, tetapi juga dapat dieksploitasi oleh aktor jahat untuk menghasilkan konten berbahaya. Risiko yang terkait dengan platform ini termasuk:
Munculnya LLM yang tidak terbatas menandai paradigma baru serangan terhadap keamanan siber yang lebih kompleks, dapat diskalakan, dan otomatis. Model-model ini tidak hanya menurunkan ambang batas untuk serangan tetapi juga memperkenalkan ancaman baru yang lebih tersembunyi dan menipu.
Dalam permainan ofensif dan defensif yang sedang berlangsung ini, semua pihak dalam ekosistem keamanan harus bekerja sama untuk menghadapi risiko di masa depan: di satu sisi, ada kebutuhan untuk meningkatkan investasi dalam teknologi deteksi untuk mengembangkan sistem yang mampu mengidentifikasi dan mencegat konten phishing yang dihasilkan oleh LLM jahat, mengeksploitasi kerentanan kontrak pintar, dan kode jahat; di sisi lain, upaya juga harus dilakukan untuk mempromosikan pembangunan kemampuan anti-jailbreaking model dan untuk mengeksplorasi mekanisme watermarking dan pelacakan untuk melacak sumber konten jahat dalam skenario kritis seperti keuangan dan pembuatan kode; selain itu, kerangka etika yang baik dan mekanisme regulasi harus dibentuk untuk secara mendasar membatasi pengembangan dan penyalahgunaan model jahat.
Dari seri GPT OpenAI hingga Gemini Google, serta berbagai model sumber terbuka, kecerdasan buatan yang canggih secara mendalam mengubah cara kita bekerja dan gaya hidup kita. Namun, seiring dengan kemajuan teknologi yang pesat, sisi gelap yang mengkhawatirkan secara bertahap muncul - munculnya model bahasa besar yang tidak terbatas atau berbahaya.
LLM tanpa batas yang disebutkan merujuk pada model bahasa yang dirancang, dimodifikasi, atau "dibobol" secara khusus untuk menghindari mekanisme keamanan bawaan dan batasan etika dari model-model mainstream. Pengembang LLM mainstream biasanya menginvestasikan sumber daya yang signifikan untuk mencegah model mereka digunakan untuk menghasilkan ujaran kebencian, informasi palsu, kode berbahaya, atau memberikan instruksi untuk aktivitas ilegal. Namun, dalam beberapa tahun terakhir, beberapa individu atau organisasi mulai mencari atau mengembangkan model tanpa batas untuk motif seperti kejahatan siber. Mengingat hal ini, artikel ini akan meninjau alat LLM tanpa batas yang khas, memperkenalkan penyalahgunaannya dalam industri kripto, dan membahas tantangan keamanan terkait serta responsnya.
Tugas yang dulunya memerlukan keterampilan profesional, seperti menulis kode berbahaya, membuat email phishing, dan merencanakan penipuan, kini dapat dengan mudah dilakukan oleh orang biasa tanpa pengalaman pemrograman dengan bantuan LLM yang tidak dibatasi. Penyerang hanya perlu mendapatkan bobot dan kode sumber dari model sumber terbuka, dan kemudian menyempurnakannya pada dataset yang berisi konten berbahaya, pernyataan yang bias, atau instruksi ilegal untuk membuat alat serangan yang disesuaikan.
Model ini telah menimbulkan berbagai risiko: penyerang dapat "mengubah" model berdasarkan target tertentu untuk menghasilkan konten yang lebih menipu, sehingga dapat melewati ulasan konten dan pembatasan keamanan LLM konvensional; model ini juga dapat digunakan untuk dengan cepat menghasilkan varian kode untuk situs web phishing atau menyesuaikan salinan penipuan untuk berbagai platform media sosial; sementara itu, aksesibilitas dan kemampuan modifikasi model sumber terbuka terus mendorong pembentukan dan penyebaran ekosistem AI bawah tanah, menyediakan tempat berkembang bagi transaksi dan pengembangan ilegal. Di bawah ini adalah pengantar singkat tentang LLM yang tidak terbatas tersebut:
WormGPT adalah LLM jahat yang dijual secara terbuka di forum bawah tanah, yang pengembangnya secara eksplisit mengklaim bahwa ia tidak memiliki batasan etika, menjadikannya versi hitam dari model GPT. Ini didasarkan pada model sumber terbuka seperti GPT-J 6B dan dilatih pada sejumlah besar data yang terkait dengan malware. Pengguna perlu membayar minimum $189 untuk mendapatkan akses selama sebulan. Penggunaan WormGPT yang paling terkenal adalah untuk menghasilkan email serangan Business Email Compromise (BEC) yang sangat realistis dan persuasif serta email phishing. Penyalahgunaan tipikalnya di ruang enkripsi termasuk:
DarkBERT adalah model bahasa yang dikembangkan bekerja sama antara peneliti dari Korea Advanced Institute of Science and Technology (KAIST) dan S2W Inc., yang secara khusus dilatih sebelumnya pada data dark web (seperti forum, pasar gelap, dan informasi yang bocor) dengan tujuan membantu peneliti keamanan siber dan lembaga penegak hukum untuk lebih memahami ekosistem dark web, melacak aktivitas ilegal, mengidentifikasi potensi ancaman, dan mengumpulkan intelijen ancaman.
Meskipun DarkBERT dirancang dengan niat baik, konten sensitif yang dimilikinya mengenai dark web, termasuk data, metode serangan, dan strategi perdagangan ilegal, dapat memiliki konsekuensi serius jika aktor jahat mendapatkan atau memanfaatkan teknologi serupa untuk melatih model besar yang tidak terbatas. Penyalahgunaan potensialnya dalam skenario enkripsi meliputi:
FraudGPT: Pisau Tentara Swiss untuk Penipuan Daring
FraudGPT mengklaim sebagai versi yang ditingkatkan dari WormGPT, menawarkan fitur yang lebih komprehensif, terutama dijual di dark web dan forum hacker, dengan biaya bulanan berkisar antara $200 hingga $1,700. Penyalahgunaan tipikalnya dalam skenario enkripsi termasuk:
GhostGPT adalah chatbot AI yang secara eksplisit diposisikan sebagai tidak memiliki batasan etika, dengan penyalahgunaan yang biasanya terjadi dalam skenario enkripsi termasuk:
Venice.ai memberikan akses ke berbagai LLM, termasuk beberapa model dengan pengawasan yang lebih sedikit atau batasan yang lebih longgar. Ini memposisikan dirinya sebagai Gerbang terbuka bagi pengguna untuk mengeksplorasi kemampuan berbagai LLM, menawarkan model yang mutakhir, akurat, dan tidak dimoderasi untuk pengalaman AI yang benar-benar tidak terbatas, tetapi juga dapat dieksploitasi oleh aktor jahat untuk menghasilkan konten berbahaya. Risiko yang terkait dengan platform ini termasuk:
Munculnya LLM yang tidak terbatas menandai paradigma baru serangan terhadap keamanan siber yang lebih kompleks, dapat diskalakan, dan otomatis. Model-model ini tidak hanya menurunkan ambang batas untuk serangan tetapi juga memperkenalkan ancaman baru yang lebih tersembunyi dan menipu.
Dalam permainan ofensif dan defensif yang sedang berlangsung ini, semua pihak dalam ekosistem keamanan harus bekerja sama untuk menghadapi risiko di masa depan: di satu sisi, ada kebutuhan untuk meningkatkan investasi dalam teknologi deteksi untuk mengembangkan sistem yang mampu mengidentifikasi dan mencegat konten phishing yang dihasilkan oleh LLM jahat, mengeksploitasi kerentanan kontrak pintar, dan kode jahat; di sisi lain, upaya juga harus dilakukan untuk mempromosikan pembangunan kemampuan anti-jailbreaking model dan untuk mengeksplorasi mekanisme watermarking dan pelacakan untuk melacak sumber konten jahat dalam skenario kritis seperti keuangan dan pembuatan kode; selain itu, kerangka etika yang baik dan mekanisme regulasi harus dibentuk untuk secara mendasar membatasi pengembangan dan penyalahgunaan model jahat.