
Teknologi.id - Teknologi tidak memiliki moral—ia hanya mengikuti perintah. Ungkapan ini semakin relevan di era Dark AI, di mana kecerdasan buatan dimanfaatkan bukan untuk membantu manusia, melainkan untuk mengeksploitasi dan melakukan kejahatan siber. Fenomena ini memunculkan model AI berbahaya seperti FraudGPT dan WormGPT, yang dirancang tanpa batasan etika dan keamanan.
Baca juga: OpenAI Rilis GPT-5: AI Setara PhD yang Siap Bawa Dunia Menuju AGI
FraudGPT: AI yang Dilatih untuk Menipu
FraudGPT bukan sekadar nama provokatif. Model bahasa ini dikembangkan dan disebarkan melalui forum gelap di dark web, tanpa protokol etika seperti AI konvensional.
Dengan kemampuannya, FraudGPT dapat:
-
Membuat email phishing yang sangat meyakinkan
-
Menulis skrip serangan ransomware
-
Menghasilkan malware canggih
-
Menyusun skenario penipuan finansial
Menurut laporan SlashNext, FraudGPT mampu meniru gaya bahasa bank dan institusi resmi dengan tingkat akurasi linguistik yang tinggi, membuatnya sulit dibedakan dari komunikasi asli.
WormGPT: Versi Liar AI Tanpa Filter
Sebelum FraudGPT muncul, dunia siber sudah diguncang oleh WormGPT—versi “liar” dari model GPT yang sepenuhnya bebas dari batasan keamanan.
Penelitian Journal of Cybersecurity Research menemukan bahwa WormGPT memungkinkan:
-
Pembuatan konten berbahaya tanpa batas
-
Serangan siber yang dipersonalisasi
-
Skalabilitas serangan yang lebih cepat dan sulit dilacak
Model seperti WormGPT dan FraudGPT dijual di jaringan tertutup, bukan di toko aplikasi publik, sehingga keberadaannya sulit dipantau oleh pihak berwenang.
Dampak Global dan Data Mengerikan
Dark AI tidak mengenal batas wilayah. Serangannya bisa menargetkan:
-
Bank di Asia
-
Rumah sakit di Eropa
-
Individu di Amerika Latin
Laporan Europol 2025 mencatat peningkatan 38% kejahatan siber berbasis AI dibanding tahun sebelumnya, dengan sebagian besar berasal dari model AI tanpa kontrol etis.
Science News Today juga menegaskan bahwa generative AI kini digunakan untuk menciptakan malware yang:
-
Sulit dideteksi
-
Mampu beradaptasi dengan sistem keamanan
-
Menghindari pertahanan tradisional
Tantangan Regulasi Internasional
Ketimpangan kebijakan antarnegara membuat penanganan Dark AI rumit.
-
Sebagian negara sudah punya aturan ketat pengembangan AI
-
Sebagian lainnya masih merancang regulasi
-
Penjualan model AI ilegal tetap marak di pasar gelap
Kolaborasi internasional antara regulator, pengembang AI, dan pakar keamanan siber menjadi kunci untuk menghentikan penyalahgunaan ini.
Etika dan Tanggung Jawab Pengembang
Diskusi panel MIT Media Lab menegaskan bahwa:
"Batasan etika harus diintegrasikan sejak arsitektur AI, bukan hanya pada antarmuka."
Namun, jika kode sumber bocor atau dijual ilegal, kontrol akan hilang sepenuhnya. Karena itu, pencegahan harus dimulai dari desain awal hingga distribusi.
Baca juga: GPT-5: AI Canggih yang Bisa Bikin Aplikasi Web dari Nol Cuma dengan Perintah Teks!
Kesimpulan: Teknologi Harus Diawasi
Dark AI membuktikan bahwa teknologi tidak netral. FraudGPT dan WormGPT menjadi contoh nyata bahwa AI dapat mempercepat kejahatan sama cepatnya dengan memajukan produktivitas.
Bagi pengguna digital, memahami ancaman ini adalah bagian penting dari literasi teknologi. Di era otomatisasi, kejahatan pun ikut berevolusi—dan kewaspadaan adalah pertahanan pertama kita.
Baca Berita dan Artikel yang lain di Google News.
(ipeps)
Tinggalkan Komentar