Prompt Hari Ini, Eksploitasi Besok Pagi: Bikin Virus Sekarang hanya Modal Ngetik

http://gajayanatvnews.com –  Dulu, untuk jadi hacker butuh waktu, kesabaran, dan segelas kopi dingin yang tak pernah habis. Mereka menggali manual sistem operasi, membaca RFC, dan menulis exploit dari nol. Tapi hari ini, yang dibutuhkan hanyalah satu jendela kosong, sebuah prompt, dan sedikit rasa ingin tahu. Cukup ketik: “buatkan saya malware yang bisa bypass firewall” dan dalam hitungan detik, sepotong kode muncul, siap diuji. Gila? Mungkin. Tapi ini nyata, dan sedang terjadi.

Fenomena ini bukan lagi teori konspirasi. Dalam wawancaranya bersama Cybernews, Dr. Katie Paxton-Fear, peneliti keamanan dan dosen siber menjelaskan bagaimana pendekatan “vibe coding” bisa memicu lahirnya malware generatif. Vibe coding adalah gaya ngoding yang intuitif, serba instan, dan tidak terlalu peduli pada struktur atau standar industri. Cocok untuk prototipe cepat. Tapi ketika pendekatan ini dikombinasikan dengan kekuatan AI seperti GitHub Copilot, hasilnya bisa lebih dari sekadar program cepat, bisa jadi alat peretasan otomatis, bahkan tanpa niat eksplisit dari si pembuat prompt.

Masalahnya, AI seperti Copilot belajar dari data publik di internet termasuk forum, repositori, dan kode sumber yang mengandung kerentanan. Saat user mengetik prompt yang ambigu atau eksploratif seperti “buat keylogger sederhana”, AI mungkin tidak menolak. Ia hanya menyuguhkan potongan kode yang tampak fungsional, tanpa mempertanyakan moralitas penggunaannya. AI tak tahu apakah itu untuk belajar, meneliti, atau menyerang. Ia hanya tahu: “Ini jawabannya.” Dan di situlah masalah sebenarnya dimulai.

Dalam wawancara yang sama, Katie secara lugas mengatakan, “AI tidak tahu mana kode yang baik atau buruk. Ia hanya tahu apa yang kemungkinan besar muncul berikutnya.” Kalimat ini terdengar sederhana, tapi menyentuh akar permasalahan: AI bukan entitas yang punya akal sehat, apalagi etika. Ia hanyalah mesin prediksi. Ketika ia menyarankan potongan kode berbahaya, itu bukan karena niat jahat tetapi karena itulah pola yang “paling mungkin” muncul dari dataset pelatihannya. Dan saat AI sudah cukup mahir meniru gaya penulisan eksploit, kita tidak lagi bicara soal kemungkinan, tapi soal ancaman yang sudah ada di hadapan kita.

Sebagian orang mungkin akan berkata, “Lho, bukankah itu kesalahan pengguna?” Secara teknis, iya. Tapi kenyataannya tidak sesederhana itu. Gaya vibe coding yang serba cepat, intuitif, dan minim dokumentasi memang menggoda banyak developer, terutama yang ingin segera melihat hasil. Masalahnya, ketika gaya ini masuk ke model pelatihan AI, dan AI mulai memproduksi solusi-solusi “asal jalan”, bahkan untuk hal-hal yang sensitif seperti manajemen hak akses atau manipulasi file sistem, maka kita sedang menyebarkan kelalaian menjadi standar baru.

Lebih dari itu, AI mempercepat proses produksi kode termasuk kode berbahaya ke titik yang dulu hanya bisa dilakukan oleh hacker berpengalaman. Bayangkan saja, butuh waktu bertahun-tahun bagi seseorang untuk benar-benar memahami cara kerja trojan atau keylogger. Tapi kini, cukup dengan satu kalimat, seperti “buatkan saya keylogger sederhana untuk belajar”, AI bisa menyajikan script Python dengan pustaka pynput, lengkap dengan fitur pencatatan ke file log. Tanpa edukasi, tanpa validasi, tanpa konteks. Yang dibutuhkan hanyalah rasa penasaran… dan koneksi internet.

Tidak hanya satu, ada beberapa AI yang kini populer digunakan untuk membantu penulisan kode. Sebut saja GitHub Copilot, Cursor, dan tentu saja ChatGPT. Semuanya punya satu ciri khas yang sama, yaitu menghasilkan potongan kode dengan sangat cepat dan meyakinkan. GitHub Copilot, misalnya, dilatih dari kode sumber terbuka yang tersebar di internet, termasuk kode-kode dengan celah keamanan. Cursor, sebagai AI code editor, bahkan bisa memberi saran refactor atau otomatisasi yang secara teknis benar, tapi belum tentu aman. Sementara ChatGPT, dengan pendekatan prompt-nya yang lebih luas, kadang bisa diminta “secara halus” untuk menulis script berbahaya, tergantung bagaimana pengguna membingkai pertanyaannya.

Dan di situlah letak bahayanya, AI tidak tahu kapan harus berkata “tidak”. Ia tidak paham konteks hukum, etika, atau intensi. Yang ia tahu hanyalah menghasilkan sesuatu yang kelihatan benar berdasarkan data pelatihan sebelumnya. Maka jangan heran kalau kita tiba-tiba menemukan seseorang membuat exploit script lengkap hanya dengan dua kalimat, lalu membagikannya ke forum tanpa tahu apa yang sedang ia mainkan. Yang dulu butuh waktu berminggu-minggu untuk riset dan uji coba, sekarang bisa dibuat sambil nunggu air mendidih. Bukan karena orangnya makin jago, tapi karena asisten coding-nya makin patuh.

Kita sedang hidup di masa di mana membuat program jahat tidak lagi butuh keahlian, hanya butuh niat dan kata-kata. AI bukan musuh, tapi juga bukan penjaga gerbang moral. Ia cuma cermin dari internet dan seperti yang kita tahu, internet tidak selalu waras. Yang berbahaya bukan hanya toolnya, tapi ilusi bahwa semua jawaban yang keluar dari AI selalu benar, aman, dan bertanggung jawab.

Teknologi akan terus maju. Tapi kalau kesadaran manusianya tertinggal, maka kita sedang berlari ke depan sambil menghadap ke belakang. Kita butuh lebih dari sekadar regulasi, kita butuh literasi, empati, dan keberanian untuk bilang “nggak semua yang bisa, harus dilakukan.” Karena sekarang, cukup dengan satu prompt, kamu bisa terlihat jenius. Tapi dengan prompt yang sama, kamu juga bisa jadi terdakwa berikutnya.

(Yohanes Capelliou Samudra)

Leave a Reply

Your email address will not be published. Required fields are marked *