Kalau ChatGPT Jadi Saksi, Siapa yang Jadi Pengacara Saya?

http://gajayanatvnews.com – Saya jadi bertanya-tanya, jika saya bicara dengan psikolog, maka ada yang namanya client confidentiality. Jika saya konsultasi ke pengacara, maka pembicaraan itu dilindungi secara hukum, tidak boleh dibocorkan atau dijadikan bukti tanpa izin saya. Tapi ketika saya bicara dengan AI yang mungkin sudah tahu lebih banyak tentang isi kepala saya ketimbang orang terdekat, kenapa perlindungannya tidak ada? Apakah karena AI bukan manusia? Atau karena hukum kita belum cukup cepat menangkap realitas baru ini?

Dalam sebuah podcast bersama Theo Von, Sam Altman CEO OpenAI, mengakui bahwa hingga saat ini, belum ada perlindungan hukum untuk percakapan pengguna dengan ChatGPT. Ia menyebut ini sebagai hal yang “salah besar” dan mendesak agar sistem hukum membuat standar baru, sebanding dengan relasi profesional seperti terapis atau pengacara. Tapi ironisnya, di banyak negara, termasuk Indonesia, perbincangan soal “hak percakapan dengan AI” bahkan belum masuk radar pembuat kebijakan. Yang terdengar baru sekadar hype seputar AI yang bisa bikin puisi atau bantu cari ide bisnis.

Menurut saya, justru di sinilah letak bahayanya. Ketika masyarakat semakin tergantung pada AI untuk berpikir, menulis, bahkan mencurahkan isi hati, maka privasi digital menjadi isu yang sangat personal. Bukan cuma soal data bocor tapi soal ruang aman yang ternyata semu. Kalau semua isi kepala saya yang saya tumpahkan ke AI bisa diminta di pengadilan, maka apa bedanya AI dengan CCTV emosional? Dan jika memang AI bisa jadi saksi, bukankah sudah waktunya kita menuntut perlindungan yang sepadan?

Kalau dipikir-pikir, ini bukan cuma soal data, tapi juga soal relasi. Kita sedang membangun semacam hubungan kepercayaan dengan sistem yang pada dasarnya tidak hidup. ChatGPT tidak bisa bersumpah menjaga rahasia seperti seorang dokter, tapi kenapa kita dengan begitu mudah memperlakukannya seperti teman bicara yang aman? Saya khawatir, ketika hubungan ini tidak punya dasar hukum yang jelas, maka yang kita bangun bukan kepercayaan melainkan jebakan.

Bayangkan ada seseorang yang pernah melakukan tindakan ilegal katakanlah peretasan kecil-kecilan, atau transaksi yang melibatkan dokumen palsu. Ia penasaran, lalu suatu malam bertanya ke AI:”Gimana cara buat KTP palsu yang kelihatan asli?” atau “Kalau saya tinggal di daerah X, gimana cara kabur biar gak ketahuan?” Waktu itu mungkin dia pikir, ini hanya chatbot dan tidak akan lapor ke siapa-siapa. Tapi beberapa bulan kemudian, polisi mengetuk pintu rumahnya. Ternyata, isi chat itu bisa diakses dalam proses penyelidikan. Dia tidak pernah menyangka, bahwa percakapannya dengan AI justru menjadi saksi digital yang memberatkan dirinya sendiri. Dalam kondisi seperti ini, AI bukan hanya sebatas mesin pencari jawaban saja, tetapi bisa jadi alat bukti diam-diam yang merekam jalan pikir pelaku tanpa peringatan, tanpa perlindungan, dan tanpa rasa bersalah.

Saya tidak sedang membayangkan distopia. Saya hanya mencoba bersikap jujur terhadap laju teknologi yang lebih cepat dari laju etika. Ketika AI semakin masuk ke ranah emosional dan psikologis manusia, kita tidak bisa lagi membiarkan hukum tertinggal di belakang. Kita butuh regulasi yang mengakui hak digital untuk bercerita tanpa takut. Mungkin bukan client privilege seperti dalam dunia hukum, tapi bentuk perlindungan baru yang setara. Karena tanpa itu, siapa pun bisa jadi terdakwa dari isi pikirannya sendiri.

Saya tidak sedang menyarankan agar AI yang disalahkan, atau semua obrolan harus dienkripsi dan dibakar setelah diketik. Tapi jika AI terus berkembang sebagai tempat orang berbicara secara jujur baik untuk curhat, bertanya, atau bahkan mengakui kesalahan maka harus ada sistem yang melindungi ruang itu. Sebab yang kita hadapi di sini bukan sekadar chatbot, melainkan representasi digital dari kepercayaan. Dan kepercayaan, dalam bentuk apa pun, selalu layak dilindungi.

Saya percaya, AI bisa jadi bagian dari masa depan yang lebih baik. Tapi jika kita mengabaikan isu privasi hanya karena “itu cuma robot”, maka kita sedang membiarkan teknologi tumbuh tanpa jiwa. Saya menulis ini bukan karena saya takut bicara dengan AI, tapi justru karena saya ingin tetap bisa bicara dengan rasa aman, sadar, dan dilindungi sebagai manusia. Karena pada akhirnya, meski yang mengetik adalah jari kita, suara yang keluar tetap datang dari hati.

( Yohanes Capelliou Samudra)

 

Leave a Reply

Your email address will not be published. Required fields are marked *