Sains

Cak Imin: Waspada! AI Bisa Mengaburkan Fakta, Ini Peringatannya

Menteri Koordinator Bidang Pemberdayaan Masyarakat, Muhaimin Iskandar, atau lebih dikenal dengan sebutan Cak Imin, baru-baru ini mengingatkan masyarakat untuk tetap waspada terhadap perkembangan teknologi kecerdasan buatan (AI). Cak Imin menekankan bahwa meskipun AI menawarkan banyak manfaat, adanya potensi penyalahgunaan teknologi ini bisa mengaburkan fakta-fakta penting yang seharusnya diketahui oleh masyarakat.

Dalam sebuah pernyataan yang disampaikan kepada awak media pada Selasa (11/2/2025), Cak Imin mengungkapkan, “Kita semua harus waspada, dan pemerintah akan terus berusaha agar perkembangan AI ini inklusif, adil, transparan, dan benar-benar tidak merugikan.” Pernyataan ini menunjukkan keseriusan pemerintah dalam mengawasi penggunaan AI dan memastikan informasi yang disebarkan tetap akurat dan terpercaya.

Berbagai kasus penyalahgunaan AI sudah mulai terlihat, dan hal ini menjadi perhatian serius. Menurut Cak Imin, teknologi ini tidak hanya digunakan untuk hal-hal positif, tetapi juga kerap disalahgunakan untuk kepentingan negatif. Dalam pandangannya, masyarakat harus bijak dalam menggunakan AI agar tidak terjebak dalam informasi yang salah atau menyesatkan.

Selain itu, pendapat dari Founder and Chairman of Foreign Policy Community of Indonesia, Dino Patti Djalal, juga menyoroti dua sisi dari penggunaan AI. Ia menyebutkan bahwa AI dapat bertindak sebagai akselerator inovasi sekaligus sebagai ancaman bagi kebebasan individu. Menurutnya, ketergantungan yang berlebihan pada AI dapat mengikis identitas manusia, “Kebebasan adalah kebebasan untuk menjadi diriku. Kebebasan untuk menjadi dirimu. Tetapi apa artinya kebebasan ketika kamu tidak lagi dirimu?”

Dalam konteks ini, Cak Imin dan Dino sama-sama sepakat bahwa penggunaan AI secara sembarangan dapat berimbas pada kebebasan individu dan masyarakat. Oleh karena itu, kolaborasi antara berbagai pemangku kepentingan menjadi sangat penting. Para ahli dan peneliti harus bersatu untuk merancang kebijakan yang dapat membatasi dampak negatif dari penggunaan teknologi ini.

Kekhawatiran terkait penyalahgunaan AI tidak hanya berhenti di permukaan. Jurnal The Hackernews baru-baru ini mengungkap bahwa peneliti keamanan siber menemukan bahwa model bahasa besar (LLM) dapat digunakan untuk menciptakan varian baru dari kode JavaScript berbahaya. Ini menjadi tantangan besar bagi sistem deteksi otomatis yang ada, karena penjahat dapat dengan mudah mengubah dan memodifikasi kode jahat menjadi bentuk yang lebih sulit untuk diidentifikasi.

Penelitian tersebut menunjukkan bahwa dengan teknik pengaburan berbasis LLM, penyerang dapat menghasilkan hingga 10.000 varian baru dari kode berbahaya, sambil tetap mempertahankan fungsi dasar dari malware tersebut. Ini menandakan bahwa penjahat siber semakin inovatif dan cerdik dalam memanfaatkan kemajuan teknologi.

Untuk mencegah penyalahgunaan yang lebih luas, Cak Imin mengimbau semua elemen masyarakat, termasuk pemerintah dan sektor swasta, untuk berkolaborasi dalam pengawasan dan pengembangan kebijakan yang mengatur penggunaan AI. Penyedia LLM seperti OpenAI telah mengambil langkah-langkah untuk membatasi penggunaan alat mereka dalam aktivitas berbahaya, namun penjahat tetap mencari cara untuk mengeksploitasi dan mengotomatisasi penciptaan email phishing serta malware baru.

Situasi ini menunjukkan bahwa kecerdasan buatan, jika tidak digunakan dengan bijak, dapat menjadi bumerang bagi masyarakat. Dalam era informasi yang serba cepat ini, penting bagi setiap individu untuk tidak hanya menjadi konsumen informasi yang pasif, tetapi juga aktif dalam memverifikasi dan memahami sumber informasi yang mereka terima. Dengan langkah ini, diharapkan masyarakat dapat menjaga diri dari pengaruh negatif yang ditimbulkan oleh kecerdasan buatan.

Hendrawan adalah penulis di situs spadanews.id. Spada News adalah portal berita yang menghadirkan berbagai informasi terbaru lintas kategori dengan gaya penyajian yang sederhana, akurat, cepat, dan terpercaya.

Berita Terkait

Back to top button