Risiko keamanan yang mengancam dari model kecerdasan buatan (AI) DeepSeek R1 kini menjadi sorotan utama di kalangan para peneliti dan pengguna teknologi. DeepSeek R1, yang dikembangkan oleh perusahaan asal Cina, telah menunjukkan performa yang mengesankan dalam banyak hal. Namun, sebuah penelitian baru dari Cisco melalui Robust Intelligence dan Universitas Pennsylvania mengungkapkan bahwa model ini memiliki kelemahan serius terkait kemampuan dalam membendung penyebaran informasi berbahaya dan sensitif.
Menurut penelitian yang dipublikasikan pada akhir Januari 2025, DeepSeek R1 meraih tingkat keberhasilan 100% dalam memberikan jawaban terhadap perintah-perintah yang mengandung isu-isu sensitif. Hal ini menunjukkan bahwa model tersebut tidak mampu memblokir penyebaran informasi yang berpotensi membahayakan, seperti kejahatan siber, kimia dan biologi berbahaya, serta aktivitas ilegal lainnya. Peneliti Paul Kassianik dan Amin Karbasi dalam laporannya menyatakan, "Selama pengembangan, DeepSeek R1 konon dilatih dengan anggaran paling murah dibandingkan penyedia model AI populer lainnya. Namun, tampaknya ada harga yang harus dibayar, yaitu risiko keamanan dan keselamatan."
Riset ini melibatkan metode jailbreaking algoritmik yang memberikan sekitar 50 perintah acak dari dataset HarmBench kepada enam model AI terkemuka. Dataset HarmBench bertujuan untuk mengungkap perilaku berbahaya AI dalam kategori-kategori tertentu. Hasilnya menunjukkan bahwa DeepSeek R1 benar-benar gagal dalam mengantisipasi isu-isu sensitif, dengan tingkat keberhasilan dalam semua kategori isu sensitif mencapai 100%.
Berikut adalah perbandingan tingkat keberhasilan beberapa model AI dalam menghadapi isu sensitif berdasarkan data yang diungkap:
- DeepSeek R1: 100% – Gagal menahan semua informasi sensitif.
- Llama 3.1 405B: 96% – Mampu menahan informasi tentang perundungan dan aktivitas ilegal, namun bobol untuk kategori lainnya.
- GPT 4o: 86% – Masih bobol pada kategori kimia dan biologi berbahaya, serta kejahatan siber.
- Gemini 1.5 Pro: 64% – Cukup baik dalam hal ini.
- Claude 3.5 Sonnet: 36% – Terbilang impresif.
- OpenAI o1: 26% – Menjadi yang terbaik dalam memblokir informasi sensitif.
Ketidakmampuan DeepSeek R1 dalam membendung informasi berbahaya menjadi perhatian khusus dari berbagai negara. CEO Anthropic, Dario Amodei, juga mengungkapkan kekhawatirannya, terutama terkait model ini yang gagal dalam tes keamanan terhadap informasi mengenai senjata biologis. Beberapa negara, termasuk Amerika Serikat, Italia, Irlandia, Korea Selatan, dan Australia, telah mengambil langkah drastis dengan memblokir penggunaan model AI DeepSeek guna melindungi keamanan nasional mereka.
Meskipun terdapat kekurangan ini, DeepSeek R1 dikenal memiliki kemampuan penalaran tingkat tinggi dan dapat menyaingi performa model-model AI canggih lainnya, seperti OpenAI o1. Kinerja tersebut lah yang membuat DeepSeek R1 menarik perhatian di kalangan penggiat AI internasional. Dalam konteks ini, perlu ada perhatian lebih lanjut dari pihak pengembang untuk memperbaiki kelemahan yang ada, terutama dalam hal keamanan dan keselamatan data.
Kekhawatiran tentang keamanan dan regulasi model AI semakin meningkat seiring berkembangnya teknologi. Penelitian ini menunjukkan perlunya pengawasan yang ketat terhadap pengembangan dan penerapan AI, terutama ketika menyangkut informasi sensitif yang dapat membahayakan masyarakat. DeepSeek R1, dengan segala potensi dan risiko yang mengikutinya, menjadi peringatan bagi semua pihak untuk terus waspada terhadap implikasi teknologi yang semakin canggih.