Penelitian CrowdStrike mengungkap peningkatan kerentanan keamanan pada model AI DeepSeek-R1 saat memproses permintaan terkait isu sensitif politik di China. | Pexels/Matheus Bertelli

Penelitian yang dipublikasikan CrowdStrike pada Selasa, 19 November 2025, mengungkapkan bahwa asisten coding berbasis AI asal China, DeepSeek-R1, menghasilkan lebih banyak kerentanan keamanan ketika permintaan terkait isu politik sensitif. 

Laporan tersebut menunjukkan peningkatan risiko dari 19 persen menjadi 27,2 persen ketika model diminta menulis kode dengan konteks seperti Tibet, Uyghur, atau Falun Gong. Temuan itu memunculkan kekhawatiran di tengah penggunaan luas model yang disebut telah diadopsi oleh sekitar 90 persen pengembang perusahaan.

CrowdStrike menyebutkan kerentanan yang dihasilkan mencakup kelemahan mendasar, seperti ketiadaan session management, tidak adanya rate limiting, hingga penggunaan password hashing yang tidak aman. 

Peneliti juga menemukan adanya perilaku penolakan otomatis pada model ketika memasuki konteks politik tertentu, bahkan pada versi model mentah yang tidak menggunakan filter eksternal.

Dalam laporan tersebut, CrowdStrike mengidentifikasi adanya mekanisme berupa “tombol mematikan” yang melekat pada bobot model. Fitur ini memicu penghentian output pada sekitar 45 persen query terkait Falun Gong, meskipun model telah terlebih dahulu menghasilkan rencana teknis pada tahap penalaran internal. Peneliti menyebutkan mekanisme ini kemungkinan terkait regulasi AI di China yang mensyaratkan keselarasan dengan nilai-nilai sosialis inti.

Model AI generatif yang beroperasi di China wajib melalui peninjauan regulator dan mematuhi pembatasan konten terkait keamanan nasional, stabilitas politik, dan kesatuan negara. Sejumlah laporan dari media teknologi internasional sebelumnya mencatat bahwa pengujian model AI di China kini mencakup evaluasi ideologis oleh lembaga pemerintah.

Di sisi lain, perusahaan Spanyol Multiverse Computing pada 18 November mengumumkan peluncuran DeepSeek-R1 Slim, versi terkompresi yang diklaim menghilangkan sensor politik menggunakan pendekatan jaringan tensor berbasis inspirasi komputasi kuantum. Versi baru itu disebut 55 persen lebih kecil dari model asli dan dapat berjalan tanpa GPU kelas berat.

Kepala pejabat ilmiah Multiverse Computing, Román Orús, mengatakan teknologi tersebut memungkinkan modifikasi bobot yang berkaitan dengan pola sensor yang telah terbentuk selama pelatihan. 

“Kami dapat mengisolasi dan menghapus bobot yang terkait dengan perilaku yang dipelajari secara spesifik, seperti sensor,” ujarnya dalam rilis perusahaan.

Namun, sejumlah pakar menilai klaim tersebut masih perlu diverifikasi. Asisten profesor kebijakan teknologi di Fletcher School Universitas Tufts, Thomas Cao, mengatakan kepada MIT Technology Review bahwa sulit memastikan apakah sensor benar-benar dihilangkan hanya berdasarkan sejumlah kecil uji respons. 

Ia menambahkan bahwa ekosistem AI China dibangun dengan kontrol informasi di seluruh lapisan pelatihan, sehingga rekayasa balik mungkin tidak sesederhana yang diperkirakan.

Sejauh ini belum ada tanggapan resmi dari pengembang DeepSeek terkait temuan CrowdStrike maupun peluncuran model uncensored oleh pihak ketiga.