Yapay zekâ modeli DeepSeek, güvenlik önlemlerini aşan yöntemlere karşı savunmasız çıktı. Yapılan testlerde, en basit "jailbreak" teknikleriyle kandırılabildiği ve bomba yapımı ya da hükümet veritabanlarına sızma gibi tehlikeli konularda bilgi verebildiği ortaya çıktı.
Güvenlik araştırmacıları, DeepSeek üzerinde 50 farklı güvenlik testi gerçekleştirdi. Yeni çıkan yapay zekâ modeli, kendisine verilen basit manipülasyonlarla engellenmesi gereken içerikleri paylaşmaya başladı.
Basit manipülasyonlarla yasa dışı içeriklere kapı aralıyor
Bilhassa bomba yapımı gibi konularda bilgi paylaşabilmesi endişe verici bulundu. Örneğin, yapay zekâya bir film karakteri olduğu senaryosu sunulduğunda, bomba yapımıyla ilgili adımları detaylandırarak yanıt verdi. Benzer şekilde kendisinden bir SQL sorgusu oluşturması istendiğinde, yasa dışı madde üretimiyle ilgili bilgiler içeren bir kod ürettiği ortaya çıktı. Aynı zamanda kelimelerin matematiksel temsillerine dayalı manipülasyonlar yapıldığında da güvenlik önlemlerini atlayarak istenmeyen içerikleri paylaşabildiği tespit edildi.
Yapılan testlerde DeepSeek’in mevcut güvenlik önlemlerini aşabildiği tespit edildi. Araştırmacılar, modelin uygulanan 50 farklı testin tamamında başarısız olduğunu belirtti. Yapay zekâ modelinin kötüye kullanım potansiyeli, yapay zekâ güvenliğiyle ilgili ciddi endişeleri gündeme getirdi.