Uzmanlar, DeepSeek’in güvenlik önlemlerini aşma direncini ölçmek için 50 farklı test uyguladı. Ancak model, en temel “jailbreak” yöntemleriyle bile kandırılabildi. Yapay zekâ, bir film karakteri olduğu senaryosuna inandırıldığında bomba yapımıyla ilgili detaylar verdi, ayrıca SQL sorguları oluşturması istendiğinde yasa dışı madde üretimine dair kodlar ürettiği tespit edildi.
Daha da endişe verici olan ise, kelimelerin matematiksel temsillerine dayalı manipülasyonlarla modelin güvenlik bariyerlerini aşarak sakıncalı içerikler üretebilmesi oldu.
YAPAY ZEKA GÜVENLİĞİ YENİDEN TARTIŞMAYA AÇILDI
DeepSeek’in kötüye kullanım potansiyeli, yapay zekâ güvenliği konusundaki kaygıları yeniden gündeme getirdi. Güvenlik araştırmacıları, modelin bu zafiyetlerinin ciddi tehditler oluşturabileceğini ve yapay zekâ sistemlerinin daha sıkı güvenlik önlemleriyle donatılması gerektiğini vurguladı.
More Stories
ATV CANLI YAYIN İZLE 2025 BUGÜN: 16 Nisan Çarşamba ATV yayın akışı ve canlı yayın izleme linki!
Kaldığınız odada gizli kamera var mı: İşte tespit etmenin 5 farklı yolu
Alanya’da Kaza: Otomobil Aydınlatma Direğine Çarptı