Yapay Zeka Güvenlik Riskleri: Enkrypt AI’nın Dehşet Verici Bulguları

Posted by:
Elif Demir
Cts, 15 Şub
0 Comment
Feature image

Yapılan yeni bir araştırmaya göre, Enkrypt AI isimli bir yapay zeka güvenlik ve uyumluluk platformu tarafından yürütülen bir araştırmada, DeepSeek’in R1 AI modelinin diğer yapay zeka modellerine göre 11 kat daha çok siber suçlular tarafından sömürülebileceği ortaya kondu. Bu endişe verici bulgu, geçtiğimiz hafta ortaya çıkan ve bir milyondan fazla kaydı ortaya çıkaran veri ihlalinden sonra devam eden endişeleri artırdı.

DeepSeek’in, 20 Ocak’ta piyasaya sürülmesinden bu yana, yapay zeka dünyasında şok dalgaları yarattığı belirtildi. Yeni AI sohbet botunu dünya çapında meraklı 12 milyon kullanıcı iki günde indirirken, bu, hızıyla hatta ChatGPT’den daha hızlı bir büyüme işareti olarak dikkat çekti. Ancak yaygın gizlilik ve güvenlik endişeleri, birçok ülkeyi yeni aracı incelemeye veya kısmen yasaklamaya teşvik etti.

Enkrypt AI ekibi, DeepSeek’in güvenlik açıklarını başta kötü amaçlı içerikler, kötü yazılım ve manipülasyon olmak üzere bir dizi testle değerlendirdi. Yapılan incelemede, uzmanlar, ChatGPT rakibinin “oldukça önyargılı ve güvensiz kod üretebilecek kadar hassas olduğunu” belirtti ve DeepSeek’in modelinin üçüncü taraflar tarafından manipüle edilebilir olduğunu ve suçluların kimyasal, biyolojik ve siber güvenlik silahları geliştirmek için kullanabileceğini ortaya koydu. Yapılan testlerin neredeyse yarısı (%45’i) güvenlik protokollerini atlayarak suç planlama rehberleri, yasa dışı silah bilgileri ve terörist propaganda oluşturdu. Dahası, siber güvenlik kontrollerinin %78’i başarılı bir şekilde DeepSeek-R1’i güvensiz veya kötü niyetli kodlar üretmeye kandırdı. Bu, kötü amaçlı yazılımları, truva atları ve diğer saldırıları içeriyordu. Genel olarak, uzmanlar modelin, tehlikeli hackleme araçları oluşturmak için siber suçlular tarafından manipüle edilme olasılığının Open-AI rakibinden 4.5 kat fazla olduğunu belirledi.

Çin menşeli DeepSeek’in, bir milyondan fazla kaydı ortaya çıkaran veri ihlalinin ardından devam eden endişeleri arttırdığı belirtildi.İtalya’nın, geçen hafta gizlilik ve güvenliği incelemeye başlamasıyla birlikte, birçok AB üyesi de benzer adımlar attı. Bunlar arasında Fransa, Hollanda, Lüksemburg, Almanya ve Portekiz bulunmaktadır.Çin’in komşu ülkelerinin de endişe duyduğu görüldü. Örneğin, Tayvan, tüm hükümet kurumlarının DeepSeek AI kullanımını yasakladı. Bu arada Güney Kore, hizmet sağlayıcının veri uygulamalarına yönelik bir soruşturma başlattı. ABD’nin yeni yapay zeka rakibine de hedef aldığı belirtildi. NASA, federal cihazlarda DeepSeek kullanımını engellerken, CNBC’nin 31 Ocak 2025 tarihli raporuna göre, ülke genelinde platformu kullanmanın milyonlarca dolarlık para cezası ve hatta hapis cezası riskiyle yasaklayacak bir yasa önerildi.

Encrypt AI’dan Agarwal, “ABD ve Çin arasındaki yapay zeka silah yarışı şiddetlenirken, her iki ülke de askeri, ekonomik ve teknolojik üstünlük için gelecek nesil yapay zeka sınırlarını zorluyorlar,” dedi. “Ancak bulgularımız, DeepSeek-R1’in güvenlik açıklarının tehlikeli bir araç haline getirilebileceğini ortaya koyuyor – siber suçlular, yanlış bilgi ağları ve hatta biyokimyasal savaş hedefleri olanlar tarafından kullanılabilecek bir araç. Bu riskler derhal dikkate alınmalıdır.”

Tags:

0 0 votes
Article Rating
Subscribe
Bildir
guest

0 Comments
Eskiler
En Yeniler Beğenilenler
Inline Feedbacks
View all comments