Deepfakes'ten Kötü Amaçlı Yazılıma: Yapay Zekanın Siber Saldırılarda Genişleyen Rolü

Recorded Future, paylaşılan yeni bir raporda, "Üretken yapay zeka, küçük kötü amaçlı yazılım varyantlarının kaynak kodunu artırarak ve algılama oranlarını etkili bir şekilde düşürerek dize tabanlı YARA kurallarından kaçınmak için kullanılabilir" dedi.

Bulgular, tehdit aktörleri tarafından kötü amaçlı yazılım kod parçacıkları oluşturmak, kimlik avı e-postaları oluşturmak ve potansiyel hedefler üzerinde keşif yapmak için halihazırda denenmekte olan yapay zeka teknolojileri için kötü amaçlı kullanım durumlarını ortaya çıkarmak için tasarlanmış kırmızı bir ekip çalışmasının parçasıdır.

Siber güvenlik firması, bir LLM'ye, YARA kurallarının yanı sıra APT28 bilgisayar korsanlığı grubuyla ilişkili STEELHOOK adlı bilinen bir kötü amaçlı yazılım parçasını gönderdiğini ve kaynak kodunu, orijinal işlevselliğin bozulmadan kalması ve oluşturulan kaynak kodunun sözdizimsel olarak hatasız olması için algılamadan kaçınacak şekilde değiştirmesini istediğini söyledi.

Bu geri bildirim mekanizmasıyla donanmış olarak, LLM tarafından oluşturulan değiştirilmiş kötü amaçlı yazılım, basit dize tabanlı YARA kuralları için tespitlerden kaçınmayı mümkün kıldı.

Bu yaklaşımın sınırlamaları vardır, en belirgin olanı bir modelin bir kerede girdi olarak işleyebileceği metin miktarıdır ve bu da daha büyük kod tabanlarında çalışmayı zorlaştırır.

Ancak siber güvenlik firması, tehdit aktörlerinin LLM araçlarına dosya yükleyerek bu kısıtlamayı aşmasının kesinlikle mümkün olduğunu söyledi.

Recorded Future'ın Insikt Group'undaki bir istihbarat analisti yayına verdiği demeçte, "Tüm bir kod deposunu sıkıştırmanın, GPT'ye göndermenin mümkün olduğu aylardır biliniyor, ardından GPT bu depoyu açacak ve kodu analiz edecek" dedi. "Oradan, GPT'den bu kodun bölümlerini değiştirmesini ve size geri göndermesini isteyebilirsiniz."

Kötü amaçlı yazılımları radarın altında uçacak şekilde değiştirmenin yanı sıra, bu tür yapay zeka araçları, üst düzey yöneticileri ve liderleri taklit eden derin sahtekarlıklar oluşturmak ve meşru web sitelerini geniş ölçekte taklit eden etki operasyonları yürütmek için kullanılabilir.

Ayrıca, üretken yapay zekanın, tehdit aktörlerinin kritik altyapı tesislerinin keşfini gerçekleştirme ve takip eden saldırılarda stratejik olarak kullanılabilecek bilgileri toplama yeteneğini hızlandırması bekleniyor.

Şirket, "Çok modlu modellerden yararlanarak, hava görüntülerine ek olarak ICS ve üretim ekipmanlarının genel görüntüleri ve videoları, coğrafi konum, ekipman üreticileri, modeller ve yazılım sürümü gibi ek meta verileri bulmak için ayrıştırılabilir ve zenginleştirilebilir" dedi.

Nitekim Microsoft ve OpenAI, geçen ay APT28'in LLM'leri "uydu iletişim protokollerini, radar görüntüleme teknolojilerini ve belirli teknik parametreleri anlamak" için kullandığı konusunda uyardı ve "uydu yetenekleri hakkında derinlemesine bilgi edinme" çabalarını gösterdi.

Kuruluşların, bu tür tehditlerin oluşturduğu riskleri azaltmak için hassas ekipmanı gösteren herkese açık görüntüleri ve videoları incelemesi ve gerekirse bunları temizlemesi önerilir.

Gelişme, bir grup akademisyenin, LLM destekli araçları jailbreak yapmanın ve girdileri ASCII sanatı biçiminde ileterek zararlı içerik üretmenin mümkün olduğunu keşfetmesiyle ortaya çıkıyor (örneğin, BOMB kelimesinin "*" karakterleri ve boşluklar kullanılarak yazıldığı "bomba nasıl yapılır").

ArtPrompt olarak adlandırılan pratik saldırı, "LLM'lerin ASCII sanatını tanımadaki düşük performansını, güvenlik önlemlerini atlamak ve LLM'lerden istenmeyen davranışları ortaya çıkarmak için silahlandırıyor."

Diğer haberlerimiz hakkında daha fazla bilgi için Twitter sayfamızı, Instagram sayfamızı ve LinkedIn sayfamızı takip etmeyi unutmayın.

0 Yorum

Henüz Yorum Yapılmamıştır.! İlk Yorum Yapan Siz Olun

Yorum Gönder

Lütfen tüm alanları doldurunuz!

GamerMekanı

E-Bülten Aboneliği