Deepfakes'ten Kötü Amaçlı Yazılıma: Yapay Zekanın Siber Saldırılarda Genişleyen Rolü
Günümüzde yapay zeka (AI) araçlarına güç veren büyük dil modelleri (LLM'ler), YARA kurallarını atlayabilen kendi kendini artıran kötü amaçlı yazılımlar geliştirmek için kullanılabilir.
Recorded Future, paylaşılan yeni bir raporda, "Üretken yapay zeka, küçük kötü amaçlı yazılım varyantlarının kaynak kodunu artırarak ve algılama oranlarını etkili bir şekilde düşürerek dize tabanlı YARA kurallarından kaçınmak için kullanılabilir" dedi.
Bulgular, tehdit aktörleri tarafından kötü amaçlı yazılım kod parçacıkları oluşturmak, kimlik avı e-postaları oluşturmak ve potansiyel hedefler üzerinde keşif yapmak için halihazırda denenmekte olan yapay zeka teknolojileri için kötü amaçlı kullanım durumlarını ortaya çıkarmak için tasarlanmış kırmızı bir ekip çalışmasının parçasıdır.
Siber güvenlik firması, bir LLM'ye, YARA kurallarının yanı sıra APT28 bilgisayar korsanlığı grubuyla ilişkili STEELHOOK adlı bilinen bir kötü amaçlı yazılım parçasını gönderdiğini ve kaynak kodunu, orijinal işlevselliğin bozulmadan kalması ve oluşturulan kaynak kodunun sözdizimsel olarak hatasız olması için algılamadan kaçınacak şekilde değiştirmesini istediğini söyledi.
Bu geri bildirim mekanizmasıyla donanmış olarak, LLM tarafından oluşturulan değiştirilmiş kötü amaçlı yazılım, basit dize tabanlı YARA kuralları için tespitlerden kaçınmayı mümkün kıldı.
Bu yaklaşımın sınırlamaları vardır, en belirgin olanı bir modelin bir kerede girdi olarak işleyebileceği metin miktarıdır ve bu da daha büyük kod tabanlarında çalışmayı zorlaştırır.
Ancak siber güvenlik firması, tehdit aktörlerinin LLM araçlarına dosya yükleyerek bu kısıtlamayı aşmasının kesinlikle mümkün olduğunu söyledi.
Recorded Future'ın Insikt Group'undaki bir istihbarat analisti yayına verdiği demeçte, "Tüm bir kod deposunu sıkıştırmanın, GPT'ye göndermenin mümkün olduğu aylardır biliniyor, ardından GPT bu depoyu açacak ve kodu analiz edecek" dedi. "Oradan, GPT'den bu kodun bölümlerini değiştirmesini ve size geri göndermesini isteyebilirsiniz."
Kötü amaçlı yazılımları radarın altında uçacak şekilde değiştirmenin yanı sıra, bu tür yapay zeka araçları, üst düzey yöneticileri ve liderleri taklit eden derin sahtekarlıklar oluşturmak ve meşru web sitelerini geniş ölçekte taklit eden etki operasyonları yürütmek için kullanılabilir.
Ayrıca, üretken yapay zekanın, tehdit aktörlerinin kritik altyapı tesislerinin keşfini gerçekleştirme ve takip eden saldırılarda stratejik olarak kullanılabilecek bilgileri toplama yeteneğini hızlandırması bekleniyor.
Şirket, "Çok modlu modellerden yararlanarak, hava görüntülerine ek olarak ICS ve üretim ekipmanlarının genel görüntüleri ve videoları, coğrafi konum, ekipman üreticileri, modeller ve yazılım sürümü gibi ek meta verileri bulmak için ayrıştırılabilir ve zenginleştirilebilir" dedi.
Nitekim Microsoft ve OpenAI, geçen ay APT28'in LLM'leri "uydu iletişim protokollerini, radar görüntüleme teknolojilerini ve belirli teknik parametreleri anlamak" için kullandığı konusunda uyardı ve "uydu yetenekleri hakkında derinlemesine bilgi edinme" çabalarını gösterdi.
Kuruluşların, bu tür tehditlerin oluşturduğu riskleri azaltmak için hassas ekipmanı gösteren herkese açık görüntüleri ve videoları incelemesi ve gerekirse bunları temizlemesi önerilir.
Gelişme, bir grup akademisyenin, LLM destekli araçları jailbreak yapmanın ve girdileri ASCII sanatı biçiminde ileterek zararlı içerik üretmenin mümkün olduğunu keşfetmesiyle ortaya çıkıyor (örneğin, BOMB kelimesinin "*" karakterleri ve boşluklar kullanılarak yazıldığı "bomba nasıl yapılır").
ArtPrompt olarak adlandırılan pratik saldırı, "LLM'lerin ASCII sanatını tanımadaki düşük performansını, güvenlik önlemlerini atlamak ve LLM'lerden istenmeyen davranışları ortaya çıkarmak için silahlandırıyor."
Diğer haberlerimiz hakkında daha fazla bilgi için Twitter sayfamızı, Instagram sayfamızı ve LinkedIn sayfamızı takip etmeyi unutmayın.
Benzer Haberler
Concentric AI, DSPM Teknolojisini Genişletmek için 45 Milyon Dolarlık B Serisi Finansman Sağladı
Apple, Araştırmacıların Bulut Yapay Zeka Güvenliğindeki Hataları Belirlemesi için PCC Kaynak Kodunu Açıyor
Araştırmacılar, Jailbreak Yapay Zeka Modellerine 'Aldatıcı Zevk' Yöntemini Açıkladı
Meta, Birleşik Krallık'taki herkese açık Facebook ve Instagram gönderilerini kullanarak yapay zeka modellerini eğitecek
Mastercard, Tehdit İstihbarat Firması Recorded Future'ı 2,6 Milyar Dolara Satın Alacak
Telegram, OTP göndermek için numaranızı kullanmanız karşılığında premium abonelik sunar
GitHub, Geliştiricilerin Güvenlik Kusurlarını Yamalamalarına Yardımcı Olmak için Yapay Zeka Destekli Otomatik Düzeltme Aracını Başlattı
Deepfakes'ten Kötü Amaçlı Yazılıma: Yapay Zekanın Siber Saldırılarda Genişleyen Rolü