OpenAI, Siber Suç ve Dezenformasyon için Yapay Zekayı Kullanan 20 Küresel Kötü Amaçlı Kampanyayı Engelliyor

Bu etkinlik, kötü amaçlı yazılımlarda hata ayıklamayı, web siteleri için makaleler yazmayı, sosyal medya hesapları için biyografiler oluşturmayı ve X'te sahte hesaplar için yapay zeka tarafından oluşturulan profil resimleri oluşturmayı kapsıyordu.

Yapay zeka (AI) şirketi, "Tehdit aktörleri modellerimizi geliştirmeye ve denemeye devam ediyor, ancak bunun önemli ölçüde yeni kötü amaçlı yazılım oluşturma veya viral kitleler oluşturma yeteneklerinde anlamlı atılımlara yol açtığına dair kanıt görmedik" dedi.

Ayrıca, ABD, Ruanda ve daha az ölçüde Hindistan ve Avrupa Birliği'ndeki seçimlerle ilgili sosyal medya içeriği üreten faaliyetleri kesintiye uğrattığını ve bu ağların hiçbirinin viral katılım veya sürekli izleyici çekmediğini söyledi.

Bu, daha önce bu Mayıs ayının başlarında Meta ve OpenAI tarafından açıklandığı gibi, Hindistan seçimleri hakkında sosyal medya yorumları oluşturan STOIC (Zero Zeno olarak da adlandırılır) adlı İsrailli bir ticari şirket tarafından üstlenilen çabaları içeriyordu.

OpenAI tarafından öne çıkan siber operasyonlardan bazıları aşağıdaki gibidir:

  • SweetSpecter, yapay zeka modellerini LLM bilgili keşif, güvenlik açığı araştırması, komut dosyası desteği, anormallik tespitinden kaçınma ve geliştirme için kullanan Çin merkezli şüpheli bir düşman. Ayrıca, SugarGh0st RAT'ı teslim etmek için OpenAI çalışanlarına karşı başarısız hedef odaklı kimlik avı girişimleri yürüttüğü de gözlemlendi.
  • İran İslam Devrim Muhafızları Birliği'ne (IRGC) bağlı bir grup olan Cyber Av3ngers, programlanabilir mantık denetleyicileri üzerine araştırma yapmak için yapay zeka modellerini kullandı.
  • Storm-0817, hassas bilgileri toplayabilen, Selenium aracılığıyla Instagram profillerini kazımak için araçlar kullanabilen ve LinkedIn profillerini Farsça'ya çevirebilen Android kötü amaçlı yazılımlarını hata ayıklamak için yapay zeka modellerini kullanan İranlı bir tehdit aktörü.

Başka bir yerde şirket, A2Z ve Stop News kod adlı etki operasyonlarıyla ilgili ikisi de dahil olmak üzere, daha sonra çeşitli platformlarda bir dizi web sitesinde ve sosyal medya hesabında yayınlanmak üzere İngilizce ve Fransızca içerik oluşturan birkaç hesap kümesini engellemek için adımlar attığını söyledi.

Araştırmacılar Ben Nimmo ve Michael Flossman, "[Stop News] görüntü kullanımında alışılmadık derecede üretkendi" dedi. "Web makalelerinin ve tweet'lerinin çoğuna DALL·E kullanılarak oluşturulan resimler eşlik etti. Bu görüntüler genellikle çizgi film tarzındaydı ve dikkat çekmek için parlak renk paletleri veya dramatik tonlar kullanıyordu."

OpenAI Bet Bot ve Corrupt Comment tarafından tanımlanan diğer iki ağın, OpenAI'nin API'sini X'teki kullanıcılarla sohbetler oluşturmak ve onlara kumar sitelerine bağlantılar göndermek ve daha sonra X'te yayınlanan yorumlar üretmek için kullandığı bulundu.

Açıklama, OpenAI'nin, diğer şeylerin yanı sıra yaklaşan ABD başkanlık seçimlerine odaklanan içerik oluşturmak için ChatGPT'den yararlanan Storm-2035 adlı İranlı bir gizli etki operasyonuyla bağlantılı bir dizi hesabı yasaklamasından yaklaşık iki ay sonra geldi.

Nimmo ve Flossman, "Tehdit aktörleri modellerimizi çoğunlukla internet erişimi, e-posta adresleri ve sosyal medya hesapları gibi temel araçları edindikten sonra, ancak sosyal medya gönderileri veya kötü amaçlı yazılımlar gibi 'bitmiş' ürünleri bir dizi dağıtım kanalı aracılığıyla internet üzerinden dağıtmadan önce belirli, orta bir faaliyet aşamasında görevleri gerçekleştirmek için kullandılar" diye yazdı.

Üretken yapay zekanın dolandırıcılık ve derin sahte operasyonlar için kötüye kullanılmasına rağmen, siber güvenlik şirketi Sophos, geçen hafta yayınlanan bir raporda, teknolojinin mikro hedefli e-postalar yoluyla özel yanlış bilgileri yaymak için de kötüye kullanılabileceğini söyledi.

Bu, siyasi kampanya web siteleri, siyasi yelpazede yapay zeka tarafından oluşturulan kişilikler ve kampanya noktalarına göre özellikle onları hedefleyen e-posta mesajları oluşturmak için yapay zeka modellerinin kötüye kullanılmasını gerektirir ve böylece yanlış bilgilerin geniş ölçekte yayılmasını mümkün kılan yeni bir otomasyon düzeyine izin verir.

Araştırmacılar Ben Gelman ve Adarsh Kyadige, "Bu, bir kullanıcının iyi huylu kampanya materyalinden kasıtlı yanlış bilgilere ve küçük yeniden yapılandırmalarla kötü niyetli tehditlere kadar her şeyi üretebileceği anlamına geliyor" dedi.

"Herhangi bir gerçek siyasi hareketi veya adayı, aynı fikirde olmasalar bile, herhangi bir politikayı desteklemekle ilişkilendirmek mümkündür. Bunun gibi kasıtlı yanlış bilgiler, insanların desteklemedikleri veya hoşlandıklarını düşündükleri bir adayla aynı fikirde olmadıkları bir adayla aynı hizaya gelmelerine neden olabilir."

Diğer haberlerimiz hakkında daha fazla bilgi için Twitter sayfamızı, Instagram sayfamızı ve LinkedIn sayfamızı takip etmeyi unutmayın.

0 Yorum

Henüz Yorum Yapılmamıştır.! İlk Yorum Yapan Siz Olun

Yorum Gönder

Lütfen tüm alanları doldurunuz!

GamerMekanı

E-Bülten Aboneliği