Google Açık Kaynaklar Magika: Yapay Zeka Destekli Dosya Tanımlama Aracı

Şirket, "Magika, VBA, JavaScript ve Powershell gibi geleneksel olarak tanımlanması zor ancak potansiyel olarak sorunlu içeriklerde genel olarak %30 doğruluk artışı ve %95'e kadar daha yüksek hassasiyet sağlayan geleneksel dosya tanımlama yöntemlerinden daha iyi performans gösteriyor" dedi.

Yazılım, dosya türlerinin milisaniyeler içinde kesin olarak tanımlanmasını sağlayan "özel, yüksek düzeyde optimize edilmiş bir derin öğrenme modeli" kullanır. Magika, Open Neural Network Exchange (ONNX) kullanarak çıkarım işlevlerini uygular.

Google, Gmail, Drive ve Güvenli Tarama dosyalarını uygun güvenlik ve içerik politikası tarayıcılarına yönlendirerek kullanıcıların güvenliğini artırmaya yardımcı olmak için Magika'yı dahili olarak kullandığını söyledi.

Kasım 2023'te teknoloji devi, Gmail'de spam ve kötü amaçlı e-postalar gibi potansiyel olarak zararlı içeriği tespit etmek için çok dilli bir metin işleme modeli olan RETVec'i (Resilient and Efficient Text Vectorizer'ın kısaltması) tanıttı.

Hızla gelişen teknolojinin riskleri ve Rusya, Çin, İran ve Kuzey Kore ile ilişkili ulus devlet aktörleri tarafından bilgisayar korsanlığı çabalarını artırmak için kötüye kullanılması konusunda devam eden bir tartışmanın ortasında Google, yapay zekayı geniş ölçekte dağıtmanın dijital güvenliği güçlendirebileceğini ve "siber güvenlik dengesini saldırganlardan savunuculara doğru eğebileceğini" söyledi.

Ayrıca, saldırganların yenilik yapabileceği, ancak savunucuların yapay zeka yönetişim seçimleri nedeniyle kısıtlandığı bir gelecekten kaçınmak için yapay zeka kullanımı ve benimsenmesine yönelik dengeli bir düzenleyici yaklaşıma duyulan ihtiyacı vurguladı.

Teknoloji devinden Phil Venables ve Royal Hansen, "Yapay zeka, güvenlik uzmanlarının ve savunucuların tehdit algılama, kötü amaçlı yazılım analizi, güvenlik açığı tespiti, güvenlik açığı düzeltme ve olay müdahalesi alanlarındaki çalışmalarını ölçeklendirmelerine olanak tanıyor" dedi. "Yapay zeka, Savunucunun İkilemini alt üst etmek ve savunuculara saldırganlara karşı belirleyici bir avantaj sağlamak için siber uzayın terazisini eğmek için en iyi fırsatı sunuyor."

Bununla birlikte, üretken yapay zeka modellerinin, kişisel verileri de içerebilecek eğitim amacıyla web'den kazınmış verileri kullanmasıyla ilgili endişeler de dile getirildi.

İngiltere Bilgi Komisyonu Ofisi (ICO) geçen ay yaptığı açıklamada, "Modelinizin ne için kullanılacağını bilmiyorsanız, aşağı yönlü kullanımının veri korumasına ve insanların hak ve özgürlüklerine saygı duyacağından nasıl emin olabilirsiniz?" dedi.

Dahası, yeni araştırmalar, büyük dil modellerinin, görünüşte zararsız olabilecek, ancak belirli kriterler karşılandığında veya özel talimatlar sağlandığında aldatıcı veya kötü niyetli davranışlarda bulunacak şekilde programlanabilen "uyuyan ajanlar" olarak işlev görebileceğini göstermiştir.

"Bu tür arka kapı davranışları, denetimli ince ayar, pekiştirmeli öğrenme ve çekişmeli eğitim (güvenli olmayan davranışı ortaya çıkarmak ve daha sonra onu kaldırmak için eğitim) dahil olmak üzere standart güvenlik eğitimi teknikleriyle kaldırılmaması için kalıcı hale getirilebilir.

Diğer haberlerimiz hakkında daha fazla bilgi için Twitter sayfamızı, Instagram sayfamızı ve LinkedIn sayfamızı takip etmeyi unutmayın.

0 Yorum

Henüz Yorum Yapılmamıştır.! İlk Yorum Yapan Siz Olun

Yorum Gönder

Lütfen tüm alanları doldurunuz!

GamerMekanı

E-Bülten Aboneliği