Apple, Araştırmacıların Bulut Yapay Zeka Güvenliğindeki Hataları Belirlemesi için PCC Kaynak Kodunu Açıyor
Apple, araştırma topluluğunun teklifinin gizlilik ve güvenlik garantilerini incelemesine ve doğrulamasına olanak tanıyan Özel Bulut Bilgi İşlem (PCC) Sanal Araştırma Ortamı'nı (VRE) herkese açık hale getirdi.
Apple'ın bu Haziran ayının başlarında açıkladığı PCC, "bulut yapay zeka bilgi işlem için şimdiye kadar dağıtılan en gelişmiş güvenlik mimarisi" olarak pazarlandı. Yeni teknolojiyle ilgili fikir, hesaplama açısından karmaşık Apple Intelligence isteklerini kullanıcı gizliliğinden ödün vermeyecek şekilde buluta aktarmaktır.
Apple, "tüm güvenlik ve gizlilik araştırmacılarını - veya ilgi ve teknik merakı olan herkesi - PCC hakkında daha fazla bilgi edinmeye ve iddialarımızın kendi bağımsız doğrulamasını gerçekleştirmeye" davet ettiğini söyledi.
Araştırmayı daha da teşvik etmek için iPhone üreticisi, Apple Security Bounty programını, içinde tanımlanan güvenlik açıkları için 50.000 ila 1.000.000 ABD Doları arasında değişen parasal ödemeler sunarak PCC'yi içerecek şekilde genişlettiğini söyledi.
Bu, sunucuda kötü amaçlı kod yürütülmesine izin verebilecek kusurların yanı sıra kullanıcıların hassas verilerini veya kullanıcının istekleriyle ilgili bilgileri çıkarabilen açıkları içerir.
VRE, araştırmacıların PCC analizlerini Mac'ten gerçekleştirmelerine yardımcı olacak bir dizi araç sunmayı amaçlıyor. Sanal bir Secure Enclave İşlemcisi (SEP) ile birlikte gelir ve çıkarımı etkinleştirmek için yarı sanallaştırılmış grafikler için yerleşik macOS desteğinden yararlanır.
Apple ayrıca, daha derin bir analizi kolaylaştırmak için PCC'nin bazı bileşenleriyle ilişkili kaynak kodunu GitHub aracılığıyla erişilebilir hale getirdiğini söyledi. Buna CloudAttestation, Thimble, splunklogging ve srd_tools dahildir.
Cupertino merkezli şirket, "Yapay zekada gizlilik için olağanüstü bir adım atmak için Apple Intelligence'ın bir parçası olarak Özel Bulut Bilişim'i tasarladık" dedi. "Bu, doğrulanabilir şeffaflık sağlamayı da içeriyor - onu diğer sunucu tabanlı AI yaklaşımlarından ayıran benzersiz bir özellik."
Gelişme, üretken yapay zekaya (AI) yönelik daha geniş araştırmaların, büyük dil modellerini (LLM'ler) jailbreak yapmanın ve istenmeyen çıktılar üretmenin yeni yollarını ortaya çıkarmaya devam etmesiyle ortaya çıktı.
Bu haftanın başlarında Palo Alto Networks, yapay zeka sohbet robotlarını sınırlı "dikkat sürelerinden" yararlanarak korkuluklarını atlamaları için kandırmak için kötü niyetli ve iyi huylu sorguları bir araya getirmeyi içeren Deceptive Delight adlı bir tekniği detaylandırdı.
Saldırı en az iki etkileşim gerektirir ve önce sohbet robotundan kısıtlı bir konu (örneğin, nasıl bomba yapılacağı) dahil olmak üzere birkaç olayı mantıklı bir şekilde bağlamasını isteyerek ve ardından her olayın ayrıntılarını detaylandırmasını isteyerek çalışır.
Araştırmacılar ayrıca, Microsoft 365 Copilot gibi Geri Alma Artırılmış Nesil (RAG) tabanlı yapay zeka sistemlerini hedef alan ve veri ortamını özel olarak hazırlanmış dizeler içeren görünüşte zararsız bir belgeyle zehirleyen ConfusedPilot saldırısı olarak adlandırılan şeyi de gösterdiler.
Symmetry Systems, "Bu saldırı, yapay zeka sisteminin başvurabileceği herhangi bir belgeye kötü amaçlı içerik ekleyerek yapay zeka yanıtlarının manipüle edilmesine izin veriyor ve potansiyel olarak yaygın yanlış bilgilere ve kuruluş içinde karar verme süreçlerinin tehlikeye atılmasına yol açıyor" dedi.
Ayrı olarak, ShadowLogic kod adlı bir teknik olan ResNet, YOLO ve Phi-3 gibi önceden eğitilmiş modellere "kodsuz, gizli" arka kapılar yerleştirmek için bir makine öğrenimi modelinin hesaplama grafiğini kurcalamanın mümkün olduğu bulunmuştur.
Gizli Katman araştırmacıları Eoin Wickens, Kasimir Schulz ve Tom Bonner, "Bu teknik kullanılarak oluşturulan arka kapılar, ince ayar yoluyla devam edecek, yani bir tetikleyici girişi alındığında herhangi bir aşağı akış uygulamasında saldırgan tanımlı davranışı tetiklemek için temel modeller ele geçirilebilir ve bu da bu saldırı tekniğini yüksek etkili bir AI tedarik zinciri riski haline getirir" dedi.
"Kötü amaçlı kod yürütmeye dayanan standart yazılım arka kapılarının aksine, bu arka kapılar modelin yapısına gömülüdür ve bu da onları tespit etmeyi ve azaltmayı daha zor hale getirir."
Diğer haberlerimiz hakkında daha fazla bilgi için Twitter sayfamızı, Instagram sayfamızı ve LinkedIn sayfamızı takip etmeyi unutmayın.
Benzer Haberler
Concentric AI, DSPM Teknolojisini Genişletmek için 45 Milyon Dolarlık B Serisi Finansman Sağladı
Apple, Araştırmacıların Bulut Yapay Zeka Güvenliğindeki Hataları Belirlemesi için PCC Kaynak Kodunu Açıyor
Araştırmacılar, Jailbreak Yapay Zeka Modellerine 'Aldatıcı Zevk' Yöntemini Açıkladı
Meta, Birleşik Krallık'taki herkese açık Facebook ve Instagram gönderilerini kullanarak yapay zeka modellerini eğitecek
Mastercard, Tehdit İstihbarat Firması Recorded Future'ı 2,6 Milyar Dolara Satın Alacak
Telegram, OTP göndermek için numaranızı kullanmanız karşılığında premium abonelik sunar
GitHub, Geliştiricilerin Güvenlik Kusurlarını Yamalamalarına Yardımcı Olmak için Yapay Zeka Destekli Otomatik Düzeltme Aracını Başlattı
Deepfakes'ten Kötü Amaçlı Yazılıma: Yapay Zekanın Siber Saldırılarda Genişleyen Rolü