ABD, Birleşik Krallık ve Küresel İş Ortakları Güvenli Yapay Zeka Sistemi Geliştirme Yönergelerini Yayınladı
İngiltere ve ABD, diğer 16 ülkeden uluslararası ortaklarla birlikte, güvenli yapay zeka (AI) sistemlerinin geliştirilmesi için yeni yönergeler yayınladı.
ABD Siber Güvenlik ve Altyapı Güvenliği Ajansı (CISA), "Yaklaşım, müşteriler için güvenlik sonuçlarının sahipliğine öncelik veriyor, radikal şeffaflık ve hesap verebilirliği benimsiyor ve güvenli tasarımın en önemli öncelik olduğu organizasyonel yapılar kuruyor" dedi.
Ulusal Siber Güvenlik Merkezi (NCSC), amacın yapay zekanın siber güvenlik seviyelerini artırmak ve teknolojinin güvenli bir şekilde tasarlanmasını, geliştirilmesini ve konuşlandırılmasını sağlamaya yardımcı olmak olduğunu da sözlerine ekledi.
Yönergeler ayrıca, ABD hükümetinin, yeni araçların kamuya açıklanmadan önce yeterince test edilmesini sağlayarak yapay zekanın oluşturduğu riskleri yönetmeye yönelik devam eden çabalarına dayanıyor, önyargı ve ayrımcılık gibi toplumsal zararları ele almak için korkuluklar var ve gizlilik endişeleri ve tüketicilerin yapay zeka tarafından oluşturulan materyalleri tanımlaması için sağlam yöntemler oluşturmak.
Taahhütler ayrıca şirketlerin, hızlı bir şekilde bulunabilmeleri ve düzeltilebilmeleri için bir hata ödül sistemi aracılığıyla yapay zeka sistemlerindeki güvenlik açıklarının üçüncü taraflarca keşfedilmesini ve raporlanmasını kolaylaştırmayı taahhüt etmelerini gerektiriyor.
NCSC, en son yönergelerin "geliştiricilerin siber güvenliğin hem yapay zeka sistem güvenliğinin temel bir ön koşulu hem de 'tasarımla güvenli' bir yaklaşım olarak bilinen, başlangıçtan itibaren geliştirme sürecinin ayrılmaz bir parçası olmasını sağlamalarına yardımcı oluyor" dedi.
Bu, kuruluşların sistemlerine yönelik tehditleri modellemelerinin yanı sıra tedarik zincirlerini ve altyapılarını korumalarını gerektiren yapay zeka sistem geliştirme yaşam döngüsündeki tüm önemli alanları kapsayan güvenli tasarım, güvenli geliştirme, güvenli dağıtım ve güvenli işletme ve bakımı kapsar.
Ajanslar, amacın, bir modelin sınıflandırmasını etkilemek, kullanıcıların yetkisiz eylemler gerçekleştirmesine izin vermek ve hassas bilgileri çıkarmak da dahil olmak üzere çeşitli şekillerde istenmeyen davranışlara neden olmayı amaçlayan yapay zeka ve makine öğrenimi (ML) sistemlerini hedef alan düşmanca saldırılarla da mücadele etmek olduğunu belirtti.
NCSC, "Büyük dil modeli (LLM) etki alanında hızlı enjeksiyon saldırıları veya eğitim verilerini veya kullanıcı geri bildirimlerini kasıtlı olarak bozmak ('veri zehirlenmesi' olarak bilinir) gibi bu etkileri elde etmenin birçok yolu vardır" dedi.
Benzer Haberler
FCC, Güvenlik Uyumluluğunu Onaylamak için IoT Cihazları için 'Siber Güven İşareti' Başlattı
Kritik Son Tarih: Hizmet kesintisini önlemek için eski .NET alan adlarını 7 Ocak 2025'ten önce güncelleyin
Apple, yanlışlıkla Siri gizlilik ihlalleri nedeniyle Siri kullanıcılarına cihaz başına 20 dolar ödeyecek
Concentric AI, DSPM Teknolojisini Genişletmek için 45 Milyon Dolarlık B Serisi Finansman Sağladı
Apple, Araştırmacıların Bulut Yapay Zeka Güvenliğindeki Hataları Belirlemesi için PCC Kaynak Kodunu Açıyor
Araştırmacılar, Jailbreak Yapay Zeka Modellerine 'Aldatıcı Zevk' Yöntemini Açıkladı
Meta, Birleşik Krallık'taki herkese açık Facebook ve Instagram gönderilerini kullanarak yapay zeka modellerini eğitecek
Mastercard, Tehdit İstihbarat Firması Recorded Future'ı 2,6 Milyar Dolara Satın Alacak