ABD, Birleşik Krallık ve Küresel İş Ortakları Güvenli Yapay Zeka Sistemi Geliştirme Yönergelerini Yayınladı

ABD Siber Güvenlik ve Altyapı Güvenliği Ajansı (CISA), "Yaklaşım, müşteriler için güvenlik sonuçlarının sahipliğine öncelik veriyor, radikal şeffaflık ve hesap verebilirliği benimsiyor ve güvenli tasarımın en önemli öncelik olduğu organizasyonel yapılar kuruyor" dedi.

Ulusal Siber Güvenlik Merkezi (NCSC), amacın yapay zekanın siber güvenlik seviyelerini artırmak ve teknolojinin güvenli bir şekilde tasarlanmasını, geliştirilmesini ve konuşlandırılmasını sağlamaya yardımcı olmak olduğunu da sözlerine ekledi.

Yönergeler ayrıca, ABD hükümetinin, yeni araçların kamuya açıklanmadan önce yeterince test edilmesini sağlayarak yapay zekanın oluşturduğu riskleri yönetmeye yönelik devam eden çabalarına dayanıyor, önyargı ve ayrımcılık gibi toplumsal zararları ele almak için korkuluklar var ve gizlilik endişeleri ve tüketicilerin yapay zeka tarafından oluşturulan materyalleri tanımlaması için sağlam yöntemler oluşturmak.

Taahhütler ayrıca şirketlerin, hızlı bir şekilde bulunabilmeleri ve düzeltilebilmeleri için bir hata ödül sistemi aracılığıyla yapay zeka sistemlerindeki güvenlik açıklarının üçüncü taraflarca keşfedilmesini ve raporlanmasını kolaylaştırmayı taahhüt etmelerini gerektiriyor.

NCSC, en son yönergelerin "geliştiricilerin siber güvenliğin hem yapay zeka sistem güvenliğinin temel bir ön koşulu hem de 'tasarımla güvenli' bir yaklaşım olarak bilinen, başlangıçtan itibaren geliştirme sürecinin ayrılmaz bir parçası olmasını sağlamalarına yardımcı oluyor" dedi.

Bu, kuruluşların sistemlerine yönelik tehditleri modellemelerinin yanı sıra tedarik zincirlerini ve altyapılarını korumalarını gerektiren yapay zeka sistem geliştirme yaşam döngüsündeki tüm önemli alanları kapsayan güvenli tasarım, güvenli geliştirme, güvenli dağıtım ve güvenli işletme ve bakımı kapsar.

Ajanslar, amacın, bir modelin sınıflandırmasını etkilemek, kullanıcıların yetkisiz eylemler gerçekleştirmesine izin vermek ve hassas bilgileri çıkarmak da dahil olmak üzere çeşitli şekillerde istenmeyen davranışlara neden olmayı amaçlayan yapay zeka ve makine öğrenimi (ML) sistemlerini hedef alan düşmanca saldırılarla da mücadele etmek olduğunu belirtti.

NCSC, "Büyük dil modeli (LLM) etki alanında hızlı enjeksiyon saldırıları veya eğitim verilerini veya kullanıcı geri bildirimlerini kasıtlı olarak bozmak ('veri zehirlenmesi' olarak bilinir) gibi bu etkileri elde etmenin birçok yolu vardır" dedi.

0 Yorum

Henüz Yorum Yapılmamıştır.! İlk Yorum Yapan Siz Olun

Yorum Gönder

Lütfen tüm alanları doldurunuz!

Ototaksitli Al

E-Bülten Aboneliği