Üretken Veri Zekası

NSA, esas olarak savunma teknolojisi dünyasına yapay zeka güvenliği tavsiyesi sunuyor

Tarih:

NSA, kuruluşların yapay zeka sistemlerini korumalarına ve savunma endüstrisini daha iyi savunmalarına yardımcı olacak bir kılavuz yayınladı.

"Yapay Zeka Sistemlerinin Güvenli Bir Şekilde Dağıtılması: Güvenli ve Dayanıklı Yapay Zeka Sistemlerinin Dağıtılması için En İyi Uygulamalar" başlıklı Siber Güvenlik Bilgi Sayfası (CSI), gözetleme süper ajansı tarafından geçen sonbaharda kurulan Yapay Zeka Güvenlik Merkezi'nin (AISC) ilk salvosunu temsil ediyor Siber Güvenlik İşbirliği Merkezi'nin bir parçası olarak (CCC), ilgili kuruluşları korumaya yönelik bir hükümet-sanayi işbirliği Savunma Sanayi Üssü.

Bu CSI [PDF], CISA ve FBI dahil olmak üzere diğer ABD kurumlarının yanı sıra Avustralya, Kanada, Yeni Zelanda ve Birleşik Krallık'taki muadilleriyle istişarede bulunularak geliştirildi.

Yapay zeka sistemleri için ayrı güvenlik rehberliğine sahip olmanın mantığı, tehdit aktörlerinin makine öğrenimi modellerini ve uygulamalarını bozmak için farklı taktikler kullanabilmesidir.

Saldırı vektörlerinin çok çeşitli olması nedeniyle savunmaların da çeşitli ve kapsamlı olması gerekir

CSI, "Yapay zeka sistemlerini hedef alan kötü niyetli aktörler, geleneksel BT'ye karşı kullanılan standart tekniklerin yanı sıra yapay zeka sistemlerine özgü saldırı vektörlerini de kullanabilir" diyor. "Saldırı vektörlerinin çok çeşitli olması nedeniyle savunmaların çeşitli ve kapsamlı olması gerekiyor."

Daha iyi bir yapay zeka güvenliğine ihtiyaç var gibi görünüyor ve genel olarak daha iyi bir siber güvenliğe ihtiyaç olduğu için bu belki de şaşırtıcı değil. onun içinde 2024 Yapay Zeka Tehdit Ortamı RaporuGüvenlik sağlayıcısı Hidden Layer şunları iddia etti: "Şirketlerin yüzde 77'si geçen yıl yapay zekalarında ihlal tespit edildiğini bildirdi. Geriye kalanlar ise yapay zeka modellerinin bir saldırı görüp görmediğinden emin değildi."

Gizli Katman raporu, yapay zeka sistemlerine yönelik üç ana saldırı türünü tanımlar: Algoritma davranışını değiştirmeye çalışan çekişmeli makine öğrenimi saldırıları; güvenlik mekanizmalarını atlamaya çalışan ve özel veya zararlı içerik talep eden üretken yapay zeka saldırıları; ve tedarik zinciri saldırıları; genel yazılım tedarik zinciri saldırılarına benzemekle birlikte kendine has özellikleri var AI ile ilgili.

NSA kılavuzlarının çoğu, yapay zekanın konuşlandırıldığı ortamların anlaşılması ve uygun yönetişim ve kontrollerin mevcut olduğundan emin olunması gibi genel BT güvenliği için geçerlidir.

Ancak yapay zeka modellerinin sürekli izlenmesiyle ilgili de çok şey var. Yapay zeka sistemlerini uygulayanlar, yapay zeka güvenliğiyle işinin bitmesini beklememeli. NSA, yapay zeka sistemlerinin yalnızca kullanımdan önce ve kullanım sırasında doğrulanmasını değil, aynı zamanda açığa çıkan API'lerin güvenliğini sağlamayı, model davranışını aktif olarak izlemeyi, model ağırlıklarını korumayı, erişim kontrollerini zorunlu kılmayı, kullanıcı eğitimini, denetimleri, sızma testlerini vb. tavsiye ediyor.

CSI, "Sonuçta, bir yapay zeka sisteminin güvenliğinin sağlanması, risklerin belirlenmesi, uygun hafifletme önlemlerinin uygulanması ve sorunların izlenmesine yönelik devam eden bir süreci içerir" sonucuna vardı. "Bir kuruluş, yapay zeka sistemlerinin kurulumunu ve çalışmasını güvence altına almak için bu raporda özetlenen adımları atarak ilgili riskleri önemli ölçüde azaltabilir."

Genel BT güvenliği önerilerinde olduğu gibi, yapay zeka sistemlerinin tehlikeye girdiğini gören kuruluşlar, şansları varken neden daha dikkatli olmadıklarını merak edecekler. ®

spot_img

En Son İstihbarat

spot_img

Bizimle sohbet

Merhaba! Size nasıl yardım edebilirim?