Generatieve data-intelligentie

NSA biedt AI-beveiligingsadvies voornamelijk aan de defensietechnologiewereld

Datum:

De NSA heeft richtlijnen vrijgegeven om organisaties te helpen hun AI-systemen te beschermen en de defensie-industrie beter te verdedigen.

Het Cybersecurity Information Sheet (CSI), getiteld โ€˜Deploying AI Systems Securely: Best Practices for Deploying Secure and Resilient AI Systemsโ€™, vertegenwoordigt het eerste salvo van het Artificial Intelligence Security Center (AISC), dat afgelopen najaar door het toezichthoudende superagentschap werd opgericht. als onderdeel van het Cybersecurity Collaboration Center (CCC), een samenwerking tussen de overheid en de industrie om organisaties te beschermen die betrokken zijn bij de Defensie industriรซle basis.

Deze CSI [PDF] is ontwikkeld in overleg met andere Amerikaanse instanties, waaronder de CISA en de FBI, evenals met collega's in Australiรซ, Canada, Nieuw-Zeeland en het Verenigd Koninkrijk.

De reden voor het hebben van verschillende beveiligingsrichtlijnen voor AI-systemen is dat dreigingsactoren verschillende tactieken kunnen gebruiken om machine learning-modellen en -toepassingen te ondermijnen.

Vanwege de grote verscheidenheid aan aanvalsvectoren moet de verdediging divers en alomvattend zijn

โ€œKwaadwillige actoren die zich op AI-systemen richten, kunnen aanvalsvectoren gebruiken die uniek zijn voor AI-systemen, evenals standaardtechnieken die tegen traditionele IT worden gebruiktโ€, aldus de CSI. โ€œVanwege de grote verscheidenheid aan aanvalsvectoren moet de verdediging divers en alomvattend zijn.โ€

Er lijkt behoefte te zijn aan betere AI-beveiliging, wat misschien niet verrassend is, aangezien er in het algemeen behoefte is aan betere cyberbeveiliging. In zijn 2024 AI-dreigingslandschapsrapportBeveiligingsleverancier Hidden Layer beweerde: โ€œ77 procent van de bedrijven meldde het afgelopen jaar inbreuken op hun AI te hebben geรฏdentificeerd. De overigen wisten niet zeker of hun AI-modellen een aanval hadden meegemaakt.โ€

Het Hidden Layer-rapport identificeert drie primaire soorten aanvallen op AI-systemen: vijandige machine learning-aanvallen die proberen het gedrag van algoritmen te veranderen; generatieve AI-aanvallen die proberen veiligheidsmechanismen te omzeilen en om privรฉ- of schadelijke inhoud te vragen; en aanvallen op de toeleveringsketen, die weliswaar vergelijkbaar zijn met algemene aanvallen op de toeleveringsketen van software hebben hun eigen unieke kenmerken gerelateerd aan AI.

Een groot deel van de NSA-richtlijnen is van toepassing op algemene IT-beveiliging, zoals het begrijpen van de omgevingen waarin AI wordt ingezet en het zorgen voor passend bestuur en controles.

Maar er wordt ook veel gesproken over het continu monitoren van AI-modellen. Degenen die AI-systemen implementeren, mogen niet verwachten dat ze zich zullen afmelden en klaar zijn met AI-beveiliging. De NSA adviseert om AI-systemen niet alleen voor en tijdens gebruik te valideren, maar ook om blootgestelde APIโ€™s te beveiligen, modelgedrag actief te monitoren, modelgewichten te borgen, toegangscontroles af te dwingen, gebruikerstrainingen, audits, penetratietesten, enzovoort.

โ€œUiteindelijk impliceert het beveiligen van een AI-systeem een โ€‹โ€‹voortdurend proces van het identificeren van risicoโ€™s, het implementeren van passende maatregelen en het monitoren van problemenโ€, concludeerde de CSI. โ€œDoor de stappen te nemen die in dit rapport worden beschreven om de inzet en werking van AI-systemen te beveiligen, kan een organisatie de risicoโ€™s aanzienlijk verminderen.โ€

En net als bij algemene IT-beveiligingsaanbevelingen zullen organisaties die zien dat hun AI-systemen in gevaar zijn gekomen, zich afvragen waarom ze niet voorzichtiger waren toen ze de kans hadden. ยฎ

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?