Generative Datenintelligenz

Die NSA bietet KI-Sicherheitsberatung hauptsächlich für die Welt der Verteidigungstechnologie an

Datum:

Die NSA hat Leitlinien veröffentlicht, die Organisationen dabei helfen sollen, ihre KI-Systeme zu schützen und die Verteidigungsindustrie besser zu verteidigen.

Das Cybersecurity Information Sheet (CSI) mit dem Titel „KI-Systeme sicher bereitstellen: Best Practices für die Bereitstellung sicherer und widerstandsfähiger KI-Systeme“ stellt die erste Salve des Artificial Intelligence Security Center (AISC) dar, das im vergangenen Herbst von der Überwachungsbehörde eingerichtet wurde im Rahmen des Cybersecurity Collaboration Center (CCC), eine Zusammenarbeit zwischen Regierung und Industrie zum Schutz der beteiligten Organisationen Industrielle Verteidigungsbasis.

Dieses CSI [PDF] wurde in Absprache mit anderen US-Behörden, darunter CISA und dem FBI, sowie Kollegen in Australien, Kanada, Neuseeland und dem Vereinigten Königreich entwickelt.

Der Grund für die Festlegung eindeutiger Sicherheitsrichtlinien für KI-Systeme besteht darin, dass Bedrohungsakteure möglicherweise unterschiedliche Taktiken anwenden, um Modelle und Anwendungen des maschinellen Lernens zu untergraben.

Aufgrund der großen Vielfalt an Angriffsvektoren müssen die Abwehrmaßnahmen vielfältig und umfassend sein

„Böswillige Akteure, die auf KI-Systeme abzielen, nutzen möglicherweise Angriffsvektoren, die nur für KI-Systeme gelten, sowie Standardtechniken, die gegen traditionelle IT eingesetzt werden“, heißt es im CSI. „Aufgrund der großen Vielfalt an Angriffsvektoren müssen die Abwehrmaßnahmen vielfältig und umfassend sein.“

Es scheint ein Bedarf an besserer KI-Sicherheit zu bestehen, was vielleicht nicht überraschend ist, da allgemein ein Bedarf an besserer Cybersicherheit besteht. In seinem Bericht zur KI-Bedrohungslandschaft 2024Der Sicherheitsanbieter Hidden Layer behauptete: „77 Prozent der Unternehmen gaben an, im vergangenen Jahr Verstöße gegen ihre KI festgestellt zu haben.“ Die übrigen waren sich nicht sicher, ob ihre KI-Modelle einen Angriff gesehen hatten.“

Der Hidden Layer-Bericht identifiziert drei Haupttypen von Angriffen auf KI-Systeme: Angriffe durch gegnerische maschinelles Lernen, die versuchen, das Verhalten von Algorithmen zu ändern; generative KI-Angriffe, die versuchen, Sicherheitsmechanismen zu umgehen und private oder schädliche Inhalte anzufordern; und Supply-Chain-Angriffe, die zwar allgemeinen Software-Supply-Chain-Angriffen ähneln haben ihre eigenen einzigartigen Eigenschaften im Zusammenhang mit KI.

Ein Großteil der NSA-Richtlinien bezieht sich auf die allgemeine IT-Sicherheit, beispielsweise das Verständnis der Umgebungen, in denen KI eingesetzt wird, und die Sicherstellung, dass angemessene Governance und Kontrollen vorhanden sind.

Aber es geht auch um die kontinuierliche Überwachung von KI-Modellen. Diejenigen, die KI-Systeme implementieren, sollten nicht damit rechnen, dass sie mit der KI-Sicherheit fertig sind. Die NSA empfiehlt nicht nur die Validierung von KI-Systemen vor und während der Nutzung, sondern auch die Sicherung offengelegter APIs, die aktive Überwachung des Modellverhaltens, die Sicherung von Modellgewichten, die Durchsetzung von Zugriffskontrollen, Benutzerschulungen, Audits, Penetrationstests usw.

„Letztendlich umfasst die Sicherung eines KI-Systems einen kontinuierlichen Prozess der Identifizierung von Risiken, der Implementierung geeigneter Abhilfemaßnahmen und der Überwachung von Problemen“, schloss das CSI. „Indem ein Unternehmen die in diesem Bericht beschriebenen Schritte zur Sicherung der Bereitstellung und des Betriebs von KI-Systemen ergreift, kann es die damit verbundenen Risiken erheblich reduzieren.“

Und wie bei allgemeinen IT-Sicherheitsempfehlungen werden sich Unternehmen, deren KI-Systeme gefährdet sind, fragen, warum sie nicht vorsichtiger waren, als sie die Chance dazu hatten. ®

spot_img

Neueste Intelligenz

spot_img

Chat mit uns

Hallo! Wie kann ich dir helfen?