אינטליגנציה של נתונים גנרטיביים

NSA מציעה ייעוץ אבטחת AI בעיקר לעולם הטכנולוגיה הביטחונית

תאריך:

ה-NSA פרסמה הנחיות כדי לעזור לארגונים להגן על מערכות ה-AI שלהם ולהגן טוב יותר על התעשייה הביטחונית.

גיליון המידע בנושא אבטחת סייבר (CSI), שכותרתו "פריסה מאובטחת של מערכות בינה מלאכותיות: שיטות עבודה מומלצות לפריסת מערכות בינה מלאכותיות מאובטחות וגמישות", מייצג את המחלקה הראשונה ממרכז האבטחה לבינה מלאכותית (AISC), שהוקמה על ידי סוכנות העל למעקב בסתיו שעבר כחלק ממרכז שיתוף הפעולה בנושא אבטחת סייבר (CCC), שיתוף פעולה ממשלתי-תעשייה להגנה על ארגונים המעורבים ב בסיס תעשיה ביטחוני.

CSI זה [PDF] פותח בהתייעצות עם סוכנויות אמריקאיות אחרות, כולל CISA וה-FBI, כמו גם עמיתים באוסטרליה, קנדה, ניו זילנד ובריטניה.

ההיגיון בקיום הנחיית אבטחה ברורה למערכות בינה מלאכותית הוא שגורמי איומים עשויים להפעיל טקטיקות שונות כדי לחתור תחת מודלים ויישומים של למידת מכונה.

בשל המגוון הגדול של וקטורי התקפה, הגנות צריכות להיות מגוונות ומקיפות

"שחקנים זדוניים המכוונים למערכות בינה מלאכותיות עלולים להשתמש בוקטורי תקיפה ייחודיים למערכות בינה מלאכותית, כמו גם בטכניקות סטנדרטיות המשמשות נגד IT מסורתי", נכתב ב-CSI. "בשל המגוון הגדול של וקטורי התקפה, ההגנות צריכות להיות מגוונות ומקיפות."

נראה שיש צורך באבטחת AI טובה יותר, וזה אולי לא מפתיע מכיוון שיש צורך באבטחת סייבר טובה יותר באופן כללי. ב 2024 AI Threat Landscape Reportטען ספק האבטחה Hidden Layer, "77 אחוז מהחברות דיווחו על זיהוי הפרות של ה-AI שלהן בשנה האחרונה. הנותרים לא היו בטוחים אם דגמי הבינה המלאכותית שלהם ראו מתקפה".

דוח השכבה הנסתרת מזהה שלושה סוגים עיקריים של התקפות על מערכות בינה מלאכותית: התקפות למידת מכונה אדוורסריות המנסות לשנות את התנהגות האלגוריתם; התקפות בינה מלאכותית המנסות לעקוף מנגנוני בטיחות ולבקש תוכן פרטי או מזיק; והתקפות שרשרת אספקה, שאמנם דומות להתקפות שרשרת אספקה ​​כלליות של תוכנה בעלי מאפיינים ייחודיים משלהם קשור ל-AI.

חלק גדול מההנחיות של NSA חלות על אבטחת IT כללית, כגון הבנת הסביבות שבהן AI נפרסת והקפדה על ניהול ובקרות מתאימים.

אבל יש גם לא מעט על ניטור רציף של דגמי AI. אלה המטמיעים מערכות בינה מלאכותיות לא צריכים לצפות לחתום ולסיים עם אבטחת בינה מלאכותית. ה-NSA מייעץ לא רק לאמת מערכות AI לפני ובמהלך השימוש, אלא לאבטח ממשקי API חשופים, ניטור אקטיבי של התנהגות המודל, שמירה על משקלי מודל, אכיפת בקרות גישה, הדרכת משתמשים, ביקורת, בדיקות חדירה וכן הלאה.

"בסופו של דבר, אבטחת מערכת בינה מלאכותית כרוכה בתהליך מתמשך של זיהוי סיכונים, הטמעת אמצעי מניעה מתאימות ומעקב אחר בעיות", סיכם ה-CSI. "על ידי נקיטת הצעדים המתוארים בדוח זה כדי לאבטח את הפריסה והתפעול של מערכות AI, ארגון יכול להפחית משמעותית את הסיכונים הכרוכים בכך."

וכמו בהמלצות כלליות לאבטחת IT, ארגונים שרואים שמערכות ה-AI שלהם נפגעות יתהו מדוע לא היו זהירים יותר כשהייתה להם ההזדמנות. ®

ספוט_ימג

המודיעין האחרון

ספוט_ימג

דבר איתנו

שלום שם! איך אני יכול לעזור לך?