ذكاء البيانات التوليدية

تقدم وكالة الأمن القومي نصائح أمنية حول الذكاء الاصطناعي بشكل أساسي لعالم تكنولوجيا الدفاع

التاريخ:

أصدرت وكالة الأمن القومي إرشادات لمساعدة المؤسسات على حماية أنظمة الذكاء الاصطناعي الخاصة بها والدفاع بشكل أفضل عن صناعة الدفاع.

تمثل ورقة معلومات الأمن السيبراني (CSI)، التي تحمل عنوان "نشر أنظمة الذكاء الاصطناعي بشكل آمن: أفضل الممارسات لنشر أنظمة الذكاء الاصطناعي الآمنة والمرنة"، أول دفعة من مركز أمن الذكاء الاصطناعي (AISC)، الذي أنشأته وكالة المراقبة الفائقة في الخريف الماضي كجزء من مركز التعاون في مجال الأمن السيبراني (CCC)، وهو تعاون بين الحكومة والصناعة لحماية المنظمات المشاركة في قاعدة الدفاع الصناعية.

هذا منظمة التضامن المسيحي الدولية [PDF] تم تطويره بالتشاور مع وكالات أمريكية أخرى، بما في ذلك CISA ومكتب التحقيقات الفيدرالي، بالإضافة إلى نظرائهم في أستراليا وكندا ونيوزيلندا والمملكة المتحدة.

الأساس المنطقي لوجود توجيهات أمنية متميزة لأنظمة الذكاء الاصطناعي هو أن الجهات الفاعلة في مجال التهديد قد تستخدم تكتيكات مختلفة لتخريب نماذج وتطبيقات التعلم الآلي.

ونظرًا للتنوع الكبير في نواقل الهجوم، يجب أن تكون الدفاعات متنوعة وشاملة

وجاء في تقرير CSI: "قد تستخدم الجهات الفاعلة الخبيثة التي تستهدف أنظمة الذكاء الاصطناعي نواقل الهجوم الفريدة لأنظمة الذكاء الاصطناعي، بالإضافة إلى التقنيات القياسية المستخدمة ضد تكنولوجيا المعلومات التقليدية". "نظرًا للتنوع الكبير في نواقل الهجوم، يجب أن تكون الدفاعات متنوعة وشاملة."

يبدو أن هناك حاجة إلى تحسين أمن الذكاء الاصطناعي، وهو أمر ربما لا يكون مفاجئًا نظرًا لوجود حاجة إلى تحسين الأمن السيبراني بشكل عام. فيه تقرير مشهد تهديدات الذكاء الاصطناعي لعام 2024، ادعى مزود الأمن Hidden Layer أن "77 بالمائة من الشركات أبلغت عن تحديد انتهاكات للذكاء الاصطناعي الخاص بها في العام الماضي. أما الباقون فكانوا غير متأكدين مما إذا كانت نماذج الذكاء الاصطناعي الخاصة بهم قد شهدت هجومًا أم لا.

يحدد تقرير الطبقة المخفية ثلاثة أنواع أساسية من الهجمات على أنظمة الذكاء الاصطناعي: هجمات التعلم الآلي العدائية التي تحاول تغيير سلوك الخوارزمية؛ وهجمات الذكاء الاصطناعي التوليدية التي تحاول تجاوز آليات الأمان وطلب محتوى خاص أو ضار؛ وهجمات سلسلة التوريد، والتي تشبه هجمات سلسلة توريد البرامج العامة لها خصائصها الفريدة المتعلقة بالذكاء الاصطناعي.

تنطبق الكثير من إرشادات وكالة الأمن القومي على أمن تكنولوجيا المعلومات العام، مثل فهم البيئات التي يتم فيها نشر الذكاء الاصطناعي والتأكد من وجود الحوكمة والضوابط المناسبة.

ولكن هناك أيضًا الكثير حول المراقبة المستمرة لنماذج الذكاء الاصطناعي. لا ينبغي لأولئك الذين ينفذون أنظمة الذكاء الاصطناعي أن يتوقعوا التوقيع والانتهاء من أمن الذكاء الاصطناعي. لا تنصح وكالة الأمن القومي بالتحقق من صحة أنظمة الذكاء الاصطناعي قبل وأثناء الاستخدام فحسب، بل تنصح أيضًا بتأمين واجهات برمجة التطبيقات المكشوفة، ومراقبة سلوك النموذج بشكل فعال، وحماية أوزان النماذج، وفرض ضوابط الوصول، وتدريب المستخدمين، وعمليات التدقيق، واختبار الاختراق، وما إلى ذلك.

وخلصت منظمة CSI إلى أنه "في النهاية، يتضمن تأمين نظام الذكاء الاصطناعي عملية مستمرة لتحديد المخاطر، وتنفيذ إجراءات التخفيف المناسبة، ومراقبة المشكلات". "من خلال اتخاذ الخطوات الموضحة في هذا التقرير لتأمين نشر وتشغيل أنظمة الذكاء الاصطناعي، يمكن للمؤسسة تقليل المخاطر التي تنطوي عليها بشكل كبير."

وكما هو الحال مع التوصيات العامة لأمن تكنولوجيا المعلومات، فإن المؤسسات التي ترى أن أنظمة الذكاء الاصطناعي الخاصة بها معرضة للخطر سوف تتساءل لماذا لم تكن أكثر حذراً عندما أتيحت لها الفرصة. ®

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة

الدردشة معنا

أهلاً! كيف يمكنني مساعدك؟