АНБ выпустило руководство, которое поможет организациям защитить свои системы искусственного интеллекта и лучше защитить оборонную промышленность.
Информационный бюллетень по кибербезопасности (CSI) под названием «Безопасное развертывание систем искусственного интеллекта: лучшие практики развертывания безопасных и устойчивых систем искусственного интеллекта» представляет собой первый залп Центра безопасности искусственного интеллекта (AISC), созданного суперагентством наблюдения прошлой осенью. в рамках Центра сотрудничества в области кибербезопасности (CCC), сотрудничество правительства и промышленности для защиты организаций, участвующих в Военно-промышленная база.
Это CSI [PDF] был разработан в консультации с другими агентствами США, включая CISA и ФБР, а также с коллегами в Австралии, Канаде, Новой Зеландии и Великобритании.
Основанием для наличия четких рекомендаций по безопасности для систем ИИ является то, что злоумышленники могут использовать разные тактики для подрыва моделей и приложений машинного обучения.
Из-за большого разнообразия векторов атак защита должна быть разнообразной и комплексной.
«Злоумышленники, нацеленные на системы ИИ, могут использовать векторы атак, уникальные для систем ИИ, а также стандартные методы, используемые против традиционных ИТ», — говорится в CSI. «Из-за большого разнообразия векторов атак защита должна быть разнообразной и комплексной».
Похоже, существует потребность в улучшении безопасности ИИ, что, возможно, неудивительно, поскольку существует потребность в улучшении кибербезопасности в целом. В своем Отчет об угрозах ИИ за 2024 годКомпания Hidden Layer, занимающаяся безопасностью, заявила: «77 процентов компаний сообщили об обнаружении нарушений в работе их искусственного интеллекта в прошлом году. Остальные не были уверены, подверглись ли их модели ИИ атаке».
В отчете «Скрытый слой» выделяются три основных типа атак на системы искусственного интеллекта: атаки состязательного машинного обучения, которые пытаются изменить поведение алгоритма; генеративные атаки искусственного интеллекта, которые пытаются обойти механизмы безопасности и запросить частный или вредоносный контент; и атаки на цепочку поставок, которые, хотя и похожи на обычные атаки на цепочку поставок программного обеспечения. имеют свои уникальные особенности связанные с ИИ.
Большая часть рекомендаций АНБ относится к общей ИТ-безопасности, например, к пониманию сред, в которых развертывается ИИ, и обеспечению надлежащего управления и контроля.
Но есть также немало информации о непрерывном мониторинге моделей ИИ. Тем, кто внедряет системы ИИ, не следует рассчитывать на то, что они согласятся и покончат с безопасностью ИИ. АНБ советует не только проверять системы искусственного интеллекта до и во время использования, но и защищать открытые API, активно отслеживать поведение моделей, сохранять вес моделей, обеспечивать контроль доступа, обучение пользователей, аудиты, тесты на проникновение и так далее.
«В конце концов, обеспечение безопасности системы искусственного интеллекта включает в себя непрерывный процесс выявления рисков, реализации соответствующих мер по их снижению и мониторинга проблем», — заключил CSI. «Приняв меры, изложенные в этом отчете, для обеспечения безопасности развертывания и эксплуатации систем искусственного интеллекта, организация может значительно снизить связанные с этим риски».
И, как и в случае с общими рекомендациями по ИТ-безопасности, организации, обнаружившие, что их системы искусственного интеллекта скомпрометированы, задаются вопросом, почему они не проявили большей осторожности, когда у них была такая возможность. ®
- SEO-контент и PR-распределение. Получите усиление сегодня.
- PlatoData.Network Вертикальный генеративный ИИ. Расширьте возможности себя. Доступ здесь.
- ПлатонАйСтрим. Интеллект Web3. Расширение знаний. Доступ здесь.
- ПлатонЭСГ. Углерод, чистые технологии, Энергия, Окружающая среда, Солнечная, Управление отходами. Доступ здесь.
- ПлатонЗдоровье. Биотехнологии и клинические исследования. Доступ здесь.
- Источник: https://go.theregister.com/feed/www.theregister.com/2024/04/17/us_national_security_agency_publishes/