Генеративный анализ данных

АНБ предлагает советы по безопасности ИИ в основном миру оборонных технологий

Дата:

АНБ выпустило руководство, которое поможет организациям защитить свои системы искусственного интеллекта и лучше защитить оборонную промышленность.

Информационный бюллетень по кибербезопасности (CSI) под названием «Безопасное развертывание систем искусственного интеллекта: лучшие практики развертывания безопасных и устойчивых систем искусственного интеллекта» представляет собой первый залп Центра безопасности искусственного интеллекта (AISC), созданного суперагентством наблюдения прошлой осенью. в рамках Центра сотрудничества в области кибербезопасности (CCC), сотрудничество правительства и промышленности для защиты организаций, участвующих в Военно-промышленная база.

Это CSI [PDF] был разработан в консультации с другими агентствами США, включая CISA и ФБР, а также с коллегами в Австралии, Канаде, Новой Зеландии и Великобритании.

Основанием для наличия четких рекомендаций по безопасности для систем ИИ является то, что злоумышленники могут использовать разные тактики для подрыва моделей и приложений машинного обучения.

Из-за большого разнообразия векторов атак защита должна быть разнообразной и комплексной.

«Злоумышленники, нацеленные на системы ИИ, могут использовать векторы атак, уникальные для систем ИИ, а также стандартные методы, используемые против традиционных ИТ», — говорится в CSI. «Из-за большого разнообразия векторов атак защита должна быть разнообразной и комплексной».

Похоже, существует потребность в улучшении безопасности ИИ, что, возможно, неудивительно, поскольку существует потребность в улучшении кибербезопасности в целом. В своем Отчет об угрозах ИИ за 2024 годКомпания Hidden Layer, занимающаяся безопасностью, заявила: «77 процентов компаний сообщили об обнаружении нарушений в работе их искусственного интеллекта в прошлом году. Остальные не были уверены, подверглись ли их модели ИИ атаке».

В отчете «Скрытый слой» выделяются три основных типа атак на системы искусственного интеллекта: атаки состязательного машинного обучения, которые пытаются изменить поведение алгоритма; генеративные атаки искусственного интеллекта, которые пытаются обойти механизмы безопасности и запросить частный или вредоносный контент; и атаки на цепочку поставок, которые, хотя и похожи на обычные атаки на цепочку поставок программного обеспечения. имеют свои уникальные особенности связанные с ИИ.

Большая часть рекомендаций АНБ относится к общей ИТ-безопасности, например, к пониманию сред, в которых развертывается ИИ, и обеспечению надлежащего управления и контроля.

Но есть также немало информации о непрерывном мониторинге моделей ИИ. Тем, кто внедряет системы ИИ, не следует рассчитывать на то, что они согласятся и покончат с безопасностью ИИ. АНБ советует не только проверять системы искусственного интеллекта до и во время использования, но и защищать открытые API, активно отслеживать поведение моделей, сохранять вес моделей, обеспечивать контроль доступа, обучение пользователей, аудиты, тесты на проникновение и так далее.

«В конце концов, обеспечение безопасности системы искусственного интеллекта включает в себя непрерывный процесс выявления рисков, реализации соответствующих мер по их снижению и мониторинга проблем», — заключил CSI. «Приняв меры, изложенные в этом отчете, для обеспечения безопасности развертывания и эксплуатации систем искусственного интеллекта, организация может значительно снизить связанные с этим риски».

И, как и в случае с общими рекомендациями по ИТ-безопасности, организации, обнаружившие, что их системы искусственного интеллекта скомпрометированы, задаются вопросом, почему они не проявили большей осторожности, когда у них была такая возможность. ®

Spot_img

Последняя разведка

Spot_img

Чат с нами

Всем привет! Могу я чем-нибудь помочь?