生成数据智能

美国国家安全局主要向国防科技界提供人工智能安全建议

日期:

美国国家安全局发布了指南,帮助组织保护其人工智能系统并更好地保卫国防工业。

网络安全信息表(CSI)的标题为“安全部署人工智能系统:部署安全和弹性人工智能系统的最佳实践”,代表了监控超级机构去年秋天建立的人工智能安全中心(AISC)的第一次齐射作为网络安全协作中心的一部分(CCC),这是一项政府与行业合作,旨在保护参与该行业的组织 国防工业基地.

本次CSI[PDF] 是与其他美国机构(包括 CISA 和 FBI)以及澳大利亚、加拿大、新西兰和英国的同行协商制定的。

为人工智能系统提供独特的安全指导的理由是,威胁行为者可能会采用不同的策略来破坏机器学习模型和应用程序。

由于攻击媒介多种多样,防御措施需要多样化和全面

CSI 写道:“针对人工智能系统的恶意行为者可能会使用人工智能系统特有的攻击向量,以及针对传统 IT 的标准技术。” “由于攻击媒介多种多样,防御措施需要多样化和全面。”

似乎需要更好的人工智能安全,这也许并不奇怪,因为总体上需要更好的网络安全。在其 2024 年人工智能威胁形势报告安全供应商 Hidden Layer 声称,“77% 的公司报告在过去一年中发现了人工智能漏洞。剩下的人不确定他们的人工智能模型是否遇到了攻击。”

隐藏层报告确定了针对人工智能系统的三种主要攻击类型:试图改变算法行为的对抗性机器学习攻击;试图绕过安全机制并索取私人或有害内容的生成式人工智能攻击;和供应链攻击,虽然与一般软件供应链攻击类似 有自己独特的特点 与人工智能相关。

NSA 的大部分指南适用于一般 IT 安全,例如了解部署人工智能的环境并确保适当的治理和控制到位。

但还有很多关于人工智能模型的持续监控的内容。那些实施人工智能系统的人不应该期望签署并完成人工智能安全。 NSA 建议不仅在使用前和使用过程中验证人工智能系统,还建议保护公开的 API、主动监控模型行为、保护模型权重、实施访问控制、用户培训、审计、渗透测试等。

CSI 总结道:“最终,确保人工智能系统的安全涉及识别风险、实施适当的缓解措施和监控问题的持续过程。” “通过采取本报告中概述的步骤来确保人工智能系统的部署和运行安全,组织可以显着降低所涉及的风险。”

与一般 IT 安全建议一样,看到自己的人工智能系统受到损害的组织会想知道为什么他们在有机会时不更加小心。 ®

现货图片

最新情报

现货图片

在线答疑

你好呀! 我怎么帮你?