Inteligencia de datos generativa

La NSA ofrece asesoramiento sobre seguridad de IA principalmente al mundo de la tecnología de defensa

Fecha:

La NSA ha publicado una guía para ayudar a las organizaciones a proteger sus sistemas de inteligencia artificial y defender mejor la industria de defensa.

La Hoja de información de ciberseguridad (CSI), titulada “Implementación de sistemas de inteligencia artificial de forma segura: mejores prácticas para implementar sistemas de inteligencia artificial seguros y resistentes”, representa la primera salva del Centro de seguridad de inteligencia artificial (AISC), establecido por la superagencia de vigilancia el otoño pasado. como parte del Centro de Colaboración en Ciberseguridad (CCC), una colaboración entre el gobierno y la industria para proteger a las organizaciones involucradas en el Base industrial de defensa.

Este CSI [(PDF)] fue desarrollado en consulta con otras agencias estadounidenses, incluidas CISA y el FBI, así como con sus homólogos en Australia, Canadá, Nueva Zelanda y el Reino Unido.

La razón para tener una guía de seguridad distinta para los sistemas de IA es que los actores de amenazas pueden emplear diferentes tácticas para subvertir los modelos y aplicaciones de aprendizaje automático.

Debido a la gran variedad de vectores de ataque, las defensas deben ser diversas y completas.

"Los actores maliciosos que apuntan a los sistemas de IA pueden utilizar vectores de ataque exclusivos de los sistemas de IA, así como técnicas estándar utilizadas contra la TI tradicional", se lee en el CSI. "Debido a la gran variedad de vectores de ataque, las defensas deben ser diversas y completas".

Parece haber una necesidad de una mejor seguridad de la IA, lo que tal vez no sea sorprendente ya que existe una necesidad de una mejor ciberseguridad en general. En su Informe sobre el panorama de amenazas de la IA de 2024, afirmó el proveedor de seguridad Hidden Layer, “el 77 por ciento de las empresas informaron haber identificado violaciones en su IA durante el año pasado. Los restantes no estaban seguros de si sus modelos de IA habían visto un ataque”.

El informe Hidden Layer identifica tres tipos principales de ataques a sistemas de inteligencia artificial: ataques adversarios de aprendizaje automático que intentan alterar el comportamiento de los algoritmos; ataques generativos de IA que intentan eludir los mecanismos de seguridad y solicitar contenido privado o dañino; y ataques a la cadena de suministro, que si bien son similares a los ataques generales a la cadena de suministro de software tienen sus propias características únicas relacionado con la IA.

Gran parte de la orientación de la NSA se aplica a la seguridad general de TI, como comprender los entornos en los que se implementa la IA y garantizar que existan una gobernanza y controles adecuados.

Pero también se habla mucho sobre el seguimiento continuo de los modelos de IA. Aquellos que implementan sistemas de IA no deberían esperar cerrar sesión y terminar con la seguridad de la IA. La NSA aconseja no sólo validar los sistemas de IA antes y durante su uso, sino también proteger las API expuestas, monitorear activamente el comportamiento del modelo, salvaguardar los pesos de los modelos, hacer cumplir los controles de acceso, capacitar a los usuarios, realizar auditorías, realizar pruebas de penetración, etc.

"Al final, asegurar un sistema de IA implica un proceso continuo de identificación de riesgos, implementación de mitigaciones adecuadas y seguimiento de problemas", concluyó el CSI. "Al tomar las medidas descritas en este informe para asegurar la implementación y operación de los sistemas de IA, una organización puede reducir significativamente los riesgos involucrados".

Y al igual que con las recomendaciones generales de seguridad de TI, las organizaciones que ven sus sistemas de IA comprometidos se preguntarán por qué no fueron más cuidadosos cuando tuvieron la oportunidad. ®

punto_img

Información más reciente

punto_img

Habla con nosotros!

¡Hola! ¿Le puedo ayudar en algo?