생성 데이터 인텔리전스

사이버 보안에서 AI 의사 결정을 처리하는 4가지 방법

시간

오늘날 조직이 직면한 사이버 공격의 규모는 자율 시스템이 사이버 보안의 중요한 구성 요소가 되고 있음을 의미합니다. 이로 인해 인간 보안 팀과 인공 지능(AI) 사이의 이상적인 관계에 대해 질문하게 됩니다. AI 프로그램에 어떤 수준의 신뢰를 부여해야 하며 보안 팀이 의사 결정에 개입하는 시점은 언제입니까?

사이버 보안의 자율 시스템을 통해 인간 운영자는 의사 결정의 기준을 높이고 있습니다. 점점 더 관리하기 어려운 "미세 결정"을 스스로 내리는 대신, 이제는 AI 기계가 대규모로 수백만 개의 세분화된 미세 결정을 내릴 때 준수해야 하는 제약 조건과 지침을 설정합니다. 결과적으로 인간은 더 이상 미시적 수준이 아니라 거시적 수준에서 관리합니다. 일상적인 작업은 더 높은 수준으로, 더 전략적으로 변하고 입력 또는 조치에 대한 가장 필수적인 요청에 대해서만 투입됩니다.

그러나 인간과 AI의 관계는 어떤 모습일까요? 아래에서는 네 가지 시나리오를 분석합니다. Harvard Business Review에서 요약한 인간과 기계 간의 다양한 상호 작용 가능성을 제시하고 이것이 사이버 영역에서 어떤 모습일지 탐구합니다.

루프의 인간(HitL)

이 시나리오에서 사실상 인간은 의사 결정을 수행하고 기계는 행동에 대한 권장 사항과 이러한 결정 이면의 컨텍스트 및 지원 증거만 제공하여 의미 실현 시간과 행동 시간을 단축합니다. 그 인간 운영자를 위해.

이 구성에서 휴먼 보안 팀은 시스템이 작동하고 작동하지 않는 방식에 대해 완전한 자율성을 갖습니다.

이 접근 방식이 장기적으로 효과적이려면 충분한 인적 자원이 필요합니다. 종종 이것은 조직에 대해 현실적인 것을 훨씬 초과할 것입니다. 그러나 기술을 이해하는 조직에게 이 단계는 AI 자율 대응 엔진에 대한 신뢰를 구축하는 중요한 디딤돌을 나타냅니다.

예외에 대한 루프의 인간(HitLfE)

이 모델에서는 대부분의 결정이 자율적으로 이루어지며 인간은 AI가 결정을 내리기 전에 인간의 판단이나 입력을 요청하는 예외만 처리합니다.

인간은 검토를 위해 플래그가 지정되는 예외를 결정하기 위해 논리를 제어하며 점점 더 다양해지고 맞춤화된 디지털 시스템을 통해 다양한 요구와 사용 사례에 대해 다양한 수준의 자율성을 설정할 수 있습니다.

즉, 대부분의 이벤트는 AI 기반 자율 대응에 의해 자율적으로 즉시 실행되지만 조직은 특수한 경우가 발생하는 시기와 장소에 대한 유연성을 가지고 특수한 경우에 대해 "루프에" 남아 있습니다. 그들은 필요에 따라 개입할 수 있지만 신중한 검토 없이 AI의 권장 조치를 무시하거나 거부하는 데 신중을 기할 것입니다.

인간 온 더 루프(HotL)

이 경우 기계는 모든 작업을 수행하고 인간 운영자는 이러한 작업의 결과를 검토하여 이러한 작업에 대한 컨텍스트를 이해할 수 있습니다. 새로운 보안 사고의 경우 이 배열을 통해 AI가 공격을 억제하는 동시에 운영자에게 장치나 계정에 지원이 필요함을 알리고 여기에서 사건을 해결하기 위해 투입됩니다. 추가 포렌식 작업이 필요할 수 있으며 손상이 여러 위치에 있는 경우 AI가 대응을 확대하거나 확장할 수 있습니다.

많은 사람들에게 이것은 최적의 보안 배치를 나타냅니다. 데이터의 복잡성과 내려야 할 의사 결정의 규모를 감안할 때 모든 이벤트와 모든 잠재적 취약성에 대해 인간이 루프(HitL)에 참여하는 것은 실용적이지 않습니다.

이 배열을 통해 인간은 시스템이 언제, 어디서, 어떤 수준으로 작동하는지에 대한 완전한 제어를 유지하지만 이벤트가 발생하면 이러한 수백만 개의 미세 결정이 기계에 맡겨집니다.

루프에서 벗어난 인간(HootL)

이 모델에서 기계는 모든 결정을 내리고 개선 프로세스는 또한 자동 폐쇄 루프. 그 결과 AI의 각 구성 요소가 다음 구성 요소에 공급되고 개선되어 최적의 보안 상태를 높이는 자가 치유, 자가 개선 피드백 루프가 생성됩니다.

이는 보안에 대한 궁극적인 손을 대지 않는 접근 방식을 나타냅니다. 인간 보안 운영자는 자율 시스템이 완전히 독립적으로 작동하는 "블랙 박스"가 되기를 원할 것 같지 않습니다. 보안 팀은 수행 중인 작업 또는 그 이유에 대한 개요도 파악할 수 없습니다. 인간이 시스템에 개입할 필요가 없다고 확신하더라도 항상 감독을 원할 것입니다. 결과적으로 시간이 지남에 따라 자율 시스템이 개선됨에 따라 투명성에 대한 강조가 중요해질 것입니다. 이로 인해 최근 자연어 처리를 사용하여 기본적인 일상 언어로 인간 운영자에게 설명하는 설명 가능한 인공 지능(XAI)이 추진되고 있습니다. why 기계가 수행한 작업을 수행했습니다.

이 XNUMX가지 모델은 모두 고유한 사용 사례를 가지고 있으므로 회사의 보안 성숙도에 관계없이 CISO와 보안 팀은 시스템의 권장 사항을 활용하는 데 자신감을 가질 수 있습니다. 개인이나 팀이 가용 시간 내에 인간에게 기대할 수 있는 규모입니다. 이러한 방식으로 모든 사용 사례 또는 비즈니스 요구 사항이 있는 모든 유형 및 규모의 조직은 자신에게 적합한 방식으로 AI 의사 결정을 활용하는 동시에 사이버 공격을 자율적으로 감지 및 대응하고 이로 인한 중단을 방지할 수 있습니다.

저자에 관하여

댄 페인

Darktrace의 제품 부사장인 Dan Fein은 고객이 Darktrace의 제품군을 완전하고 세부적으로 이해할 수 있도록 지원했습니다. Dan은 특히 Darktrace 이메일에 중점을 두어 복잡한 디지털 환경에 효과적으로 배포되도록 하고 개발, 마케팅, 영업 및 기술 팀과 긴밀하게 협력합니다. Dan은 New York University에서 컴퓨터 과학 학사 학위를 받았습니다.

spot_img

최신 인텔리전스

spot_img