생성 데이터 인텔리전스

막을 수 없는 힘, 책임감 있는 AI 구현

시간

해설

최근 제가 만난 최고 경영진 중 적어도 절반은 인공 지능과 기계 학습(AI/ML), 회사에서 이를 활성화하는 방법, 안전한 구현이 가능한지에 대해 이야기하고 싶어합니다. 대규모 금융 회사의 한 리더는 최근 이사회가 생성 AI를 활용하는 데 매우 열심이라고 말했습니다. “이것은 경쟁 우위입니다. 자동화의 핵심입니다. 우리는 그것을 사용하기 시작해야 합니다.” 그런데 AI로 뭘 하느냐고 묻자 “아, 우리가 막고 있다”고 답했다.

몇 년 전에는 클라우드의 즉각적인 이점과 혁신적인 사용 사례에 대한 소문이 돌았지만 잠재적인 위험으로 인해 채택에 대한 만연한 저항도 있었습니다. 궁극적으로 최종 사용자가 클라우드 기반 도구를 사용하는 것을 막는 것은 불가능했습니다. 보안 위험보다 이점과 유연성이 훨씬 더 컸기 때문에 결국 모두가 “좋아요, 이를 사용할 수 있는 방법을 찾아야 합니다”라고 말했습니다.

이제 역사는 AI와 함께 반복되고 있습니다. 하지만 AI를 안전하게 활성화하고 민감한 데이터가 노출되는 것을 어떻게 제어할 수 있을까요?

AI에 관한 좋은 소식

(조직보다) 사람들이 사용하고 있습니다. 생성 적 AI 보다 대화적인 방식으로 정보를 볼 수 있습니다. 생성적 AI 도구는 검색 엔진에 텍스트를 입력하는 대신 널리 사용되는 음성 입력을 듣고 응답할 수 있습니다. 일부 미래 지향적인 조직에서는 내부 헬프 데스크와 같은 일상적인 작업을 자동화하고 혁신하는 데에도 적용되고 있습니다.

가장 중요하고 흥미로운 사용 사례 중 상당수가 실제로는 생성 적 AI. 고급 AI/ML 모델은 신약 및 백신 개발과 같이 인류가 직면한 가장 큰 문제 중 일부를 해결하는 데 도움이 됩니다.

의료, 의료, 생명과학 분야의 고객이 AI를 안전하게 구현할 수 있도록 지원한다는 것은 이러한 큰 문제를 해결하는 데 도움이 된다는 것을 의미합니다. 우리는 매일 AI/ML 알고리즘을 연구하는 거의 100명의 데이터 과학자를 보유하고 있으며 위협을 차단하고 내부자 또는 내부자를 감염시킨 공격자로부터 민감한 데이터가 유출되는 것을 방지하는 데 도움이 되는 50개 이상의 모델을 출시했습니다.

다루기 어려웠던 보안 문제를 이제 AI/ML을 통해 해결할 수 있습니다. 예를 들어, 공격자는 일반적인 보안 도구를 회피하기 위해 민감한 정보가 포함된 이미지를 이메일로 보내 가상 화이트보드에서 비밀을 빼내거나 이미지에 데이터를 숨기는 등 혁신적인 방법으로 민감한 데이터를 훔쳐왔습니다. 공격자는 기존 보안이 인식할 수 없는 흐릿하거나 눈부신 빛이 있는 신용 카드 이미지가 있는 노출된 저장소에 액세스할 수 있지만 고급 ML 기능을 사용하면 이를 포착하는 데 도움이 될 수 있습니다. AI/ML을 사용하여 구현되는 이러한 종류의 정교한 공격도 AI/ML을 사용하지 않으면 막을 수 없습니다.

AI에 관한 나쁜 소식

모든 기술은 좋은 쪽으로 사용될 수도 있고 나쁜 쪽으로 사용될 수도 있습니다. 오늘날 클라우드는 생산성을 높이는 가장 큰 요소이자 가장 자주 사용되는 악성 코드 전달 메커니즘입니다. AI도 다르지 않습니다. 해커들은 피싱 이메일을 개발하거나 맬웨어 캠페인을 작성 및 자동화하는 등 공격 능력을 강화하기 위해 이미 생성 AI를 사용하고 있습니다. 공격자는 잃을 것이 많지 않으며 결과가 얼마나 정확하거나 정확한지에 대해 걱정할 필요도 없습니다.

공격자의 무기고에 AI/ML이 있는데 당신은 그렇지 않다면 행운을 빕니다. 공평한 경쟁의 장을 마련해야 합니다. 자신을 보호하려면 도구, 프로세스, 아키텍처가 필요합니다. AI/ML의 장점과 단점의 균형을 맞추는 것은 AI 시스템에 입력하는 데이터를 제어하고 개인 정보 보호 문제를 해결하여 생성 AI를 안전하게 활성화할 수 있음을 의미합니다.

우리는 중요한 교차로에 있습니다. 그만큼 AI 행정명령 환영하고 필요합니다. 이 명령의 의도는 AI 시스템 테스트 및 사용에 관해 연방 기관에 지침을 제공하는 것이지만, 이 명령은 민간 산업에도 충분히 적용될 수 있습니다.

업계로서 우리는 AI 구현을 두려워해서는 안 되며 악의적인 행위자가 AI를 적용하여 산업이나 국가 안보에 해를 끼치는 것을 막기 위해 가능한 모든 조치를 취해야 합니다. 특히 생성 AI와 관련하여 책임감 있는 AI 구현을 위한 프레임워크와 모범 사례를 만드는 데 초점을 맞춰야 합니다.

앞으로의 경로 계획

다음은 앞으로의 경로를 계획하는 데 도움이 되는 네 가지 주요 고려 사항입니다.

  1. 생성적 AI(및 일반적으로 AI/ML)가 막을 수 없는 힘이라는 점을 인식하세요.. 피할 수 없는 일을 막으려고 하지 마십시오. 이러한 도구가 귀하의 조직에서 사용된다는 점을 수락하십시오. 비즈니스 리더가 사용을 완전히 차단하려고 시도하는 것보다 정책과 절차를 수립하는 것이 더 좋습니다.

  2. 책임감 있게 사용하는 방법에 집중하세요. 사용자가 기업 버전의 생성 AI 애플리케이션에만 액세스하도록 할 수 있습니까? 민감한 데이터가 이러한 시스템과 공유되는지 여부를 제어할 수 있습니까? 그렇게 할 수 없다면 가시성과 통제력을 향상시키기 위해 어떤 조치를 취할 수 있습니까? 특정 최신 데이터 보안 기술은 이러한 질문에 답하고 이를 관리하기 위한 프레임워크를 제공하는 데 도움을 줄 수 있습니다.

  3. 효능을 잊지 마세요. 이는 출력의 정밀도와 정확성을 의미합니다. 생성 AI의 결과가 신뢰할 수 있다고 확신하시나요? AI는 데이터 분석가와 데이터 과학자의 필요성을 제거하지 않습니다. 그들은 우리 모두가 재교육을 받을 때 조직이 향후 몇 년 동안 효율성과 정확성을 평가하는 데 매우 중요할 것입니다.

  4. 어떻게 사용하는지 분류하세요. 일부 애플리케이션에는 민감한 데이터에 대한 액세스뿐만 아니라 높은 정밀도와 정확성이 필요하지만 다른 애플리케이션에는 그렇지 않습니다. 의학 연구 맥락에서 생성적 AI 환각은 그 사용을 방해할 수 있습니다. 그러나 쇼핑과 같은 보다 온화한 애플리케이션에서는 오류율이 괜찮을 수 있습니다. AI를 사용하는 방법을 분류하면 도구의 한계에 민감하지 않은 애플리케이션인 쉽게 달릴 수 있는 과일을 목표로 삼는 데 도움이 될 수 있습니다.

AI 세척이 많이 있다고 말하는 것도 공평합니다. 다들 “우리는 AI 회사다!”라고 외치고 있어요. 하지만 고무가 도로에 닿으면 고무를 사용해야 하고, 구현해야 하며, 가치를 제공해야 합니다. 생성적 AI 또는 더 광범위한 AI/ML 모델을 통해 원하는 결과를 책임감 있게 달성하려면 조직은 먼저 이러한 강력한 도구에 내재된 위험으로부터 직원과 데이터를 보호할 수 있는지 확인해야 합니다.

spot_img

최신 인텔리전스

spot_img