생성 데이터 인텔리전스

사이버 보안 프로그램에서 AI를 안전하게 설계하는 방법

시간

XNUMX월 말, 사이버 보안 회사인 Group-IB는 주목할만한 사실을 공개했습니다. ChatGPT 계정에 영향을 준 보안 위반. 이 회사는 각각 ChatGPT 자격 증명이 있는 손상된 장치 100,000개를 식별했으며, 이후 지난 XNUMX년 동안 불법 다크 웹 시장에서 거래되었습니다. 민감한 정보가 포함된 검색어가 해커에게 노출되기 때문에 이 침해로 인해 ChatGPT 계정의 손상된 보안 문제를 해결하기 위해 즉각적인 주의가 필요했습니다.

또 다른 사건에서, 한 달도 안 되는 기간 동안 삼성은 직원들이 부주의로 ChatGPT를 통해 민감한 정보 유출. ChatGPT는 자체 성능 향상을 위해 사용자 입력 데이터를 유지하기 때문에 이러한 삼성 소유의 귀중한 영업 비밀은 이제 AI 서비스를 제공하는 회사인 OpenAI가 소유하게 됩니다. 이는 삼성 독점 정보의 기밀성 및 보안과 관련하여 중대한 우려를 제기합니다.

데이터 수집 및 사용에 대한 엄격한 지침을 요구하는 EU의 일반 데이터 보호 규정(GDPR)에 대한 ChatGPT의 준수에 대한 이러한 우려 때문에, 이탈리아는 전국적인 금지령을 내렸습니다. ChatGPT 사용에 대해.

AI 및 생성 AI 애플리케이션의 급속한 발전으로 비즈니스 인텔리전스, 제품 및 운영의 성장을 가속화할 수 있는 새로운 기회가 열렸습니다. 그러나 사이버 보안 프로그램 소유자는 법률이 개발되기를 기다리는 동안 데이터 프라이버시를 보장해야 합니다.

퍼블릭 엔진 대 프라이빗 엔진

개념을 더 잘 이해하기 위해 퍼블릭 AI와 프라이빗 AI를 정의하는 것부터 시작하겠습니다. 퍼블릭 AI는 공개적으로 액세스할 수 있는 AI 소프트웨어 애플리케이션을 말하며 종종 사용자 또는 고객으로부터 소싱된 데이터 세트에 대해 교육을 받았습니다. 공개 AI의 대표적인 예는 텍스트 기사, 이미지 및 비디오를 포함하여 인터넷에서 공개적으로 사용 가능한 데이터를 활용하는 ChatGPT입니다.

공용 AI는 특정 사용자 또는 조직에 독점적이지 않은 데이터 세트를 활용하는 알고리즘도 포함할 수 있습니다. 결과적으로 공용 AI 고객은 자신의 데이터가 완전히 비공개로 유지되지 않을 수 있음을 인식해야 합니다.

반면 프라이빗 AI는 특정 사용자 또는 조직에 고유한 데이터에 대한 교육 알고리즘을 포함합니다. 이 경우 기계 학습 시스템을 사용하여 인보이스 또는 세금 양식과 같은 특정 데이터 세트를 사용하여 모델을 교육하는 경우 해당 모델은 조직 전용으로 유지됩니다. 플랫폼 벤더는 자신의 모델을 교육하는 데 귀하의 데이터를 활용하지 않으므로 개인 AI는 귀하의 데이터를 경쟁사를 돕기 위해 사용하는 것을 방지합니다.

교육 프로그램 및 정책에 AI 통합

모범 사례를 준수하면서 AI 애플리케이션을 실험, 개발 및 제품 및 서비스에 통합하기 위해 사이버 보안 직원은 다음 정책을 실행해야 합니다.

사용자 인식 및 교육: 사용자에게 AI 활용과 관련된 위험에 대해 교육하고 민감한 정보를 전송할 때 주의하도록 권장합니다. 안전한 통신 관행을 촉진하고 사용자에게 AI 시스템의 진위를 확인하도록 조언합니다.

  • 데이터 최소화: 작업을 수행하는 데 필요한 최소한의 데이터만 AI 엔진에 제공합니다. AI 처리와 관련이 없는 불필요하거나 민감한 정보를 공유하지 마십시오.
  • 익명화 및 익명화: 가능하면 데이터를 AI 엔진에 입력하기 전에 데이터를 익명화하거나 비식별화하십시오. 여기에는 개인 식별 정보(PII) 또는 AI 처리에 필요하지 않은 기타 민감한 속성을 제거하는 작업이 포함됩니다.

안전한 데이터 취급 관행: 민감한 데이터를 취급하기 위한 엄격한 정책 및 절차를 수립하십시오. 승인된 직원으로만 액세스를 제한하고 강력한 인증 메커니즘을 시행하여 무단 액세스를 방지합니다. 데이터 프라이버시 모범 사례에 대해 직원을 교육하고 로깅 및 감사 메커니즘을 구현하여 데이터 액세스 및 사용을 추적합니다.

보유 및 폐기: 데이터 보존 정책을 정의하고 더 이상 필요하지 않은 데이터를 안전하게 폐기하십시오. 적절한 구현 데이터 폐기 메커니즘더 이상 필요하지 않은 데이터를 복구할 수 없도록 보안 삭제 또는 암호화 삭제와 같은 .

법률 및 규정 준수 고려 사항: AI 엔진에 입력하는 데이터의 법적 결과를 이해합니다. 사용자가 AI를 사용하는 방식이 다음과 같은 관련 규정을 준수하는지 확인하십시오. 데이터 보호법 또는 산업별 표준.

공급업체 평가: 타사 공급업체에서 제공하는 AI 엔진을 사용하는 경우 해당 공급업체의 보안 조치를 철저히 평가하십시오. 공급업체가 데이터 보안 및 개인 정보 보호에 대한 업계 모범 사례를 따르고 데이터를 보호하기 위한 적절한 보호 장치를 갖추고 있는지 확인하십시오. 예를 들어 ISO 및 SOC 증명은 정보 보안에 대한 공급업체의 공인 표준 ​​준수 및 약속에 대한 중요한 제XNUMX자 검증을 제공합니다.

AI AUP(Acceptable Use Policy) 공식화: AI 허용 가능한 사용 정책은 AI 기술의 책임 있고 윤리적인 사용을 강조하면서 정책의 목적과 목적을 간략하게 설명해야 합니다. AI 활용의 범위와 경계를 지정하여 허용 가능한 사용 사례를 정의해야 합니다. AUP는 AI 사용에 대한 투명성, 책임성 및 책임 있는 의사 결정을 장려하여 조직 내에서 윤리적인 AI 관행 문화를 조성해야 합니다. 정기적인 검토 및 업데이트를 통해 진화하는 AI 기술 및 윤리에 대한 정책의 관련성을 확인합니다.

결론

이러한 지침을 준수함으로써 프로그램 소유자는 민감한 정보를 보호하고 윤리적 및 직업적 표준을 유지하면서 AI 도구를 효과적으로 활용할 수 있습니다. AI가 생성한 자료의 정확성을 검토하는 동시에 응답 프롬프트 생성에 들어가는 입력 데이터를 보호하는 것이 중요합니다.

spot_img

최신 인텔리전스

spot_img