CIO, CISO가 도입해야 할 생성형 AI 보안 솔루션은?

2024. 1. 17. 11:19IT 트렌드가 한눈에!

글로벌 IT 리서치 기관 가트너(Gartner)의 '생성형 AI 우려사항에 대한 IT 경영진 설문조사'에 따르면 응답자의 42%가 개인정보보호에 대해 우려하고 있으며, 환각/할루시네이션(14%), 보안(13%) 등이 그 뒤를 이었습니다.

 

출처: 데이터넷 기사(https://www.datanet.co.kr/news/articleView.html?idxno=190255)

 

기업 및 기관들은 대규모 언어모델에 기반한 대화형 인공지능 서비스를 활용해 새로운 비즈니스 기회 창출 및 가치 제고를 위해 다양한 시도를 하고 있습니다.

 

그러나 이처럼 대규모 언어 모델(LLM)로 일상적인 대화는 물론 복잡한 추론 작업을 해내는 생성형 AI 시대가 열리면서, 예기치 못한 변수가 발생했습니다. 그것은 바로 개인정보가 유출되는 보안 취약점입니다. 생성형 AI의 데이터 수집 과정, 학습 과정, 및 활용 과정에서 발생할 수 있는 대표적인 사례는 아래와 같습니다.

 

생성형 AI의 보안 취약점, 개인정보 유출
1. 데이터 수집 과정에서의 개인정보 유출 가능성

 

데이터 수집 과정에서 개인정보를 포함한 데이터가 적절한 보호 없이 수집되고 저장되면, 보안 위협에 노출될 수 있습니다. 예를 들어, 사용자가 제공한 개인정보가 적절한 암호화 없이 저장되고 있다면, 이 데이터는 해킹 등을 통해 유출될 위험이 있습니다.

 

2. 학습 과정에서의 개인정보 유출 가능성

생성형 AI는 학습 데이터를 바탕으로 결과를 생성합니다. 이 과정에서 개인정보가 포함된 학습 데이터를 사용하면, 생성된 결과에 개인정보가 노출될 수 있습니다. 예를 들어, 기업과 고객 간의 개인정보가 포함된 대화 내용이 학습 데이터로 사용되었다면, 이 정보는 AI의 응답에 반영될 가능성이 있습니다.

 

3. 활용 과정에서의 개인정보 유출 가능성

생성형 AI는 사용자의 행동 패턴이나 선호도 등을 학습해 맞춤화 된 결과를 제공하는 경우가 많습니다. 이때 사용자의 개인정보를 학습하는 과정에서 해당 정보의 보호가 이뤄지지 않으면, 사용자의 프라이버시가 침해될 수 있습니다. 사용자의 행동 패턴을 학습해 개인화된 서비스를 제공하는 AI가 이 정보를 암호화하지 않고 저장하고 있다면, 이 정보는 외부 해킹 공격 등에 의해 유출될 위험이 있습니다.

 

안전한 생성형 AI 활용 환경 구축의 중요성

 

이렇듯, 생성형 AI를 도입하고 활용하는 여러 단계에서 개인정보 유출의 위험이 존재합니다. 그럼에도 불구하고, 사용자들의 개인정보 보호에 대한 경각심은 상대적으로 부족한 상황입니다. 그래서 기업은 개인정보 보호 문제에 대해 충분히 고려하고 대응 전략을 세워야 합니다.

파수는 이러한 문제를 해결하기 위해, 생성형 AI 서비스를 통한 개인정보 등 중요 정보의 유출을 방지하는 솔루션을 제공하고 있습니다.

 

파수 AI-Radar DLP (AI-R DLP, 에어 디엘피)는 생성형 AI 활용 시 기업의 민감한 데이터를 보호합니다. AI-R DLP는 생성형 AI 서비스에 대한 접근 권한 제어와 프롬프팅 데이터의 모니터링을 통해 기업의 핵심기술, 영업비밀, 개인정보 등과 같은 민감하고 규제 대상 정보를 안전하게 보호하고 관리할 수 있습니다.

 

관리자는 AI-R DLP를 통해 특정 URL 또는 IP 주소로부터의 접근을 차단하거나, 개인정보 또는 일정 크기 이상의 데이터 전송을 제한하는 등 기업의 보안 요구사항에 맞춰 보안 정책을 수립할 수 있습니다.

 

파수의 AI-R DLP는 생성형 AI 서비스 활용 시 발생할 수 있는 핵심 기술 유출 리스크를 최소화 하고, 개인정보 유출을 방지할 수 있는 최적의 솔루션입니다.

파수는 생성형 AI 서비스를 더욱 안심하고 활용할 수 있도록 개인정보 보호에 대한 경각심을 높이고, 이를 위해 강력한 보안 솔루션을 제공하고 있습니다. 파수와 함께 안전한 생성형 AI 시대를 맞이하시기 바랍니다.