국정원 챗GPT 가이드라인, 생성형 AI 활용 방법

2023. 9. 1. 09:55IT 트렌드가 한눈에!

2023년 현재, 챗GPT로 대표되는 ‘생성형 AI’를 모르는 사람은 이제 없다고 해도 과언이 아닙니다. 그만큼 이제 AI는 우리의 일상생활에 가깝게 자리잡았고, 각 기관 및 기업들은 너도나도 비즈니스에 AI를 접목시키려는 시도를 하고 있습니다. 이에 대한 내용은 얼마 전 파수가 자체적으로 진행한 서베이를 통해서도 확인하실 수 있습니다.

 

그 동안의 역사가 증명하고 있지만, 진보된 기술은 항상 잠재적인 위협과 동반해서 옵니다. 이미 세계 각국은 챗GPT와 같은 생성형 AI로 발생할 수 있는 여러 부작용들을 막기 위해 대책 마련에 나섰습니다. 미국과 유럽연합은 정부 차원에서 ‘AI 행동강령’ 제작을 시작했고, 국내외 민간 기업들도 자체적으로 사내 보안 정책을 수립하고 있는 추세입니다.

우리나라도 적극적으로 움직이고 있습니다. 최근 국가정보원(이하 국정원)은 공공기관을 포함한 여러 기관에서 생성형 AI를 안전하게 활용하기 위한 가이드라인을 발표했습니다. 오늘 포스팅에서는 이번 가이드라인의 핵심 내용들을 짚어보고, 거부할 수 없는 흐름이 된 생성형 AI와 상생하는 방안에 대해 말씀드려 볼까 합니다.

 

국정원이 발표한 생성형 AI 가이드라인

 

생성형 AI는 사용자가 입력한 데이터에 따른 방대한 학습을 통해 결과물을 도출합니다. 여기서 중요한 포인트. 모든 학습 데이터는 결국 사용자에 의해 입력되는 정보값입니다. 학습하는 정보가 제대로 된 내용이 아니라면, 결과물 역시도 마찬가지라는 것이죠. 콩 심은 데 콩 나고, 팥 심은 데 팥 나는 전형적인 케이스입니다.

 

이번 가이드라인에서 대표적으로 뽑는 생성형 AI의 보안 위협이 바로 이러한 ‘가짜’ 정보 학습입니다. 향된 정보이거나, 최신 데이터에 대한 학습이 부족하게 되면 잘못된 결과물이 생성돼 사회적 혼란을 조장하거나 해커에 의해 악용될 위험성이 높아지는 것이죠. 잘 활용하면 업무의 비효율성을 개선할 수 있는 혁신적인 기술이지만, 악의적으로 활용하게 되면 지금까지 경험해 보지 못한 사이버 공격으로 발전할 수 있는 무궁무진한 가능성을 지니고 있습니다.

 

 

생성형 AI '가짜' 정보 학습의 위험성

 

하지만 이번 포스팅을 읽고 계시는 분들은 악의적인 의도를 가진 해커가 아닌, 생성형 AI를 안전하고 제대로 활용하고자 하시는 분들일 확률이 매우 높기 때문에^^; ‘가짜’ 정보를 학습시키지 않으려면 어떻게 해야 되는지 조금 더 들어가 보겠습니다.

 

현재 많은 분들이 의구심을 갖고 있는 근본적인 물음이 ‘과연 챗GPT가 답변한 내용을 신뢰할 수 있는가’에 대한 부분입니다. 크게 2가지로 나뉘는 것 같습니다. 그럼에도 가장 앞서 나가고 있는 Public AI기 때문에 사용은 하되, 결과물은 선택적으로 채택하는 방법. 또 하나는 자체적으로 Private AI (sLLM)구축을 시작해서 우리 조직만의 생성형 AI를 활용하려는 시도입니다.

 

Public AI와 Private AI (sLLM)

 

하지만 어떤 방법을 택해도, AI 학습에 필요한 데이터 혹은 콘텐츠 자체가 신뢰할 수 있는 수준이어야 합니다. 그러려면 우리 조직 내의 정보를 항상 최신 버전으로 유지 및 관리할 수 있어야 하고, 잘못된 결과물을 생성할 수 있는 ROT 데이터나 다크 데이터를 최소화해야 합니다. 진정한 생성형 AI 기술의 활용은 우리 조직이 보유하고 있는 콘텐츠 관리에서부터 시작된다고 해도 과언이 아닙니다.

 

https://www.fasoo.com/solutions/ai-content-management

 

AI 콘텐츠 학습

AI 콘텐츠 학습에 대한 정보 제공, AI 시대에 문서가상화가 필요한 이유, 기업 정보 (Corporate Intelligence)가 포함된 주요 데이터의 효율적인 AI 학습 방법 제공, ROT 데이터의 식별 및 제거를 통한 콘텐

www.fasoo.com

 

 

국정원 가이드라인에서 강조하고 있는 또 다른 내용은 사실 특별한 내용은 아닙니다. 무분별한 데이터 입력을 막아야 한다는 것인데요. 생성형 AI의 답변 신뢰도 기준은 ‘데이터 입력량’과 깊은 관련이 있기는 하지만, 과도하게 학습된 데이터를 신뢰하게 되면 내부의 중요 정보가 유출될 가능성이 높습니다. 이는 특히 외부적으로 공개된 Public AI를 활용하는 경우 더욱 치명적일 수 있습니다. 따라서, 생성형 AI를 활용할 수 있는 사용자 및 그룹의 권한 관리는 물론, Private LLM 운영 시 학습을 진행하는 사용자 및 그룹 또한 정책으로 관리하고 운용할 수 있어야 합니다.

 

생성형 AI 사용자 및 그룹의 권한 관리의 중요성

 

이미 사내 중요 소스코드를 챗GPT에 입력해 내부 정보가 유출된 사례가 실제로 발생하기도 했고, 사용자가 민감정보와 개인정보 등을 비식별 처리해 입력을 했더라도 AI 모델이 외부 정보와의 결합 등을 통해 비식별화된 정보까지 추출할 가능성도 있습니다. 아마 이런 탓에 자체적인 Private AI (sLLM)를 구축하려는 조직들이 늘어나고 있는 게 아닐까 싶습니다.

 

파수는 이러한 생성형 AI 관련 변화의 흐름을 이미 앞서서 준비하고 있습니다. 국정원 가이드라인에서 가장 경계하고 있는 ‘가짜’ 정보 학습에 관한 건 이미 수년 전부터 Wrapsody 솔루션을 통해 조직 내 정보를 가장 최적화 상태로 유지 및 관리할 수 있도록 지원해 왔습니다. 이를 통해 생성형 AI를 제대로 활용하기 위한 기반을 마련할 수 있고요. 2가지 솔루션을 앞으로 추가적으로 지원할 예정인데요.

 

바로 여러분들만의 Private LLM를 구축할 수 있도록 돕는 솔루션(가칭 F-PAAS, Fasoo Private AI Assistant Service)과 생성형 AI 활용시 사내 중요정보 입력을 차단하는 AI-R DLP (에어 디엘피, AI Radar Data Loss Prevention)입니다. AI-R DLP는 국정원 가이드라인을 준수할 수 있는 가장 기본적인 단계일 뿐만 아니라, 입력 데이터 검증, 개인정보 처리, 데이터 오남용 방지 등 다양한 효과를 기대할 수 있습니다.

 

 

https://www.fasoo.com/products/fasoo-ai-r-dlp/

 

Fasoo AI-R DLP

 

www.fasoo.com

파수와 함께 거부할 수 없는 숙명과도 같은 생성형 AI 시대를 안전하게 돌파해 보세요!