2025. 4. 9. 15:16ㆍIT 트렌드가 한눈에!
최근 지인들의 카카오톡, SNS 프로필 이미지가 하나로 통일(?)되는 현상을 경험하지 않으셨나요? 왠지 익숙한 애니메이션 스타일의 이미지입니다. 생성형 AI인 챗GPT를 통해 자신들의 사진을 애니메이션 스타일로 변환해보는 일종의 놀이(?)가 유행처럼 전세계를 휩쓸었습니다.
가장 대표적인 유형이 바로 ‘지브리 스타일’입니다. 프롬프트에 첨부한 사진을 <센과 치히로의 행방불명>, <이웃집 토토로> 등의 작품으로 유명한 ‘스튜디오 지브리’의 그림체로 변환해 달라고 AI에게 요청하는 겁니다. 오픈 AI가 챗GPT-4o 이미지 생성 기능을 추가한 후, 일일 사용자 수는 가파르게 상승해 300만 명을 돌파했습니다. 샘 올트먼 CEO는 이러한 선풍적인 인기에 “GPU가 녹아 내리고 있다”고 표현하기도 했죠.

현재 남녀노소 가리지 않고 이 유행을 즐기고 있지만, 관련된 몇 가지 논란도 함께 대두되고 있습니다. 크게 2가지인데요. 저작권 침해와 개인정보 유출에 관한 논란입니다.
유저들은 명확하게 ‘지브리 스타일’ 이미지를 요청하고 있습니다만, 스튜디오 지브리는 이와 관련해 공식적으로 라이선스를 부여하거나 협업한 사실이 없습니다. 사실상 오픈AI의 모델이 훈련 과정에서 지브리 작품, 또는 유사한 이미지를 학습한 것으로 추정되며, 이는 저작권자의 동의 없이 창작물을 모방했다는 비판을 피하기 어려운 모양새입니다.
물론 개인이 본인의 사진을 변환해 프로필로 사용하는 경우에는 법적 문제가 발생하지 않을 가능성이 높습니다. 하지만, 이러한 이미지를 생성해주는 서비스를 제공하는 오픈 AI의 상황은 다르죠. 법률 전문가들은 이 상황에 대해 저작권 침해는 아닐 수 있으나, 원작자가 상표법과 부정경쟁방지법 등으로 소송을 제기할 수 있다는 의견을 내고 있습니다. 특히, 스튜디오 지브리의 설립자 미야자키 하야오 감독은 과거 AI 애니메이션 이미지에 관해 “생명 자체에 대한 모욕”이며, “역겹다”라고 꽤 과격하게 표현한 전례가 있어 앞으로의 대응에 관심이 쏠리고 있습니다.

저작권 문제보다 사용자 개인에게 더 직접적이고 위험한 이슈는 개인정보 유출 문제입니다. 이미지를 변환하기 위해 사용자가 AI에 입력하는 프롬프트에는 대부분 개인의 얼굴 사진이 포함됩니다. 이 이미지는 AI의 서버를 거쳐 처리되는데, 이 과정에서 데이터가 어떻게 저장되고, 어떤 방식으로 사용되는지 사용자가 명확하게 파악하기 어렵다는 문제가 있습니다.
오픈 AI는 챗GPT의 사용자 데이터가 상황에 따라 모델 개선, 즉 학습에 활용될 수 있다고 말하고 있습니다. 최근에는 자신의 입력 데이터를 모델 개선에 활용하지 않도록 설정하는 방법이 알려지고 있지만, 활용할 수 있도록 허용하는 상태가 기본 세팅으로 돼 있습니다. 설정을 변경한다고 하더라도 우리가 제공한 데이터가 외부 서버에 저장되며, 안전하게 보관되고 있는지, 또 어떤 방식으로 활용될지 알 길이 없는 상황입니다.

생성형 AI의 정보 유출 이슈는 이번에 처음 제기된 문제는 아닌데요. 사실 기술의 등장과 함께 거의 동시에 따라온 이슈입니다. 특히 개인 단위보다는 조직 단위에서 더 경계하는 이슈이기도 합니다. 조직의 기밀이나 고객의 개인정보를 다루는 기업 및 기관의 환경에서는 더 큰 규모의 문제가 발생할 수 있기 때문입니다.
마치 지브리 스타일 이미지의 유행처럼, 최근 몇 년 간 기업 및 기관의 내부에서도 다양한 방식으로 AI를 실험하고 도입하려는 시도가 이어지고 있습니다. 이와 동시에, AI 서비스에 입력하는 정보에 대한 보안 문제가 큰 고민으로 자리잡았죠. 특히 직원들이 별도의 검증 없이 AI 서비스에 업무와 고객 관련 데이터를 입력할 경우, 의도치 않게 기밀 정보가 외부로 노출되는 사고가 발생할 수 있다는 점에서 큰 위협으로 평가받고 있습니다.

이러한 상황은 단순히 ‘외부 서비스 사용 시 주의해야 한다’는 수준을 넘어, 조직 전체의 보안 정책 재정비를 요구하고 있습니다. 생성형 AI는 기본적으로 사용자의 입력 데이터를 바탕으로 동작하며, 그 과정에서 해당 정보가 외부 서버에 저장되고, 경우에 따라 학습에도 활용될 수 있기 때문에 기존의 정보보호 정책만으로는 대응에 한계가 있습니다. 이를 위해 많은 조직들이 사내에서 챗GPT 사용을 전면 금지하거나, 자체적인 보안 가이드라인을 마련하는 방식으로 대처하고 있습니다만, 더욱 안전하고 효율적으로 활용할 수 있는 방안을 지속적으로 검토하고 있는 상황입니다.
AI-R DLP (AI Radar Data Loss Prevention)는 이와 같은 문제로 고민하는 조직을 위해 고안한 생성형 AI 정보 유출 방지 솔루션입니다. 정보 유출 방지 솔루션인 DLP (Data Loss Prevention)를 AI 사용 환경에 적용했습니다. 조직 내부 사용자들의 생성형 AI 사용 현황을 모니터링하고, 선택적으로 차단합니다.
프롬프트에 어떤 데이터를 입력하면 안되는지, 또 어떤 사용자에게 이를 적용할지 세부적인 차단 정책을 설정할 수 있습니다. 데이터 검출은 특정 정보의 패턴을 감지하는 정규식 방식, AI가 프롬프트의 문맥을 이해하고 개인정보를 검출하는 AI 기반 검출 방식을 상호보완적으로 활용할 수 있습니다. 정책에 위반되는 정보가 입력된 경우, 팝업을 띄워 경고하고 외부로 전송되지 않도록 차단합니다. 또한, 사용자들의 모든 입력 정보와 차단 및 허용 여부는 관리자 페이지에서 실시간으로 모니터링 할 수 있습니다.
생성형 AI를 통한 정보 유출은 한 번에 끝나지 않습니다. 입력된 정보가 추후 재학습 과정에서 다른 사용자에게 우회적으로 노출되거나, AI가 생성한 결과물에 반영될 가능성도 존재합니다. 즉, 단순히 외부 저장의 문제가 아닌, 장기적으로 정보의 재사용과 노출 가능성까지 고려해야 한다는 점에서 매우 민감한 사안입니다.
AI가 일상의 재미와 편리함을 제공하고, 더 나아가 업무 환경에서의 효율성을 높여주고 있지만, 새로운 보안 위협의 창구가 될 수 있다는 사실 또한 분명합니다. 이미 도래한 AI의 시대, 이제는 그 편의성을 누리되 적절한 보안을 적용할 수 있는 조치, 보다 안전하게 생성형 AI를 활용할 수 있는 방안이 반드시 동반돼야 합니다.
파수의 AI-R DLP로 안전한 생성형 AI 데이터 인프라 구축을 시작해보세요!
이 외에도 AI와 보안 관련 고민을 가지고 계시다면, 주저하지 말고 문의 부탁 드립니다!
파수 문의하기 | Fasoo Contact Us
여러 번 보는 것보다 한 번의 상담이 더욱 효과적입니다. ‘파수’는 (이하 ‘회사’는) 고객님의 개인정보를 중요시하며, “정보통신망 이용촉진 및 정보보호”에 관한 법률을 준수하고 있습
www.fasoo.com
'IT 트렌드가 한눈에!' 카테고리의 다른 글
AWS, Azure, GCP의 CSAP 인증과 공공기관 진출, 클라우드 데이터 보안 (0) | 2025.04.14 |
---|---|
클라우드 환경의 개인정보 관리 및 보호, AI 기반 가명처리와 악성메일 훈련 (0) | 2025.03.31 |
서버 개인정보보호, 지금 이대로 괜찮을까? 설문조사로 본 개인정보보호 솔루션 현황 (0) | 2025.03.26 |
보안 취약점 진단의 통합 컨설팅 - 정보보안 인프라부터 공급망 애플리케이션, 사이버 물리 보안 CPS 환경까지 (0) | 2025.03.17 |
크리덴셜 스터핑 주의보! 제조업 대상 랜섬웨어, 사이버 공격 대응과 정보보호 (0) | 2025.03.10 |