딥시크 (DeepSeek) 개인정보 수집 논란, AI 개인정보 유출 방지의 필요성

2025. 2. 3. 13:02IT 트렌드가 한눈에!

중국의 AI 기업 딥시크 (DeepSeek)가 저렴한 개발비로 ChatGPT에 버금가는 성능을 갖춘 무료 AI 챗봇 서비스를 선보이며 연일 화제가 되고 있습니다. 특히 딥시크의 AI는 뛰어난 추론 능력과 문제 해결 능력을 바탕으로 글로벌 시장에서도 주목받고 있었는데요. 그런데 최근 여러 국가에서 딥시크의 광범위한 개인정보 수집과 민감정보 유출 가능성에 대한 우려가 커지고 있습니다.

 

딥시크의 최신 모델인 DeepSeek-R1은 OpenAI의 GPT-4o 및 o1과 유사한 성능을 보이면서도, 약 600만 달러의 비용으로 훈련돼 경쟁 모델보다 훨씬 경제적입니다. 이러한 효율성 덕분에 딥시크는 AI 업계에서 주목받고 있으며, 지난 1월에는 미국 iOS 앱 스토어에서 ChatGPT를 제치고 가장 많이 다운로드된 무료 앱으로 등극하기도 했습니다. 하지만 이러한 빠른 성장 이면에는 개인정보 보호 문제라는 치명적인 리스크가 존재합니다.

 

무료로 사용할 수 있는 딥시크 출처 : Deepseek 웹사이트

 

딥시크의 주요 논란은 개인정보 수집 및 저장 방식에 있습니다. 사용자의 대화 내용뿐만 아니라 기기 정보, 위치 데이터, 심지어는 클라우드 문서까지 접근할 가능성이 제기됐습니다. 특히 문제되는 점은 딥시크의 데이터 수집 방식이 명확하게 공개되지 않았다는 점입니다.

AI 모델이 지속적으로 개선되기 위해서는 데이터 학습이 필수적이지만, 딥시크는 불필요하게 많은 개인정보를 수집한다는 의혹을 받고 있습니다. 게다가 중국의 데이터 보안법에 따라, 중국 기업이 수집한 데이터는 정부와 공유될 가능성이 높다는 점이 글로벌 시장에서 큰 우려를 낳고 있습니다.

 

불필요하게 많은 개인정보를 수집하는 DeepSeek

 

 

딥시크의 개인정보 수집 논란이 커지면서 일부 국가에서는 규제 조치를 강화하고 있습니다. 이탈리아는 개인정보 보호 우려로 인해 딥시크의 다운로드를 차단했으며, 프랑스 개인정보 보호 기관(CNIL)도 해당 AI의 데이터 보호 방식에 대한 조사를 진행 중입니다.

개인정보보호위원회 또한 딥시크의 개인정보 처리 방식에 대한 확인 절차를 시작했으며, AI 서비스의 보안 및 개인정보 보호 기준을 강화할 필요성이 제기되고 있습니다. AI가 점점 더 많은 업무 영역에서 활용됨에 따라, 각국 정부와 기업들은 개인정보 보호 및 AI 보안 정책을 보다 엄격하게 관리해야 하는 상황입니다.

 

DeepSeek에 대한 다양한 국가의 규제 조치

 

이렇게 AI 기술이 발전하면서 개인정보 및 기업 기밀 정보의 유출 위험도 함께 증가하고 있습니다. 특히 Public AI 모델을 사용할 경우, 입력된 데이터가 외부 서버에 저장되거나 학습에 활용될 가능성이 커지면서 보안 문제가 심각해지고 있습니다. Public AI를 사용하면 편리하지만, 정보 보안이 취약한 경우에는 외부 서버에 기업 기밀이 저장되고 해킹의 대상이 될 수도 있습니다.

딥시크 논란처럼 AI 서비스가 불필요하게 많은 정보를 수집한다면, 개인정보 유출 혹은 기업 내부 기밀 유출로 이어질 수 있습니다. 이에 따라 기업 및 기관들은 Public AI 사용을 신중하게 검토해야 하며, 보다 안전한 AI 활용 환경을 구축하는 것이 필수적입니다.

 

AI 활용 시 보안은 필수

 

Fasoo AI Radar DLP (이하 AI-R DLP)는 ChatGPT, Gemini 등 AI 프롬프트 내 민감 정보를 검출하고 차단해 Public AI 활용 시 발생할 수 있는 정보 유출 사고를 미연에 방지합니다. 기존 패턴 매칭 및 딥러닝 방식을 활용해 보다 정확한 민감정보 식별을 지원하며, 특정 IP, ID, 데이터 크기, URL 등 세부적인 차단 정책을 조직의 환경에 알맞게 설정할 수 있습니다.

 

뿐만 아니라, Public AI 서비스에 접근하는 사용자와 전송된 데이터 이력을 모니터링하고 통제할 수 있으며, 다양한 후처리 정책을 적용해 안전한 생성형 AI 활용 환경을 구축합니다. 이러한 정책 설정 및 로그 관리 등 다양한 관리자 기능도 직관적인 형태로 제공합니다.

 

조직 맞춤형 AI 모델의 필요성

 

조직에서 Public AI와 같은 대형 LLM 서비스를 활용하면 단기적으로 업무 효율성을 높일 수 있습니다. 그러나 조직이 방대한 지적 재산권과 데이터를 보유하고 있을 경우, 데이터 유출 및 컴플라이언스 위반의 위험이 커질 수 있습니다. 이를 방지하면서도 AI를 안전하게 활용하려면, 조직 내부 데이터에 최적화된 AI 모델 도입이 필수적입니다.

 

Fasoo Enterprise LLM (이하 Ellm)은 이러한 요구에 최적화된 온프레미스 기반의 sLLM 솔루션으로, 조직의 민감한 데이터를 안전하게 보호하면서도 AI의 강력한 성능을 활용할 수 있도록 설계됐습니다.

Ellm의 가장 큰 강점은 조직 내부 데이터를 학습해 코딩, 법률, 금융 등 다양한 직군과 업무에 최적화된 결과를 제공한다는 점입니다. 이를 통해 높은 정확도와 신뢰성을 유지하면서도, 기업의 기밀 정보가 외부로 유출되지 않도록 안전한 AI 활용 환경을 구축할 수 있습니다. 뿐만 아니라, Ellm의 아키텍처에서 네비게이터 역할을 수행하는 Ellm CX는 다양한 목적에 맞춰 구성된 온프레미스 구축형 sLLM과 복수의 Public LLM을 유기적으로 연결해, 가장 적합한 답변을 도출하도록 지원합니다.

AI 기술이 발전함에 따라 기업과 기관들은 업무 생산성을 높이기 위해 AI를 적극적으로 도입하고 있습니다. 하지만 개인정보 유출과 보안 문제는 여전히 해결해야 할 중요한 과제입니다. 딥시크 논란에서 볼 수 있듯이, 조직은 AI 활용에 앞서 데이터 보호 및 보안 체계를 강화하는 것이 필수적입니다.

 

파수는 오랜 기간 연구한 보안 기술을 바탕으로, 고객분들의 안전하고 효율적인 AI 활용을 위해 노력하고 있습니다. AI 도입에 앞서 데이터 보안, 개인정보 보호, 그리고 안전한 AI 활용 환경 구축을 고민하고 계신다면, 파수의 솔루션을 고려해 보시기 바랍니다.

조직의 AI 기술 활용에 대해 더 궁금한 점이 있다면, 언제든 문의해 주세요!

 

파수 문의하기 | Fasoo Contact Us

여러 번 보는 것보다 한 번의 상담이 더욱 효과적입니다. ‘파수’는 (이하 ‘회사’는) 고객님의 개인정보를 중요시하며, “정보통신망 이용촉진 및 정보보호”에 관한 법률을 준수하고 있습

www.fasoo.com