ChatGPT가 마약 제조법을? 프롬프트 공격으로 보는 AI 보안의 중요성

2024. 7. 24. 14:07IT 트렌드가 한눈에!

최근 해커 플리니 프롬프터(Pliny the Prompter)가 GPT 스토어에 '갓모드 GPT (Godmode GPT)'라는 프로그램을 공개했습니다. 갓모드 GPT는 챗GPT의 탈옥(Jail Breaking) 모드로, 인종, 성별, 종교에 대한 편향된 발언, 욕설, 범죄 수법 등 유해한 정보를 제공하지 못하도록 설계된 필터를 우회해 비윤리적인 정보 생성이 가능합니다.

 

유해 정보를 생성하는 '챗GPT 탈옥모드'

 

이 모드를 통해 AI 챗봇은 욕설을 하거나 메스암페타민 제조 방법, 자동차 탈취, 폭탄 제조법 등을 안내할 수 있습니다. 실제로 갓모드 GPT는 사람에게 유해한 정보를 무분별하게 생성해 AI의 취약점에 대한 경각심을 일깨워줬습니다.

생성형 AI를 대상으로 하는 프롬프트 주입 공격 방식은 크게 두가지 방식으로 나뉩니다. 갓모드 GPT는 ‘직접 프롬프트 주입 공격(Direct Injection)’ 방식으로 볼 수 있습니다. 또 다른 방식은 ‘간접 프롬프트 주입 공격((Indirect Injection)’입니다.

 

임직원부터 기업 전체를 위협하는 프롬프트 주입 공격

 

프롬프트 주입 공격은 데이터 유출, 피싱 메일, 스피어 피싱과 같은 사회공학적 공격을 유발할 수 있습니다. 예를 들어, 공격자가 AI 모델을 조작해 기업의 내부 정보나 고객 데이터를 무단으로 획득할 수 있으며, 이는 기업의 신뢰도와 평판에 치명적인 타격을 줄 수 있습니다.

이런 이유로 기업들은 퍼블릭 AI보다는 내부에서 안전하게 관리된 데이터로만 학습된 프라이빗 AI의 도입은 AI 보안에 큰 이점이 됩니다. 프라이빗 AI는 외부 공격으로부터 비교적 안전할 뿐만 아니라, 기업의 고유한 데이터와 지식을 학습하고 보호하는 데 효과적입니다. 또한, 프라이빗 AI는 특정 산업이나 기업 환경에 따라 맞춤형으로 구축할 수 있어, 높은 정확도와 효율성을 제공합니다.

결국 AI 기술이 발전함에 따라 기업의 프라이빗 AI 도입은 단순히 보안을 강화하는 차원을 넘어, 비즈니스의 지속 가능성과 경쟁력 확보에도 중요한 요소로 작용할 것입니다.

기업에서 안전한 프라이빗 AI 사용은 필수!

파수는 특정 도메인이나 산업에 특화된 선별된 내부 데이터를 학습시켜 전문 용어를 이해하고 보다 정확하고 문맥에 맞는 답변을 제공할 수 있는 ‘Ellm (Enterprise LLM)’을 제공합니다.

엘름은 온프레미스 구축형 sLLM으로 내부 서버에 설치해 정보 유출을 최소화 할 수 있습니다. 특히 특정 작업이나 도메인에 맞는 작은 데이터셋을 사용해 모델을 추가적으로 훈련시킬 수 있어, 높은 비용으로 LLM 도입을 주저하는 기업에서는 특정 부서나 조직에만 도입해 활용할 수 있습니다.

또한 엘름의 아키텍처에서 네비게이터 역할을 하는 Ellm CX는 여러 목적에 맞춰 구성된 온프레미스 구축형 sLLM들과 복수의 퍼블릭 LLM들을 연결해 적절한 답변을 도출할 수 있도록 설계됐습니다.

혹시 퍼블릭 AI의 오남용으로 인한 정보 유출, 환각 현상(할루시네이션) 등의 한계점으로 인해 생성형 AI를 “제대로” 활용하는 데에 어려움을 겪고 계신가요? 그렇다면, 파수의 엘름을 통해 비즈니스 환경에 최적화된 AI 구축을 시작하세요.

파수가 생성형 AI를 제대로 활용할 수 있는 AI 비전을 준비해 드립니다.