AI 규제법 EU 세계 최초 승인, 기업 및 기관의 안전한 AI 활용법

2024. 6. 3. 16:54IT 트렌드가 한눈에!

전 세계적으로 AI가 눈부신 발전을 이루고 있습니다. 동시에 여러 사회적 문제도 수면 위로 떠오르고 있는데요. AI를 활용해 이미지, 오디오를 합성한 딥페이크부터 잘못된 정보와 오류, 편향까지 다양한 문제가 존재합니다. 이런 심각한 AI 부작용을 차단하고자 전 세계적으로 AI 시스템 규제의 목소리가 나오고 있습니다.

 

지난 21일 AI의 부작용과 관련해 인간과 기업의 기본권을 보장하며 국제적 기준을 제시하고자, 유럽연합(이하 EU)에서 세계 최초 AI 규제법인 EU AI ACT (이하 AI 법) 시행을 확정했습니다. EU AI 법은 각 분야 AI 기술에 대한 허용 범위와 규제 대상 등을 포괄적으로 규정한 법인데요. 각국에서 AI 관련 입법을 서두르는 가운데 가이드라인 역할을 할 법안으로 예상됩니다.

 

 

AI 규제법을 세계 최초 승인한 EU

 

 

AI 법은 AI 시스템의 위험도에 따라 크게 금지, 고위험, 제한적 위험, 최소 위험의 4가지 등급으로 나눠 규제 대상과 범위를 정했습니다. 먼저 ‘금지된 AI’는 개발, 이용을 막아야 할 만큼 위험성이 큰 AI 시스템이 포함됐습니다. 인간의 생각과 행동을 조종하거나 행정, 기업에서 개인을 점수화하는 시스템 등이 속하는데요. AI를 활용해 인간 기본권을 침해하는 행위가 EU 내에서 원천적으로 금지됩니다.

 

‘고위험’ 등급은 의료, 전기, 수도 등 공공 인프라 운영에 쓰이는 시스템이 포함됐습니다. 국가 행정의 대규모 혼란을 일으킬 가능성을 사전에 차단하고자 해당 등급의 AI 활용 시에는 인적 감시 필수라는 대책을 설정하기도 했습니다. ‘제한적 위험’과 ‘최소 위험’의 경우, 범용 AI 개발 기업에 투명성 의무를 부과했습니다. 해당 업체들은 EU 저작권법을 준수하고 AI 생성 콘텐츠라는 점을 명시해야 합니다.

 

 

AI 법 위험도 4가지 등급 출처 : 국회도서관

AI 법의 전면 적용은 2026년부터지만, 금지된 AI 시스템 등급은 6개월 후부터 바로 시행됩니다. 규제법의 승인은 AI를 안전하게 활용하기 위한 법적 조치의 필요성을 많은 국가가 인지하고 있다는 방증이기도 하죠.

 

AI 활용 위험성은 국가뿐 아니라 모든 기업 및 기관에서도 인지해야 합니다. 정보 조작, 개인정보 유출 같은 문제는 우리에게 직접적인 피해를 주는 만큼, 모든 조직에서 책임감과 보안 의식을 갖춰야 합니다. 물론 AI 활용 위험성을 인지하면서 필요에 따라 AI를 업무에 적절히 활용하는게 조직에게 가장 현명한 선택입니다.

 

비즈니스 활용에 적합한 LLM

 

여러 산업군을 가리지 않고 많은 조직에서 비즈니스에 AI를 활용하기 위해 적합한 LLM (Large Language model)을 찾고 있는데요. 하지만 생성형 AI 도입에 앞서 정보 유출, 환각 현상 같은 문제로 고민이 많으실 겁니다.

 

이런 문제점을 해결하고 조직 내 안전한 GenAI (Generative AI, 생성형 AI) 활용을 위한 가장 근본적인 방안은 Private LLM 구축입니다. 파수의 Enterprise LLM(이하 Ellm, 엘름)을 예시로 들자면, 온프레미스 형태로 sLLM을 구축해 정보 유출을 방지하고 특정 도메인이나 산업에 특화된 내부 데이터를 학습함으로써 환각 현상을 최소화할 수 있습니다.

 

엘름의 아키텍처에서 중추 역할을 하는 Ellm CX는 sLLM과 Public LLM, Vector DB를 연결해 각각의 도메인에 따라 더 정확하고 문맥에 맞는 답변을 도출할 수 있습니다. 또 기존 보안 솔루션의 세부적인 정책 설정과 연동 가능하고, 사용자 별 사용 이력에 대한 모니터링이 가능해 강력한 보안을 원하는 조직에게 좋은 선택이 될 수 있습니다.

 

LLM 도입을 원하는 모든 조직은 엘름의 AI 챗봇, 문서 요약, 보고서 생성 등 GenAI의 잠재력을 최대한 활용해 기술, 업무 등 모든 분야에서 역량을 향상시킬 수 있습니다.

그럼에도 비용이나 내부 정책상의 이유로 sLLM 도입이 어려운 기업 및 기관이 존재합니다. 또 ChatGPT 같은 Public AI를 통한 편리하고 폭넓은 정보의 활용을 원하기도 하죠.

 

편리하지만 위험성을 가진 Public AI 활용

 

Public AI의 사용은 편리하지만, 정보 유출에 취약하다는 큰 단점을 가진 양날의 검입니다. 최근 여러 조직에서 Public AI를 통한 정보 유출 문제가 일어나고 있는 만큼 안전한 AI 활용을 위한 보호 조치는 선택이 아닌 필수입니다.

 

Fasoo AI Radar DLP(이하 AI-R DLP)는 민감정보 검출과 후처리 정책 적용으로 생성형 AI를 통한 정보 유출을 미연에 방지할 수 있습니다. 기존 패턴 매칭 방식과 AI 기술을 활용해 보다 정확하게 민감정보를 검출합니다.

 

또한 관리자가 특정 IP, 개인정보 등 세부적인 차단 정책을 설정할 수 있으며, 데이터 모니터링을 통해 민감 정보와 데이터를 안전하게 관리할 수 있습니다.

우리는 AI의 발전을 수용하면서, AI로 인해 발생할 문제에 대해 경각심을 가져야합니다. 잘못된 정보, 개인정보 유출과 같은 AI가 가져올 문제를 완화하기 위해 안전한 AI 활용 환경 구축이 필요한 때입니다.

 

안전한 AI 활용 환경 구축의 필요성

 

파수는 오랜 기간 동안 보안 솔루션에 대해 연구, 개발하며 업계의 리더로 자리매김했습니다. 오랜 경험을 바탕으로 기업 및 기관에서 AI 서비스를 안전하게 활용하기 위한 AI 솔루션을 지원하고 있습니다.

 

Private LLM 구축부터 활용까지, GenAI에 대한 고민을 갖고 계신가요?

GenAI 도입을 고민하는 모두를 위해, 파수가 엘름과 AI-R DLP를 통해 안전한 AI 환경 구축을 도와드리겠습니다. 파수의 AI 솔루션과 함께 미래 경쟁력 확보를 위한 고민을 나눠 보시죠!

 

 

파수 문의하기 | Fasoo Contact Us

구축 기간? 세부 기능? 구축 레퍼런스? 견적? 관련 소개서? 어떤 질문도 괜찮습니다. 무엇이든 편하게 물어보세요! 주식회사 파수(이하 ‘파수’라 함)는 귀하의 개인정보보호를 매우 중요시하며

www.fasoo.com