개인정보유출(15)
-
챗GPT 지브리 이미지 열풍, 개인정보 문제는 없을까?
최근 지인들의 카카오톡, SNS 프로필 이미지가 하나로 통일(?)되는 현상을 경험하지 않으셨나요? 왠지 익숙한 애니메이션 스타일의 이미지입니다. 생성형 AI인 챗GPT를 통해 자신들의 사진을 애니메이션 스타일로 변환해보는 일종의 놀이(?)가 유행처럼 전세계를 휩쓸었습니다. 가장 대표적인 유형이 바로 ‘지브리 스타일’입니다. 프롬프트에 첨부한 사진을 , 등의 작품으로 유명한 ‘스튜디오 지브리’의 그림체로 변환해 달라고 AI에게 요청하는 겁니다. 오픈 AI가 챗GPT-4o 이미지 생성 기능을 추가한 후, 일일 사용자 수는 가파르게 상승해 300만 명을 돌파했습니다. 샘 올트먼 CEO는 이러한 선풍적인 인기에 “GPU가 녹아 내리고 있다”고 표현하기도 했죠. 현재 남녀노소 가리지 않고 이 유행을 즐기고..
2025.04.09 -
딥시크 (DeepSeek) 개인정보 수집 논란, AI 개인정보 유출 방지의 필요성
중국의 AI 기업 딥시크 (DeepSeek)가 저렴한 개발비로 ChatGPT에 버금가는 성능을 갖춘 무료 AI 챗봇 서비스를 선보이며 연일 화제가 되고 있습니다. 특히 딥시크의 AI는 뛰어난 추론 능력과 문제 해결 능력을 바탕으로 글로벌 시장에서도 주목받고 있었는데요. 그런데 최근 여러 국가에서 딥시크의 광범위한 개인정보 수집과 민감정보 유출 가능성에 대한 우려가 커지고 있습니다. 딥시크의 최신 모델인 DeepSeek-R1은 OpenAI의 GPT-4o 및 o1과 유사한 성능을 보이면서도, 약 600만 달러의 비용으로 훈련돼 경쟁 모델보다 훨씬 경제적입니다. 이러한 효율성 덕분에 딥시크는 AI 업계에서 주목받고 있으며, 지난 1월에는 미국 iOS 앱 스토어에서 ChatGPT를 제치고 가장 많이 다운로드된 ..
2025.02.03 -
최근 4년간 교육기관 개인정보유출 615만 건, 교육기관 민감정보 보안과 관리
‘35년 전 졸업한 우리 아버지 개인정보도 털렸다.’‘우리 가족은 다 여기 졸업했는데, 찾아보니 전부 유출됐다더라.’지난 8월, 한 대학 익명 커뮤니티에 학교의 허술한 보안을 비판하거나 개인정보 유출의 불안감을 표출하는 글이 올라왔습니다. 통합정보시스템이 해킹돼 무려 32만 명의 개인정보가 유출된 사건이 벌어졌기 때문입니다. 재학생 뿐만 아니라 교수, 졸업생 등 수많은 인원의 정보가 유출됐고 이름, 주민등록번호를 포함해 개인정보 74개 항목이 유출돼 큰 논란이 됐습니다. 한 학생의 경우, 가족 모두가 해당 대학교를 졸업해 가족의 모든 개인정보가 유출된 위험한 상황이 발생하기도 했습니다. 학교는 홈페이지에 보안 조치를 강화하고 사과문을 게시했지만, 유출된 개인정보로 인한 피해는 아무도 보상받을 수 없었습..
2024.11.13 -
개인정보 과징금 1,200억, 해외 기술 유출 심각! 정보 유출 방지 방안과 DSPM
여러분은 정보 유출 사건, 사고에 대비하고 있나요?아직도 우리 조직과는 관계없는 일이라고 생각하고 있진 않나요?하루가 멀다 하고 정보 유출 관련 소식이 쏟아지다 보니, 오히려 당연한 소식을 접하듯이 무뎌지고 있는 것 같습니다. 우리는 기업 및 기관들의 개인정보 유출 사건부터 수사 정보 유출, 군 기밀 유출 사건, 국내 핵심 기술의 해외 유출까지 다양한 유형의 유출 소식을 매일같이 접하고 있습니다. 통계를 확인해보면, 그 심각성을 느낄 수 있습니다. 2023년 개인정보보호법 위반 과태료 및 과징금이 2022년 대비 약 55배 늘었습니다. 국내 기술의 해외 유출 사건도 매년 심각해지고 있죠. 특히, 유출이 발생할 경우 기술 보유 조직을 넘어 국가적인 손실을 불러올 수 있는 ‘국가핵심기술’의 유출 사례 또..
2024.09.04 -
CIO, CISO가 도입해야 할 생성형 AI 보안 솔루션은?
글로벌 IT 리서치 기관 가트너(Gartner)의 '생성형 AI 우려사항에 대한 IT 경영진 설문조사'에 따르면 응답자의 42%가 개인정보보호에 대해 우려하고 있으며, 환각/할루시네이션(14%), 보안(13%) 등이 그 뒤를 이었습니다. 기업 및 기관들은 대규모 언어모델에 기반한 대화형 인공지능 서비스를 활용해 새로운 비즈니스 기회 창출 및 가치 제고를 위해 다양한 시도를 하고 있습니다. 그러나 이처럼 대규모 언어 모델(LLM)로 일상적인 대화는 물론 복잡한 추론 작업을 해내는 생성형 AI 시대가 열리면서, 예기치 못한 변수가 발생했습니다. 그것은 바로 개인정보가 유출되는 보안 취약점입니다. 생성형 AI의 데이터 수집 과정, 학습 과정, 및 활용 과정에서 발생할 수 있는 대표적인 사례는 아래와 같습니다...
2024.01.17 -
계속되는 개인정보 유출 사례, 이제 생성형 AI ChatGPT도 위험하다
OOO 대학교, 해커에 의해 학생 개인정보 수만 건 탈취당해··· OO 기관 직원, 개인정보 무단으로 열람하다 적발··· OO 기업 개인정보 유출로 억대 과징금 부과··· 최근 3년 간 조직에서 유출된 누적 개인정보 건수가 6,500만건에 달한다고 합니다. 매년 1,000만건 이상의 유출 사고가 발생했다고 하는데요. 현재 서울시의 인구가 약 940만명이라는 걸 생각해 볼 때, 현 상황의 심각성이 더욱 크게 느껴지는 것 같습니다. 또한, 개인정보보호위원회가 3년 간 개인정보 보호 관련 기업에 부과한 과징금 및 과태료의 누적액은 약 1,400억원에 달하며, 이는 해마다 점점 증가 추세에 있습니다. 비즈니스 영역에서 개인정보의 가치가 점점 더 중요해지고 있는 만큼, 이를 지키기 위한 강력한 보호 대책 마련의 ..
2023.10.16