ai보안(10)
-
2025 사이버 보안 위협 전망 보고서 발표, 사례 분석과 대응 방법
직장에 다니시는 분들이라면 대부분 출근하자마자 메일함을 확인하실 겁니다. 이 과정에서 퇴근 후에 온 업무 관련 파일이나 메일함 사용량 경고 같은 메일은 큰 의심 없이 눌러보기 마련인데요. 지난 2024년에는 이처럼 의심 없이 클릭하게 되는 링크가 삽입된 악성 메일이나, 개인정보를 탈취하는 악성코드를 넣은 스미싱, 피싱 등의 사이버 위협이 기승을 부린 한 해였습니다. 이처럼 지난 2024년 동안 우리는 스미싱과 같은 다양한 사이버 보안 위협에 직면했습니다. 이러한 위협들은 다양한 지원과 기술의 발전으로 더욱 진화하고 고도화하기 시작했죠. 여러 사이버 위협 속에서 조직의 체계적인 대응을 돕기 위해 과학기술정보통신부(이하 과기정통부)와 한국인터넷진흥원(이하 KISA)은 지난 한 해 발생했던 사이버 위협 사례..
2024.12.30 -
AI TRiSM: 인공지능의 신뢰성, 위험 관리, 보안을 위한 프레임워크
인공지능(AI) 기술은 의료, 금융, 제조 등 다양한 산업 분야에서 혁신을 일으키고 있습니다. 그러나 이와 동시에 신뢰(Trust), 위험 관리(Risk Management), 그리고 보안(Security)과 같은 문제를 어떻게 다룰지에 대한 고민도 깊어지고 있습니다. 이러한 상황에서 ‘AI Trust, Risk, and Security Management’의 약자인 AI TRiSM이 주목받고 있습니다. 기업과 조직이 AI를 보다 안전하고 효과적으로 활용할 수 있도록 돕는 핵심 프레임워크인 AI TRiSM은 앞으로의 AI 도입 과정에서 필수적인 가이드라인으로 자리 잡을 전망입니다. AI TRiSM의 핵심 요소 신뢰 (Trust)AI 시스템이 편향 없이 공정하고 투명하게 작동하도록 보장하는 것이 핵심입니..
2024.12.16 -
ChatGPT가 마약 제조법을? 프롬프트 공격으로 보는 AI 보안의 중요성
최근 해커 플리니 프롬프터(Pliny the Prompter)가 GPT 스토어에 '갓모드 GPT (Godmode GPT)'라는 프로그램을 공개했습니다. 갓모드 GPT는 챗GPT의 탈옥(Jail Breaking) 모드로, 인종, 성별, 종교에 대한 편향된 발언, 욕설, 범죄 수법 등 유해한 정보를 제공하지 못하도록 설계된 필터를 우회해 비윤리적인 정보 생성이 가능합니다. 이 모드를 통해 AI 챗봇은 욕설을 하거나 메스암페타민 제조 방법, 자동차 탈취, 폭탄 제조법 등을 안내할 수 있습니다. 실제로 갓모드 GPT는 사람에게 유해한 정보를 무분별하게 생성해 AI의 취약점에 대한 경각심을 일깨워줬습니다. 생성형 AI를 대상으로 하는 프롬프트 주입 공격 방식은 크게 두가지 방식으로 나뉩니다. 갓모드 GPT..
2024.07.24 -
뜨거웠던 생성형 AI & 보안 컨퍼런스 FDI 2024의 현장, Get AI-Ready: Enterprise LLM, Data and Security
행사명 : Fasoo Digital Intelligence 2024 일시 : 2024년 4월 3일(수) 13:30 ~ 17:30 장소 : 페어몬트 앰배서더 서울 여의도 – 그랜드볼룸(B1층) 주최 : Fasoo & Sparrow *FDI 2024 홈페이지 바로가기 파수의 연례 행사인 Fasoo Digital Intelligence 2024 (FDI 2024) 행사가 성황리에 개최됐습니다. 이번 FDI 2024는 Get AI-Ready: Enterprise LLM, Data and Security (AI 시대를 위한 준비: 엔터프라이즈 LLM, 데이터 그리고 보안)를 주제로 진행됐는데요. 시대를 반영한 주제인 만큼, 각 분야의 기업 및 기관의 CIO, CISO, AI 관련 실무자 등 약 400여명의 고..
2024.04.09 -
CIO, CISO가 도입해야 할 생성형 AI 보안 솔루션은?
글로벌 IT 리서치 기관 가트너(Gartner)의 '생성형 AI 우려사항에 대한 IT 경영진 설문조사'에 따르면 응답자의 42%가 개인정보보호에 대해 우려하고 있으며, 환각/할루시네이션(14%), 보안(13%) 등이 그 뒤를 이었습니다. 기업 및 기관들은 대규모 언어모델에 기반한 대화형 인공지능 서비스를 활용해 새로운 비즈니스 기회 창출 및 가치 제고를 위해 다양한 시도를 하고 있습니다. 그러나 이처럼 대규모 언어 모델(LLM)로 일상적인 대화는 물론 복잡한 추론 작업을 해내는 생성형 AI 시대가 열리면서, 예기치 못한 변수가 발생했습니다. 그것은 바로 개인정보가 유출되는 보안 취약점입니다. 생성형 AI의 데이터 수집 과정, 학습 과정, 및 활용 과정에서 발생할 수 있는 대표적인 사례는 아래와 같습니다...
2024.01.17 -
새로운 사이버 보안 위협인 생성형 AI를 활용한 해킹메일, 피싱메일, 혹스메일의 예방법 - 악성메일 모의훈련
해킹메일, 피싱메일, 혹스메일, 스피어피싱··· 가장 보편적이면서도 타격감 높은 APT 공격 유형인 ‘악성메일’입니다. 개인을 대상으로도 많이 발생하지만, 기업 혹은 기관을 대상으로 큰 규모의 자산을 탈취하는 사건이 빈번히 발생하곤 합니다. 파수가 포스팅에서 여러 번 다룬 주제이기도 한데요. 최근엔 악성메일 공격이 새로운 양상을 보이고 있습니다. 본격적으로 우리의 삶을 바꾸고 있는 생성형 AI의 등장과 발전 덕분(?)이죠. 일상생활은 물론 업무에도 활용되기 시작한 생성형 AI는 새로운 보안 위협을 동반합니다. 주로 서비스를 이용하며 발생하는 정보유출 문제를 생각하실텐데요. 그 활용성이 무궁무진한 만큼, 악의적으로도 다양하게 활용할 수 있습니다. 오늘은 생성형 AI 기술을 활용한 악성메일 공격의 고도화와 ..
2024.01.16