생성형ai(23)
-
2024 공공·금융·기업 개인정보보호&정보보안 컨퍼런스(G-PRIVACY 2024), AI 시대의 개인정보보호 방법
행사명 : G-Privacy 2024 일시 : 2024년 3월 12일(화) 09:00 ~ 17:00 장소 : 양재 더케이호텔서울 2층 가야금홀 및 로비 주최 및 주관 : 데일리시큐 G-Privacy 2024 행사 안내 G-PRIVACY 2024 | Fasoo 파수가 3월 12일(화) 더케이호텔서울에서 개최되는 2024 공공·금융·기업 개인정보보호&정보보안 컨퍼런스 G-Privacy 2024에 참가합니다. www.fasoo.com 데일리시큐 유의사항 - 경품추첨은 명함으로 이루어지기 때문에 참석시 명함을 여러장 필히 지참해 주시기 바랍니다. - 사전등록 후 참석이 확정되신 분께는 메일과 문자로 통보드립니다. www.dailysecu.com 개인정보보호 이슈는 항상 기업 및 기관을 따라 다닙니다. 인터넷 포..
2024.02.01 -
AI 기술, AI 보안…다가온 AI 시대를 위한 콘텐츠 관리와 보안 전략
새해부터 AI 관련주부터 AI 챗봇 마켓 등 AI에 대한 관심이 정말 뜨겁습니다. 여러 기업들의 신년사에서 빠지지 않고 등장하는 키워드 역시 AI입니다. 2023년부터 AI 제품 및 서비스를 출시한 파수 역시 ‘Make AI Easy and Simple’이라는 슬로건 아래 다양한 활동을 준비하고 있습니다. 고객들이 AI를 보다 쉽고 간단하게 활용할 수 있도록 지원하는 AI 전문 기업으로 거듭나겠다는 의미인데요. 오늘은 파수의 전반적인 제품 라인업을 소개하면서, 파수의 AI 비전에 대해 간략하게 말씀 드리고자 합니다. 어떤 기업이 나아가고자 하는 방향을 알고 싶다면 ‘그 기업의 신년사를 확인해 보라’는 말이 있죠. 대표 홈페이지도 마찬가지입니다. 기업의 홈페이지를 둘러보다 보면 해당 기업이 어떤 가치를 추..
2024.02.01 -
LLM vs sLLM, 로컬 구축 방안 그리고 활용 사례 살펴보기
요즘 생성형 AI를 이야기할 때마다 빠지지 않고 등장하는 것이 있습니다. ‘LLM’, 많이 들어보셨죠? 오늘은 LLM에 대한 정의와 그와 비슷하면서도 다른 개념인 맞춤형 LLM, ‘sLLM’에 대해 알아보는 시간을 가져보려 합니다. 또한, 이런 모델들이 기업에서 어떻게 적용되고 있는지에 대한 구체적인 사례도 함께 살펴보도록 하겠습니다. LLM과 sLLM은 모두 대형 언어 모델(Large Language Model)의 일종입니다. 언어 모델은 문장 안에 문맥을 파악해 단어 뒤에 어떤 단어가 등장해야 문장이 자연스러운지 확률적으로 예측하는 도구입니다. LLM과 sLLM의 정의 대형 언어 모델, 거대 언어 모델, 대규모 언어 모델(Large Language Model, LLM) LLM은 AI 챗봇 기술을 가능..
2024.01.31 -
GPT스토어, 엔터프라이즈 AI마켓 오픈… 더욱 중요해진 사내 데이터 관리, 그리고 AI시대를 위한 준비
새해 벽두부터 ‘GPT스토어’로 IT업계가 뜨겁습니다. 지난 1월 10일 서비스가 시작된 GPT스토어는 외부 개발사가 참여하는 방식의 챗봇 플랫폼입니다. 쉽게 말해, 애플의 앱스토어와 구글의 플레이스토어와 유사하다고 보면 될 것 같습니다. 이제 누구나 맞춤형 챗봇을 만들 수 있고, GPT스토어에 올려 사고 팔 수 있는 시대가 도래한 겁니다. GPT스토어에는 이미 300만 개 이상의 맞춤형 챗봇이 올라와 있습니다. 이 가운데 오픈AI의 판매 심사 및 등록이 끝난 8만 여개 이상의 챗봇 제품이 거래 중입니다. 이미지 생성, 생산성, 교육 등 분야별로 세분화 돼 있으며, 현재 가장 인기가 많은 챗봇은 리서치 분야의 ‘컨센선스(Consensus)’. 약 2억개의 학술 자료를 기반으로 답변을 제공하는 챗봇입니다...
2024.01.25 -
CIO, CISO가 도입해야 할 생성형 AI 보안 솔루션은?
글로벌 IT 리서치 기관 가트너(Gartner)의 '생성형 AI 우려사항에 대한 IT 경영진 설문조사'에 따르면 응답자의 42%가 개인정보보호에 대해 우려하고 있으며, 환각/할루시네이션(14%), 보안(13%) 등이 그 뒤를 이었습니다. 기업 및 기관들은 대규모 언어모델에 기반한 대화형 인공지능 서비스를 활용해 새로운 비즈니스 기회 창출 및 가치 제고를 위해 다양한 시도를 하고 있습니다. 그러나 이처럼 대규모 언어 모델(LLM)로 일상적인 대화는 물론 복잡한 추론 작업을 해내는 생성형 AI 시대가 열리면서, 예기치 못한 변수가 발생했습니다. 그것은 바로 개인정보가 유출되는 보안 취약점입니다. 생성형 AI의 데이터 수집 과정, 학습 과정, 및 활용 과정에서 발생할 수 있는 대표적인 사례는 아래와 같습니다...
2024.01.17 -
새로운 사이버 보안 위협인 생성형 AI를 활용한 해킹메일, 피싱메일, 혹스메일의 예방법 - 악성메일 모의훈련
해킹메일, 피싱메일, 혹스메일, 스피어피싱··· 가장 보편적이면서도 타격감 높은 APT 공격 유형인 ‘악성메일’입니다. 개인을 대상으로도 많이 발생하지만, 기업 혹은 기관을 대상으로 큰 규모의 자산을 탈취하는 사건이 빈번히 발생하곤 합니다. 파수가 포스팅에서 여러 번 다룬 주제이기도 한데요. 최근엔 악성메일 공격이 새로운 양상을 보이고 있습니다. 본격적으로 우리의 삶을 바꾸고 있는 생성형 AI의 등장과 발전 덕분(?)이죠. 일상생활은 물론 업무에도 활용되기 시작한 생성형 AI는 새로운 보안 위협을 동반합니다. 주로 서비스를 이용하며 발생하는 정보유출 문제를 생각하실텐데요. 그 활용성이 무궁무진한 만큼, 악의적으로도 다양하게 활용할 수 있습니다. 오늘은 생성형 AI 기술을 활용한 악성메일 공격의 고도화와 ..
2024.01.16