
[산업일보]
ChatGPT로 대표되는 LLM AI(거대언어모델 인공지능) 챗봇 서비스 활용도가 증가하면서, 개인 정보·기밀 데이터 유출에 주의를 기울여야 한다는 경고도 커지고 있다.
통합보안전문기업 이스트시큐리티(EST SECURITY)는 ‘제24회 세계 보안 엑스포 & 제13회 전자정부 정보보호 솔루션 페어(SECON&eGISEC)’에서 LLM 사용 시 발생할 수 있는 데이터 유출을 방지하는 ‘알약 xLLM’ 솔루션을 소개했다.

전시회에서 시연한 솔루션은 프리뷰 버전으로, LLM AI 챗봇 서비스의 입력창(프롬프트)에 사용자가 입력한 내용을 모니터링한다. 이름·주소·번호·이메일 주소와 같은 개인정보가 탐지되면 사용자에게 감지된 민감 정보를 안내하는 알림을 제공하고, 해당 정보를 익명 처리(마스킹)하는 대응 방안을 제시하는 식이다.
또한 대시보드에서 관리자가 차단이 필요한 정보를 키워드 방식으로 추가해 기업의 기밀 유출을 방지하고, 오탐지 사례 발생 시에는 탐지 제외 키워드를 설정할 수도 있다.
이스트시큐리티 관계자는 “OCR 기술로 문서·이미지 첨부 파일 안의 민감 정보도 파악 가능하다”라며 “파일 내부 정보에는 마스킹 처리가 어려워, 차단 경고 알림만 제공된다”라고 설명했다.
이어 “AI 사용 과정에서 사용자의 부주의로 발생하는 보안 위협을 사전에 차단하고, 안전한 AI 업무 환경을 조성하는 데 도움이 될 것으로 기대된다”라며 “아직 모델 고도화를 진행 중으로, 올해 4분기 출시 예정”이라고 밝혔다.
한편, SECON&eGISEC는 일산 킨텍스(KINTEX) 제1전시장 3~5홀에서 21일까지 펼쳐진다.