보안체계 강화 나선 LG CNS MS 생성형 AI '코파일럿' 적용
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
배민 보안/솔루션 사업부장MDR 체계에 AI 기능 적용
해커 변칙적 공격 수법 차단
AI 학습정보 역유출에도 대응
해커 변칙적 공격 수법 차단
AI 학습정보 역유출에도 대응
시스템통합(SI) 기업 LG CNS가 마이크로소프트(MS)의 생성형 인공지능(AI) ‘코파일럿’을 보안 솔루션에 적용하는 방안을 검토 중이다. 해커의 변칙적인 공격 수법을 차단하는 데 AI가 크게 도움이 될 전망이다.
20일 서울 마곡동 LG CNS 본사에서 한국경제신문과 만난 배민 보안/솔루션 사업부장(상무·사진)은 “고객 맞춤형 탐지 대응(MDR) 체계에 AI를 적용하면서 보안 체계가 더욱 고도화될 것”이라며 이같이 설명했다.
MDR은 공격 접점에서 발생하는 위협 요소를 사전에 탐지하고 분석해 대응하는 통합 보안 서비스다. 과거에 단순히 규칙(룰) 기반으로 해킹 공격을 방어하던 것과 비교해 효율이 높다.
예를 들어 과거 규칙 기반 방어 방식은 ‘화면 캡처를 10번 하는 사용자는 해커로 간주하고 접속을 차단한다’는 식이다. 해당 규칙을 파악해낸 해커는 화면 캡처를 매일 9번까지만 하는 방식으로 접속이 차단되는 것을 피했다.
그러나 AI가 적용된 MDR은 화면 캡처를 이같이 비정상적으로 많이 하는 것은 횟수와 관계없이 일단 의심하고 보안 담당자에게 알려준다. 배 사업부장은 “과거 룰 기반으로는 탐지하지 못했던 변칙적인 해킹 공격을 더욱 효율적으로 잡아낼 수 있다”고 말했다.
이외에도 특정 키워드를 중심으로 단순히 방어하던 것도 AI가 학습해 방어한다. 예를 들어 ‘CEO’가 들어간 파일의 유출을 금지한 경우 해커가 ‘C-E-O’로 파일명을 바꿔 유출을 시도하더라도 AI가 잡아낸다. 공장 도면의 확장자가 ‘JPEG’인 경우 이를 ‘ppt’ 파일 등으로 바꾸더라도 AI가 내용을 확인해 유사점을 확인한 뒤 보안 담당자에게 통보하는 식이다.
LG CNS는 생성 AI를 업무에 적용한 기업들의 보안 사고를 막는 솔루션 ‘시큐 엑스퍼 AI’도 최근 출시했다. 국내 주요 기업은 생성 AI를 업무용 도구로 활용하고 있다. 내부 경영 보고서 작성을 위한 자료 조사 혹은 소프트웨어(SW) 코딩 과정에서 오류를 탐지하는 ‘디버깅’ 용도 등이다.
문제는 AI가 학습한 정보가 다시 역으로 유출될 수 있다는 것이다. 예를 들어 A사 기획전략팀에서 경영 보고 자료를 작성하기 위해 아직 공시되지 않은 분기 매출과 영업이익을 AI에 입력한 경우 경쟁사 B사가 해당 AI에 A사의 경영실적을 물어보면 학습한 결과물이 나올 수 있다는 것이다.
배 사업부장은 “AI에 학습시킨 정보에 대한 안전한 암호화, 사용자가 기업의 임직원인지 판단하는 접근통제, 사용 로그를 기반으로 정보 유출 등 이상 행위를 하지 않는지 탐지하는 등의 보안 구조를 견고하게 구축해 고객사에 제안하고 있다”고 설명했다. 김진원 기자 jin1@hankyung.com
20일 서울 마곡동 LG CNS 본사에서 한국경제신문과 만난 배민 보안/솔루션 사업부장(상무·사진)은 “고객 맞춤형 탐지 대응(MDR) 체계에 AI를 적용하면서 보안 체계가 더욱 고도화될 것”이라며 이같이 설명했다.
MDR은 공격 접점에서 발생하는 위협 요소를 사전에 탐지하고 분석해 대응하는 통합 보안 서비스다. 과거에 단순히 규칙(룰) 기반으로 해킹 공격을 방어하던 것과 비교해 효율이 높다.
예를 들어 과거 규칙 기반 방어 방식은 ‘화면 캡처를 10번 하는 사용자는 해커로 간주하고 접속을 차단한다’는 식이다. 해당 규칙을 파악해낸 해커는 화면 캡처를 매일 9번까지만 하는 방식으로 접속이 차단되는 것을 피했다.
그러나 AI가 적용된 MDR은 화면 캡처를 이같이 비정상적으로 많이 하는 것은 횟수와 관계없이 일단 의심하고 보안 담당자에게 알려준다. 배 사업부장은 “과거 룰 기반으로는 탐지하지 못했던 변칙적인 해킹 공격을 더욱 효율적으로 잡아낼 수 있다”고 말했다.
이외에도 특정 키워드를 중심으로 단순히 방어하던 것도 AI가 학습해 방어한다. 예를 들어 ‘CEO’가 들어간 파일의 유출을 금지한 경우 해커가 ‘C-E-O’로 파일명을 바꿔 유출을 시도하더라도 AI가 잡아낸다. 공장 도면의 확장자가 ‘JPEG’인 경우 이를 ‘ppt’ 파일 등으로 바꾸더라도 AI가 내용을 확인해 유사점을 확인한 뒤 보안 담당자에게 통보하는 식이다.
LG CNS는 생성 AI를 업무에 적용한 기업들의 보안 사고를 막는 솔루션 ‘시큐 엑스퍼 AI’도 최근 출시했다. 국내 주요 기업은 생성 AI를 업무용 도구로 활용하고 있다. 내부 경영 보고서 작성을 위한 자료 조사 혹은 소프트웨어(SW) 코딩 과정에서 오류를 탐지하는 ‘디버깅’ 용도 등이다.
문제는 AI가 학습한 정보가 다시 역으로 유출될 수 있다는 것이다. 예를 들어 A사 기획전략팀에서 경영 보고 자료를 작성하기 위해 아직 공시되지 않은 분기 매출과 영업이익을 AI에 입력한 경우 경쟁사 B사가 해당 AI에 A사의 경영실적을 물어보면 학습한 결과물이 나올 수 있다는 것이다.
배 사업부장은 “AI에 학습시킨 정보에 대한 안전한 암호화, 사용자가 기업의 임직원인지 판단하는 접근통제, 사용 로그를 기반으로 정보 유출 등 이상 행위를 하지 않는지 탐지하는 등의 보안 구조를 견고하게 구축해 고객사에 제안하고 있다”고 설명했다. 김진원 기자 jin1@hankyung.com