주요 기업이 대화형 인공지능(AI) 서비스인 챗GPT와 관련한 보안 지침을 강화하고 있다. 회사 기밀이 ‘복붙(복사해 붙여넣기)’돼 정보가 유출될 가능성을 우려해서다.

2일 정보기술(IT)업계에 따르면 삼성전자 디바이스경험(DX) 부문은 ‘챗GPT 사용 지침’을 마련하고 있다. 챗GPT를 쓸 수 있는 업무의 종류와 용도를 정확하게 명시하겠다는 게 회사 측 설명이다.

이 회사 디바이스솔루션(DS) 부문은 지난달 소속 직원들이 챗GPT에 질문할 때 한 번에 1024바이트 이상을 업로드할 수 없도록 했다. 한 직원이 프로그램 소스코드를 챗GPT에 고스란히 업로드해 오류 확인을 요청한 이후로 내놓은 조치다. 소스코드는 프로그램의 개발 과정과 틀을 담고 있어 외부에 알려질 경우 보안 취약점이 드러날 수 있다.

앞서 SK텔레콤도 직원 대상 챗GPT 사용 가이드를 내놨다. 이 회사는 사내 정책·전략·기술 관련 내용은 챗GPT에 입력하지 않도록 공지했다. 내부 프로그래밍 코드를 붙여넣는 것도 불허한다.

SK하이닉스는 사내망에선 아예 챗GPT를 사용하지 않는 것을 원칙으로 내세웠다. 외국 기업 중엔 JP모간체이스, 씨티그룹, 골드만삭스 등이 챗GPT 사용을 제한했다. 네이버는 내부 서버에 데이터가 저장되는 형태의 서비스는 업무 목적으로 사용을 금지하고 있다. 반면 카카오와 KT, LG유플러스 등은 별다른 가이드라인을 두고 있지 않다.

스타트업들도 챗GPT 단속에 나섰다. 한 카메라 모듈 제조 스타트업은 최근 챗GPT에 사업과 관련한 내용을 입력한 것이 발각될 경우 징계하겠다는 공지를 내렸다. 한 직원이 외국 거래처에 보내는 사업 영문 제안서 작성을 챗GPT에 맡긴 게 발단이 됐다. 이 과정에서 주요 제품 명세서와 가격, 매출 전망, 경쟁사와의 차별점, 거래처 정보 등이 고스란히 챗GPT 플랫폼에 입력됐다.

챗GPT를 비롯한 AI 플랫폼은 모든 대화 과정을 학습 데이터로 활용한다. 이용자가 데이터를 입력하면서 정보를 저장할지 말지를 선택할 수 없는 구조다.

보안업계 관계자는 “외부 AI 플랫폼에 업로드한 정보가 어떻게 가공돼 퍼져나갈지 알 수 없는 노릇”이라며 “직원들이 영업 기밀이나 개인 정보 등을 입력하지 않도록 구체적인 가이드라인을 마련해야 한다”고 지적했다.

선한결 기자 always@hankyung.com