삼성전자 "사내 챗GPT 사용 금지"…자체 생성형 AI 개발 나선다

사진=한국경제신문
삼성전자가 보안 문제로 사내 챗GPT 등 생성형 인공지능(AI) 사용을 제한한 가운데 자체적으로 번역이나 문서 요약 등에 활용 가능한 생성형 AI 개발에 나선다.

2일 업계에 따르면 삼성전자는 지난달 28일 디바이스경험(DX) 부문 임직원을 대상으로 사내 챗GPT 등 생성형 AI 사용 정책과 관련해 이달부터 사내 PC를 통한 생성형 AI 사용을 일시적으로 제한한다고 공지했다.회사 측의 이같은 조치는 생성형 AI에 입력된 내용이 AI 학습에 활용되면서 내부 기밀 등이 외부로 유출될 우려가 있기 때문으로 풀이된다.

삼성전자는 챗GPT 등 생성형 AI 사용을 제한하는 대신, 자체 AI 모델을 활용해 번역이나 문서 요약, 소프트웨어 개발 지원 등에 최적화된 솔루션을 준비하는 것으로 확인됐다. 정보 유출 우려가 큰 기존의 생성형 AI 사용은 제한하되, 내부적으로 자체 AI 도구를 개발, 보안상 안전한 환경에서 생성형 AI를 활용해 업무 편의성과 효율성을 높이겠다는 것이다.

앞서 지난달 초 DX 부문에서 임직원을 대상으로 챗GPT 사용 관련 설문조사를 한 결과, 상당수 임직원이 빠른 정보 습득과 업무 편리성 등을 이유로 사내에서 챗GPT를 사용한다고 답했다. 특히 번역과 문서 요약 등에서 생성형 AI 사용에 대한 수요가 높았던 것으로 알려졌다.아울러 회사 정보 유출을 우려해 업무 관련 정보의 업로드 차단을 위한 보완책 등도 검토 중이다.

삼성전자는 회사 밖에서 모바일 등으로 생성형 AI를 사용할 경우 회사 관련 정보, 본인과 타인의 개인 정보 등은 입력하지 않도록 유의해달라고 당부했다. 이미 미국과 일본 등 해외 일부 기업이 기밀 유출을 우려해 사내 챗GPT 사용 제한에 나서는 등 챗GPT를 비롯한 생성형 AI 오남용 우려나 핵심 정보 유출 가능성에 대한 우려가 커지고 있다.

삼성전자의 DX 부문 설문조사에서도 응답자의 65%는 사내 사용 시 보안상 리스크가 있다고 답한 것으로 알려졌다. 실제로 최근 삼성전자 디바이스솔루션(DS) 부문에서는 사내 메일 본문 업로드, 내부 소스코드 전체 입력 등의 일부 오남용 사례가 확인된 바 있다.이에 DS 부문에서는 게시판에 챗GPT 오남용을 경고하는 메시지를 공지하고, 각 팀장이 팀원들을 대상으로 챗GPT 사용 가능 범위 등을 교육하고 챗GPT 사용 시 글자수 제한 등의 조치에 나선 바 있다.

조아라 한경닷컴 기자 rrang123@hankyung.com