'안전한 AI' 경쟁 본격화…IBM도 '그래니트 가디언' 가세

AI 위험 요소 사전 차단 기술 도입
데이터 세트 공개로 AI 투명성 높여
메타·카카오도 AI 안전 기술 강화
IBM이 안전성을 강화한 새로운 인공지능(AI) 모델을 출시했다. 기업들의 AI 도입이 확대되면서 주요 빅테크가 보안과 신뢰성에 방점을 둔 AI 모델을 잇달아 선보이는 모습이다.


IBM,“AI 모델로 윤리·보안 위험 탐지”

IBM은 안전장치 AI 모델 ‘그래니트 가디언’을 22일 발표했다. 사용자의 명령어나 다른 생성형 AI의 답변에서 발생할 수 있는 위험 요소를 감지하는 데 특화한 모델이다. 사회적 편견, 증오, 유해성, 욕설, 폭력, 보안 우회 등 AI 활용 과정에서 나타나는 위험 요소를 사전에 탐지해 차단한다.안전성 AI 모델은 다른 모델의 출력을 검토해 위험한 답변을 걸러내는 역할을 수행한다. AI 제품의 중심이 되는 파운데이션(기반) 모델은 성능 극대화에 집중하고 별개로 위험을 최소화하기 위한 안전 모델을 구축하는 식이다. 안전성 AI 모델은 서비스 개발·운영 과정에서 의도적으로 부적절한 명령어와 보안을 우회하는 프롬프트를 생성하는 용도로 쓰이기도 한다. 다른 모델의 취약점을 파악하기 위해서다.

이날 IBM은 AI 모델 제품군 ‘그래니트 3.0’을 선보였다. 용도에 따라 크게 범용 언어 모델, 안전 장치 모델, 혼합 모델로 구분된다. 모델 크기도 다양화했다. 기업의 도입 목표에 따라 10억개에서 80억개 사이의 매개변수를 가진 모델 중에 선택할 수 있다. IBM은 “모델을 유연하게 조정할 수 있어 각 기업의 업무 방식에 쉽게 통합할 수 있다”고 말했다.

AI의 투명성, 안전성, 신뢰성 강화도 강조했다. IBM은 이번에 출시한 모델을 훈련하는 데 사용한 데이터 세트를 공개해 이용자들이 모델의 학습 내용을 검증할 수 있게 했다. 지식재산권 보장 프로그램을 통해 기업 고객이 자신들의 데이터를 안전하게 모델에 훈련하도록 지원한다.

기업용 AI 핵심으로 떠오른 ‘안전성’

테크 기업들은 보안과 윤리에 중점을 둔 AI 모델을 연달아 내놓고 있다. 기업용 AI 시장에서 안전성이 핵심 경쟁력으로 떠오르고 있어서다. 메타는 지난해 AI 모델 출력을 모니터링하고 제어하는 ‘라마 가드’를 출시했다. 올해 4월과 7월엔 각각 ‘라마 가드2’와 ‘라마 가드3’를 발표해 성능을 고도화했다.

국내 빅테크 기업들도 AI 안전성 강화를 위해 발빠르게 노력하고 있다. 카카오는 이날 경기 용인시 카카오 AI캠퍼스에서 개발자 콘퍼런스 ‘이프 카카오 2924’를 열고 ‘카카오 ASI(AI Safety Initiative)’를 발표했다. 안전하고 윤리적인 AI 기술 개발과 운영 시스템 구축을 위한 종합 지침이다. 네이버도 지난 6월 ’네이버 ASF(AI Safety Framework)’를 공개하고 AI 시스템을 개발·배포하는 모든 단계의 잠재 위험을 관리하고 있다.

국내 AI 스타트업들도 AI 위험성 관리 제품 출시에 속도를 내고 있다. 튜닙은 6개의 보안 및 윤리 특화 모델을 통해 비윤리적 공격과 혐오 표현을 차단하는 솔루션을 제공한다. 콕스웨이브는 AI 모델의 취약성을 평가하고 잠재적 위협을 예방하는 ‘얼라인 AI’ 플랫폼을 운영 중이다.

황동진 기자 radhwang@hankyung.com