구글과 마이크로소프트(MS), 앤트로픽, 오픈AI 등 4개 기업이 인공지능(AI) 기술 관련 안전 표준을 개발하기 위한 그룹을 구성했다. 의회 차원의 규제가 도입되기 전 업계 주도로 선제적인 고민에 나서겠다는 취지다.

26일 CNBC 방송과 파이낸셜타임스(FT) 등에 따르면 이들 4개 기업은 이날 ‘프론티어 모델 포럼(Frontier Model Forum)’이라는 새 협의체를 발족했다.

구글은 자사 블로그에 올린 게시물에서 포럼 창립 목적을 4가지로 명시했다. △책임 있는 AI 선도 모델 개발과 그 안전성을 측정할 수 있는 독립적이고 표준화된 평가 방안 도입 △AI 기술의 본성, 영향력, 한계 관련 대중의 이해도를 높이기 위한 모범 개발 사례 발굴 △정책입안자 및 학계, 시민사회와의 지식 공유 △기후 문제, 암 치료, 사이버 위협 대응 등 사회 전체의 도전 과제 해결에 도움이 되는 앱 개발 지원 등이 그것이다.

창립 멤버 외 업체가 프론티어 모델 포럼에 참여하려면 까다로운 기준을 충족해야 한다. 구글 게시물에 따르면 “현존하는 가장 진보된 모델의 능력을 초과하는 수준의 대규모 ‘머신 러닝(기계 학습)’ 모델을 개발하거나 배치하고 있는 기업”만이 가입 자격을 얻는다. “기술적, 제도적 차원에서 안전성을 확보하려는 노력이 확인될 것”도 조건으로 제시됐다.

포럼은 향후 몇 달 내로 각계각층의 인사들이 참여하는 자문위원회를 구성할 계획이다. 지배구조 설계 과정과 자금 조달 관련, 시민사회로부터 다양한 의견을 듣겠다는 구상이다. FT는 “프론티어 모델 포럼이 AI 관련 업계와 정책입안자들 간 소통 채널로서 기능할 것”이라고 전했다.

사생활 침해, 저작권법 위반 가능성 등 AI 기술이 갖는 위험성과 관련해 백악관과 의회 등이 규제 전략을 마련하고 있는 가운데 나온 움직임이다. AI 혁신 경쟁에서 뒤처지지 않을 만큼의 ‘적절한 가드레일’을 업계가 자발적으로 나서 제시해보겠다는 차원이다. 구글과 MS는 2016년에도 이와 유사한 형태의 파트너십을 설립했던 바 있다.

브래드 스미스 MS 부회장은 “AI 기술을 다루는 회사들은 AI가 인간의 통제하에 있도록 안전성을 확보해야 할 책임이 있다”며 “책임감 있는 AI 기술 개발로 도전 과제를 해결해 전 인류에게 혜택이 돌아가도록 하는 데 정보기술(IT) 업계가 힘을 합친다는 의미”라고 설명했다.

그러나 일각에선 이런 시도가 규제를 회피하려는 ‘꼼수’에 불과하다는 비판도 나온다. 대규모언어모델(LLM) 관련 연구를 지속해 온 에밀리 벤더 워싱턴대 교수는 “이들 기업은 스스로 규제하는 능력을 확신하고 있지만, 이는 의심스럽다”며 “‘기계가 생명을 얻고 우리 삶을 장악할 것’이란 두려움에 주의를 돌리면 데이터 도난이나 사생활 감시, 다수 노동자가 ‘긱 워커(초단기 노동자)’로 전락할 가능성 등 ‘진짜’ 문제들을 흐릿하게 만든다”고 지적했다. 그는 “기업에 대한 규제는 국민을 대표하는 정부에 의해, 내부가 아닌 외부에서 만들어져야 한다”고 강조했다.

장서우 기자 suwu@hankyung.com