英 정부 'AI 7대 원칙' 제시…"소수 빅테크의 지배, 부정적 결과 초래"
입력
수정
영국 정부가 소수 빅테크 기업들의 인공지능(AI) 기술을 장악하는 것을 방지하기 위한 조처에 나섰다. 부작용을 최소화하기 위해 책임성과 투명성 등을 담은 7대 원칙을 내놓은 것. 영국 정부는 앞으로 이에 대한 주요 빅테크 기업들의 의견을 물을 예정이다.
영국 경쟁시장청(CMA)은 18일(현지시간) AI 모델 독점으로 인해 소비자와 기업들이 피해를 보는 것을 막기 위해 7가지 원칙을 발표했다. 챗GPT와 같은 기본모델을 규제하기 위해 개발자에게 책임을 부여하고, 빅테크가 폐쇄적 플랫폼 안에 기술을 묶어두지 못하게 하고, 번들링과 같은 반경쟁적 행위를 막는 등의 내용이다. ‘AI 붐’이 가져오는 긍정적인 결과도 있지만, 허위정보의 확산, 가짜 리뷰, 높은 기술 사용료 등 부작용 위험도 크다고 판단한 것이다.구체적으로 살펴보면 △기초 모델 개발자가 데이터 및 컴퓨터에 접근할 수 있도록 하고 △초기 AI 개발자가 확고한 이점을 얻지 못하도록 해야 한다고 정했다. 또한 △오픈AI의 대규모언어모델(LLM)인 GPT-4와 같은 ‘비공개 소스’ 모델과 외부 개발자가 공개적으로 사용할 수 있는 ‘오픈 소스’ 모델 모두 개발을 허용하며 △기업은 자체 개발을 포함해 AI 모델에 접근할 수 있는 다양한 옵션을 가져야 한다. △소비자는 여러 AI 제공자를 이용할 수 있어야 하며 △AI 모델을 다른 서비스에 ‘묶는’ 것과 같은 반경쟁적 행위는 없어야 한다. 마지막으로 △소비자와 기업에 AI 모델의 사용과 한계에 대한 명확한 정보를 제공해야 한다.
CMA는 기초 모델을 챗봇, 이미지 생성기, 마이크로소프트의 ‘365 사무용 소프트웨어’ 제품 등과 같은 ‘방대한 양의 데이터에 대해 훈련되고 광범위한 작업 및 운영에 적응할 수 있는 대규모 일반 기계 학습 모델’로 정의했다.
세러 카델 CMA 청장은 “이 기술로 인해 생산성이 급격히 늘어나고 수백만 가지의 일상 업무가 쉬워질 가능성이 있지만 긍정적인 미래를 당연히 여기면 안 된다”며 “AI가 소비자의 신뢰를 훼손하는 방식으로 발전하거나 경제 전반에 걸쳐 완전한 혜택을 누리지 못하게 될 수도 있다”고 지적했다. 그는 “시장 지배력을 행사하는 소수에 의해 지배받는 위험도 여전히 남아있다”고 덧붙였다.CMA는 구글과 마이크로소프트, 메타, 오픈AI, 스테빌리티 AI와 같은 기업들이 160개의 기초 모델을 출시한 것으로 보고 있다. 또한 주요 기업들이 이미 AI 모델 생태계의 두 가지 이상의 주요 측면에 진출해 있으며 구글, MS, 아마존과 같은 대형 AI 개발자가 데이터 센터, 서버 및 데이터 저장소와 같은 기반 모델을 생산 및 배포하기 위한 필수 인프라를 소유하고 있다고 보고 있다. 또한 생성AI의 지적재산권, 저작권 침해 문제도 중요하게 다뤄야 한다고 진단했다.
CMA는 앞으로 정부, 학계, 다른 규제기관과 함께 구글, MS, 메타, 엔비디아 등과 같은 주요 AI 개발사의 의견을 물어볼 계획이다. 영국에서 오는 11월 초 글로벌 AI 안전 관련 정상회담이 개최된다. 영국은 지난 3월 AI 관련 새로운 규제 기관을 만들지 않고 경쟁시장청 등 기존 기관에 규제 책임을 나누기로 했다.
실리콘밸리=최진석 특파원 iskra@hankyung.com
영국 경쟁시장청(CMA)은 18일(현지시간) AI 모델 독점으로 인해 소비자와 기업들이 피해를 보는 것을 막기 위해 7가지 원칙을 발표했다. 챗GPT와 같은 기본모델을 규제하기 위해 개발자에게 책임을 부여하고, 빅테크가 폐쇄적 플랫폼 안에 기술을 묶어두지 못하게 하고, 번들링과 같은 반경쟁적 행위를 막는 등의 내용이다. ‘AI 붐’이 가져오는 긍정적인 결과도 있지만, 허위정보의 확산, 가짜 리뷰, 높은 기술 사용료 등 부작용 위험도 크다고 판단한 것이다.구체적으로 살펴보면 △기초 모델 개발자가 데이터 및 컴퓨터에 접근할 수 있도록 하고 △초기 AI 개발자가 확고한 이점을 얻지 못하도록 해야 한다고 정했다. 또한 △오픈AI의 대규모언어모델(LLM)인 GPT-4와 같은 ‘비공개 소스’ 모델과 외부 개발자가 공개적으로 사용할 수 있는 ‘오픈 소스’ 모델 모두 개발을 허용하며 △기업은 자체 개발을 포함해 AI 모델에 접근할 수 있는 다양한 옵션을 가져야 한다. △소비자는 여러 AI 제공자를 이용할 수 있어야 하며 △AI 모델을 다른 서비스에 ‘묶는’ 것과 같은 반경쟁적 행위는 없어야 한다. 마지막으로 △소비자와 기업에 AI 모델의 사용과 한계에 대한 명확한 정보를 제공해야 한다.
CMA는 기초 모델을 챗봇, 이미지 생성기, 마이크로소프트의 ‘365 사무용 소프트웨어’ 제품 등과 같은 ‘방대한 양의 데이터에 대해 훈련되고 광범위한 작업 및 운영에 적응할 수 있는 대규모 일반 기계 학습 모델’로 정의했다.
세러 카델 CMA 청장은 “이 기술로 인해 생산성이 급격히 늘어나고 수백만 가지의 일상 업무가 쉬워질 가능성이 있지만 긍정적인 미래를 당연히 여기면 안 된다”며 “AI가 소비자의 신뢰를 훼손하는 방식으로 발전하거나 경제 전반에 걸쳐 완전한 혜택을 누리지 못하게 될 수도 있다”고 지적했다. 그는 “시장 지배력을 행사하는 소수에 의해 지배받는 위험도 여전히 남아있다”고 덧붙였다.CMA는 구글과 마이크로소프트, 메타, 오픈AI, 스테빌리티 AI와 같은 기업들이 160개의 기초 모델을 출시한 것으로 보고 있다. 또한 주요 기업들이 이미 AI 모델 생태계의 두 가지 이상의 주요 측면에 진출해 있으며 구글, MS, 아마존과 같은 대형 AI 개발자가 데이터 센터, 서버 및 데이터 저장소와 같은 기반 모델을 생산 및 배포하기 위한 필수 인프라를 소유하고 있다고 보고 있다. 또한 생성AI의 지적재산권, 저작권 침해 문제도 중요하게 다뤄야 한다고 진단했다.
CMA는 앞으로 정부, 학계, 다른 규제기관과 함께 구글, MS, 메타, 엔비디아 등과 같은 주요 AI 개발사의 의견을 물어볼 계획이다. 영국에서 오는 11월 초 글로벌 AI 안전 관련 정상회담이 개최된다. 영국은 지난 3월 AI 관련 새로운 규제 기관을 만들지 않고 경쟁시장청 등 기존 기관에 규제 책임을 나누기로 했다.
실리콘밸리=최진석 특파원 iskra@hankyung.com