"AI, 통제 안 되면 어쩌지?"…네이버, AI 위험 대응 체계 공개
입력
수정
네이버, AI 위험 대응 체계 공개네이버가 인공지능(AI)가 초래할 수 있는 위험요인을 사전 대응할 수 있는 체계를 공개했다. AI가 통제력을 잃거나 악용될 위험을 미리 점검하고 대응하는 것이 골자다. AI 안전성 체계를 설계하고 실천하는 것은 네이버가 국내 최초다.
'네이버 ASF' 국내 최초 시도
통제력 상실·악용 위험 사전 평가
'문화적 다양성' 등 반영 예정
네이버는 17일 자체 기술 채널인 '채널 테크'를 통해 네이버 ASF(AI Safety Framework)를 발표했다. ASF는 AI 시스템을 개발·배포하는 모든 단계에서 잠재적 위험을 인식·평가·관리하는 대응 체계를 말한다. ASF는 AI 시스템이 초래할 수 있는 통제력 상실·악용 등의 위험을 대응하는 데 초점을 맞췄다. 인간이 AI 시스템에 영향을 미치지 못하는 통제력 상실 위험을 완화할 수 있도록 'AI 위험 평가 스케일'을 통해 주기적으로 위험성을 평가·관리한다.
또 현존하는 최고 성능의 AI 시스템을 '프런티어 AI'로 정의하고 3개월마다 위험 평가를 진행한다. 시스템 능력이 기존보다 6배 이상 급격하게 증가했을 땐 추가 평가가 이뤄진다.
악용 위험에 대해선 'AI 위험 평가 매트릭스'를 적용한다. AI 위험 평가 매트릭스는 AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 각각 다른 방법으로 위험을 관리한다. 예를 들어 생화학 물질 개발과 같이 특수한 목적으로 사용되는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공해 위험을 완화한다. 사용목적과 관계 없이 안전 조치 필요성이 높은 AI 시스템일 경우 추가적인 기술적·정책적 안전 조치를 통해 위험이 완화될 때까지 배포하지 않는다.
네이버는 ASF를 문화적 다양성을 반영한 AI 안전성 체계로 발전시킬 계획이다. 한국이 아닌 다른 지역 정부·기업과 소버린 AI를 공동 개발해 특정 문화권에서 성립될 수 있는 위험을 식별하고 이를 측정하는 벤치마크도 각 문화권 특성을 반영해 고도화한다.
송대섭 네이버 어젠다 리서치 리더는 "‘사람을 위한 AI’라는 보편적 가치와 다양성을 조화롭게 고려할 필요가 있다고 믿는다"며 "AI 안전성도 글로벌 움직임에 발맞추는 한편 각 지역의 사회기술적 맥락을 고려해 접근하는 것이 중요하다고 생각한다"고 설명했다. 네이버는 지난 4월 리포트를 통해 자체 개발한 초대규모 AI '하이퍼클로바X'의 AI 안전성 평가 결과를 공개했다. ASF를 활용한 위험 평가 결과나 실천 경험도 리포트와 같은 형태로 외부에 공개하는 방안을 검토할 중이다.
하정우 네이버 퓨처 AI 센터장은 "네이버 ASF는 생성형 AI 시대에 네이버가 다시 한 번 선제적으로 수립한 안전성 검증 프로토콜"이라며 "이러한 앞선 경험을 글로벌 커뮤니티에도 공유하며 AI 안전성 분야 리더십을 확보해나갈 것"이라고 말했다.
최수연 네이버 대표는 "향후 글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속적으로 개선해나갈 계획이고, 이를 통해 다양한 지역의 문화와 가치를 반영하는 다수의 AI 모델이 안전하게 사용되며 공존하는 지속 가능한 AI 생태계에 네이버가 적극적으로 기여할 것"이라고 강조했다.
김대영 한경닷컴 기자 kdy@hankyung.com