인간 존엄성·사회 공공선·기술 합목적성…'AI 윤리기준 3대 원칙' 공개
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트

27일 과학기술정보통신부와 정보통신정책연구원은 정부·공공기관, 기업, 이용자 등 모든 사회구성원이 함께 지켜야 할 주요 원칙과 핵심 요건을 담은 국가 AI 윤리기준안을 제정했다.
10대 핵심요건은 △인권 보장 △프라이버시 보호 △다양성 존중 △침해금지 △공공성 △연대성 △데이터 관리 △책임성 △안전성 △투명성 등으로 AI 개발과 활용 전 과정에서 이 같은 요건이 충족돼야 한다고 명시했다.
국가 AI 윤리기준안은 인공지능·윤리학·법학 등 학계·기업·시민단체를 아우르는 주요 전문가들 자문과 의견수렴 과정을 통해 완성됐다.
과기정통부도 작년 인공지능·윤리전문가로 구성된 AI 윤리연구반을 발족해 국내외 주요 AI 윤리원칙을 분석하고 그 결과를 윤리철학의 이론적 논의와 연계해 '인간성을 위한 인공지능'을 목표로 한 윤리기준안을 마련했다는 설명이다.
최기영 과기정통부 장관은 "이번 국가 AI 윤리기준안 공개가 국가 전반의 AI 윤리 이슈에 대한 인식과 논의를 활성화해 '사람 중심의 인공지능'으로 나아가는 기반이 되기를 기대한다"고 말했다.
배성수 한경닷컴 기자 baebae@hankyung.com