과기부, 신뢰할 수 있는 AI 인증제 도입…'제2 이루다 사태' 막는다
입력
수정
지면A8
건전한 AI 실현 전략 발표과학기술정보통신부가 신뢰할 수 있는 인공지능(AI)을 만들기 위해 대책 마련에 나섰다. 최근 성차별과 소수자 차별 논란을 일으킨 이른바 ‘이루다 사태’ 재발을 막겠다는 취지다.
4차산업혁명위원회는 13일 열린 제22차 전체회의에서 ‘신뢰할 수 있는 인공지능 실현전략’을 발표했다. 기술·제도·윤리 측면의 3대 전략과 10대 실행과제를 2025년까지 단계적으로 추진하겠다는 내용이 담겼다. 이를 통해 AI 활용에서 세계 5위, 신뢰 가능한 사회 세계 10위, 안전한 사이버국가 세계 5위에 오르겠다는 목표다.기술 부문에선 2026년까지 총 295억원을 투입해 ‘설명가능’ ‘공정’ ‘견고’ 등 3개 분야에서 원천기술을 개발하기로 했다. 민간의 책임을 강화하고 규제의 불확실성을 최소화할 수 있도록 기존 제도를 신속하게 정비할 방침이다. AI 제품·서비스에 대한 신뢰를 확보하기 위해 기술·윤리적 요구사항을 충족하는지를 검증하는 민간 자율 인증 및 공시를 골자로 하는 ‘인증제’도 도입한다. 또 사회 전반에 건전한 AI 의식이 확산할 수 있도록 AI 윤리교육 과정을 개발해 교육한다. AI 윤리를 토의하고 의견을 수렴할 수 있는 윤리 정책 플랫폼을 운영할 예정이다.
AI업계는 국민의 AI에 대한 신뢰성 회복을 위한 정책 취지에 대해선 긍정적 평가를 내리면서도 실효성에 대해선 의문을 드러냈다. 이경전 경희대 교수는 “가이드라인을 내놓는다는 것 자체가 사실상 비현실적인 제도”라고 지적했다. 업계 한 관계자는 “AI 신뢰성을 담보하기 위한 시스템은 업계에서도 필요하다”면서도 “대책의 가짓수가 많고 중복되는 듯한 부분도 보여 기업에 부담이 될 수 있을 것 같다”고 했다.
배성수 기자 baebae@hankyung.com