[책마을] 'AI는 도덕을 이해할까?'…학자들이 던지는 7가지 질문
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
도덕적인 AI
월터 시넛암스트롱, 재나 셰익 보그, 빈센트 코니처 지음
박초월 옮김 / 김영사 / 360쪽│2만2000원
AI 개발 경쟁 본격화된 시대
철학·과학자들이 고민한 AI 윤리
"수익성에만 몰두하면 재앙 불러"
인간도 완벽한 판단은 불가능
"부족해도 AI에 윤리 교육시켜야"
월터 시넛암스트롱, 재나 셰익 보그, 빈센트 코니처 지음
박초월 옮김 / 김영사 / 360쪽│2만2000원
AI 개발 경쟁 본격화된 시대
철학·과학자들이 고민한 AI 윤리
"수익성에만 몰두하면 재앙 불러"
인간도 완벽한 판단은 불가능
"부족해도 AI에 윤리 교육시켜야"

국내에 최근 번역 출간된 <도덕적인 AI>는 AI를 두고 발생한 일곱 가지 윤리 문제에 질문을 던지고 답하는 책이다. ‘AI가 인간의 도덕을 이해할 수 있을까’ ‘AI는 프라이버시를 존중할 수 있을까’ ‘AI에 책임을 물을 수 있나’ ‘AI를 안전하고 공정하게 만들려면 어떻게 해야 할까’ 등이다. 미국 듀크대와 카네기멜런대 등에서 AI 윤리 분야를 연구하는 철학자(월터 시넛암스트롱), 신경과학자(재나 셰익 보그), 컴퓨터과학자(빈센트 코니처)가 지난해 함께 펴냈다.
![[책마을] 'AI는 도덕을 이해할까?'…학자들이 던지는 7가지 질문](https://img.hankyung.com/photo/202501/AA.39368946.1.jpg)
외과의사 대신 신장 이식 대상자를 선정하는 AI를 예로 든다. 한밤중 교통사고로 장기 기증자가 사망해 다른 환자에게 이식할 신장이 생겼을 때 ‘어느 환자에게 우선적으로 신장을 이식해야 하는가’라는 결정을 빠르고 적합하게 내려줄 AI는 무엇을 갖춰야 할까. 먼저 외과의사가 신체적·정신적으로 이상적일 때 내릴 법한 의학적 판단을 프로그래밍해야 한다. 이어 병원 이식 방침을 결정하는 담당자 집단의 판단(나이, 건강 상태, 장기 질, 대기 기간, 기대 수명 등)을 모형화한다. 반면 인종, 성별, 재산 등 영향을 미치지 말아야 할 요소는 배제한다.
이런 AI 도구를 이용하면 의사의 판단 실수를 줄여주는 것은 물론 불완전한 인간이 범할 도덕적 오류도 막을 수 있다는 게 저자의 설명이다. 인간은 ‘인지적 편향, 편애, 인종 또는 성별 편견 등 무의식적으로 의사 결정에 영향을 미치는 편향’에서 벗어나지 못한다. 이런 편향을 제거한 AI는 인간이 신체적·정신적으로 불완전한 상태일 때도 “합리적이고 편향 없는 상태에서 더 많은 정보를 갖고 내릴 만한 도덕적 판단”을 하는 데 도움을 준다. 이를 통해 사회의 불공정을 개선하고, 비윤리적 결정을 방지할 수 있다는 것이다. ‘인간의 도덕성을 지닌 AI’를 다른 영역으로 확장하면 민주주의 시스템까지 인공적으로 개선할 수 있다고 저자는 주장한다.
저자는 인간의 한계 때문에 이상적인 도덕적 판단이 무엇인지 완벽하게 알아내거나 예측하기 어렵다는 사실을 인정한다. 그렇지만 “흠결이 있더라도 도덕적 판단을 AI에 구축하는 것은 도덕성이 없거나 도덕성을 교정하지 않은 AI 기술보다 커다란 발전”이라고 주장한다.
이 책은 AI 패권 경쟁이 격화해 기업이 “안전성은 의심스럽지만 수익성이 높은 AI 제품을 만들어야 한다는 압박을 점점 강하게 받는” 상황을 우려한다. “대부분의 사회가 AI 발전에 매료돼 AI의 잠재적 남용과 해악에 대한 대처를 포기하는 지경에 이르렀다”는 진단이다. 하지만 ‘기술적 매력’에 취해 도덕적 문제를 가리고 회피하면 더 큰 비용을 치르거나 진짜 재앙을 맞을 수 있다고 경고한다.
설지연 기자 sjy@hankyung.com