"비뚤어진 마케팅 전략"…머스크 'AI 종말론'에 쏟아진 비판
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
학계 "추측에 근거, SF에 기반한 산만함"
X리스크 집중하는 사이 공정 논의 뒷전
학계 싸우는 동안 기술기업은 규제 피해
13일 美 상원에서 AI 비공개 회의 열려
X리스크 집중하는 사이 공정 논의 뒷전
학계 싸우는 동안 기술기업은 규제 피해
13일 美 상원에서 AI 비공개 회의 열려
일론 머스크, 샘 올트먼 등 AI 기업 CEO들이 '인공지능(AI) 종말론'을 언급하는 것은 마케팅 효과 때문이라는 비판이 제기됐다. 과학계 일각에서는 AI가 인류를 지배하는 상황이 아니라 빅테크가 AI를 지배하는 상황을 더 우려해야 한다는 주장이 나온다.
머스크는 지난 2월 세계정부정상회의에서 "문명의 미래에 가장 큰 위험 중 하나는 AI"라고 경고한 바 있다. 머스크와 오픈AI를 공동창업한 올트먼은 지난 5월 미국 상원에서 열린 AI 청문회에 참석해 "점점 더 강력해지는 AI 모델의 위험을 완화하는 데 정부의 개입이 중요할 것"이라고 주장했다. 학계에서는 이러한 AI로 인한 인류 멸망 가능성을 'X리스크'라고 부른다. 두 CEO를 포함한 구글, 마이크로소프트(MS), 엔비디아 등 AI 업계 대표들은 오는 13일 미국 상원에서 열리는 AI 비공개회의에 참석해 X리스크 등을 논의할 계획이다.
학계에서는 AI 기업이 X리스크를 강조하는 것은 역설적으로 자사 기술이 매우 정교하다는 인상을 주기 위한 의도라고 평가하고 있다. 전 구글 변호사인 다니엘 쇤버거는 "AI 업체들이 과대광고의 혜택을 누리고 있는 것은 분명하다"고 지적했다. 미국 싼타페연구소의 AI 연구자인 멜라니 미첼은 지난 6월 X리스크 관련 공개 포럼에서 "X리스크에 대한 논의는 모두 추측에 근거한 것이며 과학적 근거는 없다"라고 주장하기도 했다.
테그마크 교수에 따르면 현재 AI 과학계 한 쪽에는 AI가 야기할 수 있는 노동자 착취, 불평등 심화 등에 초점을 맞춘 '공정성 집단'이 있다. 이들은 과거 데이터를 학습한 AI가 고용, 형사 처벌 등에 대한 결정을 내릴 때 인종·성별적 차별을 저지를 수 있다고 우려하고 있다. 다른 한 편에는 X리스크에 집중하는 '실존적 위험' 집단이 있다. 두 집단 간의 토의 주제가 X리스크에 쏠리는 사이 기술기업들은 규제의 틀을 유유히 빠져나간다는 게 테그마크 교수의 주장이다.
2015년 구글 캠퍼스에서 열린 한 토론회가 대표 사례다. AI 윤리 및 공정성 전문가들은 AI의 차별 알고리즘 등을 논의하고자 했다. 그러자 'X리스크'를 주장하는 이들은 "인류의 미래가 걸려있는 상황에서 모기지 금리가 연 0.5%포인트 차이 나는 것을 걱정할 필요가 없다"라며 공정 논의를 평가절하했다. 스티브 웨버 UC버클리 교수는 "학술회의에서 주먹 다툼이 벌어지는 줄 알았다"라며 격렬했던 당시의 분위기를 전했다.
이에 학계가 X리스크보다 기술기업의 'AI 독재'를 막는 데 더 집중해야 한다는 목소리도 나온다. 쇤버거는 "정책 입안자들은 AI로 인해 허위 정보가 쉽게 유포되거나 실리콘밸리에 더 많은 권력이 집중되는 것과 같은 단기적인 위험에 더 집중해야 한다"라며 "빅 테크가 빅 AI가 될 수 있는 지배의 위험이 있다"고 경고했다.
김인엽 기자 inside@hankyung.com
"AI 업계, 종말론으로 과대광고 혜택"
4일(현지시간) 월스트리트저널(WSJ)에 따르면 일부 AI 과학자들은 머스크 테슬라 CEO, 올트먼 오픈AI CEO가 언급한 AI 종말론을 "공상과학(SF) 소설에 기반한 산만함이며 비뚤어진 마케팅 전략"이라고 비판하고 있다.머스크는 지난 2월 세계정부정상회의에서 "문명의 미래에 가장 큰 위험 중 하나는 AI"라고 경고한 바 있다. 머스크와 오픈AI를 공동창업한 올트먼은 지난 5월 미국 상원에서 열린 AI 청문회에 참석해 "점점 더 강력해지는 AI 모델의 위험을 완화하는 데 정부의 개입이 중요할 것"이라고 주장했다. 학계에서는 이러한 AI로 인한 인류 멸망 가능성을 'X리스크'라고 부른다. 두 CEO를 포함한 구글, 마이크로소프트(MS), 엔비디아 등 AI 업계 대표들은 오는 13일 미국 상원에서 열리는 AI 비공개회의에 참석해 X리스크 등을 논의할 계획이다.
학계에서는 AI 기업이 X리스크를 강조하는 것은 역설적으로 자사 기술이 매우 정교하다는 인상을 주기 위한 의도라고 평가하고 있다. 전 구글 변호사인 다니엘 쇤버거는 "AI 업체들이 과대광고의 혜택을 누리고 있는 것은 분명하다"고 지적했다. 미국 싼타페연구소의 AI 연구자인 멜라니 미첼은 지난 6월 X리스크 관련 공개 포럼에서 "X리스크에 대한 논의는 모두 추측에 근거한 것이며 과학적 근거는 없다"라고 주장하기도 했다.
학계 싸우는 동안 테크기업 규제 피하나
맥스 테그마크 메사추세츠 공대 물리학과 교수는 기술기업들이 "공정성 문제와 실존적 위험에 초점을 맞춘 사람들 사이의 분열을 조장하는 데 관심이 있다"고 진단했다.테그마크 교수에 따르면 현재 AI 과학계 한 쪽에는 AI가 야기할 수 있는 노동자 착취, 불평등 심화 등에 초점을 맞춘 '공정성 집단'이 있다. 이들은 과거 데이터를 학습한 AI가 고용, 형사 처벌 등에 대한 결정을 내릴 때 인종·성별적 차별을 저지를 수 있다고 우려하고 있다. 다른 한 편에는 X리스크에 집중하는 '실존적 위험' 집단이 있다. 두 집단 간의 토의 주제가 X리스크에 쏠리는 사이 기술기업들은 규제의 틀을 유유히 빠져나간다는 게 테그마크 교수의 주장이다.
2015년 구글 캠퍼스에서 열린 한 토론회가 대표 사례다. AI 윤리 및 공정성 전문가들은 AI의 차별 알고리즘 등을 논의하고자 했다. 그러자 'X리스크'를 주장하는 이들은 "인류의 미래가 걸려있는 상황에서 모기지 금리가 연 0.5%포인트 차이 나는 것을 걱정할 필요가 없다"라며 공정 논의를 평가절하했다. 스티브 웨버 UC버클리 교수는 "학술회의에서 주먹 다툼이 벌어지는 줄 알았다"라며 격렬했던 당시의 분위기를 전했다.
이에 학계가 X리스크보다 기술기업의 'AI 독재'를 막는 데 더 집중해야 한다는 목소리도 나온다. 쇤버거는 "정책 입안자들은 AI로 인해 허위 정보가 쉽게 유포되거나 실리콘밸리에 더 많은 권력이 집중되는 것과 같은 단기적인 위험에 더 집중해야 한다"라며 "빅 테크가 빅 AI가 될 수 있는 지배의 위험이 있다"고 경고했다.
김인엽 기자 inside@hankyung.com