"AI로 멸종위험, 전염병·핵전쟁과 같아"…오픈AI·MS경영진 경고
입력
수정
AI안전센터, AI 전문가 350여명 성명서 발표생성형 인공지능(AI) 열풍을 불러온 오픈AI의 주요 경영진조차도 AI로 인한 인류의 멸종 위험까지 경고하고 나섰다.
샘 알트만 오픈AI CEO, 딥마인드 하사비스 CEO 등 동참
"안전한 AI 위한 상식을 만들어야"
AI의 위험을 줄이기 위한 비영리단체인 AI안전센터는 30일(현지시간) "AI로 인한 멸종 위험을 줄이는 것은 전염병 대유행이나 핵전쟁 같은 사회적 위험과 함께 전세계의 최우선 과제로 삼아야 한다"는 성명서를 발표했다. 이 성명에는 샘 알트만 오픈AI CEO와 미라 무라티 오픈AI 최고기술책임자(CTO)를 비롯해 케빈 스콧 MS CTO, 라일라 이브라힘 구글 AI 담당 임원 등 AI업계 주요 고위 책임자들이 함께 했다. 구글의 AI 계열사인 딥마인드를 이끌고 있는 데미스 하사비스 딥마인드 CEO를 비롯해 오픈AI 출신들이 모여 설립한 AI업체 앤스로픽의 다리오 아모데이 등 AI업계의 굵직굵직한 인물 350여명이 이번 성명에 동참했다.
이들은 "AI의 가장 심각한 위험에 대한 논의를 시작하고 싶다"고 성명을 통해 밝혔다. 그들은 "첨단 AI의 가장 심각한 위험을 받아들이는 더 많은 전문가들과 함께 AI 안전에 대한 상식을 만들고 싶다"고 했다.
AI 열풍으로 기존 기업들이 자사의 제품과 서비스에 AI를 앞다퉈 결합하는 경쟁을 펼치고 있지만 한편으로는 통제할 수 없을 정도로 AI를 방치하면 안 된다는 우려도 커지고 있다. 오픈AI가 작년 11월 챗GPT를 출시한 이후 AI 규제를 강화해야 한다는 요구도 커지고 있다. 앞서 지난 3월엔 일론 머스크 테슬라 CEO를 비롯한 AI 전문가와 테크업계 고위 경영진들은 AI 개발자들에게 최소 6개월 동안 AI 최신 대규모언어모델의 개발을 중지할 것을 촉구하기도 했다. AI 개발에 대한 안전 표준을 설정하고 AI 기술의 잠재적 피해를 억제할 시간이 필요하다는 것이었다.
실리콘밸리=서기열 특파원 philos@hankyung.com