언어 기능 잃은 뇌졸중 환자, AI로 말문 트였다
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
뇌졸중 환자 뇌 전기신호 분석
AI, 75% 정확도로 문장 전환
"다음 목표는 무선 정보 전달"
AI, 75% 정확도로 문장 전환
"다음 목표는 무선 정보 전달"
뇌졸중을 앓고 언어 기능을 상실한 미국의 한 남성이 인공지능(AI)을 이용해 자신의 생각을 전달하는 데 성공했다.
에드 창 미국 캘리포니아대 샌프란시스코 의대 교수팀은 “뇌졸중 환자의 뇌에서 발생하는 전기신호를 분석해 문장으로 전환했다”고 국제학술지 ‘뉴잉글랜드저널 오브 메디신(NEJM)’ 14일자에 발표했다.
뇌졸중 환자에게서 말을 하지 못하는 실어증이 나타나는 것은 비교적 흔한 일이다. 많게는 뇌졸중 환자의 절반에서 나타난다고 알려져 있다. 이 남성은 10여 년 전 뇌졸중으로 인해 말을 내뱉는 데 사용되는 근육을 조절하지 못하게 됐다. 그는 팔다리도 마비돼 머리의 작은 움직임만으로 화면의 단어를 선택해 의사소통해왔다. 이런 방식으로는 1분에 약 5개의 단어를 말할 수 있었다. 연구진이 새롭게 개발한 AI 시스템을 이용하면 1분에 18개의 단어를 말할 수 있다. 3.6배나 빠른 속도다.
획기적으로 속도가 높아진 것은 AI가 문장에서 다음 단어를 예측해서다. 연구진은 환자의 뇌에서 언어 기능을 담당하는 감각운동피질 위에 신용카드보다 얇은 전극을 부착했다. 이후 환자에게 하나의 단어를 반복적으로 보여주고 말을 하도록 했다. 50개 단어에 대한 훈련을 시킨 뒤 “내 안경을 가져와 주세요”와 같은 문장을 읽도록 했다. 실제 말할 수는 없지만 말하려고 하는 순간의 뇌 패턴을 읽어낸 것이다.
연구진은 이 데이터를 학습한 AI에 단어 간 연관성 정보를 학습한 자연어 모델을 추가했고 문장에서 다음 단어를 예측할 수 있도록 했다. 이런 방식으로 해독한 환자의 뇌 신호는 75%의 정확도를 보였다. 단어 4개로 이뤄진 문장에서 1개의 단어만 잘못 해독한 것이다. 같은 상황에서 컴퓨터가 무작위로 아무 단어나 선택하는 경우 오류가 날 확률은 92%에 달한다.
학계에서는 뇌가 시간이 지나면 재구성되기 때문에 10년 이상 ‘말’을 하지 못한 환자가 해석 가능한 뇌 신호를 보여준 것에 놀랍다는 분위기다. 앤리 리스 지로 스위스 제네바대 신경과학과 교수는 “신호가 보존돼 있다는 점이 흥미롭다”고 말했다.
연구를 주도한 창 교수는 2019년 뇌파 신호를 음성으로 변환하는 기술을 개발해 국제학술지 ‘네이처’에 발표한 바 있다. 당시 연구진은 뇌전증으로 말이 어눌한 환자의 머리에 전극을 부착했다. 이후 환자들이 수백 개의 문장을 읽을 때 나타나는 뇌의 신호와 혀, 입, 턱, 후두 등의 움직임을 살폈다. 이 데이터를 학습한 AI가 뇌 패턴을 읽고 합성한 음성을 참가자들에게 들려주자 101개의 문장 중 평균 70% 정도를 이해했다.
문제는 성대 근육이 마비된 환자들이었다. 창 교수는 “근육이 마비돼 아예 말을 못 하는 환자들은 이런 접근이 불가능한 데다 말에 대한 뇌의 신호가 남아 있을지도 불명확했다”며 “이번 연구로 말을 전혀 하지 못하는 환자도 의사소통을 할 수 있다는 가능성을 확인했다”고 설명했다.
하지만 일반적인 영어 회화에서는 1분에 120~180개의 단어를 이야기하기 때문에 아직은 갈 길이 멀다. 더구나 연구진이 개발한 기계는 에어컨 실외기 정도의 크기여서 아직 일상생활에서 사용하기에는 부적합하다. 창 교수는 “우리의 다음 목표는 해석 가능한 단어의 범위를 넓히고 정보 전달을 무선으로 만드는 것”이라고 말했다.
최지원 기자 jwchoi@hankyung.com
에드 창 미국 캘리포니아대 샌프란시스코 의대 교수팀은 “뇌졸중 환자의 뇌에서 발생하는 전기신호를 분석해 문장으로 전환했다”고 국제학술지 ‘뉴잉글랜드저널 오브 메디신(NEJM)’ 14일자에 발표했다.
뇌졸중 환자에게서 말을 하지 못하는 실어증이 나타나는 것은 비교적 흔한 일이다. 많게는 뇌졸중 환자의 절반에서 나타난다고 알려져 있다. 이 남성은 10여 년 전 뇌졸중으로 인해 말을 내뱉는 데 사용되는 근육을 조절하지 못하게 됐다. 그는 팔다리도 마비돼 머리의 작은 움직임만으로 화면의 단어를 선택해 의사소통해왔다. 이런 방식으로는 1분에 약 5개의 단어를 말할 수 있었다. 연구진이 새롭게 개발한 AI 시스템을 이용하면 1분에 18개의 단어를 말할 수 있다. 3.6배나 빠른 속도다.
획기적으로 속도가 높아진 것은 AI가 문장에서 다음 단어를 예측해서다. 연구진은 환자의 뇌에서 언어 기능을 담당하는 감각운동피질 위에 신용카드보다 얇은 전극을 부착했다. 이후 환자에게 하나의 단어를 반복적으로 보여주고 말을 하도록 했다. 50개 단어에 대한 훈련을 시킨 뒤 “내 안경을 가져와 주세요”와 같은 문장을 읽도록 했다. 실제 말할 수는 없지만 말하려고 하는 순간의 뇌 패턴을 읽어낸 것이다.
연구진은 이 데이터를 학습한 AI에 단어 간 연관성 정보를 학습한 자연어 모델을 추가했고 문장에서 다음 단어를 예측할 수 있도록 했다. 이런 방식으로 해독한 환자의 뇌 신호는 75%의 정확도를 보였다. 단어 4개로 이뤄진 문장에서 1개의 단어만 잘못 해독한 것이다. 같은 상황에서 컴퓨터가 무작위로 아무 단어나 선택하는 경우 오류가 날 확률은 92%에 달한다.
학계에서는 뇌가 시간이 지나면 재구성되기 때문에 10년 이상 ‘말’을 하지 못한 환자가 해석 가능한 뇌 신호를 보여준 것에 놀랍다는 분위기다. 앤리 리스 지로 스위스 제네바대 신경과학과 교수는 “신호가 보존돼 있다는 점이 흥미롭다”고 말했다.
연구를 주도한 창 교수는 2019년 뇌파 신호를 음성으로 변환하는 기술을 개발해 국제학술지 ‘네이처’에 발표한 바 있다. 당시 연구진은 뇌전증으로 말이 어눌한 환자의 머리에 전극을 부착했다. 이후 환자들이 수백 개의 문장을 읽을 때 나타나는 뇌의 신호와 혀, 입, 턱, 후두 등의 움직임을 살폈다. 이 데이터를 학습한 AI가 뇌 패턴을 읽고 합성한 음성을 참가자들에게 들려주자 101개의 문장 중 평균 70% 정도를 이해했다.
문제는 성대 근육이 마비된 환자들이었다. 창 교수는 “근육이 마비돼 아예 말을 못 하는 환자들은 이런 접근이 불가능한 데다 말에 대한 뇌의 신호가 남아 있을지도 불명확했다”며 “이번 연구로 말을 전혀 하지 못하는 환자도 의사소통을 할 수 있다는 가능성을 확인했다”고 설명했다.
하지만 일반적인 영어 회화에서는 1분에 120~180개의 단어를 이야기하기 때문에 아직은 갈 길이 멀다. 더구나 연구진이 개발한 기계는 에어컨 실외기 정도의 크기여서 아직 일상생활에서 사용하기에는 부적합하다. 창 교수는 “우리의 다음 목표는 해석 가능한 단어의 범위를 넓히고 정보 전달을 무선으로 만드는 것”이라고 말했다.
최지원 기자 jwchoi@hankyung.com