미국 캘리포니아대 버클리캠퍼스(UC버클리) 소속 연구진이 세계 최초로 인공지능(AI) 기술을 활용해 인간 뇌파로 곡을 연주하는 데 성공했다. 뇌졸중, 루게릭병(근위축성 측색 경화증) 등 신경 질환을 앓고 있는 환자들이 강세나 억양과 같은 음악적 요소를 가미해 의사소통하도록 돕는 획기적인 기술로 발전할 수 있을 거란 평가다.

16일 가디언 등에 따르면 이번 실험은 이날 국제 학술지 ‘플로스 바이올로지’에 실렸다. 연구팀은 뇌전증(간질) 수술 경험이 있는 29명의 환자에게 영국 록 밴드 핑크플로이드의 1979년 앨범 ‘더 월’에 실린 수록곡 ‘어나더 브릭 인 더 월 파트1’을 들려준 뒤 음악을 듣는 동안 이들의 뇌 활동을 분석했다. 두개골 피하에 총 92개 전극을 삽입해 뇌로부터 나오는 전기 신호를 포착하는 뇌파검사(EEG)를 활용했다.

연구팀은 AI 기술로 뇌파 기록을 해독한 뒤 이를 기반으로 곡에 사용된 단어와 소리를 재구성했다. 분명하진 않았지만 ‘그저 벽 속의 벽돌이었을 뿐’이라는 노래 구절이 알아들을 수 있을 정도로 구현됐다. 이번 연구를 주도한 로버트 나이트 UC버클리 심리학 및 신경과학 교수는 “마치 물속에서 말하는 것처럼 들리지만 이런 시도는 처음”이라고 말했다. 단어 하나하나를 로봇처럼 내뱉는 형식이 아니라 인간이 말하는 것처럼 자연스러운 언어 표현이 가능할 수 있다는 점에서 이번 연구가 의미 있다는 설명이다. 앞으로는 루게릭병을 앓았던 고(故) 스티븐 호킹 박사처럼 부자연스럽게 소리를 내지 않아도 된다는 얘기다.

이 연구팀은 이전에도 입 밖으로 말을 꺼내지 않고 상상한 단어가 무엇인지 맞히는 데 성공했다. EEG를 활용한 단어 재구성 실험은 2012년 처음 시작됐고 10년이 지난 지금 노래 마디를 구현할 수 있을 정도로 충분한 데이터가 확보됐다고 파이낸셜타임스는 전했다.

장서우 기자 suwu@hankyung.com