http://www.astinet.kr/front/knowledge/gtb/gtbView.do?boardSeq=248524
물리학자 스티븐 호킹처럼 사람이 불구가 되어 말을 할 수 없을 때, 대화를 할 수 있도록 뇌 임플란트를 사용할 수 있을지는 의문이다.
미국의 대학들은 이러한 연구를 점차 폭넓고 다양하게 하는 것이 목표로서 지난 5년 이상 동안 말하는 것과 관련되어 두개골에서 두뇌의 활동을 캡처할 수 있는 기록 기기들을 증명하기 위해서 꾸준히 노력해오고 있다.
연구결과는 예비적인 것이지만 샌프란시스코 캘리포니아대학교(University of California, San Francisco)의 신경외과의사 Edward Chang은 무선 뇌-기계 인터페이스(brain-machine interface)를 개발하기 위한 연구를 진행하고 있다고 말했다. 이것은 목소리 합성기를 사용하여 두뇌신호를 바로 들을 수 있도록 번역하는 것이다.
음성 보철을 개발하기 위한 노력은 실험의 성공에 기반하여 개발된 것으로서, 마비된 실험참가지원자들은 그들의 생각을 사용하여 로봇 팔다리를 조작하기 위해서 뇌 임플란트를 사용하고 있다. 이 기술은 두뇌의 운동피질(motor cortex) 내부의 뉴런의 흥분을 대략적으로 해석할 수 있었고 그것을 팔 또는 다리의 움직임과 매핑시킬 수 있었기 때문에 동작하게 되었다.
Chang의 연구팀은 현재 언어를 위하여 이와 동일한 것을 하기 위해 연구를 진행 중이다. 이것은 더 어려운 작업이다. 왜냐하면 복잡한 언어는 사람들에게만 유일한 것이며, 이 기술이 동물들에게 테스트하는 것이 쉽지 않기 때문이다.
UCSF에서 Chang은 뇌전증(epilepsy)을 가진 환자들에게 시술했던 두뇌 수술과 관련하여 언어 실험을 수행하고 있다. 환자들의 두개골 아래에 위치해 있는 전극 시트는 뇌 표면으로부터의 전기적인 활동을 기록하게 된다. 환자들은 뇌파배열법(electrocorticography) 어레이로 알려진 기기를 며칠 동안 착용하게 된다. 그러면 의사들은 정확한 발작의 원인을 알아낼 수 있게 되는 것이다.
Chang은 이러한 환자들이 말하거나 언어를 들을 수 있는 것처럼 두뇌 활동을 연구하려는 기회에 대하여 혜택을 갖게 되었다. 지난해 네이처(Nature)지에 발표했던 논문에서 그와 그의 동료들은 실험참가자들에게 “바(bah)”, “디(dee)”, “구(goo)”와 같은 소리를 내게 하여 복부감각 운동피질이라는 두뇌 영역에서 전기적인 활동패턴을 매핑시키기 위해서 전극 어레이를 사용했던 방법에 대하여 기술하였다.
“발성과 관계되는 몇 군데의 두뇌 영역이 있지만, 이러한 한 가지는 언어의 자율제어라는 것을 학습하는데 중요하다”고 Chang이 말했다.
이 아이디어는 입술, 혀 및 성대(vocal cords)에서 언어와 관련된 움직임을 발생시키는 운동피질의 전기적인 활동을 기록하는 것이다. 이러한 패턴을 수학적으로 분석함으로써 그의 연구팀은 많은 주요 음성기능이 감지될 수 있다는 것을 보여주었다고 Chang이 말했다.
루게릭(ALS)과 같은 질병의 가장 무서운 결과 중 하나는 마비가 확산될 때, 움직일 수 있는 능력뿐만 아니라 언어에 대한 능력도 잃게 되는 것이다. 몇몇 루게릭 환자들은 의사소통하기 위해서 남아있는 움직임을 이용하는 기기를 사용하였다. 호킹의 경우에, 그는 볼을 씰룩거림으로써 매우 느리게 철자 단어를 말할 수 있도록 해주는 소프트웨어를 사용하였다. 다른 환자들은 컴퓨터 마우스를 동작시켜서 눈을 추적하는 방법을 사용하였다.
가까운 대화적인 언어를 이루기 위해서 뇌-기계 인터페이스를 사용하는 아이디어는 이전에 Neural Signals사에 의해서 제안되었다. 이 회사는 락트-인 증후군(locked-in syndrome)을 가진 사람들의 두뇌 내부에서 직접 기록하도록 단일한 전극을 사용했던 기술을 1980년대 이후부터 테스트하고 있다. 2009년에 이 회사는 움직이거나 전혀 말을 할 수 없는 25살 된 마비환자의 언어를 디코딩하려고 시도하고 있는 것에 대하여 설명하였다.
노스웨스턴대학교(Northwestern University)의 Marc Slutzky가 올해 발표한 또 다른 연구에서는 모든 39가지의 영어 음소를 포함하는 단어를 큰 소리로 환자가 읽을 때 운동 피질로부터 나오는 신호를 디코딩하려는 시도를 하였다. 이 연구팀은 36%의 평균적인 정확도를 가지고 음소를 감지하였다. 이 연구는 Chang이 사용했던 동일한 표면 전극 종류를 사용했다.
Slutzky는 이와 같이 정확도가 낮은 이유는 제한된 시간 내에 매우 적은 단어 샘플을 말했던 이유 때문이라고 말했다. “우리는 미래에 더 좋은 디코딩을 달성할 수 있을 것으로 예상한다”고 그가 말했다. 언어인식 소프트웨어는 사람들이 말하려고 하는 단어가 무엇인지를 추측할 수 있도록 도와줄 것이라고 과학자들이 말했다.
출처 : KISTI 미리안 『글로벌동향브리핑』