사진과 같이 머릿속으로만 한 생각이 화면에 "What time will you be home"으로 현출된 것이 확인됨
내용 설명. 조음기관의 운동영역에서 측정한 피질전도를 이용해 언어 BCI를 구현해 내는 데 성공했다. 사람이 말을 할 때는 다양한 조음기관이 복잡하게 운동한다. 그런데 조음기관을 실제로 움직이지 않고, 말하는 것처럼 입이나 혀를 움직이는 상상만 하더라도 각 조음기관에 해당하는 운동영역이 특정한 패턴으로 활동한다. 따라서 굳이 뇌의 브로카 영역에서 신호를 읽지 않더라도 운동영역의 피질전도 신호를 통해 음성을 합성하는 것이 가능하다. 창 교수는 딥 러닝 알고리즘 피질전도를 해석해서 혀나 턱과 같은 조음기관의 움직임을 예측했고, 이렇게 조음기관의 움직임이 예측되면 음성신호를 합성했다. 이와 같은 2단계 딥 러닝 구조를 통해 뇌전증 환자가 주어진 문장을 말할 때 측정되는 피질전도 신호로부터 실제와 거의 유사한 음성을 합성해 내는 데 성공한 것이다. 하지만 아직까지는 같은 문장을 속으로 말할 때 측정되는 피질전도 신호로부터 알아들을 수 있는 수준의 음성이 합성되지는 않는다. 뇌공학자들은 뇌 신호를 보다 정밀하게 측정하면 상상한 말을 음성으로 합성하는 것도 충분히 가능하다고 내다본다. ㅡ 『뉴럴링크』, 한양대학교 바이오메디컬공학전공 교수
요약하면, 말하는 생각만 하게 되어도 혀의 운동에 해당하는 뇌파가 활성화되는데 이 뇌파를 읽어낸 후 텍스트로 만들어내는 기술이 현재에 가능하다 !!