상상만으로 맘대로 제어하는 로봇팔 인터페이스 개발
전신마비 장애인 등 운동 장애 환자, 연습없이 작동 가능

정재승 KAIST 뇌인지과학과 교수.

[동양일보 정래수 기자]지난달 31일 서울 강남구 신사동 신사스퀘어에 위치한 CJ 인공지능(AI)센터.

KAIST 뇌인지과학과 학과장인 정재승(50.사진) 교수와 이치훈 CJ AI센터장이 '뇌 모방 인공지능(Brain-inspired AI) 분야 공동연구'에 관한 MOU를 체결했다.

'뇌 모방 인공지능'이란 인간의 뇌가 작동하는 방식으로 인공지능을 설계하고, 뇌활동을 포함한 생체신호 등으로부터 인간의 의도와 행동을 분석하는 AI 기술을 의미한다.

협약으로 양기관은 앞으로 3년간 뇌-기계 인터페이스 기술과 머신러닝(기계학습)을 이용한 로봇팔 제어에 대해 공동 연구를 진행한다.

정 교수는 “사고로 팔을 잃은 장애인들에게 생각대로 움직이는 로봇팔을 선사하기 위해서는 뇌파를 통해 의도를 읽는 기술이 필수적이다. 우수한 인공지능 전문가들이 모인 두기관 연구진들이 협업한다면, 수 년 내에 훌륭한 성과를 내리라 기대한다”고 말했다.

인간의 뇌를 연구하는 뇌과학자이자 물리학자인 정재승 교수.

그는 최근 인간의 뇌 신호를 해독해 장기간의 훈련 없이 생각만으로 로봇 팔을 원하는 방향으로 움직일 수 있는 '뇌-기계 인터페이스 시스템’을 개발했다.

정 교수는 "뇌-기계 인터페이스는 인간이 생각만으로 기계를 제어할 수 있는 기술이다. 팔을 움직이는 데 장애가 있거나 절단된 환자가 로봇 팔을 제어해 일상에 필요한 팔 동작을 회복할 수 있는 보조 기술로 활용된다"고 했다.

로봇 팔 제어를 위한 뇌-기계 인터페이스를 구현하기 위해서는 인간이 팔을 움직일 때 뇌에서 발생하는 전기신호를 측정하고 기계학습 등 AI 분석기법으로 뇌 신호를 해독해 의도한 움직임을 뇌 신호로부터 예측할 수 있는 ‘디코딩’ 기술이 필요하다. 하지만 지금까지 디코딩 기술은 팔의 방향을 뇌 생각대로 움직이지 못하는 한계가 있었다. 팔의 실제 움직임이 아닌 상상 뇌 신호에서 어느 방향으로 사용자가 상상했는지를 예측할 수 있어야 하는데 상상 뇌 신호는 실제 움직임 뇌 신호보다 ‘신호대잡음비’가 크게 낮아 팔의 정확한 방향을 예측하기 어려웠기 때문이다.

이에 대해 정 교수는 "이 문제를 풀기 위해 뇌전증 환자를 대상으로 팔을 뻗는 동작을 상상할 때 관측되는 대뇌 피질 신호를 분석했다. 이를 토대로 환자가 의도한 팔 움직임을 예측하는 팔 동작 방향 상상 뇌 신호 디코딩 기술을 개발했다"고 설명했다.

그러면서 "이 기술을 통해 환자가 상상한 팔 뻗기 방향을 최대 80% 이상 정확도로 예측할 수 있었다. 실제로 로봇 팔을 구동하고 의도한 방향으로 로봇 팔이 이동하는지 테스트를 진행한 결과 네 가지 방향에 대한 의도를 읽어 정확하게 목표물에 도달하는 데 성공했다"고 덧붙였다.

뇌 과학자로 유명한 정 교수는 KAIST 물리학과를 졸업하고 같은 대학원에서 물리학 석·박사학위를 취득하였으며, 현재 KAIST 바이오·뇌공학과 교수로 재직 중이다. 예일대 의대 정신과 연구원, 컬럼비아 의대 정신과 조교수를 거쳐 정신질환자들의 의사결정을 연구했다. TV프로그램 ‘알쓸신잡’, ‘톡투유’ 등 방송출연을 통해 쉽고 재미있는 과학 이야기를 전달해 대중들에게 많은 인기를 얻고 있다.

정 교수는 “이번 연구 결과는 장애인마다 다른 뇌 신호를 맞춤형으로 분석해 장기간 훈련을 받지 않더라도 로봇 팔을 제어할 수 있는 가능성을 열었다”며 “향후 의수를 대신할 로봇 팔을 상용화하는 데 기여할 것으로 기대된다ˮ고 말했다. 정래수 기자 raesu1971@dynews.co.kr


 


동양일보TV
저작권자 © 동양일보 무단전재 및 재배포 금지