August 19,2019

인공지능 장갑이 등장했다

기계학습 통해 사람 손처럼 움직여

FacebookTwitter

우리들의 손은 놀라운 기능을 지니고 있다.

특히 놀라운 것은 감각 기능이다. 손에는 감각 뉴런(sensory neurons)이 몰려 있는데 이 뉴런을 통해 크고 작은 자극들을 예민하게 감지해나갈 수 있다.

시각 장애인의 경우 손은 더욱 중요한 역할을 하게 된다. 사물을 만져보는 것은 물론 점자를 해독하고, 비장애인들처럼 지식을 습득해가는 매우 중요한 역할을 담당하고 있다. 그리고 최근 과학기술을 통해 이런 손의 기능을 대체할 수 있는 장갑이 개발되고 있다.

MIT 인공지능연구소에서 개발한 AI 장갑. 548개의 센서가 부착된 이 장갑은 사물의 영상 분석을 통해 외부로부터 촉감을 분석할 수 있는 능력을 지니고 있다. 현재 76%의 정확도를 보이고 있는데 그 능력을 향상시켜나가고 있는 중이다. ⓒMIT

MIT 인공지능연구소에서 개발한 AI 장갑. 548개의 센서가 부착된 이 장갑은 사물의 영상 분석을 통해 외부로부터 촉감을 분석할 수 있는 능력을 지니고 있다. 현재 76%의 정확도를 보이고 있는데 그 능력을 향상시켜나가고 있는 중이다. ⓒMIT

사람 손처럼 완벽한 촉감 가능해져 

2일 인터넷 포럼 ‘빅 싱크(Big Think)’는 MIT의 컴퓨터과학‧인공지능연구소(CSAIL)에서 눈을 감은 상태에서 손쉽게 사물을 인식할 수 있는 인공지능 장갑을 개발했다고 보도했다.

지난 주말 ‘네이처’ 지에 게재된 논문 ‘Learning the signatures of the human grasp using a scalable tactile glove’에 따르면 이 장갑은 실제 손의 감각을 모방해 다양한 자극을 감지할 수 있다.

연구를 이끈 CSAIL 수브라마니안 순다람(Subramanian Sundaram) 연구원은 “그동안 사람처럼 접시를 닦는 등 촉각이 예민한 로봇 기능을 연구해왔다”고 말했다.

그리고 “지금 로봇을 제어하는 촉각 피드백(tactile feedback)을 통해 사물을 예민하게 감지하기 시작했다”며, “향후 추가 연구를 통해 사람처럼 완벽한 감각을 지닌 로봇 손을 제작할 수 있을 것”으로 내다봤다.

연구팀은 이 인공지능 장갑을 개발하기 위해 15달러 가격의 신축성 있는 장갑을 사용했다고 밝혔다. 장갑에 사물을 식별할 수 있는 센서를 부착했는데 ‘STAG(scalable tactile glove)’라고 부르고 있다.

사람의 손에는 기계적감각수용기(Mechanoreceptor)가 있어 외부에서 가해지는 다양한 물리적 자극을 촉감 신호로 변환시킨다.

이 손의 능력을 10 단계로 분류했을 때 그동안 개발된 로봇 장갑은 2단계 수준에 머물러 있었다. 연구팀은 디지털 영상과 기계학습 프로그램을 통해 사람처럼 사물을 인지할 수 있는 ‘컴퓨터 영상 로봇(computer-vision-based robot)’을 개발했다고 밝혔다.

그리고 이미지 분석을 통해 이전의 로봇 손과는 다른 광범위한 촉각 정보를 인지할 수 있는 데이터세트(datasets)를 구축했으며, 이를 통해 사람이 사물을 감지할 때 의존하는 촉각 정보를 대체할 수 있었다고 말했다.

연구팀은 논문을 통해 “이 로봇 장갑이 영상을 기반으로 한 로봇 손 개발에 시발점이 될 수 있다”며, “향후 추가 연구를 통해 촉각 피드백에 있어 3, 4, 5 단계를 넘어 6, 7단계 기능에 도달할 수 있을 것으로 예상된다”고 말했다.

76% 정확도, 의도대로 움직일 수 있어 

연구팀은 이번 연구에 적용한 기계학습(mechine learning) 프로그램이 ‘콘볼루션 신경망(CNN)’이라고 밝혔다.

심층 신경망(DNN)의 일종으로 영상 분석을 통해 사물의 무게를 추정할 수 있으며, 손으로 만졌을 때 어떤 촉각을 느낄 수 있는지 그 상황을 인식할 수 있다.

실로 만든 신축성 있는 장갑 안에는 548개의 센서가 부착돼 있다. 장갑 표면에는 외부 충격에 반응할 수 있도록 전극이 촘촘하게 배열된 중합체를 코팅해 어떤 자극이 주어졌을 경우 사물의 속성을 파악할 수 있다.

순다람 연구원은 이 STAG 시스템을 ‘촉각으로 읽을 수 있는 지도(tactile maps)’라고 설명했다. 손바닥이 사물을 감지하듯이 사물의 영상을 보고 그 속성을 파악한 후 지도에 입력된 정보에 따라 반응하게 된다는 것.

연구원은 “로봇이 이 장갑을 착용할 경우 사람의 손처럼 서로 다른 영역에서 사물을 감지해 자연스럽게 대응해나갈 수 있다”고 말했다.

특히 “이 STAG 시스템의 영상 식별을 통해 다양한 사물에 접촉하고(touch), 움직이며(move), 집어올리고(pick up), 내려놓으며(put down), 의도적으로 떨어뜨리고(drop), 감촉을 느낄 수 있는(feel) 것이 가능하다”는 것.

그는 또 “그동안 콘볼루션 신경망(CNN)에 26개 사물과 관련, 13만 5000 프레임의 촉각 데이터세트를 식별할 수 있는 능력을 확충했다”고 말했다. 그중에는 소다 캔(soda can), 가위, 테니스 볼, 수저, 펜, 머그컵 등이 포함돼 있다.

순다람 연구원은 “실험 결과 76%의 정확도를 보였는데 특히 무게 측정에 있어 60g 정도의 오차를 보였다”고 말했다.

연구원은 현재 또 다른 사물을 대상으로 1만 1600 프레임이 추가로 개발되고 있다며, 이 프레임 속에는 사물의 무게를 더 정확히 분석할 수 있는 시스템이 추가되고 있다고 말했다.

순다람 연구원은 “다른 곳에서도 여러 유형의 로봇 손을 제작해왔으나 센서의 개수는 50개 정도에 불과했다”며 “이번에 개발한 장갑은 548개의 센서가 부착돼 있음에도 불구하고 비용이 매우 적게 들어 불과 10달러 선에서 생산비를 조절할 수 있다”고 말했다.

연구팀은 향후 이 기술을 적용할 경우 촉각 피드백 7단계까지 기능을 향상시켜나갈 수 있다고 말했다. 7단계가 완성될 경우 8, 9, 10 단계 도달도 가능해 실제 사람의 손과 같이 완벽한 촉각 기능을 수행할 수 있는 로봇 손이 탄생할 수 있을 것으로 내다봤다.

의견달기(3)

  1. 김민서

    2019년 6월 3일 6:09 오후

    세 번째 문단에 정상인을 비장애인으로 고쳐야하지 않을까요?

    • 사이언스타임즈 관리자

      2019년 6월 4일 9:39 오전

      ‘정상인’은 ‘상태가 특별한 변동이나 탈이 없이 제대로인 사람’으로 사전에 등재되어 있는 단어이기 때문에 기사에 사용되었으나, 독자님의 의견대로 ‘비장애인’의 사용이 조어법상 문제가 없어 수정 처리하였습니다. 감사합니다.

  2. 하주철

    2019년 6월 30일 9:13 오후

    인간의 손을 대체할 수 있다니 신기하네요. 이런 기술들이 장애인이나 다른 업무등등 많은 곳에 사용되서 생활에 편리함을 가져와 줬으면!!
    좋은 기사 감사합니다~~~