October 24,2019

AI가 ‘뽀로로’를 만나면 똑똑해진다?

장병탁 교수가 바라본 인공지능의 미래

FacebookTwitter

가상세계와 현실세계가 통합될 수 있을까. 인류는 가상 세계를 실생활로 구현하고자 끊임없는 시도를 해왔다. 이제 더 이상 불가능한 이야기가 아니다.

인공지능(AI)이 가상의 벽을 허물고 있기 때문이다. 가상 세계의 데이터로 존재하던 AI가 빠르게 현실 세계로 다가오고 있다.

장병탁 서울대학교 컴퓨터공학부 교수는 “인공지능이 스스로 정보를 수집하고 분석하고 학습하기 시작하면서 가상세계가 현실로 통합되고 있다”고 설명했다.

장병탁 서울대학교 컴퓨터공학부 교수는 "가상세계의 AI가 현실세계로 들어오고 있다"고 말했다.

장병탁 서울대학교 컴퓨터공학부 교수는 “가상세계의 AI가 현실세계로 들어오고 있다”고 말했다. ⓒ 김은영/ ScienceTimes

하드웨어 입고 현실 세계로 들어오는 AI    

지난 17일 서울 강남구 영동대로 코엑스 콘퍼런스룸에서 열린 ‘AI/Data Transformation Conference’에서 장병탁 교수는 AI가 현실로 들어오게 된 요인은 ‘학습’의 결과라고 말했다.

지난 60년 인공지능 연구 역사를 살펴보면 인공지능은 인간이 정해주는 프로그래밍 규칙에 따라 움직였다. 인공지능 1세대라 불리는 ‘기호주의 인공지능(Symbolic AI)’이다. ‘연역적 추론을 쓰는 상징주의’라는 의미를 가진다.

1단계 AI는 개발자들이 지식을 집어넣는 지식 기반 추론 시스템으로 AI를 활용했다.

새로운 패러다임 변화는 딥마인드의 ‘알파고’가 개발되던 시기에 일어났다. 기계가 ‘학습’을 하게 된 것이다. 스스로 분석하고 학습한 후 ‘귀납적 추론 방식’으로 결론을 도출한다.

인공지능 2세대인 ‘연결주의 인공지능(Connectionist AI)’이다. 기계가 데이터 기반으로 통계 분석을 통한 패턴을 이해한다는 뜻이다.

‘AI/Data Transformation Conference’가 지난 17일 서울 강남구 코엑스컨퍼런스룸에서 개최됐다. ⓒ 김은영/ ScienceTimes

‘AI/Data Transformation Conference’가 지난 17일 서울 강남구 코엑스컨퍼런스룸에서 개최됐다. ⓒ 김은영/ ScienceTimes

딥 마인드의 ‘알파고’는 바둑판이라는 통제된 가상의 공간에서만 효력을 발휘한다. ‘알파고’의 ‘수’가 현실에서 사용되려면 인간의 손이라는 도움이 필요하다.

하지만 이제 AI들은 현실세계로 이동하고 있다. 다양한 하드웨어와 디바이스가 몸체로 탑재되고 있기 때문이다.

장 교수는 “컴퓨터라는 가상세계의 소프트웨어(SW)와 데이터로만 존재하던 것들이 더 발전된 AI 성능을 바탕으로 드론, 자동차, 로봇이라는 하드웨어를 입고 현실로 나오고 있다”고 설명했다.

가상세계에만 존재하던 AI가 물리적인 세계로 나오게 된 배경은 3세대 AI라 불리는 ‘인지주의 인공지능(Cognitive AI)’ 때문이다. 딥 러닝을 시작으로 물리세계로 나오던 AI는 인지주의 AI 연구가 가속화되면서 더욱 빠르게 현실 세계와 조우하게 된 것.

‘인지주의 인공지능(Cognitive AI)’ 단계에 이르면 AI는 인간 현실의 복잡한 환경에 적응하면서 관계 설명을 통한 맥락을 이해하고 작업을 수행할 수 있다. 인간 현실의 복잡한 환경에 적응하면서 필요한 데이터를 스스로 평가, 수집, 학습하고 그러한 과정에서 불확실성을 줄이는 작업을 병행할 수도 있다.

보다 인간다운 AI 개발, 과학자들의 꿈    

이제 인공지능은 다음 세대로 향해 가고 있다. 바로 ‘인간 수준의 인공지능(Human-Level AI)’ 단계이다. 인간처럼 문제를 해결하기 위한 가설을 세우고 답을 스스로 찾는 단계로 가고 있는 것이다.

장병탁 교수는 “인공지능 과학자들은 인간의 현실 세계 문제를 풀기 위해서는 사람을 닮은 수준의 AI가 필요하다는데 동의하고 있다”며 “때문에 AI를 보다 인간을 이해하고 인간처럼 생각하는 모습으로 만들려고 하고 있는 것”이라고 말했다.

그렇다면 어떻게 해야 인간 수준의 AI를 탄생시킬 수 있을까. 장병탁 교수팀은 오래전부터 인간처럼 인지할 수 있는 AI를 만들기 위한 프로젝트에 돌입했다.

장 교수팀은 개발 초기 당시 구글 글라스를 이용해 하루 종일 실제 생활하는 모습을 녹화하고 이를 데이터베이스로 만들어 AI를 학습시켰다. 하지만 역부족이었다. 연구팀은 비디오를 학습용 데이터로 사용해보기로 했다.

장병탁 교수 연구팀은 애니메이션 뽀로로를 통해 AI를 고도화시키는 작업을 했다. ⓒ 김은영/ ScienceTimes

장병탁 교수 연구팀은 애니메이션 뽀로로를 통해 AI를 고도화시키는 작업을 했다. ⓒ 김은영/ ScienceTimes

가장 큰 효과를 본 것은 애니메이션 ‘뽀로로’를 AI에게 학습시킨 결과였다. 장 교수팀은 쉬운 비디오 영상을 AI에게 보여주고 내용을 학습하도록 했다.

AI는 ‘뽀로로’ 만화 영화의 내용을 묻는 질문에 정확한 답을 도출해냈다. 내용 속 캐릭터들이 어떤 동작을 하고 있는지 정확히 인지하고 그다음에 이어지는 행동을 추측해내기도 했다.

장 교수는 “카메라를 단 스마트 스피커라고 보면 된다”며 “지금의 인공지능 스피커의 2세대 버전”이라고 설명했다.

이와 같은 성과는 지난해 6월 북미 컴퓨터 언어학학회(NAACL) 워크숍 ‘시각적 스토리텔링 인공지능 챌린지(Visual Storytelling Challenge)’에서 우승을 차지하는 결실로 이어졌다.

AI 고도화에 성공하면서 로봇에 탑재하는 방법도 통했다.

지난해 장 교수 연구팀은 AI 로봇 오페어(AUPAIR)가 집 안에서 일어나는 일을 미션으로 수행하는 ‘소셜 홈로봇 부문(RoboCup@Home SSPL)’에서 종합 1위를 거머쥐었다. 오페어는 소프트뱅크가 개발한 로봇 ‘페퍼’에 장 교수 연구팀이 만든 AI 소프트웨어가 설치된 로봇이다.

앞으로 인공지능은 또 어떻게 발전될까. 장 교수는 앞으로 AI 연구 방향은 “그동안은 기계 심화학습인 딥 러닝(Deep Learning)이 중요했다면 앞으로는 기계가 평생학습하는 롱 러닝(Long Learning)이 중요해진다”고 전망했다.

장 교수는 “인공지능이 현실세계로 오기 시작하면 AI의 목표 타깃도 움직이기 시작한다. 현실세계는 끊임없이 변화하기 때문에 AI 또한 끊임없이 학습해야한다”며 “긴 시간을 사람들과 대화하며 사람들의 일상을 끊임없이 학습하는 ‘롱 러닝’을 통해 앞으로 AI는 더욱 진화될 것”이라고 강조했다.

 

 

의견달기(0)