December 14,2018

가짜 비디오 ‘딥 페이크’ 세계를 강타

법조계, 불신에 따른 국가적 위기사태 거론

FacebookTwitter

지난 5월 벨기에의 다른사회당에서 제작한 영상 하나가 SNS에 올라왔다.

해당 영상에서는 미국 트럼프 대통령이 등장해 자신이 “파리 기후변화협약에서 탈퇴하는 데 망설이지 않았다”는 말을 하고 있었다.

이 영상이 뜨자 순식간에 수백 개의 댓글이 올라왔다. 미국 대통령이 벨기에의 기후변화 정책을 본받아야 한다는 내용이었다.

한 네티즌은 “트럼프는 남의 나라 기후변화 정책에 대해 왈가왈부하기 전에 미국 내 학교에서 미친 듯이 총을 쏴대며 학생들을 죽이는 살인범에 더 큰 신경을 기울여야 한다”며 미국 대통령을 비난했다.

인공지능의 비지도학습 기능을 통해 가짜 동영상 제작이 손쉬워지면서 법조계 등에서 진실을 기반으로 한 사회구조가 붕괴될 수 있다는 우려를 표명하고 있다.   ⓒFakeApp

인공지능의 비지도학습 기능을 통해 제작된 가짜 동영상이 급속히 퍼져나가고 있다. 이에 진실을 기반으로 한 사회구조가 붕괴될 수 있다는 불안이 증폭되고 있다.  ⓒFakeApp

비지도 학습 기술로 가짜 영상 대량 생산  

그러나 이 영상에는 반전이 있었다. 13일 ‘가디언’ 지에 따르면 이는 첨단 기술을 활용해 트럼프가 말을 하고 있는 것처럼 교묘하게 제작된 가짜뉴스였다.

벨기에 다른사회당에서는 자체적으로 운영하고 있는 스튜디오를 통해 트럼프가 하지 않은 말과 행동을 실제로 한 것처럼 제작할 수 있었다. 이 제작 과정에 첨단 기술인 머신러닝이 동원된 것으로 밝혀졌다.

다른사회당은 이 가짜 내용이 담긴 비디오 영상을 통해 대중을 분개시키려 했다.

이를 통해 벨기에 정부로 하여금 보다 적극적인 기후변화 정책을 실행하도록 압력을 가하려는 의도를 갖고 있었다는 것이 가디언지의 분석이다. 그러나 트럼프의 어색한 입놀림이 드러나면서 이들은 큰 비난에 봉착하게 됐다.

이렇게 인공지능을 통해 제작한 가짜 비디오들이 SNS 곳곳에서 판을 치면서 우려가 잇달아 나오고 있다.

GAN(생성적 적대신경망, generative adversarial network)과 같은 인공지능 기술을 통해  진실을 왜곡한 가짜 동영상들이 대량 생산돼 세계 전역에 유포되고 있는 중이다.

가짜 동영상 제작에 큰 도움을 주고  있는 GAN 개발자는 대학원생으로 구글 브레인에서 머신러닝을 연구하고 있던 이안 굿펠로우(Ian Goodfellow)다.

그는 2014년 기존의 데이터를 활용해 새로운 유형의 데이터를 창출할 수 있는 새로운 알고리듬을 만들었다. 그리고 첨단 기계학습 기능의 흐름을 바꾸어놓았다.

손쉽게 가짜 영상 만들어 불신사회 우려

기계학습(machine learning)이란 사람이 학습을 하듯이 컴퓨터를 학습시켜 과제를 주고 새로운 지식을 얻어낼 수 있는 기술이다. 인공신경망에 기반을 둔 기술로 최근 수년간 비약적인 발전을 거듭해왔다.

기계학습 기능은 컴퓨터를 학습시키는 방식에 따라 지도 학습(supervised learning), 비지도 학습(unsupervised learning),  강화 학습(reinforcement learning) 등 세 가지 유형으로 구분한다.

지도 학습은 컴퓨터에게 특정 데이터를 쌍으로 주입하는 것이 특징이다. 이를 통해 어떤 상황에 처했을 때 쌍으로 주입한 정보를 적용, 식별할 수 있는 능력을 키운 인공지능 기술이다. 컴퓨터에게 미리 답을 알려주는 기술이라고 보면 된다.

반대로 비지도 학습 기술은 컴퓨터에게 답을 주지 않는다. 대신 컴퓨터에게 어떤 대상에 대한 추론 방식을 가르쳐준다. 그리고 어떤 물체나 음성 등을 보거나 들었을 때 그것이 무엇인지 판단할 수 있게 해준다.

이 알고리듬을 활용해 이전에 볼 수 없었던 새로운 데이터를 창출할 수도 있다. 버락 오바마의 사진을 수천 장 보여준 다음 어떤 영상을 복사하는 것이 아니라 새로운 표정이 들어간 오바마 얼굴을 만들어낼 수 있다.

앞에서 말한 트럼프의 가짜 영상 역시 이런 과정을 통해 만들어진 것이다.

이 비지도 학습 기술이 가짜뉴스 생산의 본거지가 된 것은 최근 들어서다. 그리고 그 활력소가 된 곳이 소셜 뉴스 웹사이트인 레딧(Reddit)이다.

이 사이트는 새로 올라온 글이나 영상을 업 앤 다운(up & down) 투표에 부친다. 그리고  업(up)을 많이 받은 게시물은 주제별 섹션이나 메인 페이지에 올라가게 된다. 이런 경쟁구도에서 디지털 작업을 거친 비디오 영상이 다수 올라왔다.

그중에는 포르노 영상을 수정한 내용이 다수 들어 있었다. 포르노성 비디오로 인기를 끈 바 있는 한 참여자는 자신이 “구글에서 개발한 기계학습 엔진인 텐서플로(TensorFlow)를 사용했다”고 말했다.

사회적으로 논란이 이어지자 레딧 측에서는 포르노성 비디오를 올리는 것을 금지했다. 그러자 올해 1월 레딧에 페이크앱(FakeApp)이란 무료 앱이 올라왔다.

딥페이크앱(deepfaceapp)이란 유저가 올린 이 무료 앱은 사용법이 매우 간단했다. 수많은 사람들이 이 앱을 이용해 가짜 영상을 만들기 시작했고, 이렇게 만든 가짜 영상들이 순식간에 세계로 퍼져 나갔다.

컴퓨터를 할 수 있는 사람이면 누구나 가짜 영상을 만들 수 있는 환경이 조성된 것이다. 이런 상황에서 지금 많은 사람들이 위협을 느끼고 있다.

미국 메릴랜드 대학의 법학자인 다니엘 시트론(Danielle Citron) 교수가 대표적인 경우다. 그녀는 “가짜 뉴스가 지금처럼 범람할 경우 머지않아 사회를 오염시켜 기본적인 사회질서를 붕괴시킬 것”으로 보고 있다.

시트론 교수는 현재 동료인 보비 체스니(Bobby Chesney) 교수와 함께 보고서를 작성하고 있는 중이다. 그녀는 “특히 가짜 영상이 더 많이 유포될 경우 극단적인 입장을 보이고 있는 정치계에 악영향을 미쳐 국가적인 재난이 될 것”이라고 전망했다.

가짜뉴스의 폐해가 사회적 문제가 된 것은 오래 전의 일이다. 이 가짜 뉴스의 영향력이 지금 가짜 동영상으로 확산되면서 국가적 위기 사태까지 거론되고 있는 중이다. 법학자들이 이 가짜 영상 문제를 어떻게 다룰지 관심이 증폭되고 있다.

의견달기(0)