인공지능, 음악도 대체 가능할까?

'인공지능 시대의 음악기술' TED 강연

최근에 한국고용정보원이 4차 산업혁명이 직업세계에 미치는 영향을 조사한 결과 우리나라 직업인의 44.7%가 인공지능이나 자동화와 같은 첨단기술로 인해 일자리가 감소할 것으로 인식하고 있었다. 이는 4차 산업혁명으로 인해 인류가 일자리를 빼앗기고, 인공지능이나 컴퓨터로 대체될 것이라는 불안감을 갖고 있다는 얘기다.

그렇다면 인간의 가장 창의적인 영역이라고 할 수 있는 예술까지 인공지능이나 컴퓨터로 대체될 수 있을까. 25일 세계과학문화포럼에서 ‘과학기술과 음악이 만났을 때’라는 주제로 열린 TED강연에서 네트워크로 이해하는 음악, 한계를 넘는 음악의 새로운 모습 등 이에 대한 다양한 이야기들이 다뤄졌다.

과학기술과 음악이 만나면 무슨 일이?

'인공지능 시대의 음악기술'에 대해 발표하는 남주한 교수.

‘인공지능 시대의 음악기술’에 대해 발표하는 남주한 교수. ⓒ 김순강 / ScienceTimes

이날 ‘인공지능 시대의 음악기술’에 대해 발표한 남주한 KAIST 교수는 “에디슨이 축음기를 발명하기 전에는 모든 사람들이 라이브 연주만 들을 수 있어서 음악 감상이 지위가 높고 경제적으로 여유 있는 사람들의 전유물이었지만 레코딩 기술의 발명으로 누구나 쉽게 음악을 들을 수 있도록 저변이 확대됐으며 음악이 산업으로 발전할 수 있는 계기도 마련됐다”고 말했다.

그리고 “이제는 컴퓨터와 디지털 기술의 발전으로 인해 가상악기를 이용해 고퀄리티의 연주를 할 수 있고, 언제 어디서나 컴퓨터를 이용해 음악을 만들 수도 있으며, 그렇게 만들어진 음악은 스마트폰만 있으면 전 세계인이 실시간으로 들을 수 있게 되었다”고 덧붙였다.

그럼 도래한 인공지능 시대에 음악은 과연 어떻게 발전할까. 그리고 우리의 작곡, 연주, 감상 방식은 어떻게 바뀔까. 이에 대해 남 교수는 “이미 인공지능기술이 여러 분야에 적용되고 있어 음성 인식이나 이미지 인식, 자동번역 등 소프트웨어가 날로 향상되고 있으며 의료 진단이나 법률 자문까지 활용 영역을 넓혀가고 있는 상황”이라고 설명했다.

남 교수는 인공지능에서의 두 가지 방법론을 제시했다. 하나는 도메인에 대한 지식을 바탕으로 규칙을 찾는 방식으로 ‘규칙 기반 방법’이고, 다른 하나는 기계학습을 이용하여 데이터 간의 관계를 찾는 방식으로 ‘데이터 기반 방법’이다.

‘규칙 기반 방법’은 사칙연산과 같은 우리가 알고 있는 지식을 이용해 문제에 접근해 규칙을 찾아내는 것으로, 단순한 문제를 이해하고 설명하기가 쉽지만 문제가 복잡해지면 관계를 설명하기가 점점 어려워지는 한계점을 갖고 있다는 것.

다음은 ‘데이터 기반 방법’ 인데, 흔히들 뉴럴 네트워크를 많이 사용한다. 남 교수는 “뉴럴 네트워크는 뇌에서 작용하는 뉴런의 여러 가지 상호작용에서 아이디어를 얻어서 만들어진 것으로, 입력과 출력의 관계를 예측하고, 예측된 값과 실제 값의 차이를 최소화하는 방향으로 그 모델을 학습시킨다”고 설명했다.

인공지능의 학습방법인 뉴럴 네트워크는 뇌에서 작용하는 뉴런의 여러가지 상호작용에서 아이디어를 얻어서 만들어진 것이다. ⓒ 위키피디아

인공지능의 학습방법인 뉴럴 네트워크는 뇌에서 작용하는 뉴런의 여러가지 상호작용에서 아이디어를 얻어서 만들어진 것이다. ⓒ 위키피디아

뉴럴 네트워크(Neural network)는 인공지능과 비슷한 역사를 갖고 있는데, 80년대까지 활발하던 연구가 정체기를 맞았다가 2006년 새로운 학습 방법의 제안으로 연구가 활성화 되었고, 2012년 딥러닝의 등장으로 이미지 분류, 음성 인식 등 월등하게 성능이 향상됐다는 것.

인공지능, 음악의 저변 확대 혜택 늘려

남 교수는 “딥러닝이 기존 뉴럴 네트워크와 동일하지만 더 많은 계층(layer)을 사용한 학습으로, 빅데이터 사용과 GPU 등을 통한 빠른 계산, 딥 뉴럴 네트워크의 수많은 피라미터가 복잡한 관계를 학습하게 되면서 알파고와 같은 인공지능이 만들어지게 된 것”이라고 말했다.

그렇다면 딥러닝이 음악에는 어떻게 적용될 수 있을까. 남 교수는 “음악의 장르나 분위기, 연주 악기 등을 구분하는 ‘음악 태그 분류’, 음악을 듣고 자동으로 악보를 그리는 ‘자동 음악 채보’ 그리고 원하는 분위기에 맞게 자동으로 음악을 산출하는 ‘자동 음악 작곡’ 등에 이미 사용되고 있다”고 설명했다.

따라서 인공지능을 통해서 보다 쉽고 스마트하게 보다 많은 사람들이 음악을 접할 수 있는 혜택은 늘어났지만, 음악을 선곡하는 DJ, 음악을 들려주는 연주자, 음악을 가르치는 교육자, 음악을 만드는 작곡가의 역할을 인공지능이 대신하게 되는 것 아닌가라는 우려가 현실이 되고 있는 게 사실이라는 것.

그러나 아직까지는 인공지능이 학습한대로만 만들 수 있다는 것. 다시 말해 비틀즈 음악을 들려주고 학습을 시키면 비틀즈 음악과 비슷한 음악을 만들어낼 수 있지만, 전혀 새로운 장르의 음악을 창작해 낼 수 있는 단계는 아직 아니란 얘기다.

결론적으로 남주한 교수는 “작곡자들이 음악을 만들 때는 어떤 영감을 받아서 곡을 쓰는데, 인공지능에게는 영감이 없고, 작곡자는 작곡한 음악을 들으며 부족한 부분을 고쳐가면서 작업을 하는데, 인공지능은 음악의 좋고 나쁨을 감상할 수 없기 때문에 아직까지는 인공지능이 음악과 같은 예술영역을 완전히 대체할 수 없다”면서도 “인공지능이 지속적으로 발전하고 있기 때문에 그 미래는 누구도 예측하기 어렵다”고 말했다.

(8736)

태그(Tag)

전체 댓글 (0)

과학백과사전