생활 속 AI, 기회일까 위협일까?

코로나 백신 개발도 인공지능이 큰 몫

“코로나19로 각국의 연구개발 투자가 주춤했는데 인공지능 투자는 오히려 증가했다. 2019~2020년은 인공지능 투자가 40%나 늘어났다. 특히 의료와 제약 분야에 대한 투자가 가장 활발했다. 실제로 화이자 경우도 인공지능을 활용해서 백신을 생각보다 빠르게 개발할 수 있었다. 미국의 제약회사들이 2018년까지 디지털 트랜스포메이션을 끝냈다. 임상의 모든 데이터를 디지털화한 후, 거기에 인공지능 알고리즘까지 적용하는 AI 트랜스포메이션을 하던 중이었기 때문에 8개월이라는 짧은 기간에 백신을 개발할 수 있었다.”

9일 ‘생활 속 AI, 기회인가? 위협인가?’를 주제로 열린 국민생활과학기술포럼에서 김인순 The Miilk Korea 대표가 생활 속 기회로 활용된 인공지능에 대해 이렇게 말했다. 위협적 요소에 대해서는 “매년 미국 스탠포드대학교에서 인간 중심의 인공지능 인덱스 리포트를 발표하는데 거기에서 보면 AI 분야에서 새로 나타나고 있는 연구 인력 중 박사 학위자의 50%가 백인 남성으로 나타났다”며 “이로 인해 백인 남성의 편향성이 AI 알고리즘에 그대로 영향을 미칠 수 있기 때문에 연구인력의 다양성 확보도 시급하다”고 지적했다.

국민생활과학기술포럼이 9일 ‘생활 속AI, 기회인가? 위협인가?’를 주제로 열렸다. Ⓒ포럼 영상 캡처

생활 속 AI, 기회인가 위협인가

최근 인공지능의 윤리 관련 문제가 많이 발생하고 있는데 이에 대해서도 김 대표는 “기업이 인공지능을 내재화하고 서비스를 추진하려면 데이터를 디지털화하고 그것을 기반으로 AI로 전환해야 한다. 그런데 인공지능이 학습해야 하는 최초의 데이터부터 문제가 발생하고 있다. 올해 초 우리나라에서 문제가 됐던 ‘이루다’도 마찬가지였다. 잘못된 데이터가 발견되면 그것을 실수로 여기는 것이 아니라 인공지능의 잘못이라고 윤리적으로 비난하는 것이 문제”라며 “인공지능에 공급되는 데이터가 폭발적으로 증가하고 있는 만큼 데이터 라벨링과 정제에 더욱 더 신경을 써야 할 시점”이라고 강조했다.

이에 대해 이경일 ㈜솔트룩스 대표는 “순기능적으로 데이터와 관련된 데이터 품질 관리는 기술적인 부분에서 많이 해결될 것이다. 데이터 품질 향상을 위해서는 이미 품질을 평가하고 그 품질과 관련해서 신뢰성을 확보하기 위한 다양한 기술적, 과학적 평가 지표들이 존재하고 있으며 이미 우리가 생각하는 것보다 상당히 높은 수준에 올라와 있다”며 “그럼에도 불안한 이유는 사회적인 합의가 되어 있지 않고, 그것에 대해서 수용성을 갖는데 시간이 더 필요하기 때문”이라고 설명했다.

데이터가 의미 있게 사용되려면 기본적으로 데이터 자체적인 품질과 표현 수준이 3단계로 나눌 수 있다. 첫 번째 단계가 기계가 그 데이터를 읽을 수 있는 단계로, 머신 리더블(machine-readable) 단계다. 이 대표에 따르면 우리나라 정부가 보유하고 있는 데이터 중에 머신 리더블한 데이터는 20% 내외 정도밖에 안 된다는 것. 두 번째 단계는 머신 러너블(machine-learnable) 단계로, 기계가 많은 데이터 중에서 패턴을 발견할 수 있을만한 종류의 데이터를 뜻한다.

이경일 (주)솔트룩스 대표가 ‘생활 속의 인공지능’에 대해 발표했다. Ⓒ포럼 영상 캡처

마지막은 데이터에서 의미를 읽을 수 있고 데이터 간의 연관 관계를 이해할 수 있는 형태의 데이터 표현이나 의미 표현인데, 실제로 거의 존재하고 있지 않다며 이 대표는 “현재는 인공지능이나 데이터를 기반한 혁신과 변화들이 시작하는 과정이고 데이터 관련된 재생산이 급격하게 증가하는 것을 지켜보는 과정에 있다”고 진단했다.

AI위협, 기술·법·교육·문화적 해법 모색

인공지능이 생활 속에서 주는 위협 중 하나는 일자리와 직장의 소멸이다. 기술 변화로 직장을 잃게 된 사람들이 새롭게 생겨난 데이터 사이언스와 같은 직업군으로 이동할 수 없기 때문이다. 이런 위협을 어떻게 극복하고 그것을 수용 가능한 것으로 만들 것인가에 대해 홍성욱 서울대 생명과학부 교수는 3가지로 해법을 제시했다.

홍성욱 서울대 생명과학부 교수가 ‘AI의 위협’을 주제로 발표했다. Ⓒ포럼 영상 캡처

홍 교수는 “기술적 해법으로 설명 가능 인공지능을 만들어서 AI에 대한 인간의 신뢰를 높이는 방향을 채택하고 또 법적, 제도적 해법도 동시에 병행되어야 한다. 교육적, 문화적 해법도 따라가야 한다. 인공지능에 대해 매우 많은 환상을 갖거나 지나치게 비관적으로 생각하는 사람들이 있는데 환상과 지나친 비관을 극복해야 한다. 중도적인 인공지능에 대한 이해를 가질 수 있도록 교육과 문화가 자리를 잡아가야 한다”고 설명했다.

아울러 “인공지능은 새로운 기술이지만 인간이 지금까지 그래 왔듯이 기술의 이점을 살리고 문제점을 해결해 나갈 수 있을 것”이라며 “이를 위해서는 인공지능 기술의 발전에 예의 주시해야 하지만 지나친 낙관이나 비관은 피해야 한다. 이런 노력을 우리 사회 구성원인 시민들이 공유할 때 인공지능에 대해서 주체적이고 자발적인 시민으로서의 역할을 하는 알고리즘 시민권을 가질 수 있을 것”이라고 덧붙였다.

(1058)

태그(Tag)

전체 댓글 (0)

과학백과사전