November 14,2019

AI와 함께할 미래, 유토피아일까?

한림원탁토론회서 미래 변화 양상·대응 방안 논의

FacebookTwitter

미국 SF작가 윌리엄 깁슨은 ‘미래는 이미 와 있다. 단지 널리 퍼져있지 않을 뿐’이라고 했다. 하지만 그가 생각했던 것보다 AI는 훨씬 더 빨리 넓게 퍼져가고 있다. 우리 생활 곳곳에 영향을 미치고 있으며 이미 AI는 대세가 됐다.

그렇다면 인공지능과 함께할 미래사회는 유토피아일까 디스토피아일까? 이를 주제로 한국과학기술한림원은 지난 26일 코리아나호텔에서 한림원탁토론회를 열고, 인공지능이 가져올 미래 사회의 변화 양상과 대응 방안에 대해 논의했다.

지난 26일 제142회 한림원탁토론회가 '인공지능과 함께할 미래 사회, 유토피아인가 디스토피아인가'를 주제로 열렸다.

지난 26일 제142회 한림원탁토론회가 ‘인공지능과 함께할 미래 사회, 유토피아인가 디스토피아인가’를 주제로 열렸다. ⓒ 김순강 / ScienceTimes

AI 한계 알고, 책임감 있는 사용해야

김진형 KAIST 전산학부 명예교수는 “무인자율자동차로 슈퍼마켓에서 온라인으로 구매한 물품을 배달하는 서비스가 올해 7월에 시작됐다”고 설명했다. 아울러 김 교수는 “AI가 예술작품을 창작하고, 변호사를 대신해서 계약서를 검토해 변호사의 36만 시간의 업무를 즉시 처리함은 물론 더욱 높은 정확도를 보이고 있다. 뿐만 아니라 AI 의사가 당뇨성 망막증과 같은 질병을 인간보다 훨씬 더 정밀하게 진단할 수 있다”며 인공지능으로 인한 놀라운 변화들을 소개했다.

김진형 교수가 '인공지능의 본질, 그 능력과 한계'를 주제로 발표했다.

김진형 교수가 ‘인공지능의 본질, 그 능력과 한계’를 주제로 발표했다. ⓒ 김순강 / ScienceTimes

그러면 이런 혁신적 변화는 과연 무엇이 가능하게 했을까. 김 교수는 “결과는 종종 혁신적이지만 진화는 항상 점진적”이라며 “컴퓨터로 하여금 지능적 행동을 하게 하는 AI 기술의 역사도 1950년대부터 시작되어 꽤 오래전부터 진행되어 인간의 일자리를 위협할 만큼 급속한 발전을 거듭해 왔지만, 치명적인 한계가 존재하는 것도 사실”이라고 말했다.

현재 AI는 데이터 기반의 기계학습 단계에 있다. 그런데 기계학습 방법론은 의사결정 과정을 인간과 소통하는데 취약하고 ‘왜? 만약 ~라면?’이라는 질문에 취약하다. 또 신뢰성에도 한계가 있다. 김 교수는 “자율적 의사결정 능력이 있는 AI가 데이터 학습을 통해 개발자의 의도를 벗어날 가능성은 항상 존재해 왔다”고 설명했다.

윤리적인 한계도 있다. 결국 AI의 본질은 알고리즘인데, 과연 윤리적 행위를 알고리즘화할 수 있는가 하는 것이다. 그렇기 때문에 김 교수는 “데이터와 알고리즘이 편견 없이 공정한가? 결과는 해석이 가능한가? 시스템은 믿을 만하고 안전한가? 인공지능은 합법적, 윤리적, 도덕적인가를 항상 염두에 두면서 AI를 책임감 있게 사용해야 한다”고 강조했다.

알고리즘의 편향성 어떻게 극복하나

또한 이날 토론회에서 홍성욱 서울대 생명공학부 교수는 ‘인공지능 알고리즘이 인간을 차별하는가’에 대해 발표했다. 그는 인공지능 면접관이 여성을 연상시키는 단어가 나오면 감점시키고 탈락시켰던 사례를 소개하면서 “인공지능이 내린 결론이 편향되어 있다면 그것은 알고리즘이나 데이터에 문제가 있는 것”이라고 지적했다.

그렇다면 데이터가 왜 문제가 되는 것일까. 홍 교수는 “진료하는 AI의 경우 대부분 백인 남성 데이터를 기반으로 하기 때문에 오류율이 백인 남성은 1%에 불과한데 비해 흑인 여성은 35%나 된다”며 “알고리즘의 편향성 때문에 의사가 히포크라테스 선서를 하듯이 알고리즘 모델 개발자도 선서를 해야 한다는 주장도 있다”고 설명했다.

특히 범죄 위험 예측 알고리즘인 COMPAS의 편향성은 더욱 심각하다. 흑인이 편파적으로 고위험군으로 분류되고, 백인은 부당하게 많은 수가 저위험군으로 분류됐기 때문이다. 홍 교수는 “COMPAS를 계속 사용하면 판단 오류의 흑인이 많이 생기고 이들이 더 오랜 시간 감옥에 있게 됨으로써 흑인의 위험도는 더 올라가게 되어 결국엔 지금의 불평등과 차별이 더 심화될 것”이라고 우려했다.

또 문제는 어떤 피고의 위험도를 평가할 때 그 사람이 어떤 그룹에 속해 있는가를 평가하는 것이 과연 공정한가 하는 것이다. 이는 피고의 빈부, 계급, 성별, 자라난 지역 등으로 차별하는 것이기 때문에 ‘법 앞의 평등’에 위배된다.

홍성욱 교수는 '인공지능 알고리즘은 인간을 차별하는가?'를 주제로 발표했다.

홍성욱 교수는 ‘인공지능 알고리즘은 인간을 차별하는가?’를 주제로 발표했다. ⓒ 김순강 / ScienceTimes

홍 교수는 “우리가 혹시 알파고 신화에 빠져 있는 건 아닐까”라고 반문하면서 “인공지능은 게임 같은 것을 인간보다 월등하게 잘하기 때문에 당연히 재범 확률 예측도 잘할 것으로 생각하는 건지도 모른다”며 “불확실하고 복잡한 상황에서 판단하는 영역에 인공지능을 응용하는 것을 보다 신중하게 접근할 필요가 있다”고 강조했다.

AI로 인한 변화 양상, 미래 지향적 대응해야

이 밖에도 패널 토론을 통해 김경민 서강대 사회학과 교수는 정보의 비대칭과 독점으로부터 야기되는 지배와 권력의 문제를 제기했다. 그는 “우버 플랫폼이 택시 수요가 없을 때도 기사들을 도로 위에 있게 하기 위해 의도적으로 잘못된 정보를 제공하여 기사들을 목적대로 조정한 사례가 있다”며 “정보의 비대칭과 독점으로 인해 권력과 지배가 나뉠 수 있다”고 경고했다.

또 임영익 인텔리콘법률사무소 대표변호사는 “컴퓨터를 이용해 법률 서비스를 자동화하는 일체의 산업 분야를 ‘리걸테크(Legal Tech)라고 한다”며 “법률과 인공지능의 융합은 세계적인 추세이고 시민들에게 좀 더 유익한 법률 서비스를 제공할 수 있는 측면도 있기 때문에 각종 규제와 데이터 개방에 대해 미래 지향적 검토가 필요하다”고 피력했다.

김건우 카카오모빌리티 데이터 이코노미스트는 “우리나라 노동시장 일자리의 43%가 자동화 고위험군인 것으로 나타났다. 그것이 사무, 판매, 기계조작 종사자 등 특정 직업이나 산업, 계층에 집중되어 있기 때문에 일자리 양극화를 부각시킬 수 있다”며 “이를 해결하기 위해서는 산업의 변화에 다양하게 대응할 수 있는 유연안정성을 갖춘 노동시장을 만들도록 정책적 지원을 해야 한다”고 주장했다.

의견달기(0)