July 16,2019

인간의 편견이 불공정한 AI 만든다

인공지능 편향과 윤리적 과제 논의

FacebookTwitter

많은 과학자들이 기계가 인간을 능가하게 될 것이라는 전망을 내놓고 있다. 세계적인 미래학자 레일 커즈와일은 기술이 인간을 뛰어넘어 새로운 문명을 생산하게 되는 ‘특이점’이 멀지 않았다고 예측했다. 또 슈퍼 인텔리전스의 출현으로 호모 사피엔스의 종말이 예견되고 있기도 하다.

하지만 1970년대부터 인공지능을 연구해 온 인지과학자이자 철학자인 장가브리엘 가나시아 파리6대학 정보과학 교수는 “특이점이 과장된 측면이 많다”고 반박하면서 “현재 인공지능의 발달 단계를 기반으로 사회적, 윤리적 논의가 진행되어야 한다”고 주장했다.

지난 24일, 프랑스의 저명한 인공지능 전문가이자 철학자인 장가브리엘 가나시아 초청 강연회이 열렸다. ⓒ 김순강 / ScienceTimes

지난 24일, 프랑스의 저명한 인공지능 전문가이자 철학자인 장가브리엘 가나시아 초청 강연회가 열렸다. ⓒ 김순강 / ScienceTimes

인공지능의 편향과 윤리적 과제는?

지난 24일 사단법인 오픈넷과 주한 프랑스문화원이 ‘인공지능 편향과 윤리적 과제’를 주제로 마련한 강연에서 가나시아 교수는 빅데이터 기반 인공지능이 사회적 편향이나 편견을 증폭시킬 수 있는 가능성과 인공지능 알고리즘이 인간의 무의식적 편견에 의해 영향을 받을 가능성에 대해 언급했다.

가나시아 교수는 고전적 관점에서 출발하여 기계 학습을 연구했고, 철학자들의 다양한 윤리적 견해를 포괄하는 이론적 모델을 세워왔으며 디지털 기술과 인공지능을 이용해 문학, 철학, 역사 분야의 결과물들을 새롭게 해석하고 있다.

그는 “진정한 인공지능은 정보를 수집하여 인식하고, 기억하며 학습하고, 추론하며 사고하는 단계를 거쳐 의사결정을 하고, 그것을 실행에 옮길 수 있어야 한다. 하지만 지금의 AI는 무엇인가를 실행하게 되는 의도나 스스로 행동하는 자율성이 없기 때문에 진정한 주체라고 할 수 없다”고 주장했다.

인공지능 로봇이 행동을 하는 것은 명령자의 의도가 전달되어서 그것을 수행하는 수준일 뿐이지, 스스로 무언가를 해야 한다는 목적성을 갖고 그것을 자율적으로 수행하지는 못한다는 얘기다. 이것은 자율과 자동의 차이점과 같은 것이다.

인공지능이 탑재된 완전한 자율 자동차가 상용화되더라도 사용자가 목적지를 입력하지 않는 한, 그 자동차는 움직일 수 없다. 스스로 명령을 내릴 수 없고, 스스로 실행을 결정할 목적이나 의도를 가질 수 없기 때문이다.

가나시아 교수가' 공정성, 정의, 인공지능 및 의사결정'을 주제로 강연했다.

가나시아 교수가’ 공정성, 정의, 인공지능 및 의사결정’을 주제로 강연했다. ⓒ 김순강 / ScienceTimes

AI, 인간의 편견 모방으로 ‘불공정해져’

하지만 가나시아 교수는 “인간의 정보를 통해 학습하고, 인간을 모방하기 때문에 의도의 주체가 아니더라도 인공지능은 얼마든지 불공정해질 수 있다”고 지적했다. 그 같은 사례가 바로 2016년 논란이 됐던 마이크로소프트사의 AI 챗봇 ‘테이’다.

챗봇 테이는 유대인 학살이 조작됐다는 등의 인종차별적 망언과 욕설을 쏟아내 출시 16시간 만에 바로 운영이 중단됐다. 이는 사용자들이 테이에게 인종차별과 성차별 같은 부적절한 메시지를 학습시켰기 때문이다.

여기서 인공지능의 공공성이 제기되는 것이다. 가나시아 교수는 “인공지능이 선입견을 통해 불공정한 결정을 내리지 않도록 해야 하고, 편견이나 낙인효과로부터 자유로울 수 있어야 한다”며 “이는 인공지능 알고리즘과 관련된 기술적인 문제가 아니라 인간이 어떻게 인공지능을 공정한 주체로 활용할 것인가에 달려 있는 것”이라고 주장했다.

이를 위해서 “윤리적이며 공정한 인공지능을 만들려고 하는 것이 아니라 공정하고 윤리적인 인간을 위한 인공지능이 되어야 한다”며 “인공지능의 증강을 통한 숙고(熟考)로 인간이 윤리적인 결정을 내릴 수 있도록 돕는 역할을 하도록 해야 한다는 것”이라고 덧붙였다.

이상욱 한양대 교수(우측)와 박경신 고려대 교수가 가나시아 교수와 함께 대담을 진행했다.  ⓒ 김순강 / ScienceTimes

이상욱 한양대 교수(우측)와 박경신 고려대 교수가 가나시아 교수와 함께 대담을 진행했다. ⓒ 김순강 / ScienceTimes

AI 윤리적 과제, 사회적 합의 도출로 구현

강연 후 가나시아 교수는 이상욱 한양대 철학과 교수와 박경신 고려대 법학전문대학원 교수와 함께 대담 시간을 가졌다. 여기서 박경신 교수는 챗봇 테이가 문제를 일으킨 까닭은 처음부터 ‘유명한 트위터리언’이 되도록 명령을 받았기 때문일 것”이라며 “만약에 명망이 있는 ‘트위터 활동가’가 되라는 상위명령이 있었다면 불공정한 AI가 되지 않았을 것이라고 생각한다”고 말했다.

아울러 “사실 인간들은 어떤 의도를 갖고, 자율적으로 움직이는 인공지능을 원하는 게 아니라 인간의 노동력을 대체할 수 있는 가장 효율적인 도구를 원하는 것이기 때문에 도구적 인공지능을 원한다는 인간 상호 간의 확고한 동의만 있다면 인공지능의 윤리적인 부분은 전혀 문제되지 않을 수 있다”고 덧붙였다.

이상욱 교수도 “사회적으로 논의되는 여러 심각한 문제들이 사실은 인공지능만의 특별한 문제라기보다는 기존에 인류가 가지고 있었던 문제들이 새로운 기술의 발전으로 인해 증폭되어 나타나는 것뿐”이라며 “근본적인 문제는 이를 기술로 적당히 풀려고 할 게 아니라 윤리적으로 논의하고 사회적으로 논의해서 합의를 도출하고 그것을 정책이나 기술로 구현하려는 노력이 필요하다”고 강조했다.

의견달기(0)