인공지능(AI)이 급속도로 발전하고 있는 부분에 대해 안전장치를 걸어야한다는 의견이 속속 제시되고 있다.
AI에 대한 위험성에 대해 지속적으로 경고의 메시지를 보내온 세계적인 물리학자 스티븐 호킹 박사는 지난 6일 포르투갈 리스본에서 열린 ‘웹서밋테크놀로지 콘퍼런스’에서도 “인공지능에 대처하는 방법을 찾지 못한다면 인공지능이 인류 최악의 발명품이 될 것”이라고 또 다시 강력하게 경고했다.
마이크로 소프트사의 빌 게이츠나 스페이스 X의 일론 머스크 CEO 역시 호킹 박사와 뜻을 같이 하며 인공지능의 위험성에 대비할 안전장치와 제도를 마련하는데 크게 역점을 두고 활동하고 있다.
이제까지 기술의 발달은 산업혁명 이래 인간의 생활을 편리하게 변화시켜주는 도구로 인식되어 왔다. 기술은 인류에게 ‘선(善)’이었던 셈이다. 하지만 인공지능에 대해서는 왜 우려를 표명하고 대안 모색을 강조하고 있는 것일까.
인공지능의 발달, 인류에게 어떤 영향을 미칠까
손화철 한동대학교 교양학부 교수는 “과학자들은 앞으로 인공지능이 초래한 급격한 변화에 대해 우려하고 있다”며 “이는 이제껏 기술이 인간에게 혜택을 주는 도구의 산물이며 기술의 발전에 제동을 둬서는 안 된다고 생각했던 기존과는 너무 다른 태도”라고 말했다.

손화철 교수는 “이러한 태도의 변화는 인공지능이 어느 순간 인간의 손을 벗어나는 기술이며 이제까지의 다른 기술변화와는 달리 우리 사회 자체를 근본적으로 바꾸어 인간과 기술의 새로운 권력 관계를 만들어 낼 수도 있다는 심각한 인식에서 비롯된 것으로 보인다”며 요인을 분석했다.
손화철 교수는 10일 서울대 철학사상연구소, 한국포스트휴먼학회, 한국포스트휴먼연구소 공동주관 하에 열린 ‘인공지능 시대의 사회규범’ 학술대회에 참석해 이와 같은 의견을 밝혔다.
SF영화 속 소재로 다루어지던 인공지능이나 로봇 등이 우리 일상생활에서 익숙한 대상으로 변모하고 있다. 이제 인공지능의 발달은 주어진 사실이거나 피할 수 없는 미래로 규정되고 있다. 손화철 한동대 교수는 바로 이러한 점을 모순으로 지적했다.
그는 “인공지능은 날씨와 다르다. 그런데 인공지능을 대하는 사람들의 태도는 날씨예보를 확인하는 사람의 태도와 비슷하다. 예보된 날씨에 따라 옷차림을 계획하듯 특정한 기술이 발전된다는 전제하에 그에 대한 대책을 세우고 있다”고 말한 후 “이는 핵폭탄 개발이 후 기술이 인간의 통제를 벗어나 발전하고 있다고 주장하면서도 인공지능의 발달로 인한 사회적 문제와 규범의 주체는 인간이라고 생각하는 모순이 발생 한다”고 설명했다.
그는 기술을 가까운 미래에 초점을 맞추고 개발해야 한다고 주장했다. 손 교수는 “기술의 발전이 인간의 손을 벗어났다고 하며 막을 수 없다는 것을 전제로 하고 있다”며 하지만 ‘왜 그래야 하는지’ 반문했다. 그는 “세계가 불확실성이 강한 기술을 왜 개발해야하는지에 대한 근원적인 물음은 회피하고 단지 기술의 발전을 인간이 막을 수 없다는 논리에 빠져있다”고 지적했다.
이어 “인공지능의 발달을 기정사실로 두고 향후 인류에게 어떤 영향을 미칠 것인가를 따지기 전에 '해악이 염려되는 기술을 왜 개발하는지'에 대한 정당성을 시민들에게 이해를 구할 수 있어야한다”고 촉구했다.
인공지능 발달을 기정사실로 받아들이는 것 보다 왜 개발해야하는지 부터 설득해야
이를 위해서는 학계와 산업계, 시민들이 함께 대안을 마련해 사회 전체가 공감대를 형성할 수 있도록 해야 한다. 손 교수는 “기술의 변화를 날씨 예보와 같이 자연스럽게 받아들일 것이 아니라 그 이상의 대책을 마련해야한다”며 “이를 위해서는 기술 개발에 따른 여러 결과들을 검토하고 다양한 주체들의 의견을 모아야한다”고 제안했다.
정원섭 서울대학교 교수는 결국 인공지능의 주체는 인간이 되어야 한다는 점에 방점을 찍었다. 정 교수는 “우리는 인공지능이 어떻게 개발되었는지 모른다. 투명하게 공개해야한다”며 “알고리즘 구성 주요 원칙을 공개하고 소프트웨어 사전 인증 제도를 내실화하고 내부 투명성을 강화해야 한다. 의도적 악용을 방지하기 위한 사회적 안전장치를 만들어야한다”고 당부했다.
먼저 인공지능을 개발하는 기업에 대한 윤리강령 준수와 함께 인공지능을 개발하는 개발자들에 대한 윤리성 제고도 시급하다. 기술은 앞으로 점점 자본과 결합되어 갈 것이다. 고도로 결합된 자본과 조직 앞에서 직원들이 개별적인 양심에 맞춰 행동하기 어렵다는 문제가 발생할 수 있기 때문이다.
이러한 문제를 막기 위해서는 인공지능 전문가 윤리 조항을 만드는 일이 시급하다. 정 교수는 “인공지능 기술을 주도하고 있는 기업이나 단체에서는 자신들이 어떤 원칙에 입각하여 인공지능 기술을 구현하고 있는지 스스로 윤리강령을 개발하고 선포해야한다”고 말하고 “내부적으로 이러한 문제가 대두될 때에는 해당 사안에 대해 호소할 수 있는 내부 의사소통 통로로 적극 개발하고 고지할 것”을 조언했다.
다만 이러한 조항을 만드는데 있어 지나친 윤리강령을 매뉴얼화하거나 법제화하는 것은 경계해야 한다. 정 교수는 “자율적인 방법으로 기업들이 윤리강령을 발표하도록 유도하는 것이 좋다”고 강조했다.
이 날 전문가들은 “인공지능 기술에 대한 사회적 공포를 해소하기 위해서는 인공지능 시스템에 대해 학계, 산업계, 시민계가 기술의 설계 단계부터 함께 만들어나가는 것이 필요하다”고 제안했다.
- 김은영 객원기자
- teashotcool@gmail.com
- 저작권자 2017-11-15 ⓒ ScienceTimes
관련기사