December 14,2018

AI 상담, 윤리문제 해결이 관건

ICDPPC, AI 개발시 6개 준수 원칙 발표

FacebookTwitter

가정주부 A씨는 지난 여름 폭염 때 에어컨이 시원한 바람을 내보내지 않아 에어컨 제조회사의 홈페이지에서 채팅 방식의 소비자 상담을 한 적이 있다. 대화창에서 에어컨 바람이 시원하지 않다고 하소연하자 상담원은 에어컨의 제품 유형 및 구체적인 증상을 물어본 후 몇 가지 조치 방법을 제시했다.

A씨는 상담 내용대로 에어컨의 실외기가 설치된 창고로 가서 실외기 주변에 적재된 물건들을 치우고 환기가 잘 되게끔 창고 문을 열어두었다. 그러자 얼마 되지 않아 에어컨은 거짓말처럼 다시 시원한 바람을 내뿜기 시작했다.

그런데 A씨에게 에어컨에 대한 불편 사항을 접수받고 실외기실 점검이라는 대처 방안을 신속히 제시해준 상담원의 정체는 다름 아닌 인공지능(AI) 챗봇이었다. 즉, A씨는 AI 챗봇 덕분에 상담원 대기시간 없이 신속한 소비자 상담을 받을 수 있었던 것이다.

늘어나는 AI를 통한 소비자 상담으로 인해 윤리적 이슈가 부각되고 있다.  ⓒ Public Domain

늘어나는 AI를 통한 소비자 상담으로 인해 윤리적 이슈가 부각되고 있다. ⓒ Public Domain

AI 챗봇이 그처럼 고객이 원하는 만족스러운 해답을 제시할 수 있었던 건 그 회사가 그동안 쌓아온 고객 상담사례를 미리 학습하고 있었기 때문이다. 이런 정보를 기반으로 AI 챗봇은 채팅(문자 텍스트)이나 음성, 그리고 사진 이미지 등의 방식을 통해 소비자 상담을 진행할 수 있다.

최근 들어 많은 기업들이 소비자 상담용 AI 챗봇의 도입에 적극적인 행보를 보이고 있다. AI의 경우 많은 훈련이 필요 없을 뿐더러 하루 24시간 내내 소비자들의 요구에 맞게 응대할 수 있기 때문이다. 또한 욕설이나 성추행 등의 고객 갑질로부터 상담원을 보호할 수 있는 장점까지 있다.

2020년엔 고객 서비스 대응의 85%가 기계

소비자들의 경우도 사람을 직접 상대하는 것보다 AI 상담에 대한 선호도가 점차 높아지는 추세다. IT 조사기관인 가트너 사에 의하면 AI 챗봇을 이용할 경우 소비자 만족도가 33% 올라가고, 추가적인 콜이나 이메일 질의가 약 70% 감소하는 것으로 나타났다.

이에 따라 가트너 사는 2020년에는 모든 소비자 서비스 운영 중 약 1/4이 AI 챗봇 등의 가상 시스템을 이용할 것이라는 전망을 내놓았다. 또한 IBM 사는 2020년에 고객 서비스 대응의 85%가 인간의 개입 없이 이루어질 것이라고 예측했다.

그러나 AI를 이용한 소비자 상담에는 한 가지 문제점이 따라다닌다. 개인정보 보호와 관련된 윤리적 이슈가 바로 그것이다. AI는 개인에 대한 수많은 데이터를 축적하고 있을 뿐만 아니라 그를 통해 사용자의 심리나 감정, 현재 처한 상황 등을 분석할 수 있기에 윤리적인 문제를 안고 있을 수밖에 없다.

예를 들면 AI 챗봇에게 자신의 재정 상태에 대한 걱정을 상담한 소비자의 경우 단기 대부업체와 자동적으로 연결될 수도 있다. 이처럼 AI로 수집되는 소비자 정보는 안전하게 보호되지 않을 수 있으며, 또한 소비자에 관한 정보 수집이 100% 동의에 의해서 이루어지지 않고 있는 것도 문제다.

이와 관련해 최근 벨기에 브뤼셀에서 개최된 제40차 개인정보보호감독기구국제회의(ICDPPC)에서 AI의 윤리 및 개인정보보호에 대한 선언문이 발표돼 주목을 끌고 있다. ICDPPC는 AI 개발에 있어서 개인의 인권을 보호하기 위한 6개 준수 원칙을 제시했다.

그에 의하면, AI를 개발할 때 디자인 단계부터 윤리를 고려한 접근 방법이 채택되어야 한다고 명시됐다. 즉, 초기 설정부터 프라이버시를 고려한 시스템 디자인 원칙을 적용함으로써 정보 주체의 프라이버시 및 개인정보를 보호할 수 있도록 기술적 조치 등의 절차가 이행되어야 한다는 것이다.

AI의 디자인 단계부터 윤리 문제 고려해야

AI에 있는 데이터 사용으로 인해 야기되는 편견이나 차별이 줄어들어야 한다는 원칙도 제시됐다. 이를 위해서는 편견의 판별 및 해결, 감소를 위한 기술 연구 분야에 대한 투자, 개인정보의 사용에 대한 절차 준수, 편견 및 차별을 해결하는 데 필요한 원칙에 대한 인식 제고 등이 필요하다고 밝혔다.

실제로 세계 1위 클라우드 기업 아마존웹서비스(AWS)는 최근 신입사원 채용 시 사용하던 AI 시스템을 더 이상 사용하지 않기로 결정했다. 그 이유는 이 시스템이 여성보다 남성 지원자를 선호하는 것으로 밝혀졌기 때문이다.

이 시스템이 여성을 차별하는 방법은 남성 지원자들의 이력서에 보다 많이 등장하는 단어를 선호하는 식이다. 예를 들면 남성 지원자의 경우 ‘실행된’ 또는 ‘성취된’ 등의 단어를 더 많아 사용한다.

따라서 아마존 측은 그런 단어들에 대해 특별히 반응하지 않게끔 소프트웨어를 수정했으나, 다른 방식으로 여성에 대한 차별을 하는지 확신할 수 없어 결국 AI 채용 시스템의 운영을 중단한 것으로 알려졌다.

그밖에도 AI는 기본적인 인권을 존중하고 공정성 원칙에 준하여 개발‧사용되어야 한다는 ‘공정성 원칙’과 AI에 대한 잠재적 파급효과와 그 결과에 대해 ‘지속적인 관심과 경계심’을 갖는 것이 필요하다는 조항이 추가됐다.

또한 AI에 대한 과학적 연구 투자를 통해 시스템의 ‘투명성과 명료성이 개선’되어야 하며, 개인정보 보호 및 프라이버시 권리 등의 촉진을 통해 ‘모든 정보주체에 대한 개인의 권리 행사’가 진작되어야 한다는 조항도 포함됐다.

ICDPPC는 국제적 수준에서 AI 시스템에 대한 공통의 원칙을 개발하는 데 기여하기 위해 윤리 및 개인정보 보호 관련 상설 작업팀을 설립했다. 이 작업팀은 선언문에서 제시된 6가지 원칙을 진작시키는 임무를 맡게 된다. ICDPPC는 앞으로도 디지털 윤리에 대한 대중의 논의에 적극 참여하고 지원할 것이라고 밝혔다.

의견달기(0)