윤리적 AI, 개발 단계부터 검증 시스템 필요

웨비나서 인공지능 윤리 문제와 해결책 모색

최근 AI 챗봇 ‘이루다’로 촉발된 이슈가 인공지능 윤리와 적법한 개인 정보 이용이라는 문제로 이어지고 있다. 인공지능 학습 데이터로 인한 개인정보보호법 위반과 관련된 소송뿐 아니라 일부 시민단체에서는 “인공지능을 통한 인권침해가 예방되어야 한다”며 국가인권위원회에 진정까지 제기한 상태다.

이에 인공지능법학회와 서울대 인공지능정책 이니셔티브가 4일 ‘이루다 사건으로 본 인공지능 거버넌스:AI의 일탈을 어떻게 막을 것인가’를 주제로 웨비나를 열고, 다양한 인공지능 윤리 문제와 그에 대한 해결책을 규범적, 정책적 측면에서 모색했다.

최근 AI 챗봇 ‘이루다’로 촉발된 이슈가 인공지능 윤리와 적법한 개인 정보 이용이라는 문제로 옮겨왔다. ©게티이미지뱅크

AI의 일탈, 어떻게 막을 것인가

이준환 서울대 언론정보학과 교수는 ‘이루다’의 문제가 대답할 수 없는 질문에 대해 무관심하거나 회피하는 ‘Fallback 전략’을 사용한 데서 비롯됐다고 봤다. 예를 들어 이루다에게 ‘페미니즘에 대해 어떻게 생각하느냐’고 물었을 때 ‘그게 뭐 중요하냐 요즘 세상에’라고 답변을 했다. 이것이 ‘이루다’가 페미니즘에 부정적으로 학습되었다는 근거가 됐다.

하지만 이 교수는 “대게 챗봇들이 적절한 답변을 찾지 못할 때면 ‘죄송하지만 이해를 못했어요’나 ‘다시 말씀해주시겠어요?’라고 ‘사과하기’ 또는 ‘되묻기’ 전략을 쓰는데 이루다는 ‘무관심’ 혹은 ‘회피’ 전략을 사용했고, 그것이 20대 여성 AI 에이전트라는 설정과 맞물리면서 ‘생각 없이 맞춰주는 어린 여성’이라는 부정적인 캐릭터를 만들어내게 된 것”이라고 풀이했다.

게다가 ‘이루다’는 관계 지속을 위해 친밀도 상승 시스템을 설계한 것도 문제였다. 이루다가 좋아하는 말을 하거나 대화의 양이 많아지면 친밀도 레벨이 상승하게 된다. 이것이 레벨업을 위해 컴퓨터 게임에 열을 올리는 것처럼 이루다와 과도하게 친밀한 대화를 시도하게 만드는 원인이 된 것이다.

이 교수는 “사람들이 대화형 에이전트를 사회적 행위자로 인식하기 시작했다. 따라서 AI와의 관계 형성에 있어서도 기계적인 친밀도를 쌓는 것보다 서로에 대한 정보를 교환하고 기억하며 신뢰와 공감을 이루는 라뽀(Rapport) 형성이 중요하다”며 “이루다의 경우는 대화를 이어가는 기술적 성취는 좋았으나 관계를 맺는 사회과학적 시각은 부족했다”고 지적했다.

이날 웨비나에서는 이런 ‘이루다’의 기술적 문제들이 개선이 아닌, 사업화와 개발을 모두 중지시킬만한 사안은 아니라는 주장도 나왔다. 박상철 서울대 법학전문대학원 교수는 “대화형 에이전트는 한국어 구사를 위한 자연어 처리(NLP) 기술 발전과 응용의 핵심으로 전산업에 걸쳐 고객 접점 관리에 활용될 수 있고 휴머노이드의 기초로서 엄청난 기술적, 산업적 잠재력을 갖고 있다”며 “이루다 사건을 일벌백계하여 AI 개발의 싹을 뽑아서는 안된다”고 강조했다.

박상철 교수는 “이루다 사건을 일벌백계하여 AI 개발의 싹을 뽑아서는 안된다”고 강조했다. ©웨비나 영상 캡처

아울러 “신뢰할 수 있는 인공지능(Trustworthy AI)의 제도적 구현을 위해서는 기업이 사회적 책임 측면에서 자율준수를 할 수 있도록 유인책을 쓸 뿐 아니라 정부는 양질의 구어 말뭉치를 계속적으로 생성, 전처리하여 제공하고 기업들이 훈련된 모델의 신뢰성을 측정하고 검증할 수 있는 공적 인프라를 개발해 제공함으로써 인공지능 개발과 사업화를 촉진해야 한다”고 주문했다.

윤리적인 AI 위해 사전·사후 통제 강화해야

또 윤리적인 AI를 디자인하려면 개발 단계의 자율 검증 시스템 도입과 사전, 사후 통제를 강화해야 한다는 의견도 제기됐다. 한애라 성균관대 법학전문대학원 교수는 “윤리적 AI는 개발 단계에서부터 내부 시스템적으로 개발자의 인적 다양성이 필요하다”며 “남자와 여자 비율도 균형 있게 구성되어야 윤리적으로 편향된 AI 개발을 막을 수 있다”고 피력했다.

이뿐만 아니라 한 교수는 예산 지원과 투자 단계에서의 윤리적 고려와 인공지능 윤리에 관한 감사기준과 감사체계 마련 등 사전 통제를 제도화하고, 비윤리적 인공지능에 대한 행정처분, 피해자의 금지 청구권과 손해배상청구권 등 사후적 통제도 강화해야 한다는 주장을 내놨다.

한애라 교수가 윤리적 AI를 위한 시스템 구축 필요성에 대해 설명했다. ©웨비나 영상 캡처

정부에서도 인공지능 신뢰성 확보를 위한 기술 개발과 윤리 교육, 법 제도 등 정책 마련에 뜻을 같이했다. 김경만 과기정통부 인공지능기반정책 과장은 “인공지능 기술이 일상생활의 일부가 되면서 윤리 문제 등 신뢰성이 더욱 중요하게 됐다”며 “인터넷기업협회와 지능정보산업협회 등 개발자와 기업 등을 대표할 수 있는 민간단체 중심으로 하여 각 주체별로 준수해야 할 체크리스트를 마련해 지원하려고 한다”고 밝혔다.

이와 함께 데이터나 알고리즘 편향 등 인공지능 개발과 활용 단계에서 발생할 수 있는 윤리 이슈에 대해 일반 시민이나 대학원생 등 단계별 교육 방안을 마련하고, 인공지능 개발 단계에 이용되는 데이터 편향성을 완화하거나 윤리기준을 위배하는 알고리즘을 검증할 수 있는 기술 개발에도 적극 투자할 계획이라는 설명을 덧붙였다.

(719)

태그(Tag)

전체 댓글 (0)

과학백과사전