September 20,2017

인공지능 오작동, 새로운 위험

'리스크플랜' 미리 마련해야

FacebookTwitter

인공지능(AI)의 산술적 정확성은 인간의 능력을 뛰어넘은 지 오래이다. 컴퓨터와 연산을 대결하고자 하는 인간은 이제 없다. 인공지능은 인간 고유의 창의성과 직관성 영역까지 넘보고 있다.

이제 인간은 인공지능과 일자리를 두고 경쟁해야 한다. 인공지능이 주는 정확성과 편의성은 인공지능에 대한 의존도를 높일 것이다. 더이상 머리 속에 저장하거나 판단할 필요가 없어진다. 너무 앞서가는 이야기라 생각할 수 있다. 하지만 이미 우리는 기계에 의존해 생활 패턴을 바꾼 전례가 있다.

인공지능 위험성(AI Risk)에 대한 사회적 논의가 활발하게 진행되어야 할 시점이 왔다. ⓒ Pixabay.com

인공지능 위험성(AI Risk)에 대한 사회적 논의가 활발하게 진행되어야 할 시점이 왔다. ⓒ Pixabay.com

핸드폰이 나오기 전 사람들은 몇십개 정도의 전화번호 정도는 줄줄 외우고 다녔다. 지도 한 장에 의지해 전국을 운전해 여행을 했다. 노래방 애창곡 목록은 이미 머리 속에 있었다. 하지만 지금은 어떤가. 전화번호와 노래방 애창곡 번호를 줄줄 외우는 이는 많지 않다. 심지어 아는 길도 네비게이션 오류로 더 먼 길을 안내하면 그에 의지해 운전하기도 한다.

이처럼 우리가 과도하게 믿는 ‘기계’가, ‘인공지능’이 오작동을 한다면, 그것이 인간에게 치명적인 피해를 준다면 어떨까.

2013년~2014년 미국 플로리다주 브로워드 카운티(Broward County)는 약 18,000명의 범죄자를 중심으로 향후 2년 동안 새로운 범죄를 일으킬 재발 가능성을 범죄자 예측 알고리즘을 통해 분석했다. 그 결과 새로운 범죄 재발 가능성이 흑인이 백인보다 45% 더 높은 것으로 파악했다.

하지만 이 결과 데이타는 ‘거짓’이었다. 동일 기간의 실제 데이타를 분석한 결과 컴퓨터 알고리즘의 예측과는 달리 백인의 재범 비율이 흑인보다 더 높은 것으로 나타났다. 인간이 가진 인종차별의 편견이 컴퓨터 알고리즘에 영향을 미쳤고 이는 컴퓨터 프로그램의 심각한 오류로 이어진 것이다.

인공지능은 휴먼 에러를 줄이는 대신 새로운 위험으로 부각

첨단 과학 기술은 양날의 검과 같다. 인간이 어떤 방법으로 사용하는가에 따라 인류의 삶을 풍요롭게 할 수도 있고 멸망의 길로 인도할 수도 있다. 인공지능과 같이 파급력이 큰 과학 기술은 더욱 역기능을 경계해야 한다.

22일 정보통신정책연구원 주최로 '사람과 사회를 위한 인공지능 심포지엄'이 개최되었다.

22일 정보통신정책연구원 주최로 ‘사람과 사회를 위한 인공지능 심포지엄’이 개최되었다. ⓒKISDI

정보통신정책연구원(KISDI)은 인공지능의 사회적 역기능을 진단하고 인공지능이 사람을 위해 작동하고 인간과 인공지능이 공생할 수 있는 방법에 대한 심도 깊은 논의를 위해 22일(화) 서울 양재동 스포타임에서 인공지능 심포지움을 개최했다.

인공지능의 사회적 위험에 대한 경고는 여러차례 있어 왔다. 세계적인 석학들과 과학자들은 인공지능의 안전기준을 강화할 것으로 요구해왔다. 지난 1월 앨런 머스크 테슬라모터스 CEO, 빌 게이츠, 스티븐 호킹 박사, 스튜어트 러셀 버클리 대학교 교수 등은 인공지능의 오작동으로 인해 인류에게 위험을 주지 않도록 자동복구 안전장치 제어시스템을 개발해야 한다고 공개서한을 발표하기도 했다.

이원태 정보통신정책연구원 연구위원도 인공지능의 오작동은 심각한 사회 문제를 야기할 수 있으며 그 파급 효과는 치명적일 수 있다고 우려했다. 이원태 연구위원은 드론 등 무인기로 인한 사고를 대표적인 사례로 꼽았다.

지난 4월 영국 히스로공항에서는 착륙하려던 항공기와 드론으로 보이는 물체가 충돌해 논란이 일었다. 5월 미국 매사추세츠 주에서는 드론이 오작동해 인근 건물과 충돌하고 사람이 부상하는 사고가 일어났다. 6월 일본 총리 관저 옥상에서는 미량의 방사성 물질이 든 드론이 발견되어 사회적 파장이 일었다.

나이트스코프의 보안용 로봇' K5' 시연 모습.

나이트스코프의 보안용 로봇’ K5′ 시연 모습. ⓒ JD Lasica_Flickr

인공지능 로봇이 아이를 공격해 부상당하는 일도 일어났다. 지난 7월 미 캘리포니아 쇼핑몰에서 순찰 중이던 나이트스코프사의 로봇 ‘K5’는 16개월 되는 아기를 들이 받았다. 중동 예멘에서는 무인기에 탑재된 인공지능 프로그램이 오작동을 일으켜 결혼식장을 향하던 차량을 공격해 10여명이 사망하는 대형 사고가 일어났다.

금융권에서 인공지능이 오작동 되면 어떤 사회적 문제가 발생할까. 월가 등 세계 금융권에서는 인공지능을 도입, 대량 데이타를 분석한 정확한 금융거래 서비스를 제공하고 있다.

하지만 지난 2012년에는 미국 뉴욕 초단타 매매에서 인공지능시스템 오류가 발생해 무려 440만달러나 손실이 발생했다. 그 이전인 2010년에도 인공지능이 특정한 매도 거래에 과도하게 개입하는 오류가 발생해 다우존스 지수가 1분 만에 998.5포인트가 급락하는 사태가 일어났다. 당시 손실액은 1조달러에 달했다.

인공지능 리스크, 내진설계 하듯 사회총체적 관점에서 견지해야

인간의 ‘일자리의 감소’는 인류가 처음으로 감내해야 할 인공지능의 역기능이다. 올해 다보스 포럼에서 발표한 ’500만개의 일자리 소멸 및 감소’는 시작에 불과하다. 미래학자들은 인공지능 로봇이 국회를 구성하고 대통령이 되는 것도 불가능한 것이 아니라고 말하고 있다.

또한 인공지능의 발달은 부의 집중과 양극화의 심화를 가져다 줄 것이다. 이호영 정보통신정책연구원 연구위원은 소수 자본가들이 계속 돈을 벌고 기술을 독점해 지배하는 구조를 경계했다. 이호영 연구위원은 “자본을 가진 승자가 과도한 혜택을 가져가고 빈곤층은 더욱 가난해지면서 사회 경제적 불안이 가중될 수 있다”고 지적했다.

이원태 연구위원은 “인공지능에 대한 위험성을 예측하기 쉽지 않기 때문에 기술 위험 대응전략의 관점을 기술이나 법제의 틀에서 벗어나 사회총체적 관점에서 견지해야 할 필요가 있다”고 의견을 제시했다.

인류를 위협할만큼의 지능을 지닌 인공지능의 등장은 나중의 일이다. 하지만 재난에 미리 대비하는 것처럼 인간에게 위해를 가할 수 있는 인공지능의 등장에 대비해 미리 인공지능에 대한 ‘리스크 플랜’을 가지고 있어야 한다. 인공지능의 순기능과 더불어 역기능을 충분히 고려해 사회적 윤리적 공감대를 미리 이루고 다양한 대응 방안 및 제도 마련이 필요한 시기이다.

의견달기(0)