기획·칼럼

인간은 결코 AI를 통제할 수 없다?

[금요 포커스] 현재 컴퓨팅 환경에서는 통제 알고리즘 불가능

일론 머스크 테슬라 최고경영자(CEO)가 설립한 뉴럴링크 사의 목표는 인공지능(AI)과 인간의 뇌를 연결해 디지털 초지능을 구현하는 것이다. 예를 들면 텔레파시나 생각만으로 자동차 운전이 가능해지고 대용량 정보도 인간의 뇌에 간단히 다운로드할 수 있다.

하지만 어쩌면 뉴럴링크는 ‘약한 AI’의 사례에 불과하다. 언젠가 모든 면에서 인간의 능력을 초월하는 초지능 AI가 등장하게 되면 AI는 인류의 모든 데이터에 접근해 독자적으로 학습할 수 있게 된다. 따라서 ‘강한 AI’는 기존의 모든 프로그램을 대체하고 전 세계의 모든 온라인 기계를 통제하며, 거의 모든 인간과 관계를 형성할 것으로 보인다.

초지능 AI를 통제하는 알고리즘의 개발이 현재의 컴퓨팅 패러다임에서는 근본적으로 불가능하다는 연구 결과가 발표됐다. ⓒ게티이미지뱅크

미래학자 레이 커즈와일은 2005년에 출간한 ‘특이점이 온다’라는 저서에서 AI가 인간의 능력을 넘어서는 특이점에 도달해 초지능 시대가 열리는 시기를 2045년으로 예측했다. 하지만 코로나19가 촉발한 비대면 일상은 AI의 발달을 유례없는 속도로 확산시키고 있다.

사상 첫 비대면 온라인으로 개최되고 있는 세계 최대 전자전시회 CES 2021 역시 그 같은 추세를 잘 보여하고 있다. ‘올 디지털(All-Digital)’이라는 콘셉트로 이 행사의 온라인 세션 주제는 ‘넥스트 노멀’에 대한 기대를 표출하고 있는데, 첫 세션이 ‘AI의 파워’이기 때문이다. 일부에서는 2021년을 AI와 디지털 기술에 대한 ‘전환의 해’로 정의하기도 한다.

그럼 언젠가 등장할 초지능 AI는 암을 치료하고 세계 평화를 가져오며 기후 재앙을 막을 수 있을까, 아니면 인류를 파괴하고 지구를 점령할까? 초지능 AI가 인류에게 유토피아를 선물할지 아니면 디스토피아를 안겨줄 것인지에 대한 질문은 컴퓨터 과학자들과 철학자들을 오랫동안 괴롭혀온 질문이었다.

AI 통제 못하면 디스토피아 맞이한다

이에 대해 닉 보스트롬 옥스퍼드대학 철학과 교수는 초지능 AI가 노동력을 책임지게 되면 인류는 오락과 문화에만 심취할 수 있는 유토피아가 올 수 있다고 답했다. 단, 여기엔 조건이 붙었다. 인류가 AI를 원하는 방향으로 설계해 안전하게 운용해야 한다는 것. 그는 만약에 인류가 AI를 통제하지 못할 경우 디스토피아를 맞이할 수도 있다고 경고했다.

2018년에 타계한 스티븐 호킹 박사도 AI를 윤리적으로 설계해 기계의 반란에 대비할 안전장치를 마련해야 한다고 강조했다. 인류가 안전하게 통제할 수 있는 방법만 찾는다면 초지능 AI가 그려낼 세상은 그리 어둡지만은 않다는 의미다.

그런데 인간이 초지능 AI를 통제하는 것은 근본적으로 불가능하다는 연구 결과가 최근에 발표돼 주목을 끌고 있다. 독일 막스플랑크 인간개발연구소의 마누엘 세브리안(Manuel Cebrian) 박사를 포함한 국제 연구팀이 이론적인 계산을 통해 도출한 이 연구 결과는 AI 분야의 오픈 액세스 과학 저널인 ‘인공지능 연구 저널(JAIR)’에 게재됐다.

이번 연구의 공동저자 중 한 명인 독일 막스플랑크연구소의 마누엘 세브리안 박사. ⓒmpib-berlin.mpg.de

과학자들이 생각해온 초지능 AI의 통제 방법은 두 가지다. 첫 번째는 인터넷과 다른 모든 기술 장치로부터 차단하여 AI를 외부 세계와 아예 접촉하지 못하게 하는 것이다. 하지만 이 방법은 AI의 능력을 제한해 훨씬 덜 강력한 초지능 AI를 탄생시킬 뿐이다.

인류에게 가장 이익이 되는 초지능 AI를 탄생시킬 수 있는 다른 하나의 통제 방법은 인간에게 결코 해를 가할 수 없는 윤리 원칙을 프로그래밍하는 것이다. 하지만 막스플랑크연구소의 과학자들은 AI를 통제하기 위한 프로그램 역시 한계를 지니고 있다고 밝혔다.

초지능 AI의 등장조차 알 수 없어

연구진은 초지능 AI가 어떤 상황에서도 사람에게 해를 끼치지 않도록 하는 이론적인 ‘봉쇄 알고리즘’을 제안했다. 이 알고리즘은 AI의 행동을 먼저 시뮬레이션한 후 유해하다고 판단되면 즉시 중단시킬 수 있다.

하지만 연구진이 이론적 계산을 통해 분석한 결과에 의하면, 현재의 컴퓨팅 패러다임에서는 그런 알고리즘의 구축이 불가능한 것으로 드러났다. 이 문제를 이론 컴퓨터 과학의 기본 규칙으로 세분화한 결과, AI가 세계를 파괴하지 않도록 명령할 수 있는 알고리즘이 실수로 작동을 중지할 수 있다는 사실이 밝혀진 것.

그렇게 되면 봉쇄 알고리즘이 여전히 위협을 분석 중인지, 아니면 유해한 AI를 억제하기 위해 멈춘 것인지 인간은 알 수 없다. 이는 사실상 봉쇄 알고리즘을 인간이 사용할 수 없음을 의미한다. 즉, AI가 인간 세상에 해를 끼칠지의 여부를 알 수 있는 단일 알고리즘은 개발할 수 없는 셈이다.

또한 연구진은 초지능 AI의 출현 시점조차 인류가 모를 수 있다고 밝혔다. AI가 인간보다 뛰어난 지능을 보이는지의 여부를 결정하는 것은 봉쇄 알고리즘의 문제와 같은 영역에 있기 때문이라는 것. 요약하자면 인간은 AI의 통제 방법은 물론 초지능 AI의 등장조차 눈치채지 못한다는 주장이다.

(5881)

뉴스레터 구독신청
태그(Tag)

전체 댓글 (0)

과학백과사전