사이언스타임즈 로고

  • 과학기술인
  • 오피니언

큐스타, 새로운 인공지능의 탄생일까? 샘 알트만 해임 소동으로 촉발된 범용인공지능 안정성 논란

  • 콘텐츠 폰트 사이즈 조절

    글자크기 설정

  • 프린트출력하기

전 세계에서 올해 가장 뜨거운 관심을 받고 있는 기업이 있다면 바로 오픈AI일 것이다. 이 기업이 가진 인공지능 기술은 세상을 구할 수도, 반대로 세상을 망가뜨릴 수도 있을 만큼 엄청난 영향력을 지니고 있기 때문이다. 그런데 가만히만 있어도 주목을 받는 오픈AI에 균열이 일어났다. 그것도 아주 크고 요란하게.

 

오픈AI는 왜 둘로 쪼개졌을까

지난 11월 17일 금요일(현지시간) 오픈AI 이사회가 CEO인 샘 알트만을 해임했다. 알트만은 2015년 일론 머스크와 구글의 일리야 수츠케버, 스트라이프의 그렉 브록만과 함께 오픈AI를 설립한 공동창업자다. 오픈AI를 현재의 기업 가치, 최대 900억 달러에 달하게 만든 장본인이기도 하다. 이사회는 “샘 알트만이 일관되게 솔직하지 못하다고 판단, 이사회 수행 능력을 저해한다는 결론을 내렸다.”면서 “더 이상 그가 오픈AI를 계속 이끌 수 있을 것이라는 확신을 갖지 못했다.”라고 발표했다. 더욱 놀라운 것은 이사회는 샘 알트만을 화상 회의로 불러 갑작스럽게 해임을 통보했다는 것이다.

샘 알트만의 해임을 주도한 인물은 공동창업자이자 오픈AI의 수석 과학자인 일리아 수츠케버였다. 수츠케버는 구글에서 알파고와 텐서플로를 개발한 딥러닝 분야의 대가이다. 알트만의 해임 소식이 알려지자 오픈AI 직원들이 가장 크게 반발했다. 전체 직원의 90%가 알트만이 돌아오지 않는다면 퇴사하겠다고 서명했다. 심지어 어떤 직원들은 출근조차 하지 않았다고 한다. 샘 알트만은 마이크로소프트로 자리를 옮겼고, 마이크로소프트는 오픈AI에서 이직을 원하는 사람들은 환영한다는 메시지를 내놓았다.

결국 수츠케버는 항복했다. 수츠케버는 “이사회의 행동에 참여한 것을 깊이 후회합니다. 오픈AI를 해하려는 의도는 아니었습니다. 우리가 함께 일군 모든 것을 아끼며, 회사의 재단합을 위해 무엇이든 할 것입니다.”라고 트위터에 적었다. 알트만은 오픈AI로 돌아오고, 수츠케버는 오픈AI 이사회에서 물러났다. 이사회의 멤버는 새롭게 구성되었다.

상황은 진정된 것으로 보인다. 하지만 문제는 여전히 남아 있다. 이사회가 애초에 알트만을 축출하려고 했던 이유는 여전히 의문스러운 지점이 있다. 도대체 무엇이 문제였길래 이사회는 그렇게 급박하게, 아무도 이해하지 못하는 방식으로 알트만을 쫓아내려 했을까.

 

범용인공지능의 탄생?

오픈AI는 처음 설립이 될 때부터 “안전한 범용인공지능(Artificial General Intelligence, 이하 AGI)을 개발하겠다.”라는 목표로 설립됐다. AGI는 마치 인간처럼 스스로 판단하고 행동할 수 있는 인공지능을 말한다. 2022년 11월 오픈AI는 챗GPT를 내놓으며 전 세계의 주목을 받았고, 이를 활용해 다양한 사업화를 추진했다. GPT의 API를 만들어 기업에 판매하거나, 플러그인을 만들어 플랫폼화를 시키려는 시도 등이 대표적이다. 이런 과정에서 ‘안전한 인공지능 개발’에 우선순위를 둔 오픈AI 이사회와 ‘영리 활동에 적극적’이었던 샘 알트만 사이에 갈등은 당연한 것이었다.

오픈AI는 처음 설립이 될 때부터 “안전한 범용인공지능을 개발하겠다.”라는 목표로 설립됐다. ⓒ gettyimages

그리고 이러한 갈등이 폭발하는 사건이 하나 등장한다. 바로 'Q*(큐스타)' 라는 새로운 AI 모델이 개발된 것이다. 로이터 통신과 더 인포메이션에 따르면 오픈AI 연구원들은 큐스타를 테스트하는 과정에서 큐스타가 초등학교 수준의 수학 문제를 풀 수 있는 것을 확인했다. 큐스타는 추가적인 데이터 학습 없이도 연산 문제를 이해하고 스스로 풀었다. 이는 주어진 데이터를 학습해야 답을 낼 수 있는 생성형 AI와는 차원이 다른 혁신이다. 연구진은 이사회에 큐스타를 충분한 사전 검토 없이 상용화 할 경우 위험할 수 있다고 경고했다고 전해진다.(논란은 현재 진행 중이다. 다양한 언론 매체를 통해 관계자들은 '큐스타가 알트만 축출과 관련이 있다' 또는 '관련이 없다'로 각기 주장하고 있다.)

만약 큐스타가 정말 개발되었고 이것이 AGI로 발전할 가능성이 있다고 가정해 보자. AGI는 인간만이 할 수 있다고 생각했던 지적인 일을 할 수 있다. 심지어 그 일을 인간보다 더 잘할 수도 있다. 이 때문에 오픈AI 연구진은 큐스타는 인류를 파괴할 정도로 강력한 시스템으로 사용될 수 있을 것이며, 개발 속도에 대한 경각심을 가져야 한다고 경고했지만, 알트만의 생각은 달랐던 것으로 보인다. 알트만은 지난 16일 아시아태평양경제협력체(APEC) 정상회의에서 “오픈AI는 미지 속 베일을 걷어내고 기술 발전 지평을 넓힐 수 있을 것”이라며 인공지능이 인류에게 유용할 것임을 강조했다. 이와 같이 AGI를 둘러싼 시각 차이가 이번 알트만 축출 과정에 영향을 끼쳤을 것이다.

 

인공지능, 안전한가

AGI를 중심에 둔 견해 차이는 오래전부터 논란거리였다. AGI가 위험하다고 주장한 대표적인 과학자로는 스티븐 호킹이 있다. 호킹은 2017년에 열린 웹 서밋 기술 콘퍼런스에서 “AI가 인류 멸망을 초래할 수 있다. 인류가 AI에 대처하는 방법을 익히지 못한다면 AI 기술은 인류 문명사에서 최악의 사건이 될 것이다.”라고 경고하기도 했다.

호킹은 2017년에 열린 웹 서밋 기술 콘퍼런스에서 “AI가 인류 멸망을 초래할 수 있다. 인류가 AI에 대처하는 방법을 익히지 못한다면 AI 기술은 인류 문명사에서 최악의 사건이 될 것이다.”라고 경고하기도 했다. ⓒ gettyimages

AI가 만들어 내는 가짜 정보도 문제이지만 더욱 위협적인 것은 AGI가 인간을 대체할 수 있다는 두려움이다. 오픈AI는 공식 블로그를 통해 “AI 시스템이 10년 이내에 대부분의 영역에서 전문가 수준을 능가, 기술 대기업에 필적할 생산 활동을 수행하게 될 것”이라고 주장했다. 또한 인간의 지능을 초월하는 ‘초지능 AI’가 초래할 수 있는 위험을 관리해야 한다고 말했다. 인간을 넘어서는 AI 그리고 통제가 불가능할지도 모른다는 걱정이 핵심이다. 만약 AI가 스스로 목표를 설정하고 실제 물리적 세계나 디지털 세계에서 어떤 방식으로든 상호작용을 하기 시작하면 안전 문제가 발생할 수 있다. 이 때문에 ‘인간의 통제를 벗어나지 않도록 방지하는 방법을 모색하는 것이 자신의 새로운 우선순위’라고 밝힌 수츠케버의 행보를 응원하는 사람들도 늘어나고 있다.

물론 AGI의 위협 자체를 반대하는 사람들도 있다. AI에 대한 위협이 과대하게 부풀려졌다는 지적이다. 그러한 미래는 아직 멀었다고 말하는 전문가도 있다. 하지만 여전히 AI는 빠르게 발전하고 있고 결국 이를 만드는 것도, 활용하는 것도 사람이다. 알트만은 오픈AI로 돌아왔지만 AGI에 대한 논의는 앞으로도 계속될 것이다.

얼룩소콘텐츠 김효원 에디터
저작권자 2023-12-13 ⓒ ScienceTimes

관련기사

목록으로
연재 보러가기 사이언스 타임즈에서만 볼 수 있는
특별한 주제의 이야기들을 확인해보세요!

인기 뉴스 TOP 10

속보 뉴스

ADD : 06130 서울특별시 강남구 테헤란로7길 22, 4~5층(역삼동, 과학기술회관 2관) 한국과학창의재단
TEL : (02)555 - 0701 / 시스템 문의 : (02) 6671 - 9304 / FAX : (02)555 - 2355
정기간행물 등록번호 : 서울아00340 / 등록일 : 2007년 3월 26일 / 발행인 : 정우성 / 편집인 : 윤승재 / 청소년보호책임자 : 윤승재
한국과학창의재단에서 운영하는 모든 사이트의 콘텐츠는 저작권의 보호를 받는 바 무단전재, 복사, 배포 등을 금합니다.

사이언스타임즈는 과학기술진흥기금 및 복권기금의 지원으로 우리나라의 과학기술 발전과 사회적 가치 증진에 기여하고 있습니다.