ChatGPT가 미래 사회 직업에 미치게 될 영향
사용자 프롬프트에 응답하여 독창적인 콘텐츠를 생성할 수 있는 제너레이티브 AI 및 위 모델을 기반으로 만들어진 기타 보조 모델은 현대 기술을 새로운 차원으로 끌어올리고 있다. 예를 들면 소프트웨어나 애플리케이션 개발 시간을 단축해 주고 있으며, 비전문가인 사용자들에게 강력한 기능을 제공함으로써 미래 AI의 판도를 바꾸고 있다. 이와 관련하여 대표적인 제너레이티브 AI 언어 모델 ChatGPT에 의견을 물어보았다.

ChatGPT조차도 자신들이 이끌 미래에 관해서 꽤 정확하게 인식하고 있는 듯하다. 최근엔 원하는 정보를 얻기 위한 프롬프트의 형태도 더 정확해지고 있으며 이를 통해서 받을 수 있는 대답이나 정보도 확연히 달라지고 있다. 그만큼 ChatGPT의 인기는 날이 갈수록 실감이 되고 있다. ChatGPT를 개발한 OpenAI의 서버는 사용자의 수요를 간신히 따라잡고 있으며, 서버 용량이 여유가 생기면 나중에 다시 접속하라는 메시지를 주기적으로 표시하고 있다.
인간의 영역에 도전하는 제너레이티브 AI
ChatGPT, GitHub Copilot과 같은 프로그램과 이러한 시스템을 구동하는 기본 AI 모델(Stable Diffusion, DALL-E 2, GPT-3 등)은 한때 인간의 영역으로 여겨지던 영역에 기술을 도입하고 있다. 이제 컴퓨터는 제너레이티브 AI를 통해 창의력을 발휘할 수 있게 되었으며, 수집한 데이터와 사용자와의 상호 작용을 바탕으로 질의에 대한 응답으로 독창적인 콘텐츠를 생성할 수 있다. 스스로 블로그를 개발하고, 패키지 디자인을 스케치하고, 컴퓨터 코드를 작성하고, 심지어 생산 오류의 원인을 이론화할 수도 있다.

제너레이티브 AI 시스템은 다양한 주제를 다루는 방대한 비정형 데이터 세트(예: 텍스트 및 이미지)로 학습된 대규모 딥 러닝 기초 모델에서 등장하기 시작했다. 개발자는 각 작업마다 약간의 미세 조정만 거치면 다양한 사용 사례에 맞게 위 모델을 조정할 수 있다. 예를 들어, ChatGPT의 기반 모델인 GPT-3.5는 텍스트 번역에도 사용되고 있으며, 과학자들은 새로운 단백질 서열을 생성하기 위해서 이전 버전의 GPT를 사용한 적이 있다.
이러한 방식으로 전문 머신러닝 기술이 부족한 개발자나 때에 따라서는 기술적 배경지식이 없는 비전문가 사람들도 이러한 기능의 강력한 성능을 이용할 수 있다. 또한 기초 모델을 사용하면 새로운 AI 애플리케이션을 개발하는 데 걸리는 시간을 이전에는 거의 불가능했던 수준으로 단축할 수 있다.
인간의 영역으로 더 깊이 파고들기
기계와 공장 기술은 100여 년 전 산업혁명을 통해 인간의 노동력을 늘렸으며 생산 환경을 변화시켰다. AI는 이에 더해 제조 현장의 효율성을 더욱 향상시키고 있다. 상호작용 측면에서는 많은 기술적 반복을 거치며 최근 디지털화 및 자동화를 성공적으로 이루었다고 평가받고 있다. 하지만 고객 서비스와 같은 상호 작용을 필요로 하는 노동은 AI의 기술적 개입이 가장 덜 진행되었다고 여겨진다. 하지만, 제너레이티브 AI는 인간의 행동과 매우 유사하게, 경우에 따라서는 기계인지 인간인지 분간이 힘들 정도의 근접한 방식으로 상호작용 노동을 수행할 것이며 현재 상황을 빠르게 변화시킬 것이다.
물론 제너레이티브 AI 도구가 사람의 입력이나 개입 없이 작동되도록 고안된 것은 아닌 만큼, 대부분의 경우 인간과 함께 사용할 때 가장 강력하다. 이에 따라서 인간의 능력을 보강하는 측면에서 작업을 더 빠르고 더 잘 처리할 수 있도록 지원하게 된다.
제너레이티브 AI의 다양한 비즈니스 활용 사례
이러한 모델은 여전히 확장 초기 단계에 있지만 다양한 부서에서 이들의 적용 사례가 나타나기 시작하고 있다. 먼저 마케팅 및 영업분야에서는 보다 개인화된 마케팅, 소셜 미디어, 기술 영업 콘텐츠(텍스트, 이미지, 동영상 포함) 제작, 소매업과 같은 특정 비즈니스에 맞는 보조자를 만드는 업무로 일이 확장되고 있다. 운영 분야에서는 주어진 활동을 효율적으로 실행하기 위한 작업 목록 생성하는 실용적인 작업 위주로 사례가 나타나고 있다.

IT 및 공학 분야에서는 보다 발전 분야가 확실히 나타나고 있다. 보다 간단하지만 시간이 오래 걸리는 새로운 코드를 작성하거나, 결과를 문서화하고 및 검토하는 작업에 제너레이티브 AI의 적용사례가 늘어나고 있다.
법률 분야에서도 이들의 적용사례가 빠르게 나타나고 있다. 전문가들만 알고 있던 보다 복잡한 질문에 답할 수 있으며, 때로는 전문가들보다 더 빠르고 정확한 지식을 제공해 주기도 한다. 방대한 양의 법률 문서에서 알맞은 정보를 추출하는 데 더 빠르고 정확할 수 있기 때문이다. 또한, 법률 관련 연례 보고서 초안을 작성 및 검토할 수 있다. 연구·개발 및 연구 분야에서도 이들의 활용이 점점 늘고 있다. 예를 들면, 질병에 대한 이해도 향상 및 화학 구조 발견을 통한 신약 개발 가속화 등에 사용되고 있다.
AI 사용에는 반드시 주의가 필요하다
놀라움을 불러일으키는 제너레이티브 AI의 놀라운 결과 때문에 위 기술이 이미 미래 사회에서 준비된 기술처럼 보일 수 있지만, 그렇지 않다. 여전히 여러 가지 상당한 위험을 안고 있기 때문이다. 이 때문에 위 기술이 이용되는 프로젝트에서는 많은 주의가 필요하다. 전문가 및 기술자들은 여전히 이와 관련된 문제를 해결해 나가고 있으며, 실용적이고 윤리적인 문제도 많이 남아 있다.
인간과 마찬가지로 제너레이티브 AI도 오류를 범할 수 있다. 예를 들어 ChatGPT는 사용자 질문에 대한 응답으로 부정확한 정보를 생성하고 이러한 결과에 이의를 제기할 수 있는 메커니즘이 내장되어 있지 않다. 예를 들어, 간단한 자기소개를 작성하라는 요청을 받았을 때 이 도구는 잘못된 정보를 나열해줄 수 있다.

이러한 시스템은 방대한 양의 해석 중 원치 않는 편향적인 데이터 및 결과를 무작위로 포함할 수 있다. 프로그램의 필터는 아직 부적절한 콘텐츠를 잡아내는 데 충분히 효과적이지 않아 보이며 따라서 시스템이 가진 편향적 정보 역시 여전히 해결해야 할 과제이다.
지적 재산권 문제 역시 논쟁의 여지가 있다. 제너레이티브 AI 모델이 사용자 프롬프트에 따라 새로운 제품 디자인이나 아이디어를 제시할 때, 누가 이를 소유할 수 있을까? 학습 데이터를 기반으로 소스를 표절하면 어떻게 될까?
인간과 같은 상호작용 그리고 공감 능력이 부족하다
인간과 마찬가지로 제너레이티브 AI도 오류를 범할 수 있다. 예를 들어 ChatGPT는 사용자 질문에 대한 응답으로 부정확한 정보를 생성하고 이러한 결과에 이의를 제기할 수 있는 메커니즘이 내장되어 있지 않다. 예를 들어, 간단한 자기소개를 작성하라는 요청을 받았을 때 이 도구는 잘못된 정보를 나열해 줄 수 있다.
프로그램의 필터는 아직 부적절한 콘텐츠를 잡아내는 데 충분히 효과적이지 않아 보이며 시스템이 가진 편향적 정보는 여전히 해결해야 할 과제이다. 문제는 이러한 시스템은 방대한 양의 해석 중 원치 않는 편향적인 데이터 및 결과를 무작위로 포함할 수 있다는 점이다. 지식재산권 문제 역시 논쟁의 여지가 있다. 제너레이티브 AI 모델이 사용자 프롬프트에 따라 새로운 제품 디자인이나 아이디어를 제시할 때, 누가 이를 소유할 수 있을까? 학습 데이터를 기반으로 소스를 표절하면 어떻게 될까?

또한 인간과 같은 상호작용 그리고 공감 능력은 AI가 가진 능력 중 인간보다 부족하다고 여겨지는 부분이다. 또한, 개별 규범과 가치가 반영되지 않기 때문이다.
제너레이티브 AI는 또한 인간의 고유한 영역으로 여겨지는 창의력 영역으로 현재 기술을 확장하고 있다. 이 기술은 수집한 데이터와 사용자 프롬프트를 기반으로 사용자와의 상호 작용을 활용하게 된다. 이를 통해서 완전히 새로운 콘텐츠를 생성하게 된다. 전문가들은 이것이 진정으로 창의성을 대표할 수 있는 작업인지에 대한 의구심을 표하고 있으며, 이와 같은 논쟁은 당분간 계속될 것으로 기대된다. 분명한 점은, 이러한 도구가 인간에게 창의적인 아이디어를 자극하여 세상에 더 많은 창의성을 불러일으킬 수 있다는 점에는 대부분 동의할 것이라는 점이다.
제너레이티브 AI에게 지지 않으려면?
제너레이티브 AI를 고려하는 기업의 경영진은 이 기술이 빠르게 발전할 것으로 예상되는 만큼 비즈니스에서 가장 즉각적인 영향을 미칠 수 있는 부분을 신속하게 파악하고 이를 모니터링할 수 있는 메커니즘을 구현해야 할 것이다.
각계의 전문가 및 산업 현장의 인력 등은 이를 이용해야 한다. 예를 들면, 데이터 과학 실무자, 법률 전문가, 다양한 분야의 사업 리더들은 더욱 기본적인 질문에 대해 생각해 보아야 한다.
AI 기술이 우리 산업 및/또는 비즈니스의 가치 사슬에 어떤 도움을 주거나 혼란을 줄 수 있는가를 파악하며 기술이 어떻게 발전하는지 주의 깊게 지켜볼 수 있어야 한다. 또한, 모델의 한계를 고려하여 파트너, 커뮤니티, 플랫폼으로 구성된 효과적인 생태계를 구축하려면 어떠한 틈새를 파고들어야 할지 파악해야 한다. 이해관계자와의 신뢰를 유지하기 위해 이러한 모델이 준수해야 하는 법적 및 커뮤니티 표준에 관해서 파악할 수 있으면 AI에 더 효과적으로 대비하며 이를 역이용할 수 있을 것이다.
- 김민재 리포터
- minjae.gaspar.kim@gmail.com
- 저작권자 2023-07-31 ⓒ ScienceTimes
관련기사