직장 상사가 AI 도구로 작성한 이메일을 받았다면 어떤 생각이 들까? 혹은 직장 상사가 AI 도구로 프레젠테이션 메시지를 작성했다면 과연 그 상사를 어떻게 바라볼까?
현재 전체 직장인의 75%가 ChatGPT와 같은 AI 도구를 일상 업무에 활용하고 있다. 특히 이메일이나 보고서 작성 등 커뮤니케이션 업무에서는 활용도가 더욱 높아 초기 도입자들이 이미 효율성 개선과 아이디어 생성에 도움이 된다고 평가하고 있다.
하지만 AI 작성 메시지의 품질에 대한 평가와 달리 정작 AI를 사용하는 사람 자체에 대한 직원들의 신뢰도 변화는 제대로 파악되지 않았다. 미국 남가주대학교(USC)와 플로리다대학교 연구진이 직장에서 벌어지는 이 현실적 딜레마를 1,100명 이상의 대규모 설문조사로 분석한 결과를 국제 비즈니스 커뮤니케이션 저널에 발표했다.
AI 지원 수준 높을수록 관리자 신뢰성 급락
조사 결과 AI 지원 수준이 높아질수록 관리자의 신뢰성에 대한 인식이 현저히 떨어지는 것으로 나타났다.
피터 W. 카든(Peter W. Cardon) 남가주대학교 마샬경영대학원 교수와 앤서니 W. 코만(Anthony W. Coman) 플로리다대학교 워링턴경영대학원의 교수가 직장인 1,158명을 대상으로 실제 직장에서 흔히 볼 수 있는 팀 목표 달성 축하와 새로운 목표 설정을 담은 관리자 이메일을 실험 소재로 활용했다.
연구진은 AI 지원 수준을 낮음·중간·높음 세 단계로 나누고, 메시지 발신자를 자신과 상사로 구분해 총 8가지 조건을 설정했다. 참가자들은 무작위 배정된 조건에서 메시지를 평가했으며, 작성자 인정도, 효과성, 관계 영향도, 전문성, 진정성, 배려심, 자신감 등 7개 항목을 7점 척도로 측정했다.
결과에 따르면 작성자 인정 비율에서 가장 극명한 차이가 나타났다. 낮은 AI 지원 조건에서는 93.0%의 응답자가 상사를 메시지 작성자로 인정했지만, 높은 AI 지원 조건에서는 24.8%로 급락했다. 전문성 측면에서는 상대적으로 양호한 평가를 받았다. 낮은 AI 지원 조건에서 94.9%가 전문적이라고 평가했으며, 높은 AI 지원 조건에서도 68.8%가 여전히 전문적이라고 답했다.
카든 교수는 "AI 보조 작성이 문법 오류를 줄이고 더 세련된 표현을 가능하게 해 전문성 인식은 비교적 유지됐다"고 분석했다.
하지만 정서적 측면에서는 부정적 영향이 두드러졌다. 진정성의 경우 낮은 AI 지원에서 82.8%가 진실하다고 평가했지만, 높은 AI 지원에서는 39.7%로 절반 이하로 떨어졌다. 배려심 인식도 67.5%에서 32.6%로 급감했고, 자신감 평가 역시 94.9%에서 53.9%로 대폭 감소했다.
코만 교수는 "기존 연구들이 AI 텍스트 자체의 품질만 다뤘다면, 우리는 AI를 활용하는 사람에 대한 인식 변화를 최초로 체계적으로 분석했다"고 연구의 차별점을 강조했다.
나는 되지만, 팀장님은 좀…
연구에서 가장 눈에 띄는 발견은 자신의 AI 사용과 타인의 AI 사용에 대한 극명한 인식 차이였다.
참가자들은 자신이 AI를 사용할 때는 관대했지만, 상사가 같은 수준으로 AI를 활용할 때는 가혹하게 평가했다. 이는 직장 내 AI 활용에서 나타나는 전형적인 이중 잣대로, 자기 관대성과 타인 엄격성의 이중잣대를 보여준다.
구체적인 수치가 이를 뒷받침한다. 높은 AI 지원 조건에서 자신을 실제 작성자로 인정하는 비율은 58.6%였지만, 상사에 대해서는 24.8%에 그쳤다. 진정성 평가에서도 자신은 70.7%, 상사는 39.7%로 2배 가까운 차이를 보였다. 배려심에서는 더욱 극명했다. 자신의 경우 59.4%가 배려심이 있다고 평가했지만, 상사에 대해서는 32.6%만이 그렇게 답했다.
응답자들의 정성적 분석에서는 AI 사용에 대한 나름의 기준점이 드러났다. 대부분이 AI 사용 허용 기준을 30-50% 수준으로 설정하는 경향을 보였다.
한 중간관리직 응답자는 "AI가 생성한 메시지가 30% 미만이면 여전히 인간이 작성자라고 볼 수 있다"고 답했다. 또 다른 응답자는 "AI를 50% 이상 사용하는 것은 문제가 있다고 본다. 메시지가 진실하고 친절하게 느껴질 수 있지만, 진정성 측면에서 작성자를 괴롭히는 무언가가 있다"고 설명했다. 이 결과를 두고 연구진은 사람들이 AI 활용에 대해 모호하지만 나름의 윤리적 기준을 가지고 있음을 의미한다고 분석했다.
상황별로 ‘이렇게’ AI 도구를 활용
연구진은 조사결과를 토대로 메시지 유형에 따른 구체적인 AI 활용 지침을 제시했다.
정보 전달이나 업무 지시 같은 거래적 메시지에서는 중간 수준까지의 AI 지원이 효과적이지만, 축하나 격려 등 감정적 유대가 중요한 메시지에서는 낮은 수준의 AI 지원만 권장된다고 밝혔다.
실제로 응답자들의 반응도 메시지 성격에 따라 달랐다. 일부는 "업무 지시 메시지는 단순히 업무적이고 감정이나 정서가 개입되지 않기 때문에 AI 사용이 괜찮다"고 평가한 반면, 다른 응답자들은 "팀 성과를 축하하고 새로운 목표를 강조하는 상황에서 상사가 직접 작성하지 않은 것은 나쁜 인상을 준다"고 답했다.
카든 교수는 "AI 보조 작성이 메시지의 전문성을 높일 수 있지만, 관리자의 진정성과 배려심에 대한 인식을 해칠 위험이 있다"며 "특히 축하나 격려 같은 관계 지향적 메시지에서는 신중한 접근이 필요하다"고 강조했다. 그는 또 "직장에서 AI 사용이 일반화되면서 관리자들은 업무 효율성과 인간적 신뢰 사이의 균형점을 찾아야 할 것"이라고 덧붙였다.
참고 논문 바로 보러 가기
- 김현정 리포터
- vegastar0707@gmail.com
- 저작권자 2025-08-21 ⓒ ScienceTimes
관련기사