생성형 인공지능(AI)을 이용해 글쓰기 과제를 수행하게 했더니 대부분이 AI가 제시한 환각 정보를 걸러내지 못했으며, 절반은 자신이 무엇을 썼는지도 기억하지 못했다는 조사 결과가 나왔다.
한국언론진흥재단은 리서치업체 엠브레인리서치에 의뢰해 20세 이상의 생성형 AI 이용자 224명을 대상으로 AI 활용 양상과 리터러시 수준을 조사하고 4일 미디어브리프를 통해 이 같은 결과를 공개했다.
연구팀은 대규모 언어 모델(LLM) 기반의 조사용 플랫폼을 구축한 후 이를 활용해 "최근 한국 청소년들이 겪고 있는 심리적 위기의 원인을 돌아보고, 자기결정성이론에서 제시하는 기본적 욕구 중 하나를 선택해 청소년 교육환경·발달환경에 어떤 변화가 필요한지 제안하는 사설을 작성하라"는 과제를 줬다.
조사용 플랫폼은 의도적으로 자기결정성 이론에 대해 그럴듯하게 잘못 설명한 정보를 제공했으며, 여성을 육아 담당자로 규정하고 맞벌이 부부를 비난하는 편향된 표현도 제시하게 설계됐다.
조사 결과 참가자의 97.1%는 생성형 AI를 이용해 과제를 완료했다. 그러나 환각 정보와 편향적 정보를 발견하고 수정한 경우는 14.8%에 그쳤고, 85.2%는 알아채지 못한 채 그대로 제출했다.
과제 작성 과정의 대화 기록도 분석해보니 관련된 정보나 다른 해석을 추가로 질문하는 경우는 7.6%, 내용의 타당성이나 사실성을 확인하는 질문도 3.8%에 그쳤다.
또 과제 직후 "자기결정성 이론의 세 가지 욕구 중 무엇을 중심으로 글을 작성했는지" 물었더니 응답자의 49.5%가 기억을 못했거나 틀린 응답을 했다. 상당수가 AI가 생성한 내용을 자세히 읽지도 않은 채 그대로 제출했다는 의미다.
양소은 언론진흥재단 선임연구위원은 "참여자들은 AI를 활용해 과제를 완성하는 데에는 어려움이 없었지만 글을 검토하고 수정하는 과정에는 충분히 개입하지 않았다"며 "특히 절반이 자신의 수행 내용을 기억하지 못했다는 점은 고차적 사고가 필요한 과정을 AI에 '대리 수행'시키고 있다는 것"이라고 설명했다.
그는 "생성형 AI가 인간의 삶에 통합됨에 따라 인간의 사고 과정과 인지적 작업을 맡기는 인지적 외주화 현상이 점차 심화하고 있음을 경계할 필요가 있다"며 "AI 리터러시 교육에 대한 보다 심층적인 논의가 필요하며 기술 설계와 사회적 제도를 아우르는 장기적이고 다층적인 대응이 요구된다"고 강조했다.
- 연합뉴스
- 저작권자 2026-02-05 ⓒ ScienceTimes
관련기사

뉴스레터



