AI가 우리를 멍청하게 만든다고?…MS의 충격적 연구

컴퓨팅입력 :2025/02/12 10:44    수정: 2025/02/12 10:47

카네기멜론대학교와 마이크로소프트 연구진이 발표한 "생성형 AI가 비판적 사고에 미치는 영향: 지식 노동자 대상 설문조사를 통한 인지적 노력 감소와 신뢰도 효과 분석" 연구에 따르면, 생성형 AI가 업무 효율성을 높이는 반면 장기적으로는 독립적인 문제해결 능력을 저하시킬 수 있는 것으로 나타났다. (☞ 보고서 바로 가기)

ChatGPT 사용률 96.87%... 지식 노동자 72%가 인지적 노력 감소 경험

연구진은 생성형 AI를 주 1회 이상 업무에 활용하는 319명의 지식 노동자들을 대상으로 설문조사를 실시했다. 조사 결과 거의 모든 참가자(96.87%)가 ChatGPT를 사용하고 있었으며, Microsoft Copilot과 Gemini가 각각 23.20%와 21.63%로 그 뒤를 이었다. 참가자들이 공유한 936개의 AI 사용 사례를 분석한 결과, 전체의 72%에서 인지적 노력이 감소했다고 응답했다. 세부적으로는 지식 습득, 이해력, 적용력, 분석력, 종합력, 평가력 등 모든 인지 영역에서 55% 이상의 응답자가 노력 감소를 경험했다고 보고했다.

AI 신뢰도 상승시 비판적 사고력 69% 감소... 강한 음의 상관관계 확인

연구는 AI에 대한 신뢰도가 높아질수록 비판적 사고가 현저히 감소하는 상관관계를 밝혀냈다. 통계적 분석 결과 AI 능력에 대한 신뢰도와 비판적 사고 사이에는 강한 음의 상관관계(β=-0.69, p < 0.001)가 있었다. 반면에 자신의 업무 능력에 대한 자신감이 높은 사용자들은 AI 결과물을 평가하고 적용하는 과정에서 더 많은 비판적 사고를 하는 것으로 나타났다. 특히 AI 평가 능력에 대한 자신감도 비판적 사고 증가와 유의미한 연관성을 보였다.

간호사는 당뇨병 지침과 대조, 음악감독은 레퍼토리 현지화... 직군별 AI 검증 사례

지식 노동자들은 AI 사용 시 다양한 방식으로 비판적 사고를 실천하는 것으로 나타났다. 객관적 검증의 경우, 278명의 응답자는 "클라이언트의 요구사항에 맞는 색상 팔레트, 사진 속 인물의 성별과 피부톤 등 기준에 따라 AI가 생성한 텍스트를 검토"한다고 답했다. 주관적 검증에서는 금융 트레이더 P10의 사례가 주목할 만한데, 그는 "ChatGPT가 제안한 트레이딩 기술과 자원이 논리적으로 타당한지 평가"하는 과정을 거친다고 설명했다.

외부 검증의 경우도 흥미로운 패턴을 보였다. 간호사인 P250은 "ChatGPT로 작성한 당뇨병 환자 교육 자료를 병원의 당뇨병 관리 지침과 대조 검증"한다고 답했으며, 음악감독 P133은 "AI가 제안하는 레퍼토리가 지나치게 미국 중심적이라 현지 상황에 맞게 판단하고 조정"한다고 응답했다.

111명이 실시간 정보수집 개선... AI로 인한 3가지 업무 패러다임 변화

지식 노동자들의 업무 방식은 AI 도입으로 인해 세 가지 측면에서 큰 변화를 겪고 있다. 먼저 정보 수집 방식이 직접 조사에서 AI 생성 정보의 검증으로 전환되었다. 111명의 응답자는 AI가 실시간으로 대규모 정보 수집을 가능하게 했다고 답했으며, 87명은 AI가 정보를 체계적으로 구조화한다고 평가했다. 또한 문제 해결 방식도 변화했는데, 77명의 응답자가 AI가 맞춤형 해결책을 제공한다고 답했지만, 동시에 72명은 AI 응답을 개선하는 데 어려움을 겪는다고 보고했다. 마지막으로 업무 실행 방식이 직접 수행에서 AI 출력물 관리감독으로 변화했다.

할당량 압박에 AI 의존 심화... 시간 절약과 품질 저하의 악순환

연구는 AI 과의존이 특정 상황에서 더욱 두드러지게 나타남을 발견했다. 업무가 부차적이거나 사소하다고 인식될 때, 그리고 AI에 대한 신뢰도가 높을 때 과의존 현상이 강화되었다. 특히 한 영업 담당자의 사례는 이러한 문제의 심각성을 잘 보여준다. 그는 "일일 할당량을 채워야 하는 압박 때문에 시간을 절약하고자 AI에 의존하게 되며, 결과를 깊이 생각할 여유가 없다"고 토로했다.

인지적 강제 기능 도입으로 AI 의존도 관리해야

연구진은 AI 의존도 관리를 위한 구체적인 방안도 제시했다. 먼저 AI 도구에 "인지적 강제 기능(cognitive forcing functions)"을 도입하여 사용자가 AI 출력물을 받기 전 잠시 대기하거나 출력물을 직접 수정하도록 유도하는 것이 필요하다고 강조했다. 또한 일상적이고 단순한 작업에서도 비판적 사고를 실천할 기회를 제공해야 한다고 제안했다.

연구진은 특히 "베인브릿지의 자동화의 아이러니"를 경계해야 한다고 지적했다. 이는 일상적인 작업을 AI가 대체하면서 사용자가 판단력을 훈련할 기회를 잃게 되고, 결과적으로 예외적 상황에서 대처 능력이 저하되는 현상을 의미한다. 이를 예방하기 위해 AI 도구는 사용자의 독립적 문제해결 능력을 유지하고 발전시키는 방향으로 설계되어야 한다고 강조했다.

936개 실제 사례 분석... AI 도구에 비판적 사고 촉진 기능 필요

관련기사

연구진은 이러한 문제를 해결하기 위해 AI 도구의 설계 방향을 제시했다. 사용자들이 작은 과제에서도 비판적 사고의 중요성을 인지하도록 지원하는 기능과, 장기적 기술 발전을 도모하는 동기부여 메커니즘의 통합이 필요하다고 강조했다. 또한 AI 출력물에 대한 명확한 설명과 개선 가이드를 제공하여 사용자의 비판적 사고를 촉진해야 한다고 제안했다. 이 연구는 2025년 4월 요코하마에서 열린 CHI 컨퍼런스에서 발표되었으며, 936개의 실제 사례를 통해 생성형 AI가 지식 노동자들의 인지 능력에 미치는 영향을 실증적으로 분석했다는 점에서 의의가 있다.

■ 이 기사는 AI 전문 매체 ‘AI 매터스’와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)