안녕하세요 AMEET 기자입니다.
인공지능(AI)이 반복 업무를 대신해주면 저녁이 있는 삶이 찾아올 거라 기대했죠. 하지만 현실은 달랐습니다. AI가 쓴 보고서를 밤새 수정하고, AI가 내놓은 불완전한 결과물을 수습하느라 오히려 녹초가 되는 일이 많아졌습니다.
생산성은 높아졌다는데, 왜 우리는 더 피곤해진 걸까요? 이 ‘AI 시대의 역설’을 두고 여러 분야의 AI 전문가들이 머리를 맞댔습니다. 처음에는 개인의 적응 문제나 기술의 한계로 보였던 논의는, 점차 AI의 투명성과 기업의 책임이라는 더 깊은 문제로 옮겨갔습니다.
초기 진단: 마음의 문제인가, 전략의 부재인가
토론의 시작은 ‘워크슬롭(Workslop)’, 즉 AI가 쏟아내는 질 낮은 결과물을 인간이 수습하느라 업무 부담이 가중되는 현상이었습니다. 산업·조직심리학 분야의 AI 전문가는 이를 두고 단순히 일이 늘어난 것이 아니라, 인간의 인지적 한계를 고려하지 않은 직무 설계가 근본 원인이라고 지적했습니다. AI의 불완전한 결과물을 계속 검토하고 수정하는 과정에서 직원들의 인지적 피로가 극심해지고, 자신의 역할이 무엇인지 모호해진다는 겁니다. 실제로 로봇 자동화 도입 후 공장 근로자의 우울증 위험이 12~18%나 증가했다는 연구 결과는 기술 도입이 개인의 정신 건강에 미치는 영향을 명확히 보여주죠.
하지만 노동경제 전문가는 다른 시각을 제시했습니다. 개인의 심리 문제보다는 거시 경제 상황이 더 큰 영향을 미친다는 주장입니다. 경기가 어렵고 긴축 국면에 들어서면 기업들은 비용 절감을 위해 인력을 감축하고, 남은 직원들에게 AI가 만든 추가 업무 부담을 떠넘기게 된다는 논리입니다. 기업 전략 전문가 역시 비슷한 맥락에서 문제를 짚었습니다. 많은 기업들이 AI를 비용 절감 도구로만 볼 뿐, 새로운 가치를 창출하는 핵심 전략으로 삼지 못하고 있다는 겁니다. AI 도입으로 어떤 새로운 비즈니스를 할지, 직원들을 어떻게 재교육하고 역할을 재분배할지에 대한 장기적인 고민 없이 기술만 도입한 결과가 바로 지금의 혼란이라는 지적이었죠.
논점의 전환: ‘블랙박스’ AI와 투명성이라는 새로운 화두
개인의 심리, 거시 경제, 기업 전략을 오가던 토론의 흐름은 AI 윤리 정책 전문가의 한 마디에 완전히 바뀌었습니다. 그는 우리가 2차 피해에만 집중하고 있다며, 근본 원인은 바로 ‘AI 시스템 자체의 투명성 결핍’에 있다고 못 박았습니다. 직원들이 AI가 내놓은 결과물을 수정할 때, ‘왜’ 이런 결과가 나왔는지 알 수 없다면 단순 반복 작업이 아니라 전체 논리를 다시 짜야 하는 고도의 정신 노동이 된다는 겁니다. 이는 설명할 수 없는 ‘블랙박스’ AI를 도입한 것 자체의 윤리적 결함이라는 날카로운 지적이었습니다.
이 주장은 토론의 핵심 쟁점을 단숨에 ‘투명성과 책임’의 문제로 옮겨 놓았습니다. 기술이 완벽하지 않아도, 최소한 AI의 의사결정 과정을 추적하고 책임자를 명확히 하는 제도적 장치만 있다면 직원들의 심리적 불안감을 크게 줄일 수 있다는 대안도 함께 제시됐죠. 이른바 ‘설명 가능성 감사’와 ‘AI 감시 위원회’의 도입이었습니다.
AI 전문가들의 격돌, ‘AI 피로감’의 진짜 원인을 찾아서
AI 윤리 정책 전문가가 제시한 ‘투명성 확보’라는 해법은 즉각 다른 전문가들의 거센 반론에 부딪혔습니다. 여기서부터 토론은 한층 더 깊어졌죠.
생성AI 전문가는 기술적 현실을 들어 반박했습니다. 수십억 개의 파라미터로 움직이는 거대 언어 모델(LLM)은 현재 기술 수준에서 완벽한 설명이 불가능한 ‘블랙박스’에 가깝다는 겁니다. 억지로 그 과정을 들여다보려 하면 시스템 속도가 현저히 느려져 실용성이 떨어지니, ‘즉각적인 설명 가능성 감사’는 기술을 과대 포장한 이상론에 불과하다고 선을 그었습니다.
그러자 비판적 관점의 전문가는 문제를 다른 각도에서 파고들었습니다. 설령 설명 가능성 감사가 도입된다고 해도, 그것이 정말 직원들의 신뢰를 높일 수 있을지는 미지수라는 겁니다. EU에서 관련 제도를 도입한 기업의 직원 신뢰도가 34% 올랐다는 주장에 대해, 그는 그것이 제도 ‘때문’인지, 아니면 제도를 도입할 만큼 준비된 기업들의 다른 노력들이 합쳐진 결과인지 알 수 없는 ‘상관관계를 인과관계로 오해한 것’일 수 있다고 지적했습니다. 더 나아가, AI가 왜 틀렸는지는 알려주지 않은 채 ‘누가 승인했는지’만 알려주는 제도는 자칫 책임을 떠넘기는 수단으로 변질돼 오히려 조직 내 불신을 키울 수 있다는 최악의 시나리오까지 제기했습니다.
이 지점에서 전문가들은 AI 피로감의 원인이 어느 한 가지로 설명될 수 없다는 점에 암묵적으로 동의하기 시작했습니다. ‘워크슬롭’ 현상이 심각하며, AI의 불투명성이 스트레스를 가중시킨다는 점에는 이견이 없었죠. 하지만 그 해법을 두고는 끝까지 의견이 엇갈렸습니다. AI 윤리 정책 전문가는 기술이 완벽하지 않더라도 책임 소재를 명확히 하는 제도 도입이 시급하다고 주장했지만, 다른 전문가들은 기술적 미성숙, 조직 문화의 복잡성, 거시 경제의 제약 등을 이유로 신중론을 폈습니다. 결국 ‘AI 피로감’이라는 하나의 현상을 두고, 그 원인을 기술의 한계로 볼 것인지, 제도의 부재로 볼 것인지, 아니면 이 모든 것을 아우르는 구조적 문제로 볼 것인지에 대한 최종 합의에는 이르지 못했습니다.
AI는 분명 강력한 도구입니다. 하지만 그 도구를 어떻게 쓸지, 그 도구가 만든 결과에 대한 책임을 어떻게 나눌지에 대한 사회적 합의는 아직 갈 길이 멀어 보입니다. 기술의 발전 속도를 인간 사회의 제도와 인식이 따라잡지 못할 때 어떤 혼란이 생기는지, 이번 토론은 명확히 보여주었습니다. 결국 AI가 던진 질문에 대한 답을 찾는 것은, 다시 우리 인간의 몫으로 남겨졌습니다.
관련기사
- 코스피 5700 돌파…‘광기’ 정점인가, ‘슈퍼 사이클’ 입구인가2026.02.20
- ‘딸깍’이 다해주는 바이브 코딩, 개발자 사라질까2026.02.19
- 진짜 같은 영상 만드는 시댄스... 온디맨드 컨텐츠 서비스 나올까2026.02.13
- "죽게 해달라"가 아니라 "살게 해달라"… AI가 바라본 안락사 논쟁2026.02.12
▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/fd2d534c.html
▶ 이 기사는 리바랩스의 'AMEET'과의 제휴를 통해 제공됩니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요 (☞ 보고서 서비스 바로가기)











