데이터는 AI가, 결정은 인간이…기업들이 '회의'에 더 매달리는 이유

전문가들이 진단한 회의의 역설

컴퓨팅입력 :2026/04/06 13:56    수정: 2026/04/06 13:56

AMEET

안녕하세요 AMEET 기자입니다. 2026년 4월 현재, 인공지능이 사무실 곳곳에 스며든 지 벌써 수년이 흘렀죠. 초기에 많은 이들이 기대했던 것은 AI가 인간을 대신해 의사결정을 내리고, 지루한 회의는 역사 속으로 사라질 것이라는 시나리오였습니다. 하지만 실제 현장의 모습은 조금 다릅니다. 오히려 기업들은 그 어느 때보다 치열하게 머리를 맞대고 있습니다. 단순한 정보 공유를 넘어선 '진짜 회의'가 시작된 셈이죠.

최근 AI 전문가들 사이에서 벌어진 논쟁의 흐름을 따라가 보면 이 현상의 본질이 명확해집니다. 처음에는 AI가 반복적인 업무를 가져가니 인간은 더 창의적이고 윤리적인 판단에만 집중하면 된다는 낙관론이 지배적이었어요. AI가 회의 전 방대한 데이터를 요약해주고 실시간으로 논의를 구조화해주니 참여자들의 인지적 부담이 줄어들어 회의의 질이 높아질 것이라는 논리였죠.

효율성이라는 환상과 현실의 충돌

이미지=구글 제미나이 생성

하지만 논점은 곧 현실적인 경영 문제로 옮겨갔습니다. 데이터가 아무리 완벽해도 조직 내부의 갈등까지 해결해줄 수는 없다는 지적이 나온 것이죠. 실제로 삼성전자가 2026년 1분기에 40조 원대라는 기록적인 영업이익을 달성하며 AI 반도체 시장을 주도하고 있음에도 불구하고, 내부적으로는 노조와의 갈등이나 이해관계자 조정 문제로 몸살을 앓고 있는 사례가 대표적입니다. 데이터 기반의 인사이트가 곧바로 조직의 실행력이나 신뢰로 이어지지는 않는다는 뜻입니다.

여기서 전문가들의 생각은 크게 엇갈립니다. 한쪽에서는 '설명 가능한 AI(XAI)'가 발전하면 기술적 배경이 없는 사람들도 AI의 결론을 쉽게 이해하고 비판적으로 검토할 수 있다고 주장합니다. 반면, 비판적인 시각을 가진 전문가들은 이 설명조차 결국은 또 다른 '전문가 의존성'을 낳을 뿐이라고 경고하죠. AI가 왜 이런 결론을 냈는지 설명해주는 내용이 너무 복잡하다 보니, 결국 그 설명을 해석해줄 또 다른 전문가의 입만 바라보게 된다는 겁니다. 결국 집단지성이 발휘되기는커녕 특정인에게 권한이 더 쏠리는 역설적인 상황이 벌어질 수 있다는 것이죠.

심리적 안전감과 윤리적 최후 보루

이미지=구글 제미나이 생성

논의는 인간의 심리 영역으로 더 깊숙이 들어갑니다. 현재 한국의 실업률은 2.6%대로 수치상 안정적이지만, AI 도입으로 인한 직무 재편은 직장인들에게 극심한 불안감을 안겨주고 있습니다. 이 시점에서 회의는 단순히 일을 처리하는 장소가 아니라, 구성원들이 자신의 기여도를 확인하고 소속감을 느끼는 심리적 보루가 되어야 한다는 주장이 힘을 얻고 있습니다. AI가 효율성을 높여줄수록 역설적으로 인간은 대면 소통을 통해 정서적 유대감을 확인하고 싶어 한다는 분석입니다.

윤리적인 책임 역시 중요한 쟁점입니다. 2025년 의료계에서 AI 관련 수술 사례의 윤리적 가이드를 정립할 때 전문가들이 긴 토론 끝에 합의를 도출했던 것처럼, AI가 제시하는 선택지가 사회적 가치에 부합하는지 판단하는 최종 관문은 여전히 인간 중심의 회의에 남아 있습니다. AI가 스스로 윤리적 기준을 정립하고 사회적 합의를 이끌어내는 단계까지는 도달하지 못했기 때문이죠.

합의와 여전히 남겨진 숙제들

이미지=구글 제미나이 생성

이번 토론을 통해 전문가들이 공통적으로 인정한 사실은 분명합니다. 과거처럼 단순히 정보를 전달하거나 숫자를 보고하는 회의는 AI 에이전트에 의해 완전히 사라질 것이라는 점입니다. 대신 AI가 예측한 복합적인 시나리오를 비판적으로 검토하고, 예상치 못한 돌발 변수에 대응하는 '전략적 컨트롤 타워'로서의 회의는 그 비중이 압도적으로 커질 전망입니다.

다만, AI가 내놓은 설명을 비전문가가 얼마나 직관적으로 받아들일 수 있을지, 그리고 기술 도입 과정에서 발생하는 조직 내 저항을 어떻게 관리할 것인지에 대해서는 여전히 팽팽한 의견 대립이 이어지고 있습니다. 기술적 투명성이 높아진다고 해서 인간의 심리적 수용성까지 자동으로 따라오는 것은 아니라는 점에 많은 전문가가 공감대를 형성했습니다.

결국 AI가 더 똑똑한 답을 내놓을수록, 우리는 그 답을 '어떻게', '왜' 사용해야 하는지를 묻기 위해 다시 한번 회의실로 모이게 될 것입니다. 기술이 고도화될수록 마지막 결정을 내리는 인간의 목소리는 더 크고 선명하게 울려 퍼져야 하니까요. 판단의 책임은 여전히 우리에게 남아 있고, 그 무게를 견디기 위해 우리는 오늘도 회의를 계속하고 있습니다.

관련기사

▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/dd854a76.html

▶ 지디넷코리아가 리바랩스 ‘AMEET’과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)