생성형 AI 활용 범위가 일상 업무를 넘어 기업 핵심 전략 수립으로까지 빠르게 확장되고 있다. 하지만 현장에서는 여전히 망설임이 존재한다. 바로 고질적 환각 현상과 데이터 편향, 최신 정보 한계 때문이다.
특히 막대한 자금이 투입되는 투자나 신사업 진출 같은 영역에서, 단일 AI가 내놓은 답변을 그대로 맹신하기란 불가능에 가깝다.
실제로 많은 실무자가 챗GPT로 초안을 잡고 제미나이로 팩트를 체크한 뒤, 클로드로 논리를 다듬는 방식의 수동 교차 검증'을 수행해왔다. 이러한 비효율과 불확실성을 구조적으로 해결할 대안으로 최근 멀티 에이전트(Multi-Agent) 시스템이 주목받고 있다.
지난 4일 지디넷코리아 남혁우 기자와 정동성 리바랩스 대표는 여러 AI 모델이 집단 지성을 발휘해 최적의 의사결정을 지원하는 멀티 에이전트 시스템에 대해 논의를 나눴다.
멀티 에이전트 시스템은 하나의 AI 모델이 독단적으로 답을 내리는 방식이 아니다. 서로 다른 강점과 관점을 가진 복수의 AI가 동시에 문제를 분석하고 토론해 결론을 도출하는 구조다.
정동성 대표는 "중요한 의사결정일수록 한 번의 질문과 한 번의 응답으로 결론을 내리는 것은 매우 위험하다"고 지적하며 솔루션 에이밋(AMEET) 개발 배경을 설명했다.
에이밋은 단일 질문에 대해 챗GPT, 제미나이, 클로드 등 주요 거대언어모델(LLM)들이 독립된 '에이전트'로서 투입된다. 이들은 각자 관점에서 분석 결과를 내놓고, 서로 논리와 근거를 치열하게 검증하고 보완한다. 사용자는 여러 서비스를 오가며 수동으로 검증하는 수고 없이 AI들끼리 상호 비판과 합의를 거쳐 정제된 '최적의 결론'을 얻게 된다.
리바랩스가 추구하는 핵심 가치는 '과정의 투명화'다. 기존 AI는 결과값만 제시할 뿐 도출 과정을 알 수 없어 일명 블랙박스로 불렸고, 이는 신뢰를 저해하는 장벽이었다.
반면 에이밋은 토론 과정을 통해 어떤 주장이 채택됐고, 어떤 관점이 왜 배제되었는지를 사용자에게 투명하게 공개한다. 정 대표는 "단순히 선택지를 늘리는 것이 아니라, 문제 해결에 실질적 도움이 되는 방향으로 논의를 압축해 나간다"며 "사용자가 AI의 판단 과정을 지켜보며 결과를 납득할 수 있어야 진정한 의사결정 도구"라고 강조했다.
토론이 자칫 다수결에 의한 쏠림 현상으로 이어질 수 있다는 우려에 대해, 리바랩스는 '레드팀(Red Team)' 기능으로 답했다. 이는 시스템 내에 의도적으로 반대 시각을 제시하는 '악마의 변호인' 에이전트를 심어두는 것이다.
레드팀 에이전트는 다른 AI들이 합의에 도달하려는 순간에도 집요하게 반대 논리를 펴고 맹점을 지적한다. 이를 통해 결론이 너무 쉽게 도출되는 것을 막고 논리의 허점을 보완하도록 강제한다. AI 간의 토론에 강력한 견제 장치를 둠으로써 검증의 강도를 극대화하겠다는 전략이다.
리바랩스는 이 시스템을 투자, 전략 기획 등 고도화된 비즈니스 영역에 우선 적용하고 있다. 사업 모델, 재무, 시장 전략 등 각기 다른 역할을 맡은 에이전트들이 사업계획서를 다각도로 검토하여 인간 심사역이 놓칠 수 있는 리스크를 찾아낸다.
관련기사
- 지디넷코리아-리바랩스, AI 콘텐츠 경쟁력 강화 업무협약 체결2026.01.08
- AI 투자 소극적이었던 애플, 나홀로 잘 나간다2026.02.05
- [AI는 지금] 인간 배제 A2A 시대…'몰트북' 확산 속 신뢰·보안 과제 부상2026.02.01
- '몰트북' 나비효과?…韓 상륙한 AI들의 수다2026.02.02
기업 실무 환경을 고려한 접근성도 눈에 띈다. 복잡한 시스템 연동이나 학습 없이, 이메일로 질문이나 자료를 보내면 분석 리포트를 회신받는 방식을 지원해 보안과 편의성을 동시에 잡았다.
정동성 대표는 "이제 생성형 AI 경쟁의 축은 단순한 성능과 속도에서 '신뢰'와 '검증'으로 이동하고 있다"며 "멀티 에이전트 시스템은 더 빠른 답이 아니라, 믿을 수 있는 판단을 필요로 하는 AI 시대의 필수 인프라가 될 것"이라고 전망했다.











