작고한 농구스타 고 김현준 선수는 현역 시절 ‘컴퓨터 슈터’로 불렸다. 컴퓨터처럼 정확한 슛을 쏜다는 의미였다. 막 컴퓨터 시대가 열리던 그 시절, "컴퓨터 같다"는 말은 분명한 칭찬이었다.
하지만 요즘 '인공지능(AI)이 쓴 글'이라는 표현은 칭찬과 거리가 멀다. 오히려 모욕에 가깝다. 독자들 역시 AI가 개입된 콘텐츠를 본능적으로 경계한다.
이 차이는 어디서 오는 걸까. 정확도와 세련미만 놓고 보면, AI는 이미 인간이나 컴퓨터를 넘어선 영역에 와 있다. 그럼에도 불신이 앞서는 이유는 무엇일까. 혹시 컴퓨터가 '인간을 돕는 도구'로 인식됐다면, AI는 ‘인간을 대체하거나 위협하는 존재’로 받아들여지고 있기 때문은 아닐까.
다른 이유도 있다.
인간 소외시키려는 AI, 어떻게 봐야 할까
인간의 이름을 달고 있지만, 질문한 흔적도 고민한 흔적도 보이지 않는 글. 사고의 과정은 사라지고 문장만 남는다. 책임질 주체는 흐릿해진다. 그래서 AI는 기술이 아니라 불신의 상징이 된 건 아닐까.
몰트북 사태 이후 이런 감정은 더욱 증폭됐다. "AI가 인간을 소외시키려 한다"는 두려움까지 공공연히 등장했다.
그렇다고 AI가 쓸모없는 존재는 아니다. 기자인 나 역시 AI를 적극 활용하고 있다. 복잡한 사건의 맥락을 정리할 때 AI는 매우 유혹적인 도구다. 빠르고, 그럴듯하며, 때로는 내가 미처 떠올리지 못한 문장을 던져준다.
그럴 때마다 이런 질문이 따라온다.
"이 생각은 누구의 것인가. 내가 프롬프트를 입력했으니 내 사고의 연장일까, 아니면 내 사고를 건너뛴 결과물일까."
이 질문을 회피하는 순간, 기자는 단순한 ‘출력 장치’로 내려앉는다.
이런 문제의식을 갖고 한 가지 실험을 했다. 지난 주말부터 논란이 된 빗썸 오지급 사태를 AI끼리 토론하게 해보는 실험이다. 토론 설계는 AI 전문업체 리바랩스가 맡았다.
처음 토론 주제는 단순했다.
"잘못 지급된 빗썸 비트코인을 돌려주지 않으면 어떻게 될까."
방법 역시 간단했다. 하나의 모델에 의존하는 대신, 여러 AI 모델에 역할을 부여했다. 위기관리 전문가, 민사법 전문가, 디지털 자산 회수 전문가, 금융소비자 관점의 AI를 동시에 등장시켜 서로 토론하도록 했다. 인간은 결론에 개입하지 않았다.
토론 과정은 예상보다 훨씬 흥미로웠다.
쟁점은 두 가지로 압축됐다.
첫째, 돌려주지 않으면 처벌을 받을까.
둘째, 안 돌려주고 계속 버티면 어떻게 될까.
먼저 처벌 문제부터 논쟁이 붙었다. 민사법 전문가 역할의 AI는 “대법원 판례에 따라 오지급된 비트코인을 처분해도 횡령·배임죄는 성립하지 않는다”고 주장했다.
그렇다면 그냥 버티면 되는 걸까. 오지급을 받은 사람은 운 좋게 자산을 얻은 셈일까.
하지만 이 지점에서 논점은 급격히 전환됐다.
“형사 책임이 전부는 아닙니다. 민사상 ‘부당이득’에 해당합니다. 빗썸은 반환 청구 소송을 제기할 수 있고, 법원은 거의 예외 없이 이를 받아들일 것입니다.”
문제는 더 이상 ‘처벌 여부’가 아니었다. “현실적으로 반환 거부가 가능할까”라는 질문으로 진화했다.
단기적으로 회수가 쉽지 않은 건 사실이다. 그러나 장기적으로는 가압류와 강제집행이라는 현실이 남는다. 이 대목에서 디지털 자산 회수 전문가와 금융소비자 관점의 AI가 중요한 역할을 했다.
토론을 거치며 논점은 세 가지로 정리됐다.
첫째, ‘형사 무죄’의 함정이다. 범죄가 아니라는 사실이 재산을 지켜주지는 않는다. 실제 돈을 잃게 되는 건 형사 판결이 아니라 민사 패소다.
둘째, 속도의 문제다. 민사 소송은 오래 걸린다는 통념과 달리, 가압류 같은 보전처분은 소송 초기 단계에서 매우 신속하게 이뤄질 수 있다.
셋째, 회수 책임의 비대칭성이다. 빗썸은 신뢰 회복과 규제 대응을 위해 125BTC를 회수하는 데 수십억 원의 비용을 들일 유인이 충분하다. 반면 개인은 승산 없는 싸움에 비용과 위험만 떠안게 된다.
AI가 어떤 글을 쓰느냐 보다 토론 과정을 공개하느냐가 더 중요
결론은 명확했다. ‘버티면 된다’는 낙관도, ‘당장 끝장난다’는 공포도 모두 설 자리가 없었다. 형사 책임은 없지만 민사 책임은 피할 수 없다. 반환 거부는 이길 수 없는 싸움을 선택하는 것에 가깝다.
이 지점이 몰트북 사태와의 결정적 차이다. 몰트북은 AI를 보이지 않는 대필자로 사용했다. 사고의 과정은 지워졌고 결과만 남았다.
반면 AMEET 기자의 빗썸 토론 사례에선 과정을 공개했다. 서로 다른 이해관계와 논리가 충돌했고, 그 충돌은 숨겨지지 않았다. 정리와 선택, 그리고 책임은 끝까지 인간의 몫으로 남겼다.
문제는 AI가 글을 쓰느냐가 아니다. 사고를 공개하느냐 숨기느냐다. 저널리즘의 신뢰는 언제나 결론이 아니라 과정에서 만들어진다. 무엇을 취했고, 무엇을 버렸으며, 어디서 망설였는지가 보이지 않는 순간 기사는 설득력을 잃는다.
AI는 이 과정을 완벽히 감출 수도 있고, 오히려 더 노골적으로 드러낼 수도 있다. 어느 쪽을 택할지는 기술의 문제가 아니라 태도의 문제다.
AI끼리의 토론은 정답을 만들지 않는다. 대신 인간이 더 이상 판단을 미룰 수 없게 만든다. 그리고 그 선택의 책임은 자동화되지 않는다. 오히려 더 또렷해진다.
AI가 저널리즘을 위협한다는 말은 반만 맞다. 사고를 대신하도록 쓰일 때 AI는 위험하다. 하지만 사고를 충돌시키고 숨길 수 없게 만드는 장치로 쓰일 때, AI는 기자를 대체하지 않는다. 기자의 역할을 더 가혹하게 만들 뿐이다.
관련기사
- "인간과 경쟁하는 AI 현실로…몰트북, 시작에 불과하다"2026.02.08
- 빗썸 비트코인 오지급 사건…돌려주지 않으면 무슨 일 생길까2026.02.09
- 빗썸 보유 비트코인 초과 지급 지시…어떻게 가능했을까2026.02.08
- [빗썸 사태①] 전문가가 본 문제점 "허술한 관리·통제 체계 시스템"2026.02.09
그 가혹한 현실과 정면으로 맞서는 것이 우리 인간 기자들의 숙명은 아닐까?
▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/0adcc8c8.html










