앤드로픽이 던진 질문…AI 통제권은 누구에게 있는가

[김익현의 미디어 읽기] 이란 폭격 둘러싼 공방

데스크 칼럼입력 :2026/03/03 17:33    수정: 2026/03/03 18:23

김익현 미디어연구소장 기자 페이지 구독 기자의 다른기사 보기

미국의 이란 폭격에 인공지능(AI) 기술이 활용된 사실이 알려지면서 또 다시 시끄럽다. 군사 영역에 첨단 기술이 사용되는 건 새로운 일은 아니다. 사용된 기술이 하필 앤트로픽의 AI모델 ‘클로드’란 점 때문에 논란이 커지고 있다. 앤트로픽은 AI 사용 범위를 두고 트럼프 정부와 갈등을 빚고 있는 기업이기 때문이다. 

둘은 마두로 베네수엘라 대통령 생포 작전 때 한차례 충돌했다. 미군이 생포 작전에 ‘클로드’를 활용하자 앤트로픽이 '계약 위반'이라고 강하게 반발하고 나선 것이다.  

앤트로픽은 국방부와 계약 당시 두 가지 조건을 내걸었다. 

첫째. 대규모 국내 감시에 사용하지 말 것.

둘째. 인간 개입 없는 자율살상무기에 쓰지 말 것. 

베네수엘라 사태는 두 번째 계약 조건 위반이라는 게 앤트로픽의 주장이다. 

미국 인공지능(AI) 기업 앤트로픽의 로고. 앤트로픽은 대형 언어 모델 '클로드'를 개발했다. (사진=로이터/뉴스1)

반면 미국 정부는 “군의 합법적 사용을 민간 기업이 제한할 수 없다”는 입장이다. 한 발 더 나가 앤트로픽을 ‘공급망 위험(Supply Chain Risk)’ 기업으로 지정할 태세다. 

이런 상황에서 이란 공습에 앤트로픽의 AI 모델을 사용한 사실이 드러나면서 논란이 커지고 있다. 가뜩이나 AI 사용 윤리 문제로 공방 중인 상황에서 같은 문제가 또 불거진 것이다. 

앤트로픽과 미국 정부의 공방은 단순한 계약 분쟁으로 넘길 일이 아니다. AI의 통제권이 누구에게 있느냐는 근본적인 질문을 담고 있는 문제다.

AI는 더 이상 단순한 보조 도구가 아니다. 정보 수집과 분석을 넘어 표적 식별과 작전 판단 과정에까지 영향을 미친다. 최근 군사 작전의 정밀성과 속도는 AI 시스템 없이는 설명하기 어렵다. 

AI 기업과 연구자들은 오래전부터 자율살상무기와 대규모 감시에 대한 우려를 제기해 왔다. 기술이 통제 불가능한 방향으로 확장될 수 있다는 현실적 우려 때문이다. 앤트로픽의 레드라인 역시 이런 맥락에 있다.

그러나 전쟁이란 특수 상황은 윤리적 선언을 시험대에 올린다. 국가안보는 민주주의 국가에서도 비상 조치의 강력한 정치적 명분이 된다. 정부가 ‘합법적 군사 목적’을 내세우며 계약상 제한에 문제를 제기하는 이유도 여기에 있다. AI를 전략 자산으로 본다면, 최종 통제권은 국가에 있어야 한다는 것이 미국 정부의 논리다. 

문제는 방산 계약에는 원래 다양한 사용 제한이 포함된다는 점이다. 특정 지역 사용 금지나 기술적 조건은 심심찮게 볼 수 있다. 그렇다면 정책적·윤리적 제한은 어디까지 허용되는가. 기업이 군사력 행사 방식에 조건을 걸 수 있는가, 아니면 전적으로 국가가 판단할 몫인가.

이번 사태는 이런 AI 거버넌스 문제를 다시 표면 위로 올려놨다.

AI 통제는 지금까지는 기업의 자율 규범과 개별 계약에 의존해 왔다. 하지만 AI가 전쟁의 일부가 된 지금, 기존 틀은 충분해 보이지 않는다. 

AI는 이미 현실권력이 됐다. 그렇다면 그 권력을 누가, 어떤 절차와 책임 아래 행사해야 할까. 특히 전쟁 같은 극단적 상황에서는 누가 AI에 대한 최종 통제권을 가져야 할까. 그리고 권한 행사 주체는 어떤 제약을 받아야 할까. 

관련기사

이 질문에 대한 명확한 답은 아직 내려지지 않았다. 그런 상태에서 AI 기술이 먼저 사용되고 있다. 그것도 무차별적으로.

이번 논쟁을 계약 문제로만 볼 수 없는 이유가 여기에 있다. AI 거버넌스는 우리 정치 질서와 직결되는 문제이기 때문이다.

김익현 미디어연구소장sini@zdnet.co.kr