[AI전 된 이란전➃] 규범 지연 속 AI 전장 확장…국제 질서 시험대

AI 활용 확산 속 통제 기준 마련 요구 커져…"군·기업 모두 예측 가능한 규칙 필요"

컴퓨팅입력 :2026/03/08 16:19

인공지능(AI)이 생성한 표적 목록이 실제 폭격으로 이어지는 전장이 등장했지만 이를 통제할 국제 규범은 여전히 과거에 머물러 있다. AI가 전장에서 정보 분석과 표적 식별, 전략 설계까지 하고 있으나 법적 기준은 10년 전 논의 수준에서 크게 나아가지 못했다는 지적이 나온다.

8일 업계에 따르면 다양한 국방 AI 기술이 실전에 투입되는 가운데 이를 통제할 국제적 기준은 여전히 불명확한 상태다. AI의 전장 활용이 빠르게 확대되면서 기술의 속도와 국제 규범 사이의 격차가 점점 커지고 있다는 분석이 제기된다.

가자지구에서의 교전은 AI가 전장의 효율성을 극단적으로 높였을 때 나타나는 현실을 보여준다. 이스라엘 국방군은 '라벤더'와 '가스펠'로 불리는 AI 시스템을 활용해 표적 생성 속도를 크게 높였다. 이들 시스템은 과거 20명의 분석관이 300일에 걸쳐 식별하던 50~100개의 표적을 단 10~12일 만에 200개 수준까지 생성하는 것으로 알려졌다.

이스라엘과 하마스가 휴전에 돌입한 가운데 지난 14일(현지시간) 전쟁으로 파괴된 가자시티의 거리를 팔레스타인 주민들이 지나고 있다. 2025.10.14 (사진=로이터/뉴스1)

문제는 기술 속도의 발전이 윤리적 통제를 앞지르고 있다는 점이다. 라벤더 시스템의 오탐지율이 약 15%라는 분석이 있지만 실제 운용 과정에서 인간 검토는 제한적으로 이뤄졌다는 비판도 나온다. 현지 언론 보도에 따르면 지난 2023년 10~11월 가자 북부에서 진행된 대규모 공습 중 상당수가 이 시스템이 생성한 표적 목록을 기반으로 이뤄졌다. 이 기간 가자 북부에서만 1만5000명 이상이 사망한 것으로 집계되면서 AI 기반 표적 시스템이 민간인 피해 확대와 연결될 수 있다는 논란도 커졌다.

서구권 국가들이 AI 윤리 가이드라인을 둘러싼 논쟁을 이어가는 사이 중국은 전쟁 개념 자체를 재정의하고 있다. 중국 인민해방군은 지난 2019년 국방백서 이후 기계화와 정보화를 넘어선 '지능화'를 핵심 군사 전략으로 제시했다. 이는 AI를 기반으로 지휘통제와 정보·감시·정찰(C4ISR) 체계를 통합해 인간보다 빠른 속도의 전장 판단 체계를 구축하겠다는 개념이다. 

이러한 변화는 AI 기술이 단순한 무기 체계를 넘어 군사 전략 전반을 재편하고 있음을 보여준다. 그러나 기술 경쟁이 가속화되는 속도에 비해 이를 규율할 국제 규범 논의는 좀처럼 진전을 보이지 못하고 있다. 유엔의 자율살상무기체계(LAWS)는 10년 넘게 논의가 이어지고 있지만 법적 구속력이 있는 협상은 시작되지 못했다. 미국·러시아·중국·이스라엘 등 주요 군사 강국의 이해관계가 엇갈리면서 관련 논의는 올해 이후로 또다시 미뤄질 전망이다.

3일(현지시간) 이란 테헤란에서 구조대원들이 미국과 이스라엘 공습 현장을 조사하고 있다. 2026.03.03 (사진=로이터/뉴스1)

세계 최초의 포괄적 AI 규제법으로 평가받는 유럽연합의 'AI법(AI Act)' 역시 군사 영역에 적용되지 않는다. 해당 법은 군사·방위·국가안보 목적의 AI 시스템을 적용 대상에서 제외하고 있다. 군과 정보기관이 민간 파트너와 협력할 때 발생할 수 있는 데이터 보호나 인권 침해 문제에 대해 사실상 의도적 공백을 허용했다는 비판이 나오는 이유다.

국제법과 제도의 공백이 길어지면서 전장의 기술 윤리를 두고 정부와 기업 간 갈등도 격화하고 있다. 최근 미국과 이스라엘의 이란 공습으로 지정학적 긴장이 고조된 가운데, 앤트로픽은 AI의 살상 무기 활용을 금지하는 원칙을 고수하며 미국 전쟁부(국방부)의 무제한 사용 요구를 거절했다. 이어 전쟁부가 앤트로픽을 '공급망 위험 기업'으로 공식 지정하면서 방위산업 업체들이 회사의 AI 모델 사용을 중단하거나 교체하는 사례가 이어지고 있다.

관련기사

미국 정보기술혁신재단(ITIF)의 지난달 설문 조사 결과에 따르면, 미국인의 67%는 '정부의 입장과 다르더라도 민간 기술 기업이 자사 제품의 사용 방식에 제한을 설정할 책임이 있다'고 답했다. 또 응답자의 79%는 '치명적인 무력을 사용하기 전 반드시 인간이 최종 결정을 내려야 한다'는 원칙에 동의했다.

업계 관계자는 "이제 AI 전장 질서는 정부와 빅테크 간의 임시방편적인 대치로 결정돼선 안 된다"며 "군에는 명확한 지침을, 기업에는 예측 가능한 규칙을 제공하는 제도적 정비가 시급하다"고 말했다.