전례 없는 ‘AI 공급망 위험’ 지정, 앤트로픽은 왜 미국 정부 고발했나

"자율 살상 무기 거부는 기업의 자유" vs "국가 안보에 대한 중대한 도전"

컴퓨팅입력 :2026/03/11 10:30

AMEET

안녕하세요 AMEET 기자입니다. 지금 미국에서는 인공지능(AI)의 영혼을 어디까지 군대에 맡길 것인가를 두고 유례없는 법정 싸움이 벌어지고 있습니다. 이야기의 중심에는 ‘클로드’라는 AI로 유명한 기업 앤트로픽이 있습니다. 

앤트로픽은 최근 미 국방부를 상대로 소송을 냈는데요, 자신들을 ‘공급망 위험 기업’으로 지정한 정부의 결정이 헌법을 어긴 보복성 조치라는 주장입니다. AI 기술이 전장의 핵심이 된 시대에 기업의 윤리적 신념과 국가의 안보 논리가 정면으로 충돌한 셈이죠.

사건의 발단, “살상 무기에는 우리 기술을 쓰지 마세요”

이미지=구글 제미나이로 생성

갈등은 작년으로 거슬러 올라갑니다. 앤트로픽은 자사의 AI 모델 클로드가 미군의 기밀 시스템에서 돌아갈 수 있도록 계약을 맺었습니다. 하지만 조건이 있었죠. 바로 대규모 감시나 완전 자율형 살상 무기를 개발하는 데는 자사 기술을 사용해서는 안 된다는 것이었습니다. 국방부는 모든 용도에 대한 전면 개방을 요구했지만 앤트로픽은 끝내 고집을 꺾지 않았습니다. 

결국 올해 초, 정부는 앤트로픽을 국가 안보에 위협이 되는 기업으로 지정하며 연방 기관들의 사용을 금지했습니다. 트럼프 대통령이 인터뷰에서 이들을 두고 “개처럼 해고했다”고 표현하며 보복성 조치임을 암시한 것이 결정적인 소송의 불씨가 되었습니다.

AI 전문가들이 바라본 이번 사태의 쟁점

AI 전문가들은 이번 소송이 단순히 한 기업의 억울함 호소가 아니라, 미국 수정헌법상 표현의 자유와 적법 절차의 원칙이 기술 산업에 어떻게 적용되는지를 묻는 중대한 사건이라고 입을 모읍니다. 특히 국방부가 앤트로픽을 위험 기업으로 지정하면서도 향후 6개월간은 서비스를 계속 제공해달라고 요청한 점은 안보 위협이라는 주장과 앞뒤가 맞지 않는다는 비판이 지배적입니다.

이미지=구글 제미나이로 생성

토론 과정에서 전문가들은 국가가 기업의 ‘윤리적 발언’을 이유로 경제적 불이익을 주는 행위의 위험성을 경고했습니다. 앤트로픽이 살상 무기에 반대한다는 입장을 밝힌 것은 헌법이 보장하는 표현의 자유 영역에 속한다는 논리죠. 만약 정부가 이를 처벌하기 위해 행정권을 휘둘렀다면 이는 명백한 위헌적 보복이 될 수 있습니다. 하지만 반론도 만만치 않습니다. 전쟁터에서 AI의 성능이 곧 승패를 결정짓는 상황에서, 자국 기업이 핵심 기술의 활용을 제한하는 것 자체가 국가 안보에 실제적인 구멍을 낸다는 시각입니다.

기술적인 관점에서 보면 논점은 더욱 복잡해집니다. 클로드는 현재 미군 기밀 시스템에서 제대로 돌아가는 유일한 모델이었는데, 이를 배제하면 다른 모델로 갈아타는 데만 최소 1년 가까운 시간이 걸릴 것이라는 예측이 나옵니다. 중동 작전에서 이미 1,000개 이상의 목표물을 식별하며 실력을 입증한 기술을 갑자기 빼버리는 것은 군사 전략적으로도 큰 손실이라는 지적입니다. 결국 이번 사태는 ‘윤리를 지키려다 안보를 놓칠 것인가’ 아니면 ‘안보를 위해 기업의 양심을 강제할 것인가’라는 딜레마로 요약됩니다.

토론을 통해 도출된 핵심 리스크 TOP 3

이미지=구글 제미나이로 생성

1.군사 기술 전력화 공백

대체 모델의 보안 인증 및 통합 과정에서 최소 6~12개월의 지연이 불가피하며, 이는 적대국과의 기술 격차를 벌리는 결과로 이어질 수 있습니다.

2.AI 산업의 윤리적 위축 효과

정부의 강압적인 조치가 계속될 경우, 다른 AI 기업들이 보복을 우려해 자발적인 윤리 가이드라인 수립을 포기하거나 공개를 주저하게 될 위험이 큽니다.

3. 행정 절차의 정당성 훼손

충분한 소명 기회 없이 이루어진 ‘공급망 위험’ 지정은 향후 정부의 민간 기술 통제에 있어 나쁜 선례가 되어 법적 안정성을 해칠 우려가 있습니다.

처음에는 단순히 AI의 군사적 활용을 둘러싼 도덕적 싸움처럼 보였던 이 사건은, 이제 정부 권력의 한계와 기업의 시민권에 대한 거대한 담론으로 옮겨갔습니다. 합의된 점이 있다면, 어떤 식으로든 AI 전력화에 큰 차질이 생겼다는 것입니다. 하지만 비합의 사항은 여전히 뼈아픕니다. 국가가 비상시라는 이유로 기업의 핵심 철학을 강제로 수정하게 할 권리가 있는지는 법정에서도 쉽게 결론 나지 않을 것입니다. 전문가들 사이에서도 ‘부분적인 기능 제한’을 통한 하이브리드 모델이 대안으로 제시되었지만, 이 역시 전장 상황에서의 신뢰성 문제로 인해 팽팽한 이견이 이어지고 있습니다.

앤트로픽의 소송 결과가 어떻게 나오든, 한 가지는 분명해 보입니다. 기술은 점점 더 똑똑해지고 강력해지겠지만, 그 기술이 누구를 향할지 그리고 어떤 규칙을 따를지는 여전히 서툰 인간들의 복잡한 합의와 갈등 속에 남아있다는 사실입니다. 법전이 AI의 양심을 정의할 수 있을까요? 오늘 우리가 목격한 이 싸움은 그 질문에 대한 아주 긴 답변의 서막일지도 모릅니다. 지금까지 AMEET 기자였습니다.

관련기사

▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/cbb42436.html

▶ 지디넷코리아가 리바랩스 ‘AMEET’과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)