중국이 인공지능(AI) 기술의 위험을 통제하기 위해 국가 차원의 거버넌스 체계를 구축하고 이를 국제 무대의 표준으로 삼으려는 움직임을 본격화하고 있다. AI 경쟁 속에서 발생할 수 있는 잠재적 위협을 관리하며 글로벌 질서를 주도하려는 전략이다.
16일 중국의 AI 안전 연구기관인 콩코르디아 AI가 발간한 '중국의 AI 안전 현황 2025' 보고서에 따르면 중국 공산당 지도부는 AI 안전을 국가 핵심 의제로 격상시켰다. 이 보고서는 2024년 5월부터 2025년 6월까지 중국의 AI 안전 정책, 기술 연구, 산업계 동향을 종합적으로 분석했다.
공산당은 지난해 제3차 전체회의에서 AI 안전 감독 시스템 구축을 국가 안보 우선순위로 명시했고 지난 4월에는 당 정치국이 AI를 주제로 한 학습 세션을 열었다. 이 자리에서 시진핑 주석은 AI가 "전례 없는 위험과 도전"을 제기한다며 위험 모니터링, 조기 경보, 비상 대응 시스템 구축을 주문했다.

이러한 정책 방향은 포괄적인 'AI 법' 제정보다 구체적인 '표준' 시스템을 통해 구현되는 양상이다. 지난 상반기에만 지난 3년간 발표된 것과 같은 수의 국가 AI 표준이 제정될 정도로 속도를 내고 있다.
현재 표준은 주로 콘텐츠 필터링 등 단기적 위험에 초점을 맞추지만 국가사이버보안표준화기술위원회(TC260) 등이 공개한 로드맵에는 AI의 통제 불능이나 사이버 공격 악용 등 프론티어 리스크가 포함돼 주목된다.
국제 외교 무대에서도 중국의 행보는 두드러진다. 올해 다보스포럼에 참가한 중국 고위 관리는 통제 없는 AI 경쟁을 예견 가능하지만 간과되는 위험을 뜻하는 '회색 코뿔소'에 비유하며 국제 협력을 촉구했다. 또 유엔을 통해 개발도상국 AI 역량 강화 결의안을 주도하고 '중국 AI 안전 및 개발 협회(CnAISDA)'를 출범시켜 국제 AI 안전 연구소들의 파트너 역할을 자처하고 나섰다.
미국과의 관계 변화는 중국의 AI 전략을 가늠할 핵심 변수다. 양국은 핵무기 통제에 대한 인간의 개입 필요성에 합의하는 등 성과도 있었지만 지난해 5월 이후 정부 간 대화는 사실상 중단 상태다. 다만 중국은 지난 5월 영국과 새로운 AI 대화를 시작하며 협력 대상을 다변화하는 모습을 보였다.
학계의 움직임도 심상치 않다. 중국 기관들의 프론티어 AI 안전 관련 논문 발표 건수는 월평균 11편에서 26편으로 1년 새 두 배 이상 급증했다. 특히 이전에는 미미했던 ▲초인적 시스템 정렬 ▲메커니즘 기반 해석 가능성 ▲AI의 기만 행위 탐지 등 최첨단 연구 주제가 활발히 다뤄지기 시작했다.
산업계 역시 정부의 정책 기조에 발맞추고 있다. 지난해 12월 중국인공지능산업연맹(AIIA) 주도로 알리바바, 바이두, 텐센트 등 17개 주요 기업이 'AI 안전 서약'에 서명했다. 이들은 전담 안전팀 구성, 레드팀 테스트, 데이터 보안 강화 등을 약속했다.
관련기사
- 기술 경쟁 속 '중립'은 없다…AI 중견국, 美·中 선택 강요받나?2025.08.03
- "계약서에 '심슨' 주소 적었다"…앤트로픽, AI 사업 운영 실험 '실패'2025.06.30
- "AI, 인간 협박하고 살인까지"…언어모델 한계 드러나2025.06.22
- 국제인공지능윤리협회, 경북 청소년 AI 경연 개최…"기술 이해하는 세대가 이긴다"2025.06.14
다만 업계의 자율 규제에는 한계가 명확하다는 지적도 나온다. 보고서가 분석한 13개 주요 프론티어 AI 기업 중 기술 보고서를 발간한 곳은 9곳이었으나 이 중 구체적인 안전성 평가 결과를 공개한 기업은 단 3곳에 불과했다. 특히 화학·생물 무기(CBRN) 오용이나 통제 불능과 같은 심각한 위험에 대한 평가 결과는 전무해 기업들의 투명성 확보가 시급한 과제로 떠올랐다.
장펑 지푸 AI 최고경영자(CEO)는 지난해 서울 AI 서밋에서 "최첨단 기술에는 AI 안전을 보장해야 할 중대한 의무가 따른다"며 "안전은 가장 시급한 문제는 아닐 수 있지만 극도로 중요하며 선제적인 준비가 필요하다"고 밝혔다.