대한민국 인공지능(AI) 기본법이 산업 육성과 신뢰 기반 조성을 목표로 하고 있음에도 과잉 규제로 인해 국내 AI 생태계의 혁신을 위축시키고 경쟁력을 약화시킬 수 있다는 글로벌 IT 업계의 우려가 제기됐다.
30일 업계에 따르면 비즈니스 소프트웨어 연합(BSA)은 지난 21일 과학기술정보통신부에 AI 기본법 시행령 제정을 앞두고 11페이지 분량의 상세 의견서를 제출했다. BSA는 전 세계 주요 IT 기업들이 참여하는 정책 연합체로, 현재 마이크로소프트(MS), 오픈AI, 아마존웹서비스(AWS), 세일즈포스 등 글로벌 AI 선도 기업들이 회원사로 활동 중이다.
이번 의견서에는 ▲고영향 AI 정의 방식 ▲개발자·이용자 역할 구분 ▲외부 인증 의무 ▲콘텐츠 라벨링·워터마킹 규제 ▲연산량 기준 설정 ▲해외 기업의 국내 대리인 지정 요건 ▲정부의 조사 권한 등 총 7가지 핵심 쟁점에 대한 문제 제기와 개선 제안이 담겼다.

BSA가 지적한 법의 핵심 쟁점은 '고영향 AI'의 정의다. 고영향 AI란 개인의 권리나 안전에 중대한 영향을 미칠 수 있는 인공지능 시스템을 의미하며 정부는 의료, 에너지, 핵물질 관리 등 특정 산업군을 중심으로 분류할 예정이다.
이에 대해 BSA는 단순히 사용 산업이 아니라 AI가 실제로 수행하는 중대한 의사결정 여부를 기준으로 '고영향'을 판단해야 한다고 주장했다. 일례로 의료 분야에 쓰인다고 해서 스팸 필터까지 고영향 AI로 간주돼선 안 되며 대출 심사나 주거 지원처럼 개인의 권익에 실질적 영향을 주는 사례에 초점을 맞춰야 한다는 입장이다.
특히 범용 인공지능(GPAI)은 원천적으로 고영향 AI로 분류되지 않도록 시행령에 명시해야 한다고 강조했다. GPAI는 특정 목적이 아닌 다양한 분야에 활용될 수 있도록 설계된 AI로, 이메일 작성이나 번역처럼 비교적 저위험인 작업에 쓰이는 경우가 많다. 이런 시스템에까지 고위험 시나리오를 전제로 규제 의무를 일괄 부과할 경우 기업에 과도한 부담이 될 수 있다는 지적이다.
또 다른 쟁점은 AI 개발사업자와 이용사업자의 책임을 구분하지 않은 점이다. 현행 법은 이들을 모두 '인공지능사업자'로 묶어 동일한 규제를 적용하고 있지만 BSA는 설계와 운영의 역할이 다른 만큼 의무도 달라야 한다고 지적했다.
실제로 AI 기본법 제34조는 위험 관리, 설명 가능성, 사용자 보호 등 기술적 의무를 모든 사업자에게 일괄 부과하고 있다. 실제로 시스템 구조나 한계를 알고 있는 건 개발자이며 이용자는 배포와 사용 환경을 책임지는 입장으로, BSA는 이런 현실을 반영해 역할별로 책임을 나눠야 한다고 주장했다.
사전 인증 요건도 주요 쟁점 중 하나다. AI 기본법은 고영향 AI 제공자가 사전 검증을 받도록 노력해야 한다고 명시하고 있지만 BSA는 외부 인증이 지식재산 유출, 개인정보 노출, 사이버 보안 위협 등 실질적인 리스크를 유발할 수 있다고 지적했다.

특히 아직 AI 감사 시장이 성숙하지 않아 전문성과 보안 역량이 부족한 기관에 민감한 데이터를 넘겨야 하는 구조는 현실적으로 위험하다는 설명이다. 대신 기업 내부에서 독립적으로 수행하는 테스트와 자체 인증을 장려하는 것이 보다 유연하고 안전한 대안이라는 입장이다.
콘텐츠 생성 AI에 부과되는 라벨링과 워터마킹 의무에 대해서도 우려가 나왔다. BSA는 국제적으로 통용되는 C2PA와 같은 콘텐츠 인증 표준과의 정합성을 우선 고려해야 한다고 강조했다. 한국이 별도의 독자적 기준을 도입하거나 가시적 워터마크 부착을 의무화할 경우, 콘텐츠 품질 저하와 경쟁력 약화로 이어질 수 있다는 점도 지적했다. 워터마크 자체가 쉽게 제거될 수 있다는 기술적 한계도 문제로 꼽았다.
AI 시스템의 연산 성능 기준에 대한 규제 방식 역시 신중할 필요가 있다는 목소리도 담겼다. BSA는 단순히 누적 연산량이 많다는 이유로 고영향 AI로 분류하는 것은 부적절하며 AI의 실제 사용 목적과 맥락에 따라 규제 여부를 판단해야 한다고 주장했다. 일례로, 기상 예측처럼 고연산이지만 위험이 낮은 시스템까지 규제 대상에 포함되면 오히려 기술 발전을 저해할 수 있다는 것이다.
해외 기업에 적용되는 국내 대리인 지정 요건도 문제로 지적됐다. 현재는 일정 기준을 충족하면 고영향 여부와 무관하게 모든 해외 AI 기업이 국내 대리인을 지정해야 하지만 BSA는 이는 과도한 조치라고 판단했다. 실질적으로 한국 내에서 고위험 AI를 운영하는 경우에 한정해 적용하는 방식이 더 합리적이라는 입장이다.
이외에도 BSA는 과학기술정보통신부의 조사 권한 행사 방식에 대한 우려를 제기했다. 현행법상 단순한 민원 제기만으로도 기업 사무실이나 데이터센터 같은 핵심 인프라에 대한 조사가 가능하지만 이는 기업에 불필요한 규제 리스크를 초래할 수 있다. BSA는 명확한 위반 증거가 확인되고 법원의 사전 명령이 있을 경우에만 조사 권한을 행사해야 한다고 강조했다.
관련기사
BSA는 AI 기본법이 산업을 진흥하고 글로벌 경쟁력을 높이기 위한 핵심 기반임을 인정하면서도 지나친 규제는 오히려 혁신을 저해하고 기업 활동을 위축시킬 수 있다고 강조했다. ▲위험 기반의 정의 ▲역할별 책임 분리 ▲자율 인증 ▲국제 표준 채택 ▲유연한 연산 기준 ▲합리적 대리인 요건 ▲적법한 조사 절차 등 7대 원칙이 시행령에 충실히 반영될 경우, 기술 발전과 안전한 활용 간 균형을 확보할 수 있을 것으로 전망된다는 입장이다.
탐 션 홍 BSA 아태정책 매니저는 "AI 혁신과 신뢰 사이 균형이 필요하다"며 "이번 의견서가 한국의 AI 정책 수립에 건설적 논의 자료가 되길 바란다"고 말했다.