"규제 사정권 밖이라지만"…AI 기본법 첫날, 책임 경계에 업계 '촉각'

정부 "규제 충족 사례 드물어" vs 업계 "워터마크·고성능 AI 기준 불명확"

컴퓨팅입력 :2026/01/22 10:12    수정: 2026/01/22 10:19

인공지능(AI) 생태계를 포괄적으로 규율하는 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'이 오늘(22일)부터 전면 시행에 돌입했다. 

이를 기점으로 한국은 글로벌 AI 규범 수립의 선두에 섰다. 유럽연합(EU)의 'AI 액트'가 먼저 제정되긴 했으나 핵심 규제 조항 시행은 오는 8월부터다.

지난 2024년 12월 26일 국회 본회의에서 AI기본법이 통과되는 모습 (사진=뉴시스)

22일 과학기술정보통신부에 따르면 AI 기본법은 산업 진흥 기반과 신뢰 확보 장치를 아우르는 법률이다.

국가AI전략위원회 법적 권한 강화 등 거버넌스 체계 구축·학습용 데이터 및 컴퓨팅 인프라 지원·AI 혁신단지 조성 및 글로벌 협력 강화 등 지원 체계를 마련하는 한편, 생성형 AI 투명성 확보 의무·고성능 및 고영향 AI에 대한 안전성 의무·AI 영향평가 제도 등 안전 장치를 담았다.

규제 의무, 핵심은 생성형·고영향·고성능

AI 기본법 핵심 규제 조항은 크게 투명성 확보 의무와 안전성 확보 의무로 나뉜다.

투명성 의무는 생성형 AI가 대상이다. 생성형 AI 서비스 제공자는 AI로 생성된 결과물임을 표시해야 하며, 이용자가 AI 기반 서비스를 사용하고 있다는 사실을 사전에 고지해야 한다.

당초 기계만 인식 가능한 메타데이터 삽입도 허용됐으나, 딥페이크 식별 우려가 제기되면서 시행령 개정을 통해 안내 문구나 음성 등 가시적 표시를 최소 1회 이상 제공하도록 강화됐다.

안전성 의무는 '고성능 AI'와 '고영향 AI' 두 갈래로 나뉜다. 고성능 AI는 학습에 사용된 연산량이 10의 26승 플롭스(FLOPS) 이상인 모델을 의미하며, 사업자는 개발 단계부터 생애주기 관리, 안전성 보고서 제출 등의 의무를 진다.

(사진=과기정통부)

고영향 AI는 의료·에너지·채용·대출심사 등 국민의 생명이나 권리에 중대한 영향을 미치는 분야에서 사용되는 AI를 말한다. 사람이 개입하는 관리 체계 구축과 안전성 확보 조치가 요구된다.

정부는 현재 고성능 AI 기준을 충족하는 국내 모델은 없으며, 고영향 AI 역시 완전 자율주행(레벨4 이상) 정도만 해당된다고 설명했다.

과기정통부 관계자는 "전 세계적 흐름인 생성형 AI 결과물 표시 의무를 제외하면 당장 규제 대상이 되는 사례는 극히 드물다"며 "최소 1년 이상 규제 유예를 운영하고 이 기간 조사나 과태료 부과 없이 AI 기본법 지원 데스크를 통한 컨설팅을 제공하겠다"고 강조했다.

업계 "책임 소재 여전히 안갯속"

이처럼 정부의 '최소 규제' 약속에도 불구하고, 업계는 불명확한 규제 기준과 책임 주체 문제가 가져올 잠재적 위험에 촉각을 곤두세우는 분위기다.

한 업계 관계자는 "AI 투명성 관련해선 아직도 행위 주체가 명확하지 않은 부분이 남아 있다"고 지적했다.

AI 기본법은 생성형 AI 서비스 제공자를 투명성 의무 대상으로 규정하지만, 실제 이용 과정에서 워터마크가 삭제되거나 훼손될 경우 책임 소재가 불분명하다는 것이다.

(사진=과기정통부)

이 관계자는 "수범 대상 사업자는 서비스 제공 사업자까지만이라 이용 단계에서 일어나는 삭제나 훼손에 대해 처벌이 없다"면서도 "정보통신망법 등 AI 기본법 개정안들이 많이 올라오고 있어 어느 사업자에게 책임이 넘어갈지 불명확하다"고 우려했다.

사업자 범위 불확실성도 문제로 지적됐다. 업계 관계자는 "응용 프로그램 인터페이스(API)를 개발하면 무조건 서비스 제공 사업자"라면서도 "다른 사의 API를 쓸때 명확하게 이용자가 되는 건지 기준이 아직 명확하게 보이지 않는다"고 말했다.

구체적인 표시 방식이나 주체 범위가 시행령을 넘어 고시나 가이드라인으로 위임된 점이 사업자 부담을 키운다는 목소리도 있다.

업계 관계자는 "사업자로선 시행령, 고시, 가이드라인 세 개를 다 보면서 어떤 사례에 해당하는지 스스로 공부하고 규제에 대응해야 한다"며 "일반적인 법 체계에서 사전에 리스크를 계산하기가 상당히 어렵다"고 설명했다.

'고성능=고위험' 아냐…구체적인 대안 마련 촉구

안전성 확보 의무 기준이 되는 10의 26승 플롭스 이상 고성능 AI 모델 기준에 대해서도 근본적인 의문이 제기됐다. 성능(연산량)과 위험이 반드시 비례하는 것은 아니라는 이유 때문이다.

업계 관계자는 "10의 26승 플롭스 이상인 고성능 AI 모델이 사회적으로 위험한가를 따져보면 무조건 그렇지만은 않다"며 이를 보완할 다른 기준이 필요하다고 피력했다.

또 다른 업계 관계자도 "정부가 다양한 판단 근거에 따라 AI 모델 위험성을 살핀다는데 어떤 형태로 할지 모른다"며 "고성능 AI 서비스가 딥페이크를 잘 만드니까 위험하다고 판단하는 건 너무 섣부른 판단"이라고 비판했다.

이어 "위험성 판단 여부 관련해 정부가 명확한 기준을 주지 않으면 사업자들은 개발 의지가 없어질 수 있다"고 우려했다.

(사진=챗GPT 이미지 생성)

과기정통부는 해당 요소가 향후 불거질 위험에 선제 대응하는 하나의 판단 장치일 뿐, 고성능 AI 모델을 가르는 절대적인 기준이 아니라는 입장이다. 다만 현재로선 다른 대안적 기준이 제시되지 않고 있다.

관련기사

결국 AI 기본법이 산업 발전의 기틀이 될지, 아니면 불확실성의 족쇄가 될지는 향후 하위 법령과 가이드라인이 얼마나 명확하게 마련되느냐에 달려있다는 게 업계 중론이다.

김경만 과기정통부 AI정책실장은 "정부도 AI 기본법이 완전하다고 생각하지 않는다"며 "국회 통과 당시 언급했던 '개문발차(開門發車)'라는 말처럼 일단 조금씩 운전해 보며 부족한 점을 보완하고 사회적 합의를 축적하겠다"고 말했다.