챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주]
인공지능(AI)이라는 새로운 기술이 우리의 삶과 산업에 미치는 영향은 무궁무진하다. 이에 따라 기술 혁신을 지속함과 동시에 시장과 소비자에게 미치는 부정적 영향을 최소화하는 것이 각국 정부와 기업에게 필수적인 과제가 됐다. 유럽연합(EU)의 인공지능법(EU AI Act)으로 대표되는 AI 규율에 관한 논의는 지금까지 비경제적·비경쟁적인 요소에 국한돼 있었는데 최근 전세계 주요 경쟁당국들이 AI 시장에 대해 분석을 시작하거나 보고서를 발간하는 등 경쟁법적 규제의 움직임을 보이고 있다.
유럽연합 집행위원회(EC), 미국 연방거래위원회(FTC), 영국 경쟁시장청(CMA), 프랑스 경쟁청(Autorite de la concurrence) 등은 다양한 형태의 조사를 함으로써 생성형 AI 시장에서의 독점화 가능성에 대해 주시하고 있다. 우리 공정위거래위원회도 지난 8월부터 AI 분야의 국내 및 해외 주요 사업자를 대상으로 'AI 시장 실태조사'에 착수했고 이 실태조사 결과를 바탕으로 올해 말 'AI 정책보고서'를 발간할 계획이다.
이들은 생성형 AI의 핵심적인 경쟁 요소인 데이터, 전문 연구 인력, 컴퓨터 리소스를 이미 보유하고 있는 거대 기업들에 대해 걱정한다. 경쟁 사업자들이 이 자원에 대해 접근·이용하지 못하도록 거절 또는 제한함으로써 시장진입과 경쟁을 막고 인접시장으로의 지배력을 전이하거나 확장할 것이라는 우려다.
또 서비스 간 경쟁의 경계가 흐려지고 그 범위가 확대되는 과정에서 기존의 플랫폼 시장에서의 독점 사업자가 경쟁자를 배제하기 위해 행한 일련의 경쟁 제한행위가 생성형 AI 시장에서도 그대로 발생할 가능성이 있음을 걱정한다. 처음에는 오픈소스를 배포해 거래를 개시하고 꾸준한 데이터 수집을 통해 일정한 규모를 달성한 후에는 폐쇄형으로 전환하는 등의 방법으로 경쟁을 제한하는 폐해를 가져올 수도 있음도 지적하고 있다.
그럼에도 불구하고 생성형 AI 시장은 초기 발전 단계로, 기존의 가정에 의존하거나 기술의 미래를 예측해 사전에 규제하려는 시도가 오히려 예기치 않은 부작용을 초래할 위험도 있음을 주의해야 한다. 생성형 AI 관련 당사자와 서비스의 광범위성·복잡성, 그 기술과 서비스 구조의 변동성·불확실성·예측 불가능성 등의 특성을 고려하면 새로운 AI 기술에 대한 선제적 개입은 혁신의 동력을 약화시키고 자본과 인재의 유입을 저해할 가능성이 크다.
이러한 문제는 비단 경쟁당국과 경쟁법 영역에서만 발생하는 것이 아니다. AI에 관한 기본법으로 대표되는 EU AI법은 AI의 안전과 윤리를 보장하는 중요한 규제지만 중소기업이나 스타트업의 경쟁 환경을 악화시킬 수 있는 몇 가지 부정적 측면을 가지고 있다.
첫째로 EU AI법은 생성형 AI 시스템 공급자에게 다양한 의무를 부과하는데 이러한 의무를 이행하는 데는 상당한 비용이 발생한다. 예를 들어 텍스트 생성에 특화된 생성형 AI 모델을 개발하는 중소업체는 EU AI법에 따라 모델 훈련에 사용된 방대한 데이터셋의 출처를 명확히 하고 저작권 침해 여부를 검토해야 한다. 또 모델의 성능과 안전성을 입증하는 기술 문서를 작성하고 지속적으로 업데이트도 해야 한다.
이러한 의무를 준수하기 위해서는 전문 인력, 데이터 관리 시스템, 법률 자문 등이 필요한데 이는 자원이 부족한 중소기업이나 스타트업에게는 큰 부담이 될 수 있다. 결과적으로 규제 준수를 위한 자원을 충분히 확보하고 있는 거대 기업과 달리 중소기업이나 스타트업은 규제 준수 비용으로 인해 시장 진입 및 경쟁에 어려움을 겪을 수 있다.
둘째로 EU AI법은 오픈소스 모델에 대해 일부 의무를 면제하지만 그 기준과 범위가 모호하다. 일례로 '시스템적 위험'에 대한 명확한 정의가 부족하고 어떤 모델이 면제 대상에 해당하는지 판단하기가 어렵다.
이러한 불확실성은 기업들의 예측 가능성을 떨어뜨리고 혁신을 저해할 수 있다. 만약 오픈소스 기반 이미지 생성 AI 모델을 개발하는 스타트업이 '시스템적 위험'에 대한 해석이 모호해 규제 적용 여부를 확신할 수 없다면 규제 불확실성으로 인해 투자 유치에 어려움을 겪고 모델 개발 및 출시를 지연시킬 수밖에 없을 것이다.
셋째로 EU AI법은 고위험 AI 시스템에 대한 엄격한 규제를 통해 안전과 윤리를 보장하고자 하나 동시에 혁신을 저해하고 다양성을 감소시킬 우려가 있다. 특히 모호한 AI 시스템의 위험 등급 분류 기준과 복잡한 규제 준수 절차가 새로운 기술 개발 및 시장 진입을 위축시킬 수 있다. 일례로 의료 진단 분야에 활용될 수 있는 새로운 AI 모델을 개발하는 연구기관이 있다면 이 기관은 EU AI법에 따라 해당 모델을 고위험 AI 시스템으로 분류해야 할지 판단하기 어려워 규제 준수에 어려움을 겪을 수 있다.
관련기사
- [기고] EU 플랫폼 노동 지침과 자동화된 의사결정2024.10.25
- [기고] AI 진흥과 규제의 경계2024.10.11
- [기고] 브뤼셀 효과 이면 속 건강한 국내 디지털 시장 발전 위해 고려할 사항은?2024.09.27
- [기고] AI 시대의 현명한 개인정보 활용 방법2024.09.18
법률 해석의 모호성 및 집행의 불확실성은 기업들이 규제 적용 범위를 예측하기 어렵게 만든다. 결과적으로 EU AI법은 의도와 달리 AI 생태계의 역동성을 저해하고 다양한 AI 솔루션 개발을 제한해 소비자 선택권을 축소시키는 결과를 초래할 수 있다. 규제 당국은 중소기업 및 스타트업의 규제 준수 부담을 완화하고 법적용 여부의 불확실성을 해소하며 거대 기업의 지배력 전이 가능성을 차단하는 데 집중해야 할 것이다.
이같이 시장에서의 경쟁 여부 및 그 정도가 온전히 경쟁법의 영역에서만 좌우되는 것은 아니다. 생성형 AI 시장에 대한 규제나 경쟁법 집행을 논의함에 있어서는 시장의 실제 경쟁 구조와 성장 단계에 대한 세밀한 분석이 선행돼야 한다. 기존의 가정에만 의존하지 않고 데이터 기반의 심도 있는 연구를 바탕으로 한 규제 방안이 필요하며 이는 공정한 경쟁과 지속 가능한 혁신을 위한 기반이 될 것이다.