"AI에 국가역량 결집...기본법에는 규제 혁신 양립해야"

과방위 AI 기본법 공청회 개최…"AI 정의·위험성 범위 등 개념 명확해야"

컴퓨팅입력 :2024/09/24 19:05    수정: 2024/09/24 21:50

김미정, 박수형 기자

“대한민국이 ICT에 집중 투자를 했듯이 AI에 한 번 더 국가적 역량을 결집하자는 컨센서스는 이뤄진 것으로 보인다.”

최민희 과학기술정보방송통신위원회 위원장은 24일 국회서 열린 인공지능(AI) 기본법 공청회 말미에 이같이 말했다. 

AI 진흥과 규제를 두고 국가가 어떤 법제도를 취해 산업적으로나 사회적으로 이해관계가 엇갈리는 현실이다. 때문에 “머리는 복잡해졌지만, 쟁점은 명확해졌다”며 최민희 과방위원장은 AI 기본법 논의에 속도를 내겠다는 뜻을 분명히 했다.

최 위원장은 “AI 관련법이 21대에서 논의 됐고 통과되지 않았고는 중요하지 않다. 이 법이 만들어져야 하나 만들어지지 말아야 하나에도 온도차가 있고 이견이 있는 것으로 보인다”면서도 “이 자리는 법을 만든다는 전제로 모인 자리”라고 짚었다.

이어, “국제적인 경쟁력을 고려했을 때 우리가 ICT에 집중적으로 투자해서 ICT 강국이 됐듯이, 조금 늦었지만 AI로 대한민국이 그런 시도를 할 것인가 말 것인가를 결정하는 주장에 국회가 호응하고 있는 것이다”고 밝혔다.

이날 공청회에서는 효율적인 AI 기본법을 위해선 지금보다 명확한 AI 정의와 현실적인 규제 적용 범위가 필요하다는 의견이 쏟아졌다. 구체적인 AI 규제 범위와 현실 가능한 위험성을 구체적으로 정해야 향후 부작용 없는 AI법을 구축할 수 있어서다.

참석자들은 AI법을 통해 대한 잠재적 위험 관리와 기술 혁신을 동시에 촉진할 수 있어야 한다는 점에 동의했다. 이에 균형 잡힌 법제도와 거버넌스 체계 구축을 가장 핵심 과제로 제시했다. 

"22대 국회, AI 진흥만 집착…위험성 고려 미흡" 

유승익 한동대 교수는 22대 국회가 AI에 대한 구체적 정의와 잠재적 위험성 등을 고려하지 않는다고 지적했다.

유승익 한동대 교수는 22대 국회가 AI에 대한 구체적 정의와 잠재적 위험성 등을 고려하지 않는다고 지적했다.

유 교수는 "22대 국회는 진흥 아니면 규제라는 양자택일식으로 AI법을 구상하고 있다"며 "AI 위험성을 구체적 정의 없이 법률에 녹여선 안 된다"고 비판했다. 이어 "결국 유례없는 졸속 입법을 초래할 것"이라고 덧붙였다.

유 교수는 국회가 정의한 AI 개념에 고유한 기술 특성을 담지 못했다고 주장했다. 국회가 정의한 AI 개념이 '지능정보화 기본법' 정의 조항 일부에 '지각' '언어의 이해' 등을 추가하는 데 그쳤다는 이유에서다. 그는 "이 개념은 다른 소프트웨어까지 지칭할 수 있을 정도로 광범위하다"며 "AI 시스템 수준의 자율성과 변화 양상을 포괄하지 못한다"고 했다.

유 교수는 22대 국회의 AI 법률안에도 AI 운영자와 AI 제공자를 세밀하게 구분하지 않은 점도 문제 삼았다. 보통 제공자는 AI 시스템을 만드는 개발자·기업이다. 운영자는 AI를 사용하는 개인·기업을 지칭한다. 그는 "추후 AI 위험이 발생했을 시 누가, 얼마나, 어떤 책임을 져야 하는지 정하기 어려울 것"이라며 "의무에 대한 차등 부과나 제재에 대한 섬세한 제도적 설계마저 어려워질 것"이라고 비판했다.

그는 AI 시스템 개발·활용에 대한 금지 규정도 필요하다고 봤다. 유 교수는 "현재 발의된 법안 중 권칠승 의원 안을 제외하면 금지 규정을 아예 두지 않고 있다"며 "개발·활용에 이런 규정이 없다면 향후 AI 자체가 사용자 안전, 건강, 기본권 등에 중대한 위험을 초래할 수 있다"고 말했다. 

배경훈 LG AI연구원 원장도 AI 위험성에 대한 추가 논의가 필요하다고 강조했다.

유 교수는 고위험 AI 정의에 개선이 필요하다고 주장했다. 특히 공공기관과 산업안전, 고용관계, 신용평가 등에 적용되는 고위험 AI에 대한 개념화가 부족하다는 설명이다. 그는 "고위험 AI 활용에 대한 예외적 개념화는 필수"라며 "민감한 개념일수록 세밀하고 민감히 논의돼야 한다"고 덧붙였다.

그는 이를 개선하기 위해 독립적인 AI 감독·통제를 위한 국가 거버넌스 체계가 중요하다고 제안했다. 유 교수는 "새로운 국가 독립 감독기관 구축이 필요하다"며 "현재 발의된 법안들은 과학기술정보통신부를 주무부처로 규정해 법률 독립성을 유지하기 어렵기 때문"이라고 이유를 밝혔다.

배경훈 LG AI연구원 원장도 AI 위험성에 대한 추가 논의가 필요하다고 강조했다. 배 원장은"AI로 인한 부작용을 막기 위한 적절한 규제는 필요하다"며 "다만 AI 기술 자체보다는 AI로 인한 오남용 방지하는 데 초점 맞춰야 한다"고 말했다. 

최경진 가천대 교수 "AI법에 규제·혁신 모두 다뤄야"

최경진 가천대 교수는 올바른 AI 생태계 발전을 위해 규제와 혁신이 양립 가능한 상태로 이뤄져야 한다고 주장했다. 

최경진 가천대 교수는 올바른 AI 생태계 발전을 위해 규제와 혁신이 양립 가능한 상태로 이뤄져야 한다고 주장했다.

최 교수는 현재 22대 국회가 발의한 AI 법안을 긍정적으로 평가했다. 모든 법안이 신뢰 기반 조성을 입법 목적으로 삼았으며, 이중 다수가 국민 권익과 존엄성 보호를 규정했다는 이유에서다. 다만 AI 개념을 광범위하게 설정하면 실효성 없는 규제안이 나올 수 있다고 우려했다. 

이에 최 교수는 AI와 AI 시스템, AI 모델 개념을 각각 구분해야 한다고 봤다. 그는 "규율 대상을 기술적 AI가 아니라 AI 시스템, 서비스로 생각하면 쉬울 것"이라며 "유럽연합(EU)이나 미국 등 해외서도 AI 개념을 세분화한 이유"라고 설명했다. 

최 교수는 법률 하나로 모든 AI 문제를 해결할 수 없다며 다각적인 접근 필요성을 주장했다. 그는 "우선 모든 영역에 공통 적용할 수 있는 원칙으로 작동하는 최소한 공통 규제 프레임워크만 AI법에 적용해야 한다"며 "이후 영역 특수성을 고려해 해당 영역을 규율하는 법률 개정이 필요하다"고 강조했다. 

그는 다수 법률안에 금지 AI 고려 자체가 부재하단 점을 지적했다. 현재 발의된 법률안 중 더불어민주당 권칠승 의원이 발의한 안을 제외하고 모두 금지 AI에 대한 내용이 포함되지 않은 상태다.

이에 최 교수는 "향후 국민 건강과 안전, 인권을 침해하고 정치질서와 사법 질서를 흔들 수 있는 AI가 개발될 수 있다"며 "이를 통제할 수 있는 수단이 없는 게 현재 법률안 맹점이자 무책임한 입법 태도"라고 비판했다. 

관련기사

최 교수는 AI 기술이 사회에 미치는 영향을 제대로 파악하고 관리하기 위해 평가 시스템을 별도 구축해야 한다고 강조했다. AI 법률안에 적합성 평가 체계와 영향성 평가 체계를 추가해야 한다는 제안이다. 

그는 "특히 공공에서 실시간 원격으로 범죄자 탐지하는 기술에 의무적으로 영향평가 제도를 도입하는 식"이라며 "기업들이 자발적으로 해당 평가 체계를 사내에 도입하도록 인센티브 제도가 필요할 것"이라고 덧붙였다.