"고위험 AI 대비해야"…'알고리즘법' 등장

중요 분야 도입 시 권고 의무 규정…심의위 마련·피해 적극 구제 등 언급

컴퓨팅입력 :2022/01/25 12:59    수정: 2022/01/25 15:47

인공지능(AI)이 끼치는 부정적 영향을 예방하면서 AI를 개발하도록 산업계가 준수해야 할 내용을 담은 법안이 등장했다.

25일 윤영찬 더불어민주당 의원은 이같은 내용을 담아 대표 발의한 '알고리즘 및 AI에 관한 법률안' 공청회를 개최했다.

■"'고위험 AI' 사업자 책무·심의위 법제화 필요"

이번 법안은 AI가 맞춤형 서비스, 사업 비용 절감, 마케팅 최적화 등의 장점을 제공하는 반면 이용자 권리를 해치거나 차별할 우려가 지속 제기된 점을 감안해 등장했다. 딥페이크, 안면인식 등 AI 기술을 활용한 프라이버시 침해, 데이터 편향으로 인한 인종·성 차별 등이 이에 해당된다.

(이미지=pixabay)

이런 부작용을 예방하기 위해 법안은 위험 가능성이 있는 AI의 범위를 구체화하고, AI 개발 시 기본적으로 준수해야 할 기본 원칙을 명시했다. AI 기술 발전이 탄력을 받을 수 있도록, 진흥 정책에 대한 법적 근거도 마련했다.

고위험 AI에 대한 정의는 '국민의 생명, 신체의 안전 및 기본권의 보호에 중대한 영향을 미치는 AI'로 규정했다. ▲교통, 수도, 가스, 난방 등 사회기반시설 관리·운용 ▲채용 등 인사 평가 및 직무 배치 ▲응급 서비스, 대출 신용평가 등 필수 공공·민간 서비스 ▲수사 및 기소 등 기본권을 침해할 수 있는 국가기관의 권한 행사 ▲문서 진위 확인, 위험 평가 등 이민, 망명 및 출입국 관리 등에 AI를 활용하는 경우도 고위험 AI의 범위로 넣었다.

거버넌스 측면에선 '고위험 AI 심의위원회'에 대한 내용을 담았다. 해당 심의위는 고위험 AI와 알고리즘의 규율 관련 기본원칙 및 정책 수립 등에 관한 사항을 심의, 의결하게 된다. 민간 1인, 과학기술정보통신부 장관으로 구성된 위원장 2인과 30명 이내 위원을 두는 식으로 규정했다.

법안은 고위험 AI 개발·이용 사업자의 책무로 영업비밀을 제외한 알고리즘 동작 원리를 이용자와 이해관계자에게 고지하고, AI 이용 서비스 제공 여부를 이용자에게 고지, 생명·신체 안전에 중대한 위험 가능성이 있는 경우 이용자에게 고지해야 한다는 등의 내용을 뒀다.

신용우 법무법인 지평 변호사

AI 개발 기본 원칙에는 특정 집단 또는 개인 차별 금지, 알고리즘과 AI 설계 및 이용에 대한 신뢰성, 투명성, 이용자 자기정보통제권 보장, 이용자 피해 발생 시 적극 구제 등을 언급했다. AI 개발·이용 사업자에 대해서는 이용자 보호 관련 보고서 작성 및 공개가 가능하다고 명시하고, 일정 규모 이상 사업자를 대상으로 기관 내 알고리즘 및 AI 윤리위원회 설치 의무를 규정했다.

AI 진흥 정책으로는 시책 마련과 기술개발 지원, 필요한 기술 기준과 표준 수립, 전문 인력 양성 등의 내용이 담겼다. AI 개발·활용을 위해 저작물 포함 대량의 정보를 수집, 분석하고 AI가 저작물에 표현된 사상이나 감정을 향유하지 않을 경우 저작권법 상 공정 이용으로 간주한다고 규정했다.

이날 공청회에서 법안 상세 내용을 소개한 신용우 법무법인 지평 변호사는 "알고리즘 및 AI 기술의 사회적 수용성을 높이기 위해 안전성과 신뢰성 확보가 필수적"이라며 "기술의 부정적 영향을 최소화하면서 산업 육성 기반이 마련될 것으로 기대되는 만큼 국회 소관 상임위원회에서 법률안 입법 추진이 필요하다"고 언급했다.

■"자율규제 기반 AI 산업 지원 긍정적"…구체적 기준 마련은 차후 과제

알고리즘 및 AI에 관한 법률안에 대해 학계와 산업계는 자율규제 중심 접근을 취한 것에 긍정적 평가를 내리면서도, 법 시행에 앞서 일부 모호하게 규정된 사항에 대한 구체화 작업이 필요할 것으로 평가했다.

최경진 가천대 법과대학 교수는 "국내외 AI 관련 법제 도입 사례를 보면 자율규제, 지침 등 '소프트로(softlaw)'가 적극 활용되고 있다"며 "아직 AI가 발전 초기 단계이고 다양한 분야에서 개발이 선행돼야 하기 때문에 자율적, 비강제적 규범으로 AI 윤리가 확보되도록 하는 것이 바람직하다"고 의견을 냈다.

이어 "자율규제가 AI로 인한 문제를 모두 해결할 순 없지만 법적, 강제적 규제는 한계가 있고 결국 AI 개발 및 서비스 제공에 관여하는 모든 사람의 자발적 참여만큼 유효한 수단이 없다"며 "다양한 자율규제가 지속 진행되고 실효성이 높아지도록 인센티브 부여나 자율규제에 일정 효과를 부여하는 등의 뒷받침이 필요할 것"이라고 덧붙였다.

이현규 정보통신기획평가원(IITP) 인공지능·데이터 PM도 "글로벌 AI 기술 패권 경쟁에 대응할 수 있도록 규제보다는 권고사항 중심의 규정이 필요하다"고 의견을 같이 했다.

관련기사

AI  기술 개발 기업인 와이즈넛의 강용성 대표는 법안에 "AI 산업 지원 의지가 담겨 있어 뜻깊다"면서도 AI 개발·이용 사업자 간 구분이 모호한 경우가 존재한다는 점, 법안에서 고위험 AI 사업자에게 요구되는 위험관리시스템 구축 의무의 경우 스타트업과 중소기업에 부담으로 작용할 수 있는 점 등을 지적했다. 법안이 시행된다면 점진적인 도입 과정을 거치면서 이런 부분에 대한 추가 검토가 이뤄져야 할 것으로 봤다. 또 알고리즘 동작 원리 고지 의무 조항의 경우 고지 내용에서 빠지는 영업비밀이 구체적으로 어떤 것인지 정의할 필요가 있다고 언급했다.

이번 법안에 대해 이재형 과기정통부 인공지능기반정책과장은 "AI 산업 육성을 위한 사항들은 조기 시행하는 것이 바람직해보인다"며 "다만 고위험 AI에 대해 여러 의무를 부여하는 부분은 등 글로벌 입법 동향을 고려해 시행 시기를 결정하는 것이 필요하며 입법 기술적으로 의무 부여 관련 조항들만 그 시행시기를 2~3년 이후로 정하는 방안과 기술 발전이나 글로벌 논의 동향을 고려해 필요시 추가 개정을 하는 방안을 고려해 볼 수 있다"고 말했다.