EU의 '4단계 AI규제' 청사진 나왔다

생체인증 등 고위험군은 사용 제한…법 제정작업 착수

컴퓨팅입력 :2021/04/22 16:14    수정: 2021/04/22 20:31

김익현 미디어연구소장 기자 페이지 구독 기자의 다른기사 보기

인공지능(AI)은 이제 미래가 아니다. 공상과학도 아니다. 더불어 함께 살아가야 할 대상이다.

게다가 AI는 인간의 능력을 엄청나게 향상시켜준다. 혁명이란 말이 전혀 어색하지 않다. 산업시대를 열었던 방직기계나 증기기술에 비할 바가 아니다.

그런데 AI는 치명적인 약점이 있다. 너무 똑똑하다는 점이다. 구글 알파고가 잘 보여준대로 인간의 상상을 뛰어넘는 능력을 갖고 있다. AI 시대가 장밋빛이 되기 위해선 적절한 제어선이 필요하다.

유럽연합(EU)이 21일(현지시간) 제안한 법률은 이런 문제의식을 담고 있다. 인간을 파괴하거나, 감시할 우려가 있는 영역엔 AI 기술을 신중하게 적용하자는 것이다.

이런 문제의식에 접근하는 방식이 흥미롭다. EU는 AI의 위험 수준을 ▲용인할 수 없는 위험 ▲고위험 ▲제한된 위험 ▲최소한의 위험 등 네 단계로 분류했다. 그리곤 각 단계에 맞는 규제를 적용한다는 것이 이번 법안의 골자다.

유럽연합이 얼굴인식을 비롯한 고위험 영역에선 AI 사용을 제한하기로 했다. (사진=씨넷)

1. 용인할 수 없는 위험(unaceeptable risk)

이 영역에는 AI 시스템 사용이 금지된다. 인간 행동을 조작해 사용자의 자유 의지를 방해하는 AI 시스템이 여기에 해당된다.

이를테면 음성 비서를 사용하는 장난감이 미성년자들에게 위험한 행동을 하도록 독려한다든가, 정부들이 사람들에게 ‘사회적 점수’를 매기도록 하는 등의 분야엔 AI 기술을 사용하지 못하도록 했다.

2. 고위험(high-risk)

고위험 영역에는 AI 시스템 사용이 엄격하게 제한된다. AI 시스템을 적용하기 위해선 몇 가지 전제 조건을 충족시켜야만 한다.

적절한 위험 산정 및 완화 시스템을 구축해야 하며, 위험을 최소화할 고품질 데이터세트를 갖춰야 한다. 이용자들에게도 AI 시스템의 위험성에 대해 충실하게 알려줘야 하며, 위험을 최소화하기 위해 인간이 적절한 관리 감독을 해야한다.

EU는 몇 가지 고위험 영역 사례를 예시로 들었다.

- 중요한 인프라스트럭처: 시민의 생명과 건강을 위험에 빠뜨릴 수도 있다. 교통이 대표적이다.

- 교육 혹은 직업 훈련: 교육이나 전문 교과 과정에 접할 수 있도록 해주는 활동. 대표적인 것이 시험 채점.

- 제품의 안전 요소들: 로봇이 보조하는 수술에 사용되는 AI 응용 프로그램

- 채용, 노동자 관리, 자율 채용 접속:

- 중요한 사적, 공적 서비스: 대출 신청한 시민을 대상으로 한 신용 점수 평가

- 법 집행: 인간의 기본권을 제한할 우려가 있는 법 집행. 이를테면 증거의 신뢰성 평가 같은 것들.

- 이민, 망명, 국경통제 관리: 여행문서의 진본 여부 검증 같은 것들

- 정의와 민주적 과정 관리: 명백한 사실에 대해 법을 적용하는 것들.

특히 EU는 모든 형태의 원격 생체인증 시스템은 전부 고위험군으로 간주한다고 밝혔다.

유럽연합집행위원들.

3. 제한된 위험(limited risk)

특정한 투명성 의무를 갖게 된다. 이를테면 챗봇 같은 AI 시스템을 이용할 경우엔 이용자들이 기계와 소통하고 있다는 사실을 인식하도록 해야만 한다.

그래야먄 이런 정보를 토대로 채팅을 계속 하거나 그만 두는 등의 결정을 할 수 있기 때문이다.

4. 최소한의 위험(minimal risk)

관련기사

이 영역에선 AI 기술을 자유롭게 활용할 수 있다. 대표적인 것이 비디오 게임이나 스팸 차단기 등이다. 현재 사용되고 있는 AI 시스템 중 절대 다수는 이 영역에 속한다.

EU가 제안한 법률은 이 영역에 사용되는 AI 기술에 대해서는 어떠한 개입도 하지 않는다. 이런 AI 시스템은 시민의 권리나 안전을 위협하는 정도가 최소한이거나, 아예 없기 때문이다.

김익현 미디어연구소장sini@zdnet.co.kr