EU, '편견없고 안전한 AI' 시동 걸었다

"인간자율성 훼손 금지" 등 7대 윤리 가이드라인 공개

컴퓨팅입력 :2019/04/09 09:10    수정: 2019/04/09 10:24

김익현 미디어연구소장 기자 페이지 구독 기자의 다른기사 보기

인공지능(AI)은 인종이나 성별 편견을 갖지 않도록 해야 한다. 진료 행위를 할 때는 사람 의사의 진단을 뛰어넘을 수 없다. 또 환자들이 요구할 경우엔 AI가 왜 그런 진단을 했는지 설명해줘야만 한다.

유럽연합(EU)이 8일(현지시간) 투명성, 설명 가능성 등 7대 원칙을 담은 AI 윤리 가이드라인을 공개했다. 이 가이드라인에는 기업이나 정부나 윤리적인 AI 애플리케이션을 개발하기 위해선 어떻게 해야 하는 지에 대한 기본 원칙이 담겨 있다.

이번 가이드라인은 AI 기술을 건강, 교육, 소비자 기술 등의 분야에 통합할 때 사회에 미칠 수 있는 문제들에 대해 면밀하게 살펴보고 있다.

특히 AI가 인간의 자율성을 존중하고, 피해를 방지하며, 공정하고 설명 가능해야 한다는 것이 이번 가이드라인의 기본 골자다.

또 어린이와 장애인 같은 취약 계층을 보호하는 데 특별한 주의를 기울여야 한다는 원칙도 포함돼 있다. 이와 함께 사람들이 자신들의 데이터를 완벽하게 통제할 수 있어야만 한다고 규정하고 있다.

EU의 이번 가이드라인은 AI가 미쳐 날뛰면서 인간을 지배하는 것을 방지하기 위한 것으로 풀이된다.

EU는 앞으로 AI 시스템을 개발할 때는 7가지 조건들을 충족시켜야만 한다고 권고했다.

1. 인간 대리인과 감시

AI는 인간의 자율성을 짓 밟아선 안 된다. AI 시스템이 인간을 조종하거나 억압해서도 안된다. 아울러 인간은 소프트웨어의 모든 결정에 간섭하거나 감독할 수 있어야만 한다.

2. 기술적으로 강건하면서도 안전할 것

AI는 안전하고 정확해야만 한다. 외부 공격에 쉽게 노출되지 않도록 해야 한다.

3. 프라이버시와 데이터 통제

AI 시스템이 수집한 개인 데이터는 안전하게 비공개 상태로 보관되어야만 한다. 그 데이터에 대해선 어느 누구도 접속할 수 없도록 해야 한다. 쉽게 도난되지 않도록 할 필요도 있다.

4. 투명성

AI 시스템을 만드는 데 사용되는 데이터와 알고리즘에 접근할 수 있도록 해야 한다. 또 소프트웨어가 내린 결정은 “사람들이 이해하고 추적할 수 있어야만” 한다. AI 시스템의 모든 결정은 설명 가능해야만 한다.

5. 다양성, 비차별성, 그리고 공정성

AI의 서비스는 모든 사람들에게 제공되어야만 한다. 연령, 성별, 인종, 기타 다른 특징들 때문에 차별되어선 안된다. 아울러 AI 시스템이 편견을 가져서도 안된다.

6. 환경 및 사회적 웰빙

AI 시스템은 지속 가능해야 하며, ‘긍정적인 사회 변화를 향상’ 시켜야만 한다.

7. 책임성

AI 시스템은 감사할 수 있어야만 한다. AI의 부정적인 영향에 대해선 인지할 수 있어야 할 뿐 아니라 사전에 보고되어야만 한다.

■ 2020년초 전문가 그룹이 7대 과제 평가

이번 가이드라인은 법적인 강제성은 없다. 하지만 앞으로 EU 회원국들이 입법 활동을 하는 데 영향을 미치게 될 것이라고 외신들이 전했다.

유럽연합집행위원회(EC)는 2020년초 AI 전문가 그룹이 이번 요구 사항에 대해 평가할 계획이라고 밝혔다. 이런 평가를 토대로 다음 단계 제안을 내놓게 된다.

관련기사

EC는 또 올 가을까지 AI 연구센터들을 대거 출범시킬 예정이다. 이 연구센터들은 회원국과 이해 관계자들 간의 토론을 활성화하는 디지털 혁신 허브 역할을 하게 된다.

이번 계획은 EC가 지난 해 4월 내놓은 AI 전략의 일환이다. EC의 AI 전략은 향후 10년 동안 최소 200억 유로 가량의 AI 관련 투자를 통해 좀 더 많은 데이터를 확보하고 신뢰를 얻도록 하는 것을 골자로 한다.

김익현 미디어연구소장sini@zdnet.co.kr