국내 ‘인공지능 윤리기준’이 완성됐다. 윤리적인 AI를 실현하기 위해 정부와 공공기관은 물론 기업과 이용자 등 모든 사회구성원이 인공지능 개발과 활용의 모든 단계에서 함께 지켜야 할 원칙을 제시하는 기준이다.
세계 각국과 여러 기관, 단체에서 내놓은 80여개의 AI 윤리기준이 나왔고, 여전히 새로운 기준이 만들어지고 있다. 그런 가운데 국내에서 마련된 AI 윤리기준은 ‘인간성’을 최고 가치로 내세워 사람이 중심이 되는 기술에 방점을 둔 것이 특징이다.
23일 대통령 직속 4차산업혁명위원회는 올해 마지막 전체회의를 열어 과학기술정보통신부와 정보통신정책연구원이 마련한 ‘AI 윤리기준’을 심의 의결했다.
AI 윤리 기준은 그동안 인공지능, 윤리학, 법학 등 산학연과 시민단체 주요 전문가 논의와 자문을 거쳐 지난달 말 초안이 마련됐다. 이후 공청회와 시민 의견수렴을 거쳐 이날 최종안이 마련됐다.
AI 기술의 발전과 함께 기술의 윤리적인 개발과 활용도 세계 각국과 국제기구의 관심 대상이다. 한국이 주도적으로 참여한 경제협력개발기구(OECD) 인공지능 권고안을 비롯해 유럽연합 등에서 다양한 윤리 원칙이 발표되고 있다.
국내서 마련안 윤리 기준은 ‘사람 중심의 인공지능’이 핵심 키워드다. 최고가치 인간성(Humanity)을 위한 3대 기본원칙과 10대 핵심요건을 제시하고 있다.
■ 왜 ‘인간성을 위한 AI’ 목표로 삼았나
“모든 인공 지능은 ‘인간성을 위한 인공지능’을 지향하고, 인간에게 유용할 뿐만 아니라 나아가 인간 고유의 성품을 훼손하지 않고 보존하고 함양하도록 개발되고 활용돼야 한다.
인공지능은 인간의 정신과 신체에 해롭지 않도록 개발되고 활용돼야 하며, 개인의 윤택한 삶과 행복에 이바지하며 사회를 긍정적으로 변화하도록 이끄는 방향으로 발전돼야 한다.
인공지능은 사회적 불평등 해소에 기여하고 주어진 목적에 맞게 활용돼야 한다.”
이날 발표된 AI 윤리기준 서문 가운데 일부다. AI 기술이 생산성과 편의성을 끌어올려 국가경쟁력을 높이고 국민 삶의 질을 높일 수도 있지만 기술 오용과 데이터 편향성을 경계해야 하는 과제가 있다.
윤리기준은 이에 따라 인간성을 구현하기 위해 인공지능의 개발과 활용의 모든 과정에서 ▲인간의 존엄성 원칙 ▲사회의 공공선 원칙 ▲합목적성 원칙을 지켜야 한다는 3대 원칙을 세웠다.
안전성을 갖춰 인간에 해가 되지 않고, 공동체로서 사회 인류 복지를 향상시키는데 쓰여야 한다는 것이다. 또 인류 삶에 필요한 도구라는 목적과 의도에 부합해야 한다는 뜻이 담겼다.
■ AI 윤리 10대 원칙은?
AI 윤리기준은 인간성을 위한 3대 기본원칙과 함께 인공지능 전체 생명 주기에 걸쳐 충족돼야 하는 10가지 핵심 요건을 제시했다.
10가지 핵심요건은 ▲인권 보장 ▲프라이버시 보호 ▲다양성 존중 ▲침해금지 ▲공공성 ▲연대성 ▲데이터 관리 ▲책임성 ▲안전성 ▲투명성 등이다.
우선 AI 개발과 활용은 모든 인간에 동등하게 부여된 권리를 존중해야 한다는 뜻을 담았다. 다양한 민주적 가치와 국제 인권법에 명시된 권리를 보장해야 한다. AI 개발과 활용에서 개인정보의 오용은 최소화해야 한다.
AI는 성별, 연령, 장애, 지역, 인종, 종교, 국가 등 개인 특성에 따른 편향을 최소화해야 하고 특정집단이 아닌 모든 이에게 혜택을 골고루 분배해야 한다.
AI는 인간에 해를 미치는 목적으로 활용할 수 없고, 부정적 결과에 대한 대응방안을 마련해야 한다.
개인 행복 추구 외에 공공성 증진과 인류 공동 이익을 위해 활용돼야 하노 다양한 집단 간 관계 연대성을 유지하고 미래세대도 배려해야 한다.
AI의 데이터 활용은 목적 외 용도로 활용되지 않아야 한다.
AI 설계와 개발자, 서비스 제공자, 사용자 간 책임 소재를 명확히 해야 하고 명백한 오류가 발생할 경우 사용자가 작동을 제어할 수 있어야 한다. 끝으로 AI는 스스로 설명 가능하도록 하는 노력을 기울여야 한다.
■ 구속력 지닌 법-지침보다 자율 규범으로
이날 마련된 AI 윤리기준은 일반 법령과 같은 구속력을 갖지 않는다. AI 시대를 살아가는 이들이 자율적으로 준수하는 방향에 목적을 두고 있다.
특히 현재 마련된 기준으로 끝나지 않고 지속 발전하는 점을 지향하고 있다고 정부는 강조했다.
AI 개발에서 활용에 이르는 전 단계에서 모든 사회 구성원이 참조하는 기준이 되고 특정 분야에 제한되지 않고 범용성을 가진 일반원칙이 윤리기준 마련의 목표라는 설명이다.
아울러 각 영역별 세부 규범이 유연하게 발전해나갈 수 있는 기반 조성하는데 중심을 뒀다.
과기정통부 관계자는 “구속력 있는 ’법‘이나 ’지침‘이 아닌 도덕적 규범이자 자율규범으로, 기업 자율성을 존중하고 인공지능 기술발전을 장려하며 기술과 사회변화에 유연하게 대처할 수 있는 윤리 담론을 형성하는데 노력했다”고 설명했다.
이어, “사회경제, 기술 변화에 따라 새롭게 제기되는 인공지능 윤리 이슈를 논의하고 구체적으로 발전시킬 수 있는 플랫폼으로 기능하기를 기대한다”고 덧붙였다.
관련기사
- AI, 인간에게 피해 끼치면 안된다2020.11.27
- "AI윤리 제정 국제논의에 정부·기업 참여 늘려야”2020.11.13
- 인간 지식 넘보는 AI...‘사람 중심’ 윤리 기준 필수2020.01.02
- 중국도 인공지능 '윤리 가이드라인' 세웠다2019.06.19
과기정통부는 윤리기준의 현장 확산을 돕기 위해 주체별 체크리스트 개발할 예정이다. 또한 인공지능 윤리 교육 프로그램을 마련할 방침이다.
최기영 과기정통부 장관은 “지난 11월27일 윤리기준 초안을 발표한 후 공청회 등 폭넓은 공개 의견수렴을 거쳐 인공지능 윤리기준이 마련된 만큼, 인공지능 윤리 이슈에 대한 우리사회의 토론과 숙의의 시작점이자 사람 중심의 인공지능으로 나아가는 플랫폼이 되도록 노력하겠다”고 밝혔다.