AI 부작용 막을 '윤리표준' 만든다

IEEE, 3대 설계기준 제시…인간복리 증진 등 강조

컴퓨팅입력 :2017/11/21 15:16

인공지능(AI) 시대가 본격화되면서 윤리 문제가 또 다른 이슈로 제기되고 있다. 초인적 능력을 가진 자율 기계가 모든 사람에게 우호적으로만 행동할 리 없다는 관측에서다.

이런 가운데 미국 비영리 전문가 단체인 국제전기전자기술자협회(IEEE)도 최근 AI 윤리 기준 표준화에 착수하겠다고 밝혀 관심을 모으고 있다.

지난 17일 테크리퍼블릭 보도에 따르면 IEEE는 AI 기술개발에 인간의 복리(well-being)를 우선시하기 위한 3가지 판단 도구를 표준화하겠다고 선언했다. 이를 통해 사람들의 일상에 스며들고 있는 AI와 자동화 시스템이 인간 사회의 안전(safety)을 보장하도록 할 윤리적 고려사항을 구체화하기로 했다. [☞원문보기]

AI가 인간의 삶과 비즈니스에 어떤 영향을 미칠 것이냐는 부분은 최근 들어 중요한 논의 주제 중 하나로 떠오르고 있다. 오는 22일 지디넷코리아 주최로 서울 포시즌스호텔에서 열리는 '아시아테크서밋 2017'에서도 이 문제를 놓고 열띤 토론을 벌일 예정이다. [☞ ATS 컨퍼런스 사이트 바로가기]

미국 과학기술 비영리단체 국제전기전자기술자협회(IEEE)가 AI 확산 부작용을 최소화하기 위한 연구자, 개발자, 사용자용 AI 윤리 판단 기준 표준화를 선언했다. [사진=Pixabay]

■ "AI 부작용, 학계-산업계 가이드라인으로 대처 가능"

AI 기술이 무서운 속도로 발전하면서 낙관론과 비관론이 팽팽하게 맞서고 있다.

비관론의 핵심은 AI기술 발전으로 일자리가 크게 줄어들 것이란 우려다. [☞관련기사] 이런 걱정을 하는 건 일반인들만이 아니다. 실리콘밸리 혁신가로 평가되는 일론 머스크 테슬라 최고경영자(CEO)는 AI로 전쟁이 촉발될 수 있다고 봤다. [☞관련기사]

하지만 AI 연구자들은 비교적 신중한 낙관론 쪽으로 기울어 있다. 지난 6월 정보문화의 달을 맞아 한국에 모인 한중일 학계 전문가들 인간이 AI로 도약할 수 있고, AI는 인류에게 큰 해를 끼칠 수 없다는 견해를 폈다.

물론 이런 전망이 실현되기 위해선 전제조건이 필요하다. AI 연구개발과 활용을 위한 학계와 산업계의 가이드라인이 필요하다.

결국 연구자들의 낙관론의 기저에는 AI로 인한 문제를 시민 사회가 충분히 풀어나갈 것이란 논리였다. [☞관련기사]

요컨대 AI가, AI와 로봇을 활용하는 자동화 시스템이 확산해 아무런 문제를 일으키지 않을 것이라는 관점은 없다. 실제로 충돌하는 견해는 그에 따른 문제를 현 시대의 인류가 충분히 해결할 수 있느냐, 아니면 감당하기 어렵겠느냐다. 어느 쪽이든 전문가들은 인류에게 부정적 결과를 최소화할 준비가 필요하다는 입장이다. 그래서 AI를 만들고 활용하는 사람들에게 적용될 'AI윤리'의 필요성이 요구되는 추세다.

세계 AI윤리 논의는 초기 단계다. 앞서 일본에선 AI-인간의 공존을 위한 AI 연구개발과 AI 사용에 대한 가이드라인이 준비 중이라 알려졌다.

지난 7월 마이크로소프트(MS)는 내부 AI연구 인력을 위한 AI 설계 원칙, 윤리적 설계 가이드를 만들었다. [☞관련기사] 테슬라가 주도하는 '오픈AI'와 구글, MS, 아마존, IBM, 페이스북이 주도하는 '파트너십온AI'도 AI 관련 윤리 문제를 풀기 위한 비영리단체로 결성됐다. [☞관련기사]

■ 비상안전-복리성 측정 등 3대 표준 제시

IEEE가 최근 마련한 AI 윤리 표준안 역시 이런 흐름의 연장선상에서 나온 것으로 볼 수 있다.

실제로 표준화 작업을 주도한 사토시 타도코로 IEEE 로보틱스 앤드 오토메이션 소사이어티 프레진던트는 "로보틱스와 자율(autonomy)은 사회에 큰 혁신을 가져다줄 것으로 기대된다"며 "최근 그에 따라 거대한 잠재적 이익과 동시에 초래될 사회 문제에 대한 대중의 관심도 커지는 추세"라고 지적했다.

그는 이어 "그런 논의에서 불행히도 창작물의 일부 부정확한 정보가 나타난다"며 "세계 최대 기술 전문가 집단으로서 IEEE는, 인류 전반의 이익을 극대화하는 공공의 의사 결정을 돕기 위해 과학과 기술 분야에서 공인된 사실에 기반한 지식과 지혜를 전하겠다"고 말했다.

인간 사회의 복지와 이익을 증진시킬 수 있는 윤리적 AI 판정을 위한 표준이 미국 과학기술자 비영리단체 국제전기전자기술자협회를 통해 마련된다. [사진=Pixabay]

이런 목적에서 IEEE에서 표준화하기로 한 윤리적 판단기준은 다음 3가지다.

첫째는 로보틱, 인텔리전트, 자동화 시스템의 확산(nudging)을 윤리적으로 주도할 수 있는 표준이다.

이 표준은 인간의 행동과 감정에 명시적으로든 은연중에든 영향을 주게끔 설계된 AI의 확산에 따른 영향성을 가늠하는 기준이다. 이 기준은 로보틱 및 자동화 시스템이 세계 윤리와 도덕론에 충실하도록 보장하는 데 필요한 개념, 기능, 이익을 나타낸다. 이 기준은 또 그런 시스템을 설계하고 구현하는 것에 대한 윤리와 엔지니어링 커뮤니티를 조정(aligning)할 필요성도 강조한다.

둘째는 자동화 및 반자동화 시스템의 오작동이나 고장에 대비한 비상안전(fail-safe) 설계 표준이다.

IEEE는 자동 및 반자동시스템이 오작동을 일으켜 인간 사용자에게, 그리고 사회와 환경에 잠재적으로 해를 입힐 수 있다고 지적했다. 시스템 고장에 따른 위험을 낮추고 개발자, 설치자, 운영자에게 손상된 시스템을 안전하게 중지시키도록 명확한 기술적 절차를 제공할 효과적인 비상안전장치가 필요하다. 이 표준은 시스템의 성능을 개선하는 것과 더불어 자동화 시스템의 비상장치 기능을 약점부터 강점까지 안전하게 측정, 실험, 검증하는 절차를 확립한다. 또한 비상안전 시스템을 설계하는 개발자, 사용자, 규제당국이 책임성을 개선할 기반을 제공한다.

셋째는 윤리적 AI 및 자동화 시스템의 복리성을 측정하는 표준이다.

AI 시스템이 발전함에 따라 프로그래머, 엔지니어, 과학기술자(technologists)는 그들이 만드는 제품과 서비스가 경제 성장과 생산성 측면에서 인간의 복지와 이익을 증진시킬 수 있는 방법을 고민해야 한다. 이 표준은 자동화 및 인텔리전트 시스템에 직접 영향을 받을 수 있는 인간의 복지와 이익에 대한 지표와 척도(indicators and metrics)를 정의한다. 그리고 이런 시스템이 포함해야 하는 데이터를 열거해 인간의 복지와 이익을 증진시키는 데 쓰일 수 있는 기준을 제공한다.

미국 전기전자기술자협회(IEEE)가 발간한 '윤리적으로 조정된 디자인-인공지능 및 자동화시스템을 다루는 인간복리 우선순위를 위한 비전' 표지.

■ "이해 당사자 안심시킬 합의된 윤리적 고려사항 시급"

관련기사

위 3가지 표준은 과학기술자들이 AI를 다루는 환경에서 우선시해야 할 윤리적 고려사항을 담은 IEEE의 공개문서 '윤리적으로 조정된 디자인: 인공 지능 및 자동화 시스템을 다루는 인간 복리 우선순위를 위한 비전(Ethically Aligned Design: A Vision for Prioritizing Human Wellbeing with Artificial Intelligence and Autonomous systems)'에 일부 내용으로 포함됐다. [☞원문보기(PDF)]

IEEE 산하 표준협회(IEEE-SA)의 콘스탄티노스 카라칼리오스 매니징 디렉터는 "기술이 발전하는만큼 자동화 및 인텔리전트 시스템은 우리 일상 생활에 점점 더 중요한 역할을 수행할 것"이라며 "오늘날 우리가 취하는 노력은 이런 시스템이 잘 파악됐는지를 알고자하는 이해당사자 모두를 안심시키고 이런 기술의 핵심에 세계적으로 합의된 윤리적 고려사항을 반영(incorporate)하기 위해 가장 시급한 것"이라고 말했다.