"인공지능(AI) 규제 도입에 앞서 사회적 영향평가를 먼저 하는 제도를 마련하겠습니다."
이재형 과기정통부 인공지능기반정책과장은 지능정보산업협회(회장 장홍성)가 22일 서울 강남 JW메리어트호텔에서 개최한 2월 조찬 포럼에서 AI 신뢰성 확보를 위한 방안으로 이같이 밝혔다. 협회 총회를 겸한 이날 행사에는 협회 회원사 대표 등 관계자 50여명이 참석했다.
이날 이 과장은 국내외 인공지능 법제도 현황을 설명하며 인공지능 신뢰성 확보를 위한 과기정통부의 5대 방안을 밝혔다. 인공지능 사회적 영향 평가제 도입 외에 ▲인공지능 윤리기준 실천 방안 구체화 ▲민간의 자율적 신뢰성 확보 노력 지원 ▲인공지능 위험 수준별 규제 프레임워크 마련 ▲일반 국민 대상 인공지능 리터리시 향상 등이다.
앞서 정부는 지난 2019년 AI강국 도약을 위한 3대 비전과 9대 실천계획을 발표한 바 있다. 3대 비전은 인공지능을 가장 잘 활용하는 나라, 세계를 선도하는 인공지능 생태계 구축, 사람중심 인공지능 구현 등이다. 신뢰할 수 있는 인공지능은 3대 비전 중 사람중심 인공지능 구현과 맞닿아 있다. 세계가 인공지능 패권을 차지하기 위해 치열히 경쟁중인데 이 과장은 "AI기술력은 우리가 미중에 비해 다소 취약하지만 그간의 정책적 노력을 토대로 우리 강점을 살린다면 경쟁력 확보가 가능하다"고 내다봤다.

우리나라는 청년층 고등교육이 OECD 국가중 1위인데다 메모리반도체 시장 세계 1위, 스마트폰 보급률도 세계 1위다. 이런 기반위에 AI인재, 기술, 기업, 생태계 확산에 정책을 집중하고 있어 AI강국으로 도약할 잠재력이 크다는 거다. 앞서 정부는 전문가 의견 수렴과 20개 부처 과제 발굴을 기반으로 2019년 10월 인공지능 기본 구상을 문재인 대통령이 직접 발표한데 이어 2개월 뒤인 같은해 12월 국무회의에서 '인공지능 국가전략'을 발표했다. 인공지능 국가전략이 계획대로 이뤄지면 현재 세계 8위인 디지털경쟁력이 세계 3위로, 또 삶의 질도 현재 30위에서 세계 10위로 올라설 것으로 과기정통부는 예상하고 있다.
이 과장은 "신뢰할 수 있는 인공지능을 구현하기 위해 EU와 미국, OECD 등이 잇달아 나서고 있다"면서 "우리나라도 철저히 준비하고 있다"고 밝혔다. 외국의 경우 특히 프라이버시에 민감한 EU가 발빠르게 대응책을 마련했다. 지난해 6월 AI 규제 프레임워크를 선보였고, 앞서 2019년 6월에는 신뢰할수 있는 AI 평가 목록도 만들었다. 미국도 2019년 6월 AI리더십 유지를 위한 행정명령에 이어 지난해 6월 산업별 AI 활용 촉진을 위한 AI리더십 전략을 마련했다. OECD는 2019년 6월 AI원칙 권고안에 이어 지난해 6월 신뢰가능한 AI를 위한 도구 정책을 발표했다.
특히 EU의 경우 인공지능의 제도적 기반 확립 차원에서 인공지능 법안을 만들어 인공지능 정도를 ▲금지 ▲고위험 ▲제한된 위험 ▲최소 위험 등 네가지로 제시한 바 있다. 이에 따르면, 우리가 가장 많이 접하는 챗봇은 제한된 위험에 속한다. 또 공공기관이 사람의 행동, 인성을 점수화해 평가 및 분류하는 인공지능시스템은 금지했다. 공개 공간에서 법집행을 목적으로 활용하는 실시간 원격 생체인식 시스템도 금지했다. 실시간이나 사후 활용하는 원격생체인식시스템은 고위험에 속한다.
이 과장은 "우리나라도 2020년 12월 인공지능 윤리기준을 마련한데 이어 같은해 12월 법제도를 정비한 로드맵을 발표했다"면서 "지난해 5월에는 신뢰할 수 있는 인공지능 실현 전략도 마련했다"고 들려줬다. 이어 우리가 인공지능 윤리에 관심을 갖는 이유는 활용 과정에서 발생할 수 있는 위험과 부작용 때문이라면서 "신뢰할 수 있는 인공지능 개발과 이용을 지원하기 위해 자율적 윤리체계를 확립하게 지원하는 방안과 법령 등을 통해 제도적 기반을 갖추는 방안 등 두 가지 방안으로 접근하고 있다"고 설명했다.

자율적인 인공지능 윤리체계 확립과 관련, 2020년 4차위가 사람이 중심이 되는 인공지능 윤리기준이라는 일반원칙을 발표한데 이어 국토부와 개인정보위, 방통위, 금융위, 교육부 등 각 부처가 개별적으로 가이드라인을 이미 마련, 발표한 바 있다. 예컨대 국토부는 자율주행차 윤리 가이드라인을 2020년에, 개보위는 인공지능 개인정보보호 자율점검표를 2021년에, 방통위는 인공지능 기반 추천서비스 이용자 보호 원칙을 2021년에, 금융위는 금융 분야 인공지능 가이드라인을 2021년에, 또 교육부는 교육분야 인공지능 윤리원칙을 올해 마련할 예정이다. 이런 노력은 민간도 하고 있다. 카카오는 2018년 알고리즘 윤리헌장을 네이버는 2021년 인공지능 윤리준칙을 각각 마련했다.
이 과장은 "신뢰할 수 있는 인공지능 개발 안내서도 마련중"이라고 밝혔다. IEEE 등의 지침을 기반으로 만든 이 안은 책임성, 안전성, 투명성 등과 관련한 14개 기술 요구와 59개 자가 검증 항목으로 이뤄져 있다. 이안에 대해 이 과장은 "전문가 의견 수렴과 공개세미나, 국민 의견 수렴에 나설 계획"이라고 덧붙였다.
특히 그는 인공지능 윤리 교육 콘텐츠 개발 기준을 지난해 12월 마련했다면서 "올해는 학생 및 일반시민 대상 인공지능 윤리교육 콘텐츠를 만들겠다"고 밝혀 시선을 모았다.
이 과장 발표에 이어 와이즈넛 장정훈 연구소장이 자사의 자연어처리기술(NLP)과 챗봇 기술을 소개했다. 장 소장은 영화에 나오는 인공지능 자비스의 대표적 기술이 챗봇이라면서 "자비스와 같은 인공지능 기술을 만드는게 목표"라고 밝혔다.
그는 챗봇의 정의를 "음성이나 문자를 통한 인간과의 대화를 통해 특정한 작업을 수행하도록 제작된 컴퓨터 프로그램"이라며 "자연어 이해와 생성, 정보조회 및 서비스 호출 등으로 이뤄져 있다"고 말했다. 이어 가트너 기술사이클을 인용하며 "챗봇은 향후 2년내 성숙단계에 도달한다. 하지만 일반인공지능은 몇년째 제자리"면서 "챗봇의 가장 중요한 기술은 자연어처리인데 딥러닝 기술이 나오면서 기술 장벽이 낮아졌다"고 설명했다.
장 소장에 따르면 챗봇은 네 단계로 작동한다. 1단계로 단어를 잘게잘게 쪼개는 형태소 분석과 주어와 동사를 구분하는 의존구문 분석, 서술어를 기반으로 목적어를 알아채는 의미역 인식, 마지막으로 의미 분석&추론이다. 또 챗봇은 3단계 레벨로 나눠지는데 인터랙션, 인텔리전스, 인트그레이션으로 이중 질문하면 답을 주는 인텔리전스 단계가 가장 중요하다. 특히 인텔리전스는 키워드, Q&A지식그래프, 인텐트(Intenr), 시퀀스 대 시퀀스 등 네 단계가 있는데 구글을 비롯해 국내외 대부분의 회사가 세번째 단계인 인텐트에 머물러 있다. 와이즈넛도 인텐트 단계라고 장 소장은 설명했다. 이어 장 소장은 미국 스탠포드 대학이 배포한 기계독해(MRC) 기술을 소개하며 "2019년 기계가 처음으로 독해에서 사람을 앞섰는데, 지금은 기계가 사람보다 점수가 4,5점 더 높다"고 밝혔다.