"공공정책·규제 관련 분야에서 인공지능(AI)을 활용했을 때 잘못된 결과가 나오면 이는 우리의 삶을 좌우할 수 있는 중대한 문제가 된다. 따라서 신뢰할 수 있는 AI를 만들기 위해 정책 입안과 연구 과정에서 지속적으로 노력해야 한다. 기술이 혁신적으로 발전한다고 해서 문제가 저절로 해결되지는 않기 때문이다."
미국 매사추세츠공과대학(MIT)의 데이비드 에델만(R. David Edelman) 기술 경제 국가안보(TENS) 프로젝트 디렉터는 23일 서울 중구 프레스센터에서 열린 '서울 AI 정책 컨퍼런스 2019'에서 기조연설을 맡아 이같이 말했다.
서울대학교 법과경제연구센터에서 주최한 이날 컨퍼런스는 '미래를 향한 AI 정책: 우리는 AI를 신뢰할 수 있을까?'를 주제로 1부와 2부 세션으로 나뉘어 진행됐다.
알파고 이후 AI 기술에 대한 관심이 높아지면서 AI의 거버넌스와 신뢰성, 공정성 문제가 이슈로 떠올랐다.
에델만 디렉터는 "AI가 스스로 할 수 있는 일이 무궁무진하다고 말하는 것은 어느 정도 사실일 수 있지만 한편으로는 오해를 불러일으킬 수도 있다"면서, '설명가능성'을 통해 공공 분야에 활용하더라도 신뢰성과 공정성을 보장할 수 있는 AI의 필요성과 실현방안을 제시했다.
■ "설명 불가능한 AI, 공공 위협할 수도"
최근 빠르게 발전하고 있는 AI를 연구하는 학자들이 가장 우려하는 것은 AI가 내린 판단을 역추적할 수 없다는 것이다.
에델만 디렉터는 "사람들은 무선통신망의 작동원리 등 일상생활 기술이 어떻게 작동하는지 알지만 AI 시스템의 경우 설명이 불가능하다"고 말했다. 그는 "맞지 않는 청바지를 추천했다고 국가 안보가 무너지지는 않지만, 공공정책과 규제 분야에서 AI가 잘못된 결과를 낸다면 이것은 공공에 직접적인 위협을 가할 수 있다"며 "AI에 대한 두려움이 생겨나면 신뢰가 무너지고 말 것"이라고 경고했다.
에델만 디렉터는 AI의 활용방안에 대한 예시로 신용점수를 들었다. 미국인 중 5천만명은 과거 대출을 받은 이력이 없기 때문에 현재 대출을 받을 수 없다. 신용 이력이 있어야 신용점수가 나와서 대출이 가능한데 대출 이력이 없으면 점수 자체가 나오지 않기 때문이다.
이를 해결하기 위해 AI를 도입하면 특정인의 행동데이터와 신용도를 연결할 수도 있다. 예를 들어 휴대폰 요금을 성실하게 내는 사람은 주택담보대출금도 성실하게 갚았다는 결과가 나오거나, 매일 밤 자기 전에 휴대폰을 충전하는 사람은 대출을 갚을 확률이 높다는 결과가 AI를 통해 도출될 수도 있다.
이렇게 해서 신용점수가 없는 사람이 대출을 받을 수 있는 근거가 마련될 수 있지만, 문제는 이에 따른 부작용도 있다. 충전이나 요금 납부를 깜박해서 금리가 올라갈 수도 있다.
■ "기존 법과 같은 방식으로 공정성 확보해야"
에델만 디렉터는 이런 문제를 예방할 방안이 기존 법률에 있다고 설명했다. 신용보고서법 등을 통해 대출에 대한 평가를 할 때는 은행이 특정한 범위만 조회할 수 있고 그 기준을 소비자들도 알 수 있도록 보장하는 것이다.
그는 "이런 법들은 이미 지난 20~30년동안 제정되고 활용되면서 그 안에 공정성이 무엇이고 공정성을 확보하는 방법은 무엇인지 명문화돼 있다"며 "AI나 머신러닝도 마찬가지로 어떤 방법에 의해서 결과를 내는지를 설명할 수 있어야 한다"고 강조했다.
이어 "AI를 활용해서 소비자대출을 하게 되면 약간의 법 개정은 필요할 수 있겠지만, 그보다 중요한 것은 지금까지 수립된 기준들이 계속해서 유효하도록 하기 위해 공공의 신뢰를 얻은 기준이 마련되어야 한다는 것"이라며 "이것은 광범위한 거버넌스의 문제로 봐야 한다"고 말했다.
그는 AI 윤리와 정책의 관계는 정치철학과 규제의 관계가 비슷하다고 설명했다. 정치철학에 관한 논의를 아무리 해도 규제로 구체화돼야 하듯, AI 윤리도 정책으로 구체화돼야 한다는 것이다.
■ "끊임없는 대화와 소통·협업으로 통제 가능한 AI 설계할 수 있다"
에델만 디렉터는 협업의 중요성에 대해서도 강조했다. 그는 "각 국가마다 법과 규제 환경이 다르지만 AI의 발전에 따라 생기는 이슈들은 동서를 막론하고 보편적일 것"이라며 "여러 국가들이 집합적으로 노력할 필요가 있다"고 말했다.
이어 "정부와 비정부단체, 학계, 정부간기구들이 수백가지 원칙을 만들고 있지만 이것들은 출발점일 뿐이며, 정책과 법이 나아가야 할 방향만을 가리킬 뿐"이라며 "어느 원칙이든 투명성과 설명받을 권리에 대해 강조하지만 그게 항상 적용되는 것은 아니다"라고 말했다.
예를 들어 99% 정확하지만 과정을 예측할 수 없는 AI 기계와, 정확성이 50%밖에 안되지만 완전히 설명 가능한 AI 기계가 있다고 가정할 때, 암 진단에는 전자가 더 유용하리라는 것이다. 그는 "설명받을 권리가 건강한 삶을 살 권리보다 중요하지는 않다"며 "효용이 있고 안전하다는 것이 검증되면 어떤 원리에서 작동하는지 설명하지 않아도 미국 의료기기법에 의해서는 허용된다"고 말했다.
관련기사
- "AI도 모르는 건 모른다고 할 수 있어야 한다"2019.08.23
- EU, AI 개발 7대 윤리 가이드라인 발표2019.08.23
- '편견 없는 AI'를 설계하려는 MS의 방법론2019.08.23
- 카카오, 유네스코 주최 AI 정책 포럼서 'AI 윤리' 발표2019.08.23
그는 또 "설명가능한 AI가 좋긴 하지만 그것이 누구를 위한 것이고 얼마만큼의 대가를 치러야 하는 것인가는 생각해볼 필요가 있다"며 "어느 정도 수준까지 이해할 수 있도록 하느냐는 원칙을 규제로 만드는 과정에서 고민해야 할 문제"라고 말했다.
이를 위해서 그는 기술과 정책이 서로 끊임없이 대화해나가는 것이 중요하다고 강조했다. 법 전문가들과 기술 전문가들이 입법과정에 참여해야 어떤 점이 타협해야 하는 점이고 어떤 기술이 가능한가를 알 수 있기 때문이다. 그는 "AI는 결코 우리가 통제할 수 없는 마법이 아니라 통제가능한 기술이며, 이것을 어떻게 활용할지도 인간이 결정할 수 있다"고 강조했다.