20억명 이상이 이용하는 페이스북은 3만 여명 가량의 리뷰 전담 인력을 운영하고 있다. 이들은 매일 200만건 이상 콘텐츠의 노출여부를 결정한다.
물론 자의적으로 판단하는 건 아니다. '커뮤니티 규정'과 가이드라인이 있다. 하지만 검수사례 10건 중 한 건은 오판으로 분류될 정도로 실패 비중도 높다.
페이스북은 이런 한계를 극복하기 위해 인공지능(AI)을 활용키로 했다. AI가 문제소지가 있는 콘텐츠를 선제적으로 리뷰 담당자에게 신고하고, 일부 콘텐츠에 자동으로 조치를 취하는 전략을 세웠다. AI가 10번에 1번꼴로 작지 않은 인간 리뷰어의 '오판'을 줄일 수 있는 수단이라는 판단에서다.
하지만 수많은 예외와 각국의 이질적인 문화 및 통념을 고려하는 문제가 생각처럼 간단하지 않다. 이를테면 규제 대상인 총기류 판매를 금지하되, 형태가 비슷한 장난감총 사진은 허용해야 한다. 폭력을 조장하고 고통을 즐기려는 콘텐츠를 삭제하되, 인권유린 문제를 보도하는 언론 기능을 보장해야 한다.
이런 미묘한 차이 때문에 AI 자체의 공정성과 투명성이 그 어느 때보다 중요하다. '설명 가능한 AI(XAI)'에 대해 관심이 쏠리는 건 이런 배경 때문이다. 특히 기업에 쓰이는 AI 모델이 편향된 데이터를 근거로 치우친 결과를 얻더라도 그걸 충분히 검증할 수 있을지 여부가 문제로 꼽힌다.
지디넷코리아가 오는 12월12일 서울 포시즌스호텔에서 개최하는 'ATS 2018'에서는 최근 많은 기대를 받고 있는 '설명 가능한 AI'에 대해 깊이 있게 살펴볼 계획이다. (☞ ATS 2018 바로 가기)
지난해 열린 제1회 ATS의 주제는 'AI가 열어가는 비즈니스의 미래'였다. 올해 2회는 'AI, 이제는 플랫폼이다'를 주제로 생활친화적 AI 기술과 맞춤형 비즈니스 적용 방안을 살펴 볼 계획이다.
■ IBM 왓슨이 이야기하는 '설명할 수 있는 AI'는?
'설명가능한 AI(eXplainable AI, XAI)'는 AI가 도출한 결과에 대해 투명성과 신뢰성을 확보하는 데 초점을 맞추고 있다. 쉽게 설명하자면, 왜 그런 결과를 도출했는지 납득할 수 있는 설명을 해준다는 개념이다.
이런 흐름을 주도하고 있는 것은 미국 국방성 산하 방위고등연구계획국(DARPA)이다. DARPA는 지난해부터 AI 인사이트의 투명성과 결과의 신뢰성을 제공할 수 있는 XAI 프로젝트를 추진하고 있다.
XAI는 AI시스템 동작과 최종 결과를 이용자가 이해하고 제대로 해석해 설명할 수 있도록 돕는 기술을 뜻한다. XAI는 기술 적용에 따른 효과의 검증 가능성과 책임소재 명확화를 추구하는 기업 환경에 필수로 다가온다.
IBM 기업가치연구소는 최근 세계 5천명의 기업 임원을 대상으로 조사한 결과 응답 기업 82%가 AI 도입을 검토하고 있지만 60%가 "AI에 활용되는 데이터를 신뢰할 수 없고, 기업 내외부 여러 규제를 파악하지 못하는 우려가 있다"는 입장이었다고 밝혔다. [☞관련발표 원문보기]
AI의 편향을 극복하기 위해선 어떤 결과를 도출하기 위해 사용한 데이터와 모델이 한쪽으로 치우친 부분은 없는 지 검증할 수 있어야 한다. 지난달 IBM은 이런 기업 시장의 요구에 대응해 'AI 오픈스케일(OpenScale)'이라는 AI 편향 검증 플랫폼을 선보였다. 이는 클라우드기반 IBM AI 설계 도구 가운데 하나로 연말께 'IBM클라우드'와 'IBM클라우드프라이빗'을 통해 제공될 예정이다.
IBM이 AI 오픈스케일을 통해 제안하는 가치는 5가지다.
첫째, AI 인사이트 도출 과정을 이해하기 쉬운 용어로 설명한다.
둘째, 자동화된 편향 제거 기술로 AI 애플리케이션을 모니터링하고, 편향성을 탐지 및 해결한다.
셋째, 기업이 GDPR 등 법률과 규정을 준수할 수 있도록 모든 예측과 모델, 트레이닝 데이터 및 측정지표 기록을 모두 보전한다.
넷째, 실험적인 신경망 자동 구축 기술 '뉴넷S(NeuNetS)'로 AI 운영을 돕는 AI를 만든다.
다섯째, 텐서플로, 사이킷런, 케라스, 스파크ML 등 오픈소스 머신러닝, 딥러닝 모델과 병용 가능하다.
IBM 왓슨, 파워AI, 셀던, AWS 세이지메이커, 애저ML 및 다른 엔진에서 학습하고 호스팅되는 애플리케이션과 모델을 처리할 수 있다.
쉽게 말해 AI 오픈스케일은 기업이 '블랙박스'처럼 여겨지던 AI의 판정 과정을 이해할 수 있게 돕고 '자동화된 편향 제거' 기술을 통해 AI 애플리케이션을 모니터링해 편향성을 탐지, 해결한다는 게 IBM 측 주장이다. 뒤집어 말하면 AI를 활용하는 기업이 고객에 제품과 서비스를 제공할 때, 그걸 만들어내는 기업 스스로 그리고 고객의 믿음을 얻는 데 필요한 신뢰성, 정확성, 공정성, 타당성을 보장한다는 얘기다.
IBM 왓슨은 데이터와 모델의 편향을 극복하고 설명을 필요로하는 일상 환경과 현업 비즈니스에서 투명하고 믿을 수 있는 AI 역할을 해낼 수 있을까. 이런 물음에 답하기 위해 IBM의 아시아태평양(AP)지역 왓슨 전문가가 내달 한국에 찾아 온다. IBM의 체탄 크리쉬나무르티 왓슨 비즈니스 총괄 임원은 오는 12월 12일 서울 포시즌스 호텔에서 열리는 지디넷코리아 아시아테크서밋(ATS) 2018' 컨퍼런스에 기조연사로 참석할 예정이다.
■ 핵심은 인간과의 조화로운 공존…역할 얼마나 커질까
다시 페이스북 얘기로 돌아가보자. 노출 허용 여부와 관련해 부당한 판정을 받은 당사자가 이의를 제기했을 때, AI는 설득력있는 판단 근거와 단서를 제공할 수 있을까.
일단 페이스북은 이런 딜레마에서 한 발 물러선 상태다. 미묘한 판단을 요하는 상황은 인간들의 손길을 더 많이 활용하겠다는 게 페이스북의 기본 입장이다. 대신 AI는 기계적으로 처리할 수 있는 영역에 투입돼 인간의 부담을 덜어준다는 분업 전략이다.
마크 저커버그 페이스북 최고경영자(CEO)는 지난 15일 포스팅을 통해 "첨단 AI기술은 아직 이런 문제를 단독 처리할만큼 충분히 발전하지 못했다"며 "대량의 콘텐츠에 대해 신속하게 기초적 판단을 내리는 일에 컴퓨터를 활용하고, 더욱 심오한 전문성을 요구하는 좀 더 복잡하고 뉘앙스에 대한 판단이 필요한 일에는 사람이 관여하고 있다"고 밝혔다.
하지만 페이스북 역시 장기적으로는 AI의 약점을 메워나가면서 인간의 역할을 더 많이 보완할 수 있게 만들 계획이다. 저커버그 CEO는 앞으로 콘텐츠 처리와 관련해 여러 과제가 남아있지만, 그중 하나는 'AI의 알고리즘 편향'을 해결하는 것이라고 언급했다. 페이스북 인간 리뷰 담당자의 오판을 줄이고 그 일을 더 효율적으로 해낼 수 있도록 돕는 AI를 인간만큼, 또는 인간 이상으로 '공정하게' 학습시켜야 한다는 목표를 시사한 것으로 풀이된다.
결국 페이스북 역시 AI 알고리즘의 공정성과 투명성 확보를 당면과제로 내세우고 있는 셈이다. 페이스북 뿐 아니라 다른 많은 기업들도 마찬가지 입장을 보이고 있다.
관련기사
- AI는 기술이 아니다, 이젠 플랫폼이다2018.11.22
- 美 연구소 "얼굴인식, 중국 기술이 압도적 우위"2018.11.22
- 행안부 "정부 AI 활용 윤리 기준 마련중"2018.11.22
- "AI시대, 인간 손길 필요한 직업 찾아라"2018.11.22
ATS 2018에서 다루게 될 XAI는 그런 측면에서 최근 인터넷 비즈니스의 가장 중요한 이슈라고 해도 크게 그르지는 않다.
크리쉬나무르티 IBM 왓슨 비즈니스 총괄 임원은 '여러분의 기업 전반에 신뢰와 투명성을 갖춘 AI 적용을 가속하고 확산하라'는 주제의 키노트를 통해, IBM이 기업들에게 제안하는 왓슨 기반의 AI 활용전략을 제안할 것으로 기대된다. (☞ATS 2018 사전등록 바로가기)