"포털 AI 알고리즘 투명해야"...검증은 온도차

알고리즘 투명성은 필요...네이버 카카오, 2018년부터 공개

방송/통신입력 :2021/05/27 16:25    수정: 2021/05/28 08:45

포털의 인공지능 알고리즘이 투명하게 공개돼야 한다는데 전문가들의 의견이 모아졌다. 네이버와 카카오 역시 투명한 알고리즘 정책을 갖추고 있다는 점을 강조했다. 다만, 알고리즘 검증에 대해선 미묘한 온도차를 보였다. 

27일 국회 과학기술정보방송통신위원회는 포털 알고리즘 관련 공청회를 열고 전문가들이 진술인으로 참석해 의견을 청취했다. 또 네이버와 카카오에서도 참고인으로 참석했다.

이날 공청회는 포털의 뉴스 편집 알고리즘을 과학기술정보통신부와 방송통신위원회에 제출하는 내용의 정보통신망법 개정안에 대한 논의를 위해 마련됐다.

이와 유사한 내용의 발의안으로 문화체육관광부 아래 뉴스포털이용자위원회를 설치해야 한다는 신문법 개정안도 나와있다.

과방위 공청회에 진술인으로 참석한 전문가들은 알구리즘의 투명성 원칙은 반드시 지켜져야 할 것이라고 입을 모았다.

최경진 가천대 교수는 “알고리즘은 도구일 뿐인데 규제 대상이 될 수 있냐는 시각이 있는 반면 칼과 같은 도구로 쓰일 수 있다는 점을 보면 최소한의 규제가 필요한 것도 사실이다”고 운을 뗐다.

이어, “알고리즘은 도구일 뿐이라는 가치중립적인 속성과 누군가 설계에 따라 다른 결과를 이끌어낼 수 있는 가치 내재적 속성을 모두 고려해야 한다”며 “가치중립성 차원에서 자율성을 보장해야 하고 가치 내재적 측면에서는 투명성을 확보해야 하는 것이 우선이기 때문에 두 가지를 모두 고려한 입법 노력이 필요하다”고 말했다.

그는 또 “기본적으로 알고리즘의 개발과 설계, 운영의 자율성을 보장해야 하지만 알고리즘도 사회를 구성하는 요소로 자리를 잡았기 때문에 법적인 개입이 필요하다”면서도 “초기 단계에서 자율 규제와 같이 비강제 규제가 맞지만, 불가피한 경우 사후적 규제 틀을 마련하는 것이 필요하다”고 덧붙였다.

전문가 의견과 함께 포털 알고리즘에 최소한의 투명성이 필요하다는 데 포털 사업자들은 큰 뜻에서 동의한다는 답을 내놨다.

카카오 김희정 실장은 “알고리즘 투명성 문제는 충분히 공감하고 있고 사내에서 논의하고 있는 문제”라며 “사회적 합의를 국회가 이뤄준다면 적극 검토할 것이고 2018년 이미 알고리즘 윤리헌장을 공포했고 사내 직원 교육도 이어가고 있다”고 답했다.

네이버 최재호 이사는 “편향성을 해소하기 위해 언론사 직접 편집을 도입했고 AI 편집은 30% 트래픽을 차지하는 마이뉴스에 해당한다”며 “알고리즘 도입 과정에서 이용자 선택권을 중요하게 봤고 원하는 언론사를 구독하는 기능을 넣었으며 30%의 트래픽만 보조적 수단으로 사용하게 됐는데 여기서 나오는 투명성과 공정성에 대한 좋은 의견을 수용하겠다”고 밝혔다.

공청회에서는 정치권에서 이야기가 반복되고 있는 뉴스 편집 알고리즘 외에도 실제 포털 사업자의 매출을 고려할 때 쇼핑 검색 등의 알고리즘이 실제 국민 생활에 밀접하기 때문에 투명성이 더욱 강조되는 분야라는 의견도 오갔다.

이같이 알고리즘 투명성이 중요하다는 의견이 모였지만, 이를 검증하는 데 한계가 있다는 의견이 주를 이뤘다.

알고리즘을 공개하더라도 공정하게 작동하는지 검증하는 작업이 쉽지 않고 기업의 비밀 문제와 함께 권력기관이 취할 수 있는 정보 범위 등의 논의가 엇갈렸다.

이를테면 알고리즘의 핵심인 소스코드 공개에 대해서 논의가 주로 오갔다.

이수영 KAIST 명예교수는 “개발자 입장에서 본다면 소스코드는 심각한 위협이 아니라면 공개하지 않는 것이 맞다고 본다”면서 “소스코드보다 알고리즘이 어떤 목적을 가지고 어떤 데이터를 취하고 있는지 구체화하는 것이 중요한 문제”라고 말했다.

네이버 최재호 이사는 “2018년에 최초 검증위를 실행해봤다”며 “여러 교수와 전문가들이 모인 검증위에서는 소스코드 레벨까지 공유했지만 일반에 소스코드를 공개하는 것은 실효성의 문제가 있다”고 말했다.

더불어민주당의 윤영찬 의원 역시 “계속 진화하는 머신러닝 속에서 알고리즘을 완벽히 검증할 수 있는지가 가장 답답한 문제다”며 “사람이 이해할 수 있는 수준으로 검증하고 공개하는게 가능한지 의문이 있다”고 밝혔다.

이같은 논의는 최근 AI 기술개발 단계에서 화두인 설명가능성(Explainability) 논의로 이어졌다. 설명가능성, 또는 설명가능한 AI라는 용어로 번역돼 쓰이고 있는 이 용어는 기계학습을 거친 AI가 어떤 행동을 하거나 판단을 내릴 때 기계 사용 설명서와 같이 사람이 이해할 수 있어야 한다는 뜻으로 쓰인다.

즉, AI 역기능 우려에 대해 사전적으로 AI 서비스 개발회사와 머신러닝 엔진 개발자들이 중요하게 여기는 분야다.

네이버 최재호 이사는 “설명가능성 연구는 현재 실험적인 단계로 진행되고 있는데 현재의 AI가 어떻게 추천했는지 설명하는 것은 어려운 단계”라고 말했다.

관련기사

알고리즘 검증을 위해 실증 단계를 거치자는 의견도 나왔다.

법무법인 주원의 김진욱 교수는 “알고리즘 검토 위원회를 구성해 검증하려는 시도가 이뤄지고 있다고 알고 있다”면서 “1~2년 실증을 해보고 과정과 결과를 향후 개선방안에 반영하는 것도 방법일 수 있다”고 말했다.