'혁신' 두 글자를 앞세워 무시해서는 안 되는 '원칙'

[기자수첩]AI 챗봇 '이루다'가 생각했어야 할 것

기자수첩입력 :2021/04/29 15:58    수정: 2021/04/29 16:38

"미국, 중국처럼 우리나라보다 훨씬 인공지능(AI) 기술이 발전한 국가에서도 '이루다' 같은 서비스가 운영되지 않는 이유를 생각해본 적이 있습니까? (...) AI 발전에 기여할 데이터 확보를 위해 법률이나 사회에서 유연하게 대응할 수 있는 부분이 존재합니다. 반면 그렇지 않은 부분들은 (얼마든지 있을 수 있고, 그런 것을) '원칙'이라고 부릅니다."(지성우 개인정보보호위원회 비상임 위원)

AI 기반 자유형 대화 챗봇인 이루다가 불법 수집된 개인정보로 만들어졌다는 지적이 지난 1월 제기됐다. 다른 서비스에서 확보한 이용자의 카카오톡 대화 데이터를, 충분한 고지 없이 이루다 서비스에 활용했다는 것이 주된 지적이다.

어제(28일)는 개인정보위가 이루다 개발사인 스캐터랩에 실시한 현장조사 결과를 토대로 제재 수준을 결정하는 전체회의를 연 날이었다. 이날 의견진술을 위해 참석한 김종윤 스캐터랩 대표에게 지성우 위원이 던진 이 메시지는 이루다를 둘러싼 개인정보 규제 이슈를 관통한다.

이루다와 연관된 개인정보 이슈는 스캐터랩의 혁신적인 기술이 낡은 규제와 충돌하는 상황이 아닌, 사회구성원들이 지키기로 약속한 기본 원칙을 어긴 것으로 봐야 한다는 메시지다.

의견진술 과정에서 나온 스캐터랩의 해명은 스타트업이 '혁신적인 AI' 서비스를 만들어가는 과정에서 의도치 않게 발생한 실수라는 주장으로 요약됐다.

사람처럼 말하는 대화를 AI로 구현하기 위해서는 실제 사람 간 대화 데이터가 필수였다. 기존 서비스 약관에 개인정보 수집 목적으로 명시한 '신규 서비스 개발' 범위에 (기술자 관점에서 비슷한 속성을 지닌) 대화형 AI가 포함되지 않을 줄 미처 몰랐다. 비슷한 기술 개발 사례가 많지 않아 대화 데이터 속 개인정보를 걸러내는 데 참고할 만한 자료도 많지 않았다. 완벽히 가명처리를 했다면 좋았겠지만, 현재 그런 기술적 방법론이 없어 무리였다. 이루다를 계기로 삼아 AI 발전을 막는 기존 체계를 재검토하자.

혁신을 저해하는 문제적 규제를 해소하자는 산업계 주장은 어떤 것이든 규제기관에서 귀담아 들을 필요가 있다. 그런데 이날 김종윤 대표의 해명을 들어보면, "어떤 규제를 어떻게 바꾸자"는 내용은 없었다. 기술·서비스 개발을 위해 개인정보를 수집하는 과정에서 정보 주체의 동의를 받기 어렵고, 문제 없는 가명처리가 무엇인지 사업자가 판단하기 어렵다는 호소는 있었다. 그러나 현행법 중 기술 발전을 막는 내용이 무엇인지, 귀담아듣고 싶어도 들을 내용이 없었다.

더구나 이런 호소는 'AI 기술'에 관련된 내용이라 보기는 어려움이 있다. 데이터를 활용하고자 하는 모든 사업자들이 호소하는 내용이기 때문이다.

다른 사업자들은 개인정보 규제가 엄격하다고 비판하면서도, 규제가 허용하는 범위 내에서 데이터를 쓴다. 정보 주체의 권리를 보호하면서도 데이터 산업을 활성화한다는 두 가지 목표를 달성하기 위해 사회가 합의한 규칙이기 때문이다. 각자 편할 대로 이를 어기게 되면 어떤 목표도 달성할 수 없게 되기 때문에 모두가 지키려고 노력한다.

관련기사

규칙은 누구든지 바꾸자고 제안할 수 있다. 다만 이런 과정에서 섣불리 편법을 사용한다면 제안한 의견이 설득력을 갖기 어렵다. 그 의견이 단순히 '쉽지 않다'는 불평으로 그친다면 논의 테이블에 올라가지도 못한다.

스캐터랩 주장을 바꿔 말하면 대화 데이터는 현 시점에서 개인정보 유출 가능성을 완벽히 해소할 수 없다는 뜻도 된다. 그렇다면, 이루다를 개발하고 출시하기 전에 대화 데이터에 대한 가명화 기준 정립을 제안했더라면 하는 아쉬움이 남는다. 하다 못해 어제 회의 자리에서라도 짧게나마 서비스를 개발, 운영하면서 얻은 정보들을 토대로 이같은 제안을 할 수 있지 않았을까 싶다. 스타트업이 이처럼 모든 이슈의 중심에 서는 일이 자주 생기진 않는데 말이다. '혁신'이란 표현으로 사회 원칙을 어긴 잘못을 가리는 데 급급해하는 모습에 지지를 보내긴 어려웠다.