"친구가 되어주겠다"며 등장한 인공지능(AI) 챗봇 '이루다'가 '개인정보 도둑'으로 눈총을 받고 있다. 이루다 개발사인 스케터랩이 기존 서비스에서 수집한 개인정보를 남용해 이루다를 만들었다는 비판이 제기됐기 때문이다.
현재까지 밝혀진 사실들만 살펴보면, 스케터랩이 이용자 개인정보를 미흡하게 관리한 것으로 드러난 부분은 크게 두 가지다.
먼저 카톡 대화 분석 서비스 '연애의 과학'에서 수집한 이용자 대화 데이터 샘플에 대해 개인정보를 충분히 걸러내지 못한 상태로 소스코드 저장소인 깃허브에 오픈소스로 공개한 것이다. 이 때문에 특정인의 실명이나, 지역명, 질병 정보 등이 지워지지 않고 그대로 노출됐다.
연애의 과학 이용자로부터 제대로 동의를 받지 않고 수집한 데이터를 이루다에 학습시킨 점도 문제다. 스캐터랩은 이 점에 대해 이용약관 및 개인정보취급방침에서 "수집된 메시지 정보가 '신규 서비스 개발' 및 마케팅, 광고에 활용될 수 있다"고 명시했고, 이에 대한 이용자 동의를 받았다고 해명한 바 있다.
그러나 이는 위법 소지가 있다는 게 개인정보보호위원회 측 설명이다. 개인정보처리자는 개인정보를 목적에 맞게 최소한의 범위에서 수집해야 한다는 '수집제한의 원칙' 등 현행법 규정을 고려한다면 이루다 관련 이용 목적과 활용하고자 하는 정보의 종류, 활용 기간 등을 담은 별도의 이용약관 및 개인정보취급방침을 만들고, 이에 대해 연애의과학 사용자 동의를 얻었어야 한다는 것이다.
이번 사건을 두고 개인정보 활용에 있어 비판적인 의견을 내왔던 시민단체들은 "역시나"라는 반응이다. 참여연대, 진보네트워크센터 등 단체들은 개인정보에 대해 정보 주체를 알아볼 수 없게 가명처리한 뒤 산업적으로 활용할 수 있게 한 '데이터 3법'의 악영향 가능성에 대해 비판해왔다며, 개인정보 남용 문제를 기업 자율로만 맡겨둘 수 없다고 목소리를 냈다. 그간의 주장을 뒷받침할 증거물로 이루다가 등장한 셈이다.
그 동안 정부는 미래 산업 근간으로서 AI 기술 개발의 중요성을 강조해왔다. 고도화된 AI를 만들기 위해서는 다양한 방면으로 수집되는 개인정보, 즉 데이터의 활발한 활용이 필수라고 외쳐왔다. 이 때문에 개인정보 '활용'에 거부감을 느끼는 국민을 상대로 산업 혁신과 프라이버시의 조화를 이뤄나가겠다고 여러 차례 약속했다. 산업계뿐 아니라 시민단체, 학계 등과 협의해오며 안전한 개인정보 활용을 위한 체계를 구축하던 중이었다. 여기에 이루다가 '찬물'을 끼얹게 됐다. 같은 IT 벤처업계에서도 스캐터랩을 두고 날선 비판의 목소리를 내는 것은 이 때문이다.
고도화된 AI와 데이터 기반 서비스의 혜택을 국민이 제대로 누리기도 전에 이런 사고가 벌어지면 데이터 경제에 대한 국민 신뢰를 쌓기 어렵다. 학습할 데이터를 쌓기 어려워지는 만큼, AI 분야 국가경쟁력도 향상이 어려워진다. 영세한 스타트업의 실수로 치부하기엔 사회 신뢰 문제가 엮인 사안이다.
관련기사
- 이루다 개발사, 이용자 카톡 100건 노출 인정..."조사 성실히 임할 것"2021.01.14
- AI 이루다 논란 "개발자 윤리 강화" vs "이용자 윤리 돌아봐야"2021.01.13
- AI봇 이루다 개발사 "사람 실명 언급은 필터링 부족"2021.01.12
- 개인정보보호위, AI봇 '이루다' 개인정보 유출 조사 착수2021.01.12
유사한 사건의 재발을 막고, 먼 미래에 이번 사건을 데이터 경제 활성화 초기의 시행착오성 이슈로 회상할 수 있으려면 정부의 후속 대처가 중요하다. 우선 스캐터랩의 위법 행위에 대해 확실한 책임을 물어야 한다. 이용자 개인정보에 대해 가볍게 여겨서는 안된다는 의미를 담은 제재가 필요하다.
이번 사건은 영세 사업자가 개인정보보호법을 면밀히 파악해 적용하기 어렵다는 구조적 문제도 있다. 데이터 기반 혁신 서비스 분야에서 벤처 기업들이 앞으로도 활발히 등장하고, 개인정보 보호 및 활용 측면에서도 문제가 없게 하려면 예방책이 마련돼야 한다. 이용자 정보를 제3자에게 제공하거나, 다른 목적으로 활용하는 것에 대한 세심한 규정 마련과 영세 사업자의 개인정보보호법 준수를 위한 세심한 지휘 감독 및 컨설팅 등이 고려될 수 있을 것이다.