"맞춤형 광고에 이용된 내 정보, 무엇인지 알아야"

'한국판 DSA 입법 토론회'서 다크패턴 금지·알고리즘 투명성 제고 제언

방송/통신입력 :2023/05/16 13:35    수정: 2023/05/16 14:51

인터넷 이용자의 권리 보호를 위해 디지털 서비스 이용자 보호법이 필요하다는 제언이 나왔다.

한국판 DSA(디지털 서비스법)라고 불리는 이 법안은 ▲이용자 요청에 따른 정보 삭제 ▲이용자 정보 접근 권한에 관한 명확한 설명 ▲서비스 노출 기준 공개 ▲자유로운 의사결정을 왜곡하는 다크패턴 금지 ▲특정 결제 방식 강요 금지 ▲아동 보호 등의 내용을 담았다.

김광수 서강대 법학전문대학원 교수는 16일 오전 국회에서 열린 '한국판 DSA 입법 토론회'에서 "빅테크들은 시민의 정보에 기반해 영업 활동을 하므로, 이용자들이 자신의 정보 제공에 관해 어떤 대우를 받아야 하는지 살펴야 한다"고 밝혔다. 

국회에서 한국판 DSA 입법 토론회가 열렸다 (사진=지디넷코리아)

"한국판 DSA, 자율 규제 통해 온라인 플랫폼에도 도움돼야"

김 교수는 한국판 DSA는 일방적인 규제가 아니라 디지털 서비스 이용자와 온라인 플랫폼 모두에게 도움이 돼야한다고 강조했다.

김 교수는 "EU의 인공지능법, 미국의 알고리즘 체계법처럼 자율 규제가 선행되도록 해야 한다"며 "예를 들어 아동 보호를 등한시할 때 고위험 알고리즘으로 분류돼 강하게 규제하는 식으로 법을 구성해 인터넷 기업들이 이를 사전에 회피하고 적절한 서비스를 제공하는 기반을 다지도록 유도할 것"이라고 설명했다.

이어 김 교수는 현행 정보통신망법, 전자상거래법으로는 디지털 서비스 이용자를 충분히 보호할 수 없다고 지적했다.

현행법은 유럽연합(EU)의 디지털 서비스법과 달리 맞춤형 광고, 추천 시스템, 규제 당국의 기업에 대한 알고리즘 설명 요청 권한이 없다. 다크패턴 관련해서는 기만적 소비자 유인·서비스 해지 방해 금지만 담고 있어 사각지대가 생긴다는 비판이다.

EU, 다크패턴 금지하고 맞춤형 광고 투명성 높여

김현수 정보통신정책연구원 선임연구위원은 유럽연합(EU) 등 해외에서 이용자 권리를 강화한 사례를 소개했다.

EU는 디지털 서비스법을 제정해 콘텐츠 조정, 맞춤형 광고, 추천시스템, 다크패턴, 시스템 리스크 관리 등을 규제한다. 법안 적용 대상은 EU에 진출한 해외 사업자를 포함한 모든 중개 서비스 제공자다.  법 위반시 제재 수준은 해당 사업자의 전세계 매출액 6%까지 과징금을 부과할 수 있다.

김 연구위원은 "EU는 사업자 규모에 따라 점점 강화되는 책임을 부여한다"며 "챗GPT도 검색엔진으로 보고 규제 적용 대상으로 보고 있다"고 말했다.

EU 디지털 서비스법은 주요 내용 중 하나로 불법 콘텐츠 신고·조치 메커니즘을 마련했다. 김 연구위원은 "명예훼손, 음란물 등만 불법 콘텐츠로 보는 국내 망법과 달리 EU는 증오 발언, 온라인 스토킹, 모조품 판매, 저작권 침해, 소비자 보호법 위반 등 법을 보호하지 않는 모든 정보를 불법 콘텐츠로 본다"고 설명했다.

EU는 이러한 불법 콘텐츠 제공자의 디지털 서비스 이용 금지를 의무화했다. 김 연구위원은 "다른 계정을 만들어서 규제를 피해갈 수 있다는 지적이 나오지만, 유튜버 처럼 자기 계정에서 허위 사실을 만들어 유포하고 뒷광고해서 돈을 벌던 이용자를 제재할 수 있는 수단"이라고 평가했다.

또 EU는 아동 대상 맞춤형 광고를 금지했다. 아동은 광고와 정보를 구분하기 힘들다는 판단이다. 성인 대상 맞춤형 광고에서는 성적 취향 등 민감 정보를 활용하지 못하도록 했다.

EU는 검색 결과를 포함한 추천 시스템 투명성도 높였다. 추천 시스템에 사용되는 데이터를 이용자가 손쉽게 선택하고 수정할 수 있도록 했다. 다크패턴에 관해서는 이용자에게 특정 선택지가 두드러지게 하거나, 팝업을 반복 표시하거나 해지 절차를 어렵게 만들지 못하도록 했다.

마지막으로 김 연구위원은 "온라인 플랫폼과 이용자 간 정보 비대칭 문제를 해결해야 한다"며 대규모 온라인 플랫폼의 시스템 리스크 관리 평가·완화 조치를 의무화해야 한다고 강조했다.

관련기사

EU는 알고리즘 시스템과 기능, 서비스 이용을 포함한 모든 시스템 리스크를 온라인 플랫폼이 연 1회 이상 평가하도록 한다. 콘텐츠 조정 시스템, 광고 노출 시스템, 데이터 관련 관행이 어떤 위험과 영향을 미치는지 고려하는 것이다.

김 연구위원은 "이용자들은 온라인 플랫폼이 자신의 데이터 중 무엇을 이용해 어떤 결과를 보여주는지 아무도 모른다"며 "자율 규제를 실제로 지키고 있는지 의문을 해소해야 한다"고 역설했다.