[기고] AI 발전과 아동·청소년 보호

[AI 컨택] 노은영 변호사 "디지털 환경에서 아동·청소년 보호 위한 섬세한 접근 필요"

컴퓨팅입력 :2024/12/08 13:09

법무법인 태평양 노은영 변호사

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주]


인공지능(AI)의 비약적인 발전은 우리의 일상생활에 깊숙이 스며들며 효율성과 편리함을 극대화하고 있다. 개인화된 추천 시스템부터 의료, 교육, 공공서비스에 이르기까지 우리가 직면한 많은 문제를 해결하는 데 기여하고 있다. 그럼에도 눈부신 기술발전의 이면에 존재하는 부작용을 간과할 수 없다. 특히 AI 기술발전이 아동·청소년처럼 기술적 맥락에 취약한 집단에 대해 미칠 영향에 대한 진지한 고민이 필요하다.

오늘날 소셜 네트워크 서비스(SNS)는 단순한 소통의 매개체를 뛰어넘어 거대한 상업적 플랫폼이 됐다. 주요 SNS 기업들은 사용자의 이용패턴, 관심사 등을 분석해 AI 알고리즘에 학습시켜 광고를 포함한 콘텐츠를 추천하는 서비스를 주 수익모델로 삼고 있다.

그런데 이러한 과정에서 대규모의 개인정보 및 데이터 수집과 분석이 이루어지기 때문에 프라이버시와 개인정보 침해 우려가 상존한다. 특히 아동·청소년의 의사결정과 정서에 부정적 영향을 미칠 가능성이 높다. 아동·청소년은 자신이 보는 콘텐츠와 광고가 어떤 의도로 설계되었는지 이해하기 어렵고 이는 무절제한 소비, 유해하거나 부적절한 콘텐츠에 대한 노출, 정체성 혼란과 같은 부작용으로 이어질 수 있기 때문이다.

노은영 법무법인 태평양 변호사 (사진=법무법인 태평양)

세계 여러 나라에서는 이같은 문제의식을 기반으로 디지털 환경에서 아동·청소년을 보호하기 위한 방안을 모색하고 있다.

최근 호주가 세계 최초로 16세 미만 미성년자의 SNS 이용을 전면 금지하고 이를 위반한 업체에게 최대 450억원의 벌금을 부과하기로 하는 강력한 법안을 통과시켜 화제가 됐다. 호주는 지난 2022년 1월부터 시행된 '온라인 안전법 2021(Online Safety Act 2021)'에서 '아동을 대상으로 하는 사이버 폭력 자료'를 규정하고 서비스제공자에게 관련 자료를 최소화하기 위한 조치의무를 부과하고 있다.

영국에서는 지난 2017년 몰리 러셀이라는 14세 아동의 자살로 아동에 대한 SNS의 책임에 관한 논의가 촉발된 바 있다. 약 6년간의 논의 끝에 지난 2023년 10월 '온라인 안전법 2023(Online Safety Act 2023)'이 제정 및 공표됐다. 이 법에서는 아동성착취∙성학대 등 범죄에 해당하는 불법콘텐츠와 자살이나 자해, 혐오나 사이버괴롭힘, 그밖에 심각한 위해를 초래할 가능성이 있는 유해콘텐츠를 규정하고 서비스제공자가 불법∙유해콘텐츠를 발견하면 신속히 삭제 또는 차단하도록 했다.

미국 상원은 지난 7월 30일 '아동 온라인 안전법안(KOSA)'과 '어린이 및 10대 온라인 프라이버시 보호법 개정안(COPPA 2.0)'을 묶은 입법 패키지(KOSPA)를 의결했다. 'KOSPA'는 아직 하원 통과를 남겨두고 있지만 미국에서 지난 1998년 제정된 'COPPA' 이후 수십년 만에 연방 차원에서 온라인 아동보호를 위한 주요 법안의 제정을 추진한 것이라는 점에서 의미가 있다.

'KOSA'는 17세 미만 미성년자가 사용할 가능성이 큰 온라인 플랫폼에 대해 ▼정신건강 장애 ▼중독 ▼정신적·신체적 폭력 및 괴롭힘 ▼불법 약물 관련 홍보 및 마케팅 ▼성적 착취 및 학대 ▼약탈적 및 기만적 마케팅 또는 금전적 피해 등 미성년자에게 발생할 수 있는 특정 유해 요소들을 완화하기 위한 조치를 취했다. 합리적인 조치를 취해야 한다는 '주의의무(duty of care)'를 부과하면서 서비스제공자의 관리책임을 콘텐츠 자체가 아니라 서비스의 설계를 중심으로 구성했다는 것이 특징이다.

'COPPA 2.0'은 지난 1998년 제정된 'COPPA'의 개정안으로, 법 적용을 받는 미성년자의 최소연령을 13세에서 16세로 상향해 17세 미만 사용자의 개인정보를 동의없이 수집할 수 없도록 규정하고 아동·청소년을 대상으로 한 맞춤형 광고를 금지하며 '지우기 버튼(Eraser Button)'을 도입해 아동·청소년이 본인의 개인정보를 삭제할 수 있는 기능 제공을 의무화했다. 또 현행법의 '실제 인지(actual knowledge)' 기준을 수정해 플랫폼이 사용자가 미성년자임을 몰랐다는 주장을 할 수 없도록 했다.

국내 법상 디지털 환경에서 아동·청소년을 보호하기 위한 별도의 법령이 존재하지는 않는다. 다만 개인정보보호법상 만 14세 미만 아동의 개인정보처리를 위해서는 법정대리인의 동의를 받도록 하는 규정(제22조의 2), 아동·청소년의 개인정보 처리자를 위한 가이드라인(개인정보보호위원회, 2022. 7. 22.), 만 14세 미만 아동에게 맞춤형 광고를 제공하려면 법정대리인의 동의를 받도록 하는 조치(개인정보보호위원회, 맞춤형 광고에 활용되는 온라인 행태정보 보호를 위한 정책방안, 2024. 1.)들을 마련해 나가고 있는 것으로 보인다.

관련기사

아동·청소년의 취약성 및 보호필요성을 고려하면 이들에게 AI에 기반한 서비스를 제공하는 사업자에게 상대적으로 많은 책임을 부여할 수밖에 없게 된다. 해외의 규제 흐름도 전반적으로 그러한 방향인 것으로 보인다. 그럼에도 이에 대해서는 표현의 자유 침해, 콘텐츠 검열 가능성 등 위헌적 요소가 존재한다는 비판이 대립하고 있어 지속적인 논의와 연구가 필요하다.

더 나아가 아동·청소년의 권리를 보호하는 규제를 설계하기 위해서는 현대 사회의 디지털 환경이 아동·청소년의 발달에 필수적인 조건이며 알권리와 참여권 실현에 긍정적 역할을 할 수 있다는 점, 아동·청소년 이용자가 단지 피해자에 머무는 것이 아니라 쉽게 가해자의 지위에 놓일 수 있다는 점까지 종합해 섬세한 접근이 필요할 것이다.