챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다.
익히 아는 것처럼 노벨상은 알프레드 노벨의 기일인 오는 12월 10일에 시상식이 개최된다. 시상식 날로부터 두 달 전인 10월의 첫 번째 월요일부터 하루에 한 분야씩 수상자가 공식 발표된다.
올해는 토론토 대학의 제프리 힌튼 교수와 프린스터 대하의 존 홉필드 교수가 노벨 물리학상 수상자로 발표됐고 알파고로 유명한 데이비드 허사비스 구글 딥마인드 대표가 노벨 화학상의 수상자 중 하나로 발표됐다.
수상자를 발표하는 스웨덴 한림원도 수상 과정을 설명하면서 인공지능(AI) 기술이 인류에 얼마나 공헌해 왔는지를 설명했다. 이제는 AI 기술이 IT 기술의 영역이 아니라 인류의 일상 생활에 깊이 들어왔다는 점을 다시 한번 느끼게 된다.
AI 기술에 대한 국가적 관심은 우리나라도 다름이 없다. 최근 대통령을 위원장으로 하는 국가AI위원회를 출범시키면서 글로벌 3대 AI 강국의 반열에 들겠다는 목표로 '국가총력전'을 선포했다. 다소 구시대적이고 식상한 느낌이 들기도 하지만 AI 산업 분야에 정부가 관심을 가지고 연구 개발과 산업화가 잘 이루어질 수 있도록 지원한다는 것이니 굳이 색안경을 끼고 부정적으로만 볼 것은 아니다.
AI 기술이 향후 우리가 주목해야할 먹거리라는 점에 대해서는 큰 틀에서는 긍정적인 논의의 줄기가 잡히는 것 같다. 그럼에도 세부적으로 들어가면 쉽지 않은 이슈들이 산적해 있다. 당장 AI 기술이 가짜 뉴스, 딥페이크 기반 허위 영상물 등의 제작과 배포를 손쉽게 해 사회적으로 허용하기 어려운 수준의 범법 행위들이 널리 이루어질 수 있다는 점이 문제가 되고 있다.
과거 인터넷 기술이 그러했던 것처럼 AI 기술은 말 그대로 도구이자 기술일 뿐이라는 점에 대해서는 누구나 공감한다. 그럼에도 그로 인해 발생할 수 있는 피해를 예방하기 위해서 '직접' 규제를 하게 되면 결국에는 기술 자체에 부정적인 전후방 효과가 발생할 수밖에 없다. 전폭적인 지원 정책으로도 그 수준을 올리기 어려운 치열한 글로벌 기술 경쟁 상황에서 브레이크로 작동할 가능성이 높다는 우려도 제기되고 있다.
최근 국회는 아동 청소년 딥페이크 처벌 강화법이라는 내용으로 디지털 성범죄에 대한 처벌 강화를 위한 소위 아청법과 성폭법 개정안을 의결했다. '아동, 청소년의 성보호에 관한 법률'은 성착취물을 이용한 아동, 청소년 대상 협박 강요 범죄의 처벌 규정을 신설해 처벌을 강화했다. 또 딥페이크 등 디지털 성범죄의 긴급 신분 비공개 수사를 허용해 피해자의 긴급한 구조가 가능하도록 하는 내용을 담았다.
'성폭력방지 및 피해자 보호 등에 관한 법률'은 그 자체로는 딥페이크 기술을 이용한 불법 촬영물에 관한 새로운 내용이 포함된 것은 아니다. 그럼에도 불구하고 법안의 개정은 관련 업무를 국가의 책무로 명시하고 디지털 성범죄 피해자 지원 센터 운영의 근거 규정을 신설해 피해자 보호 등의 사업을 할 수 있도록 했다.
이러한 내용들은 충분히 국가가 AI 기술 확산으로 인한 부작용을 방지하기 위해 미리 준비해야 할 영역임에는 틀림이 없다. 개정안에는 딥페이크 기술을 활용한 불법 촬영물은 소지하는 것만으로 형사처벌을 하겠다는 내용이 포함돼 있는데 최근 해당 기술을 활용한 사례들이 사회적으로 문제가 되고 있는 점을 고려해 보면 충분히 이해 가능한 부분이기도 하다.
그럼에도 불구하고 기술의 부작용을 미리 염려해 실시된 각종 규제들이 기술 발전에 예상치 못한 방해물로 작용해 왔다는 사실은 이미 오랜 기간 동안 선례로 쌓여 왔다. 인터넷 부작용을 우려해 콘텐츠에 대한 제재를 엄격하게 했다면 현재처럼 우리나라가 인터넷 강국의 지위에 오를 수 있었을런지 의문이다. 게시글의 악영향을 차단하기 위해 실명제를 도입한 이후 국내 콘텐츠 사업자들이 크게 영향을 받을 수밖에 없었던 사건은 그리 오래되지도 않았다.
최근 유럽연합(EU)은 유럽 인공지능법(EU AI법) 제정을 통해 AI에 대한 포괄적인 규제를 시도하고 있다. 그럼에도 이 법이 EU 내 AI 기술 발전에 어떠한 영향을 미칠 것인지 여전히 설왕설래가 오가고 있다.
최근 미국 캘리포니아에 제안된 AI 안전법안(Safe and Secure Innovation for Frontier Artificial Intelligence Models Act) 역시 마찬가지다. 이 법안이 AI 모델의 규모만 고려할 뿐 그 활용 맥락은 고려하지 않고 일률적인 규제를 하는 것이 적절한지에 대하여 논란이 있기 때문이다. 바로 이 점을 들면서 주지사가 법안에 대한 거부권을 행사했다는 점 역시 AI 기술에 대한 포괄적인 규제가 가져올 부정적인 영향을 무시하기 어려운 사정이 있기 때문이라는 평가들이 존재한다.
관련기사
- [기고] 브뤼셀 효과 이면 속 건강한 국내 디지털 시장 발전 위해 고려할 사항은?2024.09.27
- [기고] AI 시대의 현명한 개인정보 활용 방법2024.09.18
- [기고] 인공지능 시대에 걸맞는 가명정보의 활용2024.08.29
- [기고] 리걸테크 서비스와 '우물 안 개구리'2024.08.20
이와 반대로 연구 개발과 발전이 진행 중인 과학기술 분야에서 일정한 기준 또는 규제가 존재해서 예측가능성을 부여하고 안정적인 개발과 운영이 이루어진 사례들도 매우 많다. 다소 이른 수준의 규제라고 모두 관료제의 병폐인 적기 조례(Red flag act)가 되는 것은 아니다. 그럼에도 그 규제가 이른 것인지 아니면 이미 늦었는지 사전적으로는 매우 판단하기 어렵다. 또 해외 사례가 반드시 정답인 것도 아니다.
결국 입장이 다른 이해관계자들이 머리를 맞대고 각자의 선의를 모아 최선의 결론을 내릴 수밖에 없다. 비록 아무 것도 하지 않는다는 것이 그 결론일지라도 말이다. 의사 결정 과정에서 정부의 적극적인 의지와 입장 표명이 중요한 점은 두말할 나위도 없다. 큰 눈으로 이슈를 바라보고 저 멀리까지 바라볼 수 있는 넓은 시야가 요구되는 시점이다.