"유럽과 미국의 인공지능(AI) 관련 법을 모르고 AI제품을 설계하면 유럽과 미국 시장에 들어갈 수 없을 뿐 아니라 시장을 잃어버릴 수도 있습니다. 우리가 오늘 세미나를 개최한 큰 이유입니다."
조원희 법무법인 디라이트(D’Light) 대표변호사는 자사가 11일 서울 드림플러스 강남에서 개최한 ‘생성형 인공지능(Generative AI)의 충격과 법적 과제' 세미나에서 이 같이 밝혔다. 이 세미나는 생성형 인공지능 기술 상용화가 시시각각 이뤄지고 있는 상황에서 향후 트렌드 및 법적 이슈를 알아보기 위해 마련됐다. 생성형AI 현주소와 함께 미국와 유럽연합(EU), 한국의 규제 동향과 지적재산권 이슈를 공유했다.
이날 '국내 규제 현황과 생성AI 기업의 법적 고려사항'을 주제로 발표한 조 변호사는 정필모 국회위원이 2021년 7월 발의한 '인공지능 육성 및 신뢰기반 조성 등에 관한 법률'을 비롯해 AI관련 7개 법안이 국회에 계류중이라면서 "인공지능 기술발전을 위한 대원칙으로 ‘우선 허용, 사후 규제’를 명문화했다"고 들려줬다. '우선 허용 사후 규제'는 선진국이 일반적으로 시행하는 규제 원칙으로 통상 '네거티브 규제'라 불린다. 그는 우리나라가 최근 몇년새 마련한 AI 규제 방안들도 소개했다.
AI규제 시작은 2019년 12월 국무회의서 발표한 '인공지능 국가전략'이 처음으로 先허용과 後규제의 기본방향에서 AI 분야 규제 로드맵을 제시했다. 이어 2019년 11월에는 방송통신위원회와정보통신정책연구원이 '이용자 중심의 지능정보사회를 위한 원칙'을 밝혔고, 2020년 12월 과기정통부는 공청회를 거쳐 처음으로 '인공지능 윤리기준'을 마련했다. '인공지능 윤리기준'은 10대 핵심 요건으로 ①인권 보장 ② 프라이버시 보호 ③ 다양성 존중 ④침해금지 ⑤ 공공성 ⑥ 연대성 ⑦ 데이터 관리 ⑧ 책임성 ⑨ 안전성 ⑩ 투명성을 제시했다.
이어 과기정통부는 2021년 5월 13일 '신뢰할 수 있는 인공지능 실현전략'을 발표했고 같은 달 31일에는 개인정보보호위원회가 'AI 개인정보보호 자율점검표'를 공개했다. 이어 과기정통부는 2022년 2월 '인공지능 윤리 정책 포럼'을 발족했고, 같은해 5월 국가인권위원회는 '인공지능 개발과 활용에 관한 인권 가이드라인'도 발표했다. 2018년 1월에는 카카오가 '알고리즘 윤리헌장'을, 네이버는 2021년 2월 '네이버 AI윤리 준칙'을 각각 공개했다.
조 변호사는 우리나라는 2020년부터 인공지능 관련 법들이 계속 나왔는데 그냥 의안만 제출되고 심의가 거의 이뤄지지 않았다면서 "그런데 챗GPT 등장 이후 갑자기 의안 심사가 빨라졌다"고 진단했다. 이어 이번 세미나를 개최한 이유에 대해 "단순히 법으로 이런 거 하지 말아야 한다는 차원이 아니라, 서비스를 설계하는 과정부터 이제는 우리나라는 물론 다른 나라 규제도 염두에 둬야 할 것 같아서"라고 말했다.
규제와 관련, 그는 "어떤 인공지능을 우리가 어떻게 규제해야 하는 고민을 하고 있다"면서 "특히 고위험 영역 인공지능이 무엇인지 규정하는게 큰 논란거리가 될 것"이라고 예상했다. 또 '범죄 수사나 체포 시 생체정보 이용' 조항도 논란거리가 있다면서 "단순히 생체정보 이용으로 넓게 규정하지 않았고, 우리나라 같은 경우 범죄 수사시 생체 정보 이용을 좁혀 규정하고 있다"고 설명했다.
또 가장 논란거리 중 하나가 '채용이나 대출 심사 등 평가 목적'이라는 부분이라면서, 우리나라 법이 가장 애매한게 '~등'이라며 이 범위를 어디까지 할 지가 애매하다고 말했다. 조 대표는 인공지능 규제에 관해 논란거리도 소개했다. 첫째, 인공지능 작동 과정과 결과를 논리적, 객관적으로 설명해야 하는 것인데 조 변호사는 "앞으로 우리가 수많은 AI서비스를 사용할텐데, 어떻게 다 일일이 논리적으로 설명하며 사용자에게 이를 고지할 지가 문제"라고 지적했다.
특히 그는 생성AI 서비스 개발시 고려해야 할 첫번째 사항으로 데이터의 질과 양을 꼽으며 "학습을 위한 방대한 데이터 수집시 저작권 문제가 발생할 수 있다"고 말했다. 저작권법 제 35조 5항에 따르면 저작물의 통상적 이용 방법과 충돌하지 않고 저작자의 정당한 이익을 부당하게 해치지 않는 경우 저작물을 이용할 수 있다.
조 변호사는 개인정보 필터링 및 삭제 등 개인정보 수집시 관련 법령을 준수해야 한다면서 "데이터가 양질이 아니거나 충분하지 않을 경우 결과물의 품질도 영향을 받는다"고 말했다. 이어 데이터 보안도 고려사항 이라면서 "생성AI 학습 데이터가 영업비밀, 개인정보 등 민감한 정보를 포함할 가능성이 있으며 권한없는 사람이 접근할 경우 침해 발생 가능성이 있다. 생성AI와 대화를 암호화하고 접근권한을 통제하는 한편 정기적인 보안 점검이 필요하다"고 짚었다.
관련기사
- 디라이트, '안전한 NFT 법률 가이드북' 발간2023.04.05
- 디라이트, 설립 6주년···"신기술 분야 아시아 1등 로펌 지향"2023.04.05
- LG전자, 4개 사업본부 대수술...고객 지향 솔루션 체제로2024.11.21
- "피부 컨설팅 받고 VIP라운지 즐겨요"…체험 가득 '올리브영N 성수' 가보니2024.11.21
또 예측 불가능한 결과도 고려사항 이라면서 "생성AI를 통해 만들어지는 모든 결과를 예측할 수 없다. 명예훼손 콘텐츠, 음란물, 가짜뉴스 등 불법적 결과물을 생성할 가능성이 있다"고 내다봤다. 이용약관에 대한 책임 문제도 살핀 그는 사업자와 이용자 간 계약서 역할을 하는 것이 이용약관이라면서 "사용자가 이용약관을 위반하는 행위를 했을 경우 사업자는 이용약관에 따른 조치를 취해 피해를 최소화할 수 있고, 또
향후 서비스 이용과 관련한 문제 발생시 상호 책임을 명확히 할 수 있다"고 말했다. 이어 다만, 이용약관을 통해 모든 책임에서 벗어날 수 없음을 주의해야 한다면서 "회사의 법령상 책임을 부정하는 이용약관은 무효로 판단될 가능성 높다"고 덧붙였다.