'챗GPT' 등 AI 개발엔진, '공개 데이터' 처리 기준 나왔다

개인정보위 "EU GDPR과 상호운용성·적용 유연성 높아…산·학·연 의견수렴 꾸준히"

컴퓨팅입력 :2024/07/17 14:00

정부가 생성형 인공지능(AI) 개발에 활용할 '인터넷상 공개 데이터'를 안전하게 처리할 수 있는 기준을 마련했다. 

개인정보보호위원회는 AI 개발에 필수적인 공개 데이터가 현행 개인정보 규율체계 내에서 적법하고 안전하게 처리될 수 있도록 'AI 개발·서비스를 위한 공개된 개인정보 처리 안내서'를 내놨다고 17일 밝혔다.

공개 데이터는 인터넷상 누구나 합법적으로 접근할 수 있는 데이터다. 오픈AI 챗GPT 등 생성형 AI 서비스 개발을 위한 엔진 역할을 맡는다. AI 기업들은 커먼크롤를 비롯한 위키백과, 블로그, 웹사이트 등에 있는 공개 데이터를 웹 스크래핑 방식으로 수집해 AI 학습데이터로 활용하고 있다.

고학수 개인정보보호위원회 위원장. (사진=개인정보위)

이런 공개 데이터에는 주소, 고유식별번호, 신용카드번호 등 여러 개인정보가 포함될 수 있어 개인 프라이버시가 침해될 가능성이 있다. 그러나 현행 개인정보 보호법에는 공개된 개인정보 처리에 적용될 수 있는 명확한 기준이 없다.

예를 들어 AI 학습에 공개 데이터가 대규모 처리되는 상황에서 현행 보호법 상의 정보주체 개별 동의나 계약 체결 등의 조항을 적용하는 것은 어렵다. AI 학습이 전통적인 개인정보 처리방식과 다르기 때문이다. 이에 보호법상 안전성 확보조치 등 규정도 그대로 적용하는 것에 한계가 있다.

이로 인해 개인정보위는 공개된 개인정보 수집‧활용의 법적기준을 명확화하고 AI 개발 및 서비스 단계에서 어떤 안전조치를 취하는 것이 적정한지에 대해 기업이 참고할 수 있는 최소한의 기준을 제시하는 안내서를 이번에 마련했다. 공개된 개인정보를 활용하는 기업들이 개인정보 침해 이슈를 최소화하는 동시에 법적 불확실성을 해소할 목적이다.

"공개 데이터 처리 기준, EU GDPR 등과 상호운용↑"

개인정보위는 국제적으로 상호운용성 있는 기준 마련에 집중했다는 입장이다. 유럽연합(EU)이나 미국 등 해외 주요국에서 공개 데이터 처리 기준에 대해 개인정보 보호 규율체계를 형성해 나가는 추세에 발맞추기 위해서다. 

개인정보위는 EU 등 국제적으로 상호운용성 있는 기준 마련에 집중했다고 밝혔다. (사진=픽사베이)

보호법 제15조에 따른 '정당한 이익' 조항에 의해 공개된 개인정보를 AI 학습·서비스 개발에 활용할 수 있다는 점도 분명히 했다.

또 이런 정당한 이익 조항이 적용되려면 AI 개발 목적의 정당성, 공개된 개인정보 처리의 필요성, 구체적 이익형량이라는 세 가지 요건을 충족해야 한다. 이번 안내서는 세 가지 요건과 적용사례도 포함했다.

개인정보위는 정당한 이익 조항의 합리적 해석기준을 마련하는 것은 EU 일반 개인정보보호법(EU GDPR)이나 AI 안전성 규범 논의 등 글로벌 기준과의 상호 운용성을 높이는 기회라고 강조했다.

"기준 유연성도 높아…기업 정보보호책임자 역할 중요"

개인정보위는 안내서를 통해 AI 기업이 정당한 이익으로 공개된 개인정보를 처리할 때 필요한 기술적‧관리적 안전성 확보조치와 정보주체 권리보장 방안도 안내했다. 또 빠른 AI 기술변화 등을 고려해 세부적 안전조치 등을 유연하게 도입·시행할 수 있도록 설명했다.

개인정보위는 안내서를 통해 AI 기업이 정당한 이익으로 공개된 개인정보를 처리에 필요한 기술적‧관리적 안전성 확보조치와 정보주체 권리보장 방안을 안내했다. (사진=이미지투데이)

다만 AI 기업이 모든 안전조치를 의무적으로 시행해야 하는 것은 아니다. 안내서에 제시된 여러 안전조치 순기능과 AI 성능저하, 편향성 등 부작용과 기술 성숙도를 고려함으로써 기업 특성에 맞는 '안전조치의 최적 조합'에 맞게 이행할 수 있다.

개인정보위는 안내서를 통해 AI 개발을 위한 학습데이터 처리와 관련한 AI 기업과 개인정보보호책임자(CPO) 역할을 강조했다. CPO를 구심점으로 하는 'AI 프라이버시 담당조직(가칭)'을 자율적으로 구성·운영하고 안내서에 따른 기준 충족 여부를 평가함으로써 그 근거를 작성‧보관하도록 권고했다. AI 성능 개선 등 중대한 기술적 변경이나 개인정보 침해 발생 우려 등 위험 요인을 주기적으로 모니터링하고, 개인정보 유·노출 등 침해사고 발생 시 신속한 권리구제 방안도 마련하도록 했다.

이번 안내서 관련 논의에 참여한 김병필 카이스트 교수 겸 민·관 정책협의회 데이터 처리기준 분과장은 "AI 기술이 빠르게 변화하는 만큼 향후 본 안내서에 포함된 내용도 지속적으로 발전해 나갈 것"이라고 강조했다.

관련기사

민·관 정책협의회의 공동의장인 배경훈 LG AI연구원장은 "안내서가 AI 기술 개발 중 발생할 수 있는 법적 불확실성이 낮아졌다"며 "모두가 신뢰할 수 있는 데이터 처리 환경에서 AI 기술 혜택을 누릴 수 있을 것"이라고 전망했다.

고학수 개인정보위 위원장은 "AI 기술 진보가 빠르게 이뤄지고 있지만 AI 개발 핵심 관건인 공개 데이터 학습이 보호법에 적법하고 안전한지 확인할 수 없었다"며 "이번 안내서를 통해 모두 신뢰하는 AI·데이터 처리 관행을 기업 스스로 만들어 나가길 바란다"고 말했다.