개인정보위, 오픈 AI 등 6개 기업에 개인정보 취약점 보완 권고

개인정보 처리 등 취약점 발견...주민번호 등 주요 정보 사전 제거 조치 충분치 않아

컴퓨팅입력 :2024/03/28 12:00

개인정보보호위원회 대규모 언어 모델(Large Language Model, LLM) 기반으로 인공지능(AI) 사업을 운영 중인 오픈 AI등 6개 기업에게 개인정보 취약점을 보완하라고 권고했다.

개인정보위는 27일 제6회 전체회의를 열고 인공지능(AI) 서비스 기업에게 이같이 의결했다.

이번 권고 조치를 받은 기업은 ▲오픈AI ▲구글 ▲MS ▲메타 ▲네이버 ▲뤼튼 등 6개 기업이다. 개인정보위는 지난해 11월부터 한국인터넷진흥원(KISA)과 함께 주요 AI 서비스를 대상으로 사전 실태점검을 진행한 바 있다.

AI 단계별 개인정보 보호의 취약점 점검 결과 ▲공개된 데이터에 포함된 개인정보 처리 ▲이용자 입력 데이터 등의 처리 ▲개인정보 침해 예방‧대응 조치 및 투명성 등 관련해 일부 미흡한 사항이 발견됐다.

AI 서비스 제공사업자는 인터넷에 공개된 데이터를 수집 AI 모델 학습데이터로 사용하는데 이 과정에서 주민등록번호, 신용카드번호 등 한국 정보주체의 중요한 개인정보가 포함될 수 있는 것으로 지적됐다.

오픈AI가 개발한 챗GPT

오픈AI, 구글, 메타는 개인정보 집적 사이트를 AI 모델 학습에서 배제하고 학습데이터 내 중복, 유해 콘텐츠 제거조치와 AI 모델이 개인정보를 답변하지 않도록 하는 조치를 적용하고 있다. 다만 학습데이터에서 주민등록번호 등 주요 식별정보를 사전 제거하는 조치가 충분하지 않은 것으로 확인됐다.

개인정보위는 AI 서비스 제공 단계별 보호조치 강화를 요구할 계획이다. 최소한 사전 학습단계(pre-training)에서 주요 개인식별정보 등이 제거될 수 있도록 인터넷에 개인정보가 노출된 것을 탐지한 데이터(URL)를 AI 서비스 제공사업자에게 제공할 계획이다.

관련기사

개인정보위는 AI 모델 등 개선 목적으로 이용자 입력 데이터에 대한 인적 검토과정을 거치는 경우 이용자에게 관련 사실을 명확하게 고지하는 한편, 이용자가 입력 데이터를 손쉽게 제거‧삭제할 수 있도록 해당 기능에 대한 접근성을 제고하도록 권고했다.

개인정보위는 AI 서비스와 관련된 내용을 종합해 개인정보 처리방침 등에 보다 구체적으로 안내하고 부적절한 답변에 대한 신고 기능을 반드시 포함토록 했다. 또 AI 서비스와 LLM의 취약점 발견 시 신속히 조치할 수 있는 과정도 갖추도록 개선권고했다.