텐서플로, 기계학습 사생활 침해 방지 기술 도입

데이터 역추적으로 개인정보 노출될 가능성 사전에 파악

컴퓨팅입력 :2020/06/26 16:08

구글이 인공지능(AI) 학습 과정에서 발생할 수 있는 사생활 침해를 막기 위한 기능을 공개했다.

구글은 기계학습(ML) 오픈소스 프레임워크 텐서플로에 개인정보 보호 테스트 라이브러리 텐서플로 프라이버시의 새로운 모듈을 추가했다고 공식 블로그를 통해 24일(현지시간) 밝혔다.

새롭게 선보이는 모듈은 기존에 공개했던 텐서플로 프라이버시의 단점을 개선한 것이 특징이다.

텐서플로.

텐서플로 프라이버시는 차등 개인정보라는 통계 기법으로 개인 데이터를 보호하는 기술이다. AI 모델이 학습한 데이터를 역추적해 개인의 정보를 찾아내는 멤버십 추론 공격을 방지하기 위해 민감한 정보는 다시 접근할 수 없도록 막고 조직 단위로 학습시킨다.

그러나 이 기술은 학문적인 최악의 시나리오를 상정해 설계 알고리즘을 바탕으로 한다. 그래서 개인정보 외적인 내용도 자동 차단해 실제 업무에서 학습 모델의 정확성에 영향을 줄 수 있다는 것이 단점으로 지적됐다.

새로운 모듈은 멤버십 추론 공격을 통해 유출될 가능성이 있는 개인정보가 있는지 예측하는 내부 멤버십 추론 테스트를 도입했다. 즉, AI가 외부 공격을 받기 전 내부 테스트를 통해 유출될 가능성이 있는 개인정보를 미리 파악하고 대응할 수 있는 기술이다.

이 모듈은 사전 학습된 AI가 도입됐으며 내부 알고리즘을 악용할 수 없도록 블랙박스 형식으로 분석 결과와 취약점 데이터만 제공한다.

관련기사

구글 브레인의 스황 송 연구원은 “내부 멤버십 추론테스트를 통해 개발자 커뮤니티는 개인정보 보호 설계 원칙과 데이터처리 선택사항을 지키며 비공개 데이터 모델을 구축할 수 있었다”며 “이 라이브러리가 기술 수준에 관계없이 전 세계 모든 기계학습 개발자가 사용할 수 있는 강력한 개인 정보 보호 테스트 스위트가 되길 바란다”고 텐서플로 블로그를 통해 전했다.

구글은 텐서플로 프라이버시 신규 모듈을 깃허브를 통해 공개했으며 멤버십 추론 공격의 범위를 확장한 버전도 추후 선보일 예정이다.