최근들어 각광받고 있는 인공지능(AI) 얼굴인식의 보안 허점이 크다는 지적이 나왔다.
26일 중국 언론 신랑커지에 따르면 중국 보안 기업 360은 ISC2020 대회에서 "AI 핵심 기초 인프라가 3중 리스크를 갖고 있다"며 "일부 얼굴인식 기기는 임의의 다른 사람을 승인할 수 있으며, AI 알고리즘에 취약점이 있을뿐 아니라 인프라 역시 공격당할 수 있다"고 경고했다.
예컨대 해커가 얼굴인식 기기의 보안 취약점을 활용해 기기 특정 인터페이스를 통해 일종의 '명령'을 내리게 할 수도 있으며, 기기의 클라우드 데이터를 유출시키거나, 클라우드 서버를 승인없이 방문할 수도 있다는 것이다.
AI 알고리즘뿐 아니라 AI 인프라에 대한 공격이 이뤄지고 있다는 점이 핵심이다. 대부분의 연구자가 AI 알고리즘 보안 즉 백도어 공격 등에 주력하고 있지만 AI 인프라 공격이 매우 큰 상태이며 간과하기 쉽다고 경고했다.
360 AI 보안연구원은 AI의 3중 보안 리스크가 '학습 프레임 리스크', '하드웨어 리스크', 그리고 '클라우드 플랫폼 리스크'라고 지적했다.
학습 프레임 리스크란, 딥러닝 학습 플랫폼 상의 보안 리스크를 의미한다. 딥러닝 프레임은 주로 클라우드 단의 학습 프레임과 기기 단의 학습 프레임으로 나뉘는데, 클라우드 단의 보안 위험은 주로 자체 코드, 혹은 제 3자 데이터 저장시 문제가 발생한다. 기기 단의 학습 프레임 리스크는 주로 모델 네트워크 파라미터, 모델 네트워크 아키텍처와 모델 전환 과정에 도사리고 있다. 360 AI 보안연구원은 이미 OpenCV 등 여러 딥러닝 프레임에서 100여 개의 취약점을 발견했다고 전했다.
하드웨어 리스크란, 얼굴인식 AI를 구현하는 하드웨어 상에서 존재하는 리스크다. 앞서 엔비디아 통계에 따르면 올해 7월까지 GPU 구동 취약점 개수는 하루 100개에 이르렀다. 칩의 취약점이 민감한 데이터의 유출을 초래할 수 있다는 것이다. 특정 코드를 실행해 사용자의 메모리에 저장된 데이터가 유출될 수 있으며 이는 인텔 ARM의 프로세서에도 영향을 준다고 조사됐다.
세번째 클라우드 플랫폼 리스크는, 딥러닝 임무를 하는 노드의 성능이 강한 점을 활용해 일부 공격자들이 불법적인 방식으로 이같은 자원을 활용하는 것이다. 예컨대 올해 6월 마이크로소프트의 머신러닝 툴킷 큐브플로우(Kubeflow)에서 승인되지 않은 방문 기록 문제가 발견된 바 있으며 이는 대량의 기기에 대한 불법적인 '약탈'이 이뤄졌음을 의미한다.
관련기사
- 마스크 써도 얼굴인식 가능한 스마트폰 나온다2020.08.04
- "짙은색 마스크, 얼굴인식 감시 더 잘 막는다"2020.07.29
- 아마존·구글·MS, '얼굴인식' 때문에 소송 당했다2020.07.15
- IBM “얼굴인식 시장에서 철수하겠다”2020.06.09
360 AI 보안연구원 측은 "AI 시스템 보안을 확보해야만 AI의 편리함을 안전하게 누릴 수 있으며 시스템에서 AI 핵심 기초 인프라의 보안이 가장 중요하다"고 강조했다.
스마트폰 등 IT기기, 출입과 결제 등 다방면으로 확대되고 있는 얼굴인식 서비스의 보안상 허점을 보완해야 한다는 경각심이 커지고 있다.