최근 영국에서 인기 가수 아리아나 그란데의 콘서트장에서 또 다시 폭탄테러가 발생하면서 유럽 내 테러 위협이 심각한 수준에 이르렀다.
영국 테레사 메이 총리와 이마뉴엘 마크롱 프랑스 대통령은 그 원인 중 하나로 "페이스북과 트위터가 테러리스트들의 선전성동을 부추기는 콘텐츠를 제대로 삭제하는데 실패한 탓이 크다"며 "이들에게 무거운 벌금을 부과해야한다"고 목소리를 높였다.
이 같은 논란이 지속되면서 페이스북은 인공지능(AI) 기술을 적극적으로 도입하며 테러와의 전쟁에 나섰다.
15일(현지시간) 페이스북은 '어려운 문제 : 우리가 어떻게 테러를 막나(Hard Questions: How We Counter Terrorism)'라는 게시글을 통해 페이스북 내에 테러리스트들이나 그들을 추종하는 자들의 활동을 막기 위해 어떤 노력을 할 계획인지를 구체적으로 밝혔다.
페이스북측은 "우리의 입장은 단순하다"며 "페이스북 내에 테러리즘을 위한 장소는 없다"고 분명히 했다. 이를 위해 이 회사는 테러리스트의 계정이나 테러를 지원하는 포스트 등에 대해 인지하게 되면 즉시 삭제하겠다는 방침을 밝혔다.
이어 "만약 우리가 잠재적으로 테러리즘에 대한 포스트를 보고 받으면 우리는 이를 신속하고 면밀하게 검토한다"며 "흔치 않은 일이지만 위험이 임박했다는 증거를 알게되면 신속히 관련 당국에 알릴 생각"이라고 덧붙였다.
■ 테러 옹호 콘텐츠-계정 찾아내 삭제
페이스북은 어떻게 AI를 활용해 테러리스트나 테러리즘 관련 콘텐트를 찾아내 제거할 수 있을까?
페이스북이 AI를 활용하는 방법은 기본적으로 테러리즘을 옹호하거나 조장하는 콘텐츠와 관련 계정을 찾아내 더 많은 사용자들이 보기 전에 삭제하는 작업을 자동화 하겠다는 것이다.
구체적으로는 먼저 이미지 매칭 기술이다. 누구나 테러리스트가 만든 사진이나 영상을 업로드하기를 시도하면 내부 시스템이 과거 알려진 테러리즘 관련 사진, 동영상과 얼마나 일치하는지를 확인한다. 이 방법은 만약 이전에 ISIS가 올린 선전선동 동영상을 지웠다면 다른 계정에도 이런 내용이 업로드 되지 못하도록 막는다.
두번째는 언어 이해다. 페이스북은 테러리즘을 옹호하는 텍스트를 AI 시스템을 이용해 이해시키는 실험을 하는 중이다. 이미 이런 방법으로 자사 서비스 내에 ISIS, 알카에다 관련 텍스트를 분석해 제거하는 작업을 진행했었다.
이렇게 분석된 내용은 머신러닝 알고리즘에 적용돼 유사한 콘텐트를 찾는데 활용된다. 많은 사례가 반영돼 시간이 지날수록 더 정확히 텍스트를 분석하게 될 수 있을 것으로 예상된다.
페이스북 내 테러리스트 그룹을 해체하는 작업도 진행할 생각이다.
이 회사 설명에 따르면 기존 연구를 통해 테러리스트들이 그룹을 만들어 과격해지고, 행동을 취하는 경향이 있다는 사실을 알고 있으며 이런 오프라인에서의 추세는 온라인에도 반영된다.
때문에 페이스북은 페이지, 그룹, 포스트 혹은 프로필이 테러리즘을 지원하는지 확인한다. 또한 알고리즘을 활용해 테러리즘을 지원하는데 쓰일지도 모르는 관련 자료들을 분석한다. 테러리즘과 관련해 폐쇄된 계정과 연관성이 높은 계정을 찾아내 유사한 내용을 올리고 있는지를 확인해 필요하면 다른 계정도 폐쇄조치를 취한다.
■ 가짜 계정 반복 생성하는 테러리스트도 색출
AI 시스템은 상습적으로 가짜 계정을 반복적으로 만들어내는 테러리스트를 찾아내기도 한다. 같은 범죄자들이 반복해서 만들어내는 가짜 계정을 더 빨리 찾아내는 방법으로 테러리스트들이 만든 계정이 페이스북에서 활동하는 시간을 급격하게 줄였다.
AI 시스템은 페이스북이 인수한 왓츠앱, 인스타그램과 같은 다른 서비스에서도 테러리스트를 분간해내는데 쓰일 예정이다.
다만 페이스북은 현재의 AI가 모든 테러리즘을 막아주지는 못할 것이라고 말한다. 여전히 테러리스트가 올린 콘텐츠가 맞는지 등에 대한 맥락을 이해하는데는 인간이 낫기 때문이다.
관련기사
- 페이스북, 정치인-유권자 연결 돕는다2017.06.16
- 저커버그 “페이스북 팔지 않은 이유는…”2017.06.16
- 페북-MS-유튜브-트위터, '테러추방' 힘 모은다2017.06.16
- 페이스북-유튜브, '테러 영상' 바로 지운다2017.06.16
무장한 남자가 ISIS 깃발을 들고 있는 사진이라면 그가 테러리스트라는 것을 확인할 수 있지만 이런 내용이 뉴스 보도의 일부 였다면 아직 AI 시스템이 이를 분간하기는 어렵다.
이에 따라 페이스북은 내년까지 3천여명에 달할 것으로 예상되는 전 세계 커뮤니티 오퍼레이션 팀이 콘텐츠가 테러리즘과 연관됐는지 여부에 대한 맥락을 파악하는 작업을 진행할 예정이다. 또한 테러방지 전문가 150명을 동원해 테러리즘과 전쟁에서 핵심 역할을 맡게 한다.