“인공지능(AI)으로 자살자를 막겠다.”
페이스북이 27일(현지시간) 자살할 우려가 있는 사람을 AI로 미리 탐지하겠다고 밝혔다.
물론 AI로 자살을 예방하는 게 처음은 아니다. 지난 3월 미국에서 처음 도입한 뒤 실제 예방에 성공하는 등 상당한 성과가 있었다.
자신감을 얻은 페이스북은 이번에 전 세계에 확대 적용키로 한 것이다. 다만 개일반정보보호규정(GDPR) 때문에 문제가 될 소지가 있는 유럽연합(EU)은 적용 대상에서 제외했다.
크게 두 가지 질문을 제기해볼 수 있다.
첫째. 어떤 방법으로 자살을 예방할까?
둘째. 그럴 경우 부작용은 없을까?
■ 앞뒤 글도 함께 고려…종합적 판단
일단 첫번째 질문. 페이스북은 구체적인 알고리즘은 공개하지 않았다. 다만 “괜찮냐?(Are you OK?)”거나 “도와줄까(Can I help you?)” 같은 문구들을 증거 자료로 활용한다고만 밝혔다.
AI 기술로 위험 요인을 감지하면 곧바로 페이스북 내부의 담당 인력들에게 알려준다. 또 해당 이용자의 친구나 가족들에게 전화번호 같은 정보를 알려준다.
경우에 따라선 페이스북 직원들이 직접 인근 기관들에 연락을 취하기도 한다. 이런 과정을 통해 제 때 도움을 받을 수 있도록 한다는 게 기본 골자다.
여기까지만 들으면 조금 불안해진다. 잘못 탐지한 뒤 엉뚱한 소동을 벌일 가능성도 있어 보이기 때문이다.
이런 우려에 대해 페이스북은 “맥락이 중요하다”고 설명한다. 미국 경제매체 패스트컴퍼니가 이 부분을 잘 설명했다.
예를 들면 이렇다.
어떤 사람이 “시험에서 F 맞으면 죽을거야”라는 글을 올렸다고 치자. 그럴 경우엔 그냥 농담으로 해석한다. 이런 글은 진짜 자살하는 경우와는 거리가 있기 때문이다.
이런 글들을 걸러내기 위해선 앞뒤에 있는 다른 글들도 함께 살펴볼 필요가 있다. 그래야만 제대로 된 맥락을 파악할 수 있기 때문이다.
패스트컴퍼니에 따르면 자살하는 사람들은 대부분 다른 단서들도 남겨놓기 마련이다. 뭔가 문제가 있다는 증거를 온라인 상에 올려놓는 게 일반적이란 얘기다.
AI 기술은 이런 단서들과 함께 자살을 암시하는 결정적인 글들을 연결한다.
■ 정치적 반대파 제거 등에 악용될 가능성은
두번째 질문은 조금 심각하다. 영화 ‘마이너리티 리포트’를 연상케되기 때문이다.
자살하는 사람을 걸러낼 수 있다면 다른 곳에도 적용할 수 있다. 이를테면 독재 정부가 반대 의견을 갖고 있는 사람을 걸러내는 수단으로 활용할 수도 있다.
관련기사
- 실시간방송, '폭행·자살·노출' 처리법은?2017.11.28
- 페이스북, AI 활용해 자살 예방한다2017.11.28
- 페이스북의 절묘한 알고리즘 변경2017.11.28
- 셰릴 샌드버그, 페이스북을 어떻게 변화시켰나2017.11.28
테크크런치는 이런 문제를 제기하면서 “페이스북은 이런 경우를 어떻게 피할 수 있을 지에 대해선 답하지 않았다”고 전했다.
테크크런치는 또 “이 기술이 굉장히 유익한 측면이 있는 건 분명하지만, 너무 많이 나가진 않길 바란다”고 지적했다.