인터넷 방송 플랫폼 트위치가 스트리머를 대상으로 한 혐오 공격을 막기 위해 기계학습(머신러닝) 기술을 도입했다.
미국 IT매체 더버지는 30일(현지시간) 트위치가 머신러닝을 활용한 '의심스러운 이용자 탐지(Suspicious User Detection)' 기술로 스트리머 채팅창이 혐오 메세지로 도배되는 것을 막는다고 밝혔다.
의심스러운 이용자 탐지 기술은 스트리머 채널에서 규정을 어긴 이용자를 가능성과 개연성 두 분류로 식별할 수 있다. 해당 기술은 이용자 계정의 행동과 특성을 평가해 잠재적인 규정 회피 이용자를 발견하고, 스트리머 채널에서 금지됐던 계정의 정보와 비교한다.
스트리머와 관리자는 의심 이용자의 정황에 따라, 개연성 높은 이들의 채팅은 채팅창에서 보이지 않게 하고, 이용자 이름 옆에 표시해 그들을 감독하거나 차단할 수 있다.
관련기사
- 트위치, 닌텐도 스위치에서도 시청한다2021.11.12
- 트위치코리아, '트위치 라이벌스: 윷놀이 파티' 온라인 개최2021.10.28
- 트위치 "서버 구성 오류로 정보 유출"2021.10.08
- 트위치, 채팅 참여자에 휴대전화 인증 기능 추가2021.09.30
또한 (규칙 위반) 가능성 있는 이용자의 메세지를 채팅창에 보이게 할지를 선택할 수 있다. 스트리머는 또 의심스러운 이용자를 수동으로 선별해 감독할 수도 있다. 트위치는 탐지 기술 작동을 기본 설정으로 두고, 스트리머가 조정하거나 끌 수 있도록 하겠다고 설명했다.
트위치 커뮤니티건강 디렉터 알리슨 허프만은 "이 도구는 커뮤니티 피드백에서 영감을 받아 규정 회피자를 막을 수 있도록 고안됐다"며 "채널 규범을 어긴 이용자가 반복적인 유해 사용자인지, 아직 채널의 관습을 알지 못하는 새로운 이용자인지 구분하기가 어렵다는 이야기를 들었다. 이 기술로 스트리머와 관리자는 효율적이고 정보에 입각한 결정을 내릴 수 있다"고 설명했다.