"인스타, 자해 콘텐츠 방치...오히려 네트워크 형성 조장"

Digitalt Ansvar 연구 결과 발표...한 달 간 자해 콘텐츠 한 건도 삭제 안 돼

인터넷입력 :2024/12/01 14:46    수정: 2024/12/02 08:24

메타가 자해 콘텐츠를 방치하고 관련 이용자들을 연결해 오히려 자해 네트워크 형성을 조장한다는 조사 결과가 나왔다.

1일 가디언에 따르면, Digitalt Ansvar는 인스타그램에 가상 13세 미만 이용자 계정을 포함한 자해 네트워크를 만든 후 피, 면도날 등이 나온 자해 조장 콘텐츠 85개를 공유하는 실험을 진행했다. 메타는 유해 콘텐츠의 99%를 AI를 활용해 삭제한다고 안내하고 있다. 그러나 이번 연구에서 실험이 진행된 한 달 동안 자해 콘텐츠는 한 건도 삭제되지 않은 것으로 밝혀졌다. 가디언은 "메타의 검열이 매우 부적절하다는 것이 밝혀졌다"고 평가했다.

Digitalt Ansvar는 연구서에서 "13세 이용자의 계정이 자해 네트워크 구성원 중 한 명과 연결되면, 이후 네트워크 내 모든 구성원과 연결되는 것을 발견했다"며 "인스타그램의 알고리즘이 자해 네트워크의 형성과 확산에 적극적으로 기여하고 있다는 것을 시사한다"고 밝혔다.

관련기사

인스타그램 로고

Digitalt Ansvar는 메타의 조치 미비가 유럽연합(EU)의 디지털서비스법(DSA)를 준수하지 않는 행위라고 말했다. DSA는 대규모 플랫폼이 사용자의 건강에 해로운 영향을 미칠 수 있는 위험을 미리 파악하고 대비하도록 의무화하고 있다.

메타 대변인은 "자해 조장 콘텐츠는 메타 정책에 위배되며, 감지되면 해당 콘텐츠를 삭제한다"며 "2024년 상반기 인스타그램에서 자살 및 자해와 관련된 게시물 1천200만 개 이상을 삭제했으며, 그 중 99%는 사전 삭제 조치를 것"이라고 밝혔다. 이어 "올해 초 출시한 '10대 계정'을 통해 청소년에게 유해 콘텐츠가 추천될 가능성이 훨씬 낮아졌다"고 덧붙였다.