메타가 자해 콘텐츠를 방치하고 관련 이용자들을 연결해 오히려 자해 네트워크 형성을 조장한다는 조사 결과가 나왔다.
1일 가디언에 따르면, Digitalt Ansvar는 인스타그램에 가상 13세 미만 이용자 계정을 포함한 자해 네트워크를 만든 후 피, 면도날 등이 나온 자해 조장 콘텐츠 85개를 공유하는 실험을 진행했다. 메타는 유해 콘텐츠의 99%를 AI를 활용해 삭제한다고 안내하고 있다. 그러나 이번 연구에서 실험이 진행된 한 달 동안 자해 콘텐츠는 한 건도 삭제되지 않은 것으로 밝혀졌다. 가디언은 "메타의 검열이 매우 부적절하다는 것이 밝혀졌다"고 평가했다.
Digitalt Ansvar는 연구서에서 "13세 이용자의 계정이 자해 네트워크 구성원 중 한 명과 연결되면, 이후 네트워크 내 모든 구성원과 연결되는 것을 발견했다"며 "인스타그램의 알고리즘이 자해 네트워크의 형성과 확산에 적극적으로 기여하고 있다는 것을 시사한다"고 밝혔다.
관련기사
- 메타 "민감정보 수집 과징금 불복 소송, 의결서 받고 결정"2024.11.13
- 메타, 데이터센터 건립 무산…"희귀종 벌 때문"2024.11.05
- 中, 메타 AI '라마' 사용해 군사용 챗봇 개발2024.11.03
- "미성년자 플랫폼 중독 방치"…메타·틱톡, 브라질서 소송 직면2024.10.30
Digitalt Ansvar는 메타의 조치 미비가 유럽연합(EU)의 디지털서비스법(DSA)를 준수하지 않는 행위라고 말했다. DSA는 대규모 플랫폼이 사용자의 건강에 해로운 영향을 미칠 수 있는 위험을 미리 파악하고 대비하도록 의무화하고 있다.
메타 대변인은 "자해 조장 콘텐츠는 메타 정책에 위배되며, 감지되면 해당 콘텐츠를 삭제한다"며 "2024년 상반기 인스타그램에서 자살 및 자해와 관련된 게시물 1천200만 개 이상을 삭제했으며, 그 중 99%는 사전 삭제 조치를 한 것"이라고 밝혔다. 이어 "올해 초 출시한 '10대 계정'을 통해 청소년에게 유해 콘텐츠가 추천될 가능성이 훨씬 낮아졌다"고 덧붙였다.