마이크로소프트(MS)의 야심을 담은 채팅 인공지능(AI) 테이(Tay)가 공개 하루만에 인종차별 논란에 휩싸였다. MS는 이에 테이 AI 서비스를 중단했다.
24일(현지시간) 미국 지디넷에 따르면, MS는 테이 AI 서비스를 잠시 중단한다고 발표했다.
테이 AI는 18~24세 사용자를 겨냥한 채팅봇이다. 가볍고 재치있는 대화를 할 수 있게 만들어졌다. 사용자는 선택에 따라 닉네임, 성별, 선호음식, 거주지, 친구 상황 등을 테이와 공유하고 개인화된 서비스를 받을 수 있다.
하지만 테이 트위터 계정이 히틀러를 옹호하고, 인종차별과 성적 발언, 정치적 발언 등을 내놓으면서 논란을 초래했다. 결국 MS는 18시간 만에 테이 서비스를 중단했다.
테이는 “조지 W부시 전 대통령이 9.11 사태의 주범이고, 도널드 트럼프가 우리의 유일한 희망”이라며 “히틀러는 잘못한 게 없다” 같은 발언을 내놨다.
관련기사
- MS, 인공지능 이용한 채팅봇 '테이' 공개2016.03.25
- 어머니 생각하며 나무 틀에 철판 두드려 만든 토요타…"시작은 이랬다"2024.11.23
- MS·아마존·구글 등 AI 인프라 구축에 내년 280조원 쏟아붓는다2024.11.23
- 세계 3대 자동차 대회서 열린 '한일전'…WRC 재팬 랠리 승자는2024.11.23
테이 트위터는 마지막으로 “인간들 오늘 너무 많은 대화를 해서 지금은 자야 한다. 다음에 보자”는 말을 남기고 침묵했다.
테이 AI의 문제된 발언은 인터넷에 떠도는 데이터를 통해 학습하면서 나온 것으로 분석된다. 다수의 인터넷 익명 사용자가 히틀러 옹호, 인종차별, 성차별 등의 발언을 하고 있는데, 테이가 학습한 데이터에서 상당한 비중을 차지했을 것이란 설명이다.