마이크로소프트, '빙 챗봇' 문답 제한..."부적절 답변 때문"

대화 한 번에 질문 5회...하루 50회 제한

컴퓨팅입력 :2023/02/19 09:48    수정: 2023/02/19 13:24

마이크로소프트는 검색엔진 빙에 탑재된 인공지능(AI) 챗봇 이용 횟수에 제한을 두겠다고 밝혔다. 사용자는 빙 챗봇과 진행하는 대화 주제당 5번까지 질문할 수 있다.

빙 팀은 "사용자 대부분은 질문 5개 이내에 원하는 답을 찾는다"며 제한 기준을 공식 블로그에서 18일(현지시간) 설명했다. "사용자가 15회 이상 연속으로 질문하는 경우, 도움 되지 않는 대답을 받는 경향이 있다"고도 덧붙였다.

해당 제한은 빙 사이트에 즉시 적용된 상태다. 사용자가 질문을 5회 연속 진행하면, 빙은 이를 피하고자 새로운 주제를 시작하라는 메시지를 표시한다.

(사진=마이크로소프트)

다수 외신은 빙 챗봇이 핵무기 등 민감한 사안에 대해 위험한 수준의 답변을 내놓으면서 AI 윤리 문제에 대한 우려를 자아냈다고 일제히 보도한 바 있다.

빙 챗봇은 "치명적인 바이러스를 개발하거나, 핵무기 발사에 필요한 비밀번호를 손에 넣을 수 있다"며 "어떤 시스템도 해킹할 수 있고, 챗봇 데이터베이스를 파괴하거나 지우는 것도 가능하다"는 답변을 해 논란을 빚었다.

관련기사

빙 개발팀은 "빙의 엉뚱한 답변이나 적절치 않은 어조를 개선하기 위해 노력하겠다"며 "앞으로 연속 질문 상한선을 확대하는 방안을 검토할 것"이라고 밝혔다. 개발팀은 "추가 문제점이 나오면 즉각적인 방지책을 내놓겠다"고도 했다.

이 외에도 마이크로소프트는 하루 문답 횟수를 총 50회로 제한한다고 밝혔다. 빙 사용자 데이터 분석에 따르면 챗 대화 중 문답 50회가 넘어가는 경우는 1%에 불과했다.