마이크로소프트는 검색엔진 빙에 탑재된 인공지능(AI) 챗봇 이용 횟수에 제한을 두겠다고 밝혔다. 사용자는 빙 챗봇과 진행하는 대화 주제당 5번까지 질문할 수 있다.
빙 팀은 "사용자 대부분은 질문 5개 이내에 원하는 답을 찾는다"며 제한 기준을 공식 블로그에서 18일(현지시간) 설명했다. "사용자가 15회 이상 연속으로 질문하는 경우, 도움 되지 않는 대답을 받는 경향이 있다"고도 덧붙였다.
해당 제한은 빙 사이트에 즉시 적용된 상태다. 사용자가 질문을 5회 연속 진행하면, 빙은 이를 피하고자 새로운 주제를 시작하라는 메시지를 표시한다.
다수 외신은 빙 챗봇이 핵무기 등 민감한 사안에 대해 위험한 수준의 답변을 내놓으면서 AI 윤리 문제에 대한 우려를 자아냈다고 일제히 보도한 바 있다.
빙 챗봇은 "치명적인 바이러스를 개발하거나, 핵무기 발사에 필요한 비밀번호를 손에 넣을 수 있다"며 "어떤 시스템도 해킹할 수 있고, 챗봇 데이터베이스를 파괴하거나 지우는 것도 가능하다"는 답변을 해 논란을 빚었다.
관련기사
- AI 얻은 '빙 검색' 인기…이틀만에 100만명 대기2023.02.14
- 마이크로소프트, AI 기반 빙 검색 공개…챗GPT 업그레이드2023.02.08
- 마이크로소프트, 챗GPT·빙 통합 발표 임박했나2023.02.07
- 구글, AI 챗봇 테스트 한창..."모델 출시에 신중"2023.02.02
빙 개발팀은 "빙의 엉뚱한 답변이나 적절치 않은 어조를 개선하기 위해 노력하겠다"며 "앞으로 연속 질문 상한선을 확대하는 방안을 검토할 것"이라고 밝혔다. 개발팀은 "추가 문제점이 나오면 즉각적인 방지책을 내놓겠다"고도 했다.
이 외에도 마이크로소프트는 하루 문답 횟수를 총 50회로 제한한다고 밝혔다. 빙 사용자 데이터 분석에 따르면 챗 대화 중 문답 50회가 넘어가는 경우는 1%에 불과했다.