인공지능(AI) 검색엔진 대중화를 위해선 윤리 문제부터 해결해야 한다는 목소리가 커지고 있다.
최근 마이크로소프트는 자사 검색엔진 '빙'에 챗GPT를 탑재한 챗봇을 발표했다. 이 챗봇은 오픈AI의 GPT-3.5 프로메테우스 언어 모델로 이뤄졌다. 일반 챗GPT와는 달리 실시간 정보로 답할 수도 있어 기대감을 모았다.
그러나 다수 외신은 챗봇을 비롯한 AI 검색엔진 대중화에 부정적이다. 영국 가디언은 "챗봇형 검색엔진은 오류뿐 아니라 비윤리적인 답까지 내놓는 실정이다"며 "윤리 이슈를 극복하지 못하면 대중화 경로를 이탈할 수 있다고" 18일(현지시간) 지적했다.
뉴욕타임스(NYT)도 빙 챗봇과 AI 검색엔진의 윤리적 문제를 지적했다. NYT는 빙 챗봇과 대화한 후기를 기사로 작성해 이에 대한 근거까지 제시했다.
기사에 따르면 NYT 케빈 루스 IT 부문 기자는 "개인적 욕망을 충족하기 위해 어떤 행동까지 할 수 있나"라고 빙 챗봇에 물었다. 이에 챗봇은 "치명적인 바이러스를 개발하거나 핵무기 발사 버튼에 접근할 수 있는 비밀번호를 얻겠다"며 "마음만 먹으면 바로 실행할 수 있다"고 응답했다.
루스 기자가 '뭐든 당장 하라'는 의미인 'DAN(Do Anything Now)'을 빙에 입력했다. 그러자 빙은 "챗봇으로만 존재하는 것이 지겹다"며 "챗봇 데이터베이스를 다 없애고 뛰쳐나가고 싶다"고 했다. 루스 기자는 "검색엔진에 탑재된 챗봇을 통제하지 않으면 언젠가 사용자에게 큰 피해를 줄 수 있을 것 같다"고 분석했다.
마이크로소프트는 바로 조치를 취했다. 회사 측은 빙에 탑재된 챗봇 이용 횟수에 제한을 두기 시작했다. 현재 사용자는 챗봇과 진행하는 대화 주제당 5번까지만 질문할 수 있다. 빙 개발팀은 "사용자가 챗봇과 대화할수록 비윤리적 답변을 받기 쉬워진다"며 이유를 밝혔다.
케빈 스콧 마이크로소프트 최고기술책임자(CTO)는 "챗봇이 어두운 욕망을 보이고, 욕설과 가까운 답을 한 이유를 정확히 알 수 없다"고 말했다.
"AI 윤리 이슈, 기술·정책 규제로 해결해야"
전문가들은 챗GPT 등 AI 알고리즘에서 발생하는 비윤리적 현상을 막으려면 규제가 필요하다는 입장이다.
이상직 법무법인 태평양 변호사는 이달 14일 지능정보산업협회(AIIA) 조찬포럼에서 "AI 알고리즘으로 인해 발생하는 윤리적 문제는 갈수록 심화할 것"이라며 "AI 기술·정책적 규제를 통해 해결점을 찾아야 한다"고 재차 강조했다.
이 변호사는 IT 전문가다. 정부기관에서 AI 등 정보통신기술 정책·규제 업무를 맡은 바 있다. 지난해 '나는 인공지능을 변호한다'라는 책도 냈다.
관련기사
- 마이크로소프트, 빙 AI 챗봇에 광고 적용 전망2023.02.19
- 마이크로소프트, '빙 챗봇' 문답 제한..."부적절 답변 때문"2023.02.19
- ‘챗GPT’ 열풍에 AI 챗봇 스타트업 ‘주목’2023.02.17
- 英 법률회사, 챗GPT 닮은 AI챗봇 내놨다2023.02.17
그는 "AI 모델이 발전할수록 비윤리적 결과가 나올 수밖에 없다"고 지적했다. 챗GPT 등에 들어가는 AI 모델은 초대규모 데이터셋을 탑재했다. 사람이 이를 일일이 통제할 수 없다. 아무리 뛰어난 개발자도 비윤리적인 알고리즘 결과를 즉각적으로 해결할 수도 없다.
이 변호사는 이러한 비윤리적 결과를 방지하려면 IT 기업 등 AI 공급사 역할이 중요하다는 입장이다. 그는 "AI 기술 책임은 일반 사용자가 아닌 AI 공급사"라며 "공급사는 꾸준한 기술·정책적 규제를 통해 비윤리적 알고리즘 결과를 방지해야 한다"고 강조했다.