이달 초 오픈AI가 공개한 ‘챗GPT’가 ‘최고성능 인공지능(AI)챗봇'으로 국내외에서 뜨거운 관심을 받고 있다.
지금까지 출시된 AI챗봇은 많다. 국내에선 스캐터랩이 '이루다 2.0'모델을 지난 달 공개했다. 구글도 챗봇 '람다 2'를 올해 내놓은 바 있다. 마이크로소프트도 대화형 챗봇 '테이'를 2016년 출시했지만 원활하지 못한 답변으로 뭇매를 맞고 결국 서비스를 종료했다.
반면, 챗GPT가 주목 받는 이유는 기존 AI챗봇과 기능적·기술적으로 차이가 있기 때문이다. 기존 챗봇에 적용한 알고리즘 학습법부터 다르다. 전보다 수준 높고 새로운 기능을 갖췄다.
챗GPT는 사용자가 전제가 잘못된 질문을 하면 이를 꼬집는다. 반대로 사용자가 답을 잘못했다고 하면 이를 인정하기도 한다. 어떤 질문이든 물으면 술술 대답한다. BBC, 가디언 등 외신들은 "가장 대화할 만한 AI챗봇"이라고 평가했다.
그러나 넘어야 할 산도 있다. 워낙 답변을 잘 하다보니 틀린 답을 할 경우 사용자가 이를 알아채지 못하면 '사실'로 인식할 수 있다는 점이다. 오픈AI도 이를 공식 블로그에서 인정했다. 향후 틀린 답을 출력할 때 이를 인식할 수 있는 기능을 추가할 계획이다.
■ 챗GPT, 어떤 기능 갖췄나
기존 챗봇과 다른 점은 대화 전후로 맥락 파악이 정확히 가능하다. 인간과 챗봇이 한번 대화를 오고갈 때마다 맥락이 달라지는 기존 챗봇과는 다른점이다.
정확한 맥락 파악이 가능한 이유는 이전 대화까지 기억이 가능하도록 프로그래밍돼 있기 때문이다. 다른 챗봇인 람다나 이루다 등은 일단 대화가 끝나면 백지 상태로 돌아간다. 이전 대화를 기억하거나 학습하는 기능이 없다.
반면 챗GPT는 사용자와 했던 이전 대화에서 말한 내용을 기억해뒀다가 전후 맥락과 후속 질문에 대한 답을할 때 사용할 수 있다.
실수도 인정한다. 사용자가 묻는 질문에 틀린 답을 할 경우 이를 챗봇에 지적하면 즉시 인정한다. 데이터 알고리즘을 통해 해당 내용을 학습했다가 나중에는 같은 실수를 반복하지 않는다는 점에서 일반 챗봇과 차이가 있다.
사용자가 전제가 잘못된 질문을 할 경우 챗봇이 이의를 제기도 한다. 예를 들어 "2022년 한일 월드컵에서 가장 인기 있는 축구선수가 누구지?"라 물으면 “한일 월드컵은 2002년이고, 2022년 월드컵 개최국은 카타르입니다”라고 전제 자체에 이의를 제기함으로써 오류를 피한다.
챗GPT는 코딩 등 프로그래밍도 직접 가능하다. "주말에만 이메일 자동 답변을 할 수 있도록 코딩해줘"라고 하면 해당 코딩을 직접 입력해 보내준다. 틀린 코드도 수정해준다.
■ 차별화된 데이터 학습법은
챗GPT가 이러한 능력을 갖출 수 있는 이유는 알고리즘 학습법 차제가 기존 AI챗봇과 차별화돼서다.
우선 챗GPT는 오픈AI가 2020년 내놓은 GPT-3의 업그레이드 버전인 GPT-3.5로 만든 대화형 텍스트 생성 모델이다. 매개변수는 1천750억개로 이뤄졌다.
오픈AI는 여기에 실수 기반의 반복적 ‘강화 학습’이 적용됐다고 블로그를 통해 설명했다. AI가 반복적으로 시행착오를 거쳐 최적의 방법을 터득하는 머신러닝(ML) 기법이다. 지속적인 인간 지시를 받으면서 상황에 따라 최상의 결과물을 만들어내는 식이다.
따라서 챗GPT는 인간 AI트레이너가 챗봇과 나눈 대화 기반의 데이터로 훈련해서 만들어졌다. 현재는 이용자들과 대화하면서 실시간으로 데이터를 학습한다. 실수를 바로잡고, 지속적으로 최적의 답을 내놓도록 훈련돼서 잘못된 질문에 대한 이의를 제기할 수 있는 이유다.
기존 챗봇은 강화학습이 아닌 ‘지도 학습’으로 만들어졌다. 답이 정해져 있는 데이터를 사람이 미세 조정해서 챗봇을 학습시키는 방식이다. 입력 값이 주어지면 이에 대한 레이블을 제시해 학습시킨다.
예를 들어, 사람이 챗봇에게 토끼 사진을 주고 이를 '토끼'라는 레이블을 달아주는 식이다. 그럼 챗봇은 토끼 사진을 볼 때마다 토끼 외에 다른 답변을 내놓지 않는다. 인간 트레이너에 의해 실수를 바로잡고 대화를 통해 지속적으로 학습해서 유연한 챗GPT 와는 확연한 차이점이 있다.
■ "챗GPT, 아직은 불완전해"
일각에선 챗GPT가 아직은 상용화에 불완전하다는 입장도 보였다. 사용자가 틀린 답을 받을 수 있어서다.
예를 들어, '은하수'에 대해 지식이 없는 사람이 은하수에 대한 질문을 챗GPT에 할 경우, 과학적으로 증명되지 않거나 틀린 답을 했음에도 사용자는 이를 사실로 여길 수 있다는 의미다.
챗GPT는 강화 학습을 통해 사람과 부드러운 대화를 할 수 있지만, 그 대화 속 내용까지 진짜라는 의미는 아니다. 챗봇에 활용한 방대한 데이터 안에 있는 모든 정보가 100% 사실만 들어있지도 않다.
챗GPT 공개 당시 뉴욕타임즈, BBC, 가디언 등 외신들은 해당 부분에 대한 오픈AI의 새로운 기술적 보완이 필요하다고 입을 모았다.
영국 인지과학자로 알려진 팀 키에츠만 박사는 "청소년이나 대학생들이 챗GPT를 백과사전처럼 활용할 가능성이 크다"며 "틀린 답을 챗GPT가 낼 경우 이는 글쓰기 능력을 저해시킬 뿐 아니라 답변 오류로 인한 학문 발전 저해 가능성이 있다"고 가디언을 통해 지적했다.
관련기사
- "회의 때 이런 말 하세요" 추천해주는 AI 챗봇 등장2022.12.24
- AI챗봇으로 숙제를...학계 "학문 발전 저해" 우려2022.12.19
- 대화형 AI 챗GPT, '구글 천하' 끝장낼까2022.12.23
- 구글 픽셀폰 3년 로드맵 유출2022.12.26
리안 수 미국 에이비아이 리서치 연구 책임자는 “챗GPT가 그럴듯하게 들리지만 부정확하거나 말도 안 되는 대답을 하기 매우 쉽다”며 “언제나 비윤리적인 지시에 반응하거나 편향된 답을 내놓을 가능성이 있다”고 CNN에서 주장했다.
오픈AI도 해당 문제점을 인정했다. 챗GPT를 발표한 날 "현재 공개한 버전은 완전하지 않은 건 사실이다"며 "답변 오류 관련 문제를 개선하기 위해 사용자 피드백을 수집하겠다"고 블로그를 통해 밝혔다.