최재식 교수 "챗GPT 이후 '설명가능한 AI' 더 중요해져"

챗GPT 답변 오류 개선, 설명가능한 AI로 가능

컴퓨팅입력 :2023/02/14 15:28    수정: 2023/02/15 08:09

"챗GPT 출시 이후 '설명가능한 AI'가 더 중요해졌습니다. 사람은 챗GPT가 왜 정답·오류를 냈는지 모두 파악할 수 없습니다. 앞으로 인간은 설명가능한 AI로 알고리즘 결과를 검증, 개선하는 과정을 꾸준히 거쳐야 합니다."

카이스트 최재식 김재철AI대학원 교수는 14일 서울JW메리어트호텔에서 열린 '제 27회 지능정보산업협회(AIIA) 조찬 포럼'에서 "챗GPT 등 AI 결과에 오류, 편향성 등을 없애려면 설명가능한 AI를 적극 활용해야 한다"고 강조했다.

설명가능한 AI란, 알고리즘이 도출한 결과에 대한 이유·과정을 설명하는 프로세스다. 이 기술은 알고리즘에 들어간 데이터셋을 비롯해 사용 빈도 비율, AI 모델 등을 수치화해 제공한다.

카이스트 최재식 김재철AI대학원 교수가 발표 중이다. (사진=지디넷코리아)

챗GPT는 딥러닝 알고리즘을 거쳐 사용자에게 답한다. 답은 맞을 수도 있고, 틀릴 수도 있다. 인간은 챗GPT가 어떻게 정답을 말할 수 있는지, 왜 틀린 답을 하는지 모두 잡아낼 수 없다.

최 교수는 "인간은 챗GPT의 모든 AI 알고리즘 과정·원리를 파악할 수 없다"고 강조했다. AI 알고리즘 기술 검증은 사람 능력 밖의 영역이라서다.

이에 최 교수는 "'설명가능한 AI'를 통해 AI 알고리즘을 분석할 수 있다"고 강조했다. 사람이 검증할 수 없는 부분을 소프트웨어 도구로 볼 수 있다는 의미다.

그는 설명가능한 AI가 필요한 이유를 설명했다. AI는 기존에 있던 기술보다 더 복잡하다고 했다. 최 교수는 "자동차, 휴대전화 등 기존 기술은 단순하게 작동했다"며 "사용자는 기기 원리나 결과를 한눈에 파악할 수 있었다"고 말했다.

예를 들어 사람이 핸드폰에 번호를 누르면 통화할 수 있다. 통화가 되지 않으면 전화기가 고장 났다는 사실도 바로 인지한다. 사람은 이 원리를 잘 알고 있어서다.

최 교수는 "반면 AI 기술은 예상치 못한 결과를 내거나 정체 모를 오류를 만든다"고 설명했다. 또 "사람은 AI 시스템 안에서 무슨 일이 벌어지고 있는지, 왜 이런 결과를 냈는지 한눈에 볼 수 없다"고 덧붙였다.

관련기사

그는 "사람은 AI에 끊임없이 질문해야 한다"며 "이를 통해 알고리즘을 검증하고 개선해 효율성을 높여야 한다"고 밝혔다. 최재식 교수는 "챗GPT 등 AI가 내놓는 답에 어떤 부분이 틀렸는지, 어떻게 고칠 수 있는지 중요해질 것"이라며 "앞으로 설명가능한 AI는 계속 필요하게 될 것이다"고 예측했다.

14일 서울JW메리어트호텔에서 '제 27회 지능정보산업협회(AIIA) 조찬 포럼'이 열렸다. (사진=지디넷코리아)

이번 행사는 지능정보산업협회와 지능정보기술포럼이 주최하고 지디넷코리아와 매일경제, 테크42가 후원했다.