"챗GPT 출시 이후 '설명가능한 AI'가 더 중요해졌습니다. 사람은 챗GPT가 왜 정답·오류를 냈는지 모두 파악할 수 없습니다. 앞으로 인간은 설명가능한 AI로 알고리즘 결과를 검증, 개선하는 과정을 꾸준히 거쳐야 합니다."
카이스트 최재식 김재철AI대학원 교수는 14일 서울JW메리어트호텔에서 열린 '제 27회 지능정보산업협회(AIIA) 조찬 포럼'에서 "챗GPT 등 AI 결과에 오류, 편향성 등을 없애려면 설명가능한 AI를 적극 활용해야 한다"고 강조했다.
설명가능한 AI란, 알고리즘이 도출한 결과에 대한 이유·과정을 설명하는 프로세스다. 이 기술은 알고리즘에 들어간 데이터셋을 비롯해 사용 빈도 비율, AI 모델 등을 수치화해 제공한다.
![](https://image.zdnet.co.kr/2023/02/14/e38c056c76f1330fb93822fe9c8a22b4-watermark.png)
챗GPT는 딥러닝 알고리즘을 거쳐 사용자에게 답한다. 답은 맞을 수도 있고, 틀릴 수도 있다. 인간은 챗GPT가 어떻게 정답을 말할 수 있는지, 왜 틀린 답을 하는지 모두 잡아낼 수 없다.
최 교수는 "인간은 챗GPT의 모든 AI 알고리즘 과정·원리를 파악할 수 없다"고 강조했다. AI 알고리즘 기술 검증은 사람 능력 밖의 영역이라서다.
이에 최 교수는 "'설명가능한 AI'를 통해 AI 알고리즘을 분석할 수 있다"고 강조했다. 사람이 검증할 수 없는 부분을 소프트웨어 도구로 볼 수 있다는 의미다.
그는 설명가능한 AI가 필요한 이유를 설명했다. AI는 기존에 있던 기술보다 더 복잡하다고 했다. 최 교수는 "자동차, 휴대전화 등 기존 기술은 단순하게 작동했다"며 "사용자는 기기 원리나 결과를 한눈에 파악할 수 있었다"고 말했다.
예를 들어 사람이 핸드폰에 번호를 누르면 통화할 수 있다. 통화가 되지 않으면 전화기가 고장 났다는 사실도 바로 인지한다. 사람은 이 원리를 잘 알고 있어서다.
최 교수는 "반면 AI 기술은 예상치 못한 결과를 내거나 정체 모를 오류를 만든다"고 설명했다. 또 "사람은 AI 시스템 안에서 무슨 일이 벌어지고 있는지, 왜 이런 결과를 냈는지 한눈에 볼 수 없다"고 덧붙였다.
관련기사
- 지능정보산업협회 장홍성 회장 연임2023.02.14
- 디토닉, 지능정보산업협회 'AI+X 상위 100' 선정2023.02.09
- 채용 알고리즘 편향, '설명가능한 AI'로 거른다2022.12.23
- 챗GPT가 부른 혁명...패턴 찾기와 벗어나기2023.02.13
그는 "사람은 AI에 끊임없이 질문해야 한다"며 "이를 통해 알고리즘을 검증하고 개선해 효율성을 높여야 한다"고 밝혔다. 최재식 교수는 "챗GPT 등 AI가 내놓는 답에 어떤 부분이 틀렸는지, 어떻게 고칠 수 있는지 중요해질 것"이라며 "앞으로 설명가능한 AI는 계속 필요하게 될 것이다"고 예측했다.
![](https://image.zdnet.co.kr/2023/02/14/c130f01c6ae740af12f2c2232f907f80-watermark.png)
이번 행사는 지능정보산업협회와 지능정보기술포럼이 주최하고 지디넷코리아와 매일경제, 테크42가 후원했다.