"생성함수가 새로운 산업혁명 초래···포용AI에 관심 더 가져야"

최종현학술원, '생성AI, 모방을 넘어 창작으로' 주제 전문가 초청 강연회 열어

컴퓨팅입력 :2024/10/04 01:12

"생성함수가 다가오는 산업혁명의 증기기관과 진공 튜브입니다."(서민준 KAIST김재철AI대학원 교수)

"앞으로의 인공지능은 초지능이나 AGI(범용인공지능)보다 사람이 정말 학습하는 것들을 모델링하는, 이런 방법으로 진행할 것입니다."(이교구 수퍼톤 대표 겸 서울대 융합과학기술대학원 교수)

"올해들어 굉장히 달라진 점은 피드백 기반의 강화학습 연구결과를 적용하면서 AI성능이 굉장히 빠르게 좋아지고 있습니다."(김지원 SK텔레콤 AI모델 담당)

"나 대신 에이전트가 일하는 제너러티브 에이전트 시대가 멀지 않았습니다. LLM이 실험실 조교 역할을 합니다. 앞으로 이런 에이전트가 많이 나올겁니다."(오혜연 KAIST AI연구원장)

SK그룹 싱크탱크인 최종현학술원이 서울 강남구 한국고등교육재단빌딩에서 '생성형 AI, 모방을 넘어 창작으로: AI는 어떻게 느끼고, 생각하고, 표현하는가'를 주제로 개최한 콘퍼런스가 2일 열렸다.

이날 행사는 미국 애플에서 음성인식 기술 시리(Siri) 개발을 총괄한 김윤 새한창업투자 파트너가 사회를 본 가운데 국내서 가짜뉴스 판별 알고리즘을 처음 개발한 오혜연 KAIST AI연구원장, 한국인으로는 유일하게 2024년 미국 타임지의 'AI 분야 가장 영향력 있는 100인'에 선정된 이교구 서울대 융합과학기술대학원 교수 겸 수퍼톤 대표, 미국 매사추세츠공대(MIT)를 수석 졸업한 김지원 SK텔레콤 AI모델 담당(부사장), 거대언어모델(LLM)과 자연어처리(NLP) 전문가 서민준 KAIST 김재철AI대학원 교수 등 4인이 발표와 함께 AI의 현재와 미래를 놓고 패널 토론을 벌였다.

미국 MIT에서 수학을 전공하고 NLP와 LLM 전문가이기도 한 오혜연 원장은 미국 중심 데이터로 학습한 LLM의 한계점을 보여주며 '포용 AI(Inclusive)'의 중요성을 강조했다. 소버린AI와도 연관이 있는 '포용AI'는 전세계의 보다 많은 언어와 문화를 이해하는 AI로, 사람의 편견을 최소화한 AI다. 오 원장은 일부 LLM은 사전 학습에 사용한 언어의 90%가 영어라고 지적했다. "AI가 인클루시브(포용적) 할 수 있을까?" 자문한 오 원장은 인구 2억이 넘는 인도네시아에서 사용하는 순다어의 경우 우리나라 인구보다 많은 7천만명이 쓴다면서 "LLM이 현재보다 훨씬 많은 언어를 다뤄야 한다"고 제안했다.

오혜연 KAIST AI연구원장

또 다양한 언어모델을 비교평가하는 아레나(LMArena.ai) 사이트를 인용해 성능이 1~15위에 든 LLM중 한국 LLM이 하나도 없다면서 "생각해 볼 문제"라고 짚었다. 오 원장은 패널토의 시간에도 사회자가 많은 AI 중 우리나라가 집중해야 할 AI를 하나만 꼽아달라고 질문하자 "교육 분야"라며 "모두가 잘 사는, 취약계층을 돕는 AI를 만들어야 한다"고 강조했다.

서울과학고를 조기졸업하고 MIT에서 전기공학 및 컴퓨터과학과 수학을 전공학 삼성전자 종합기술원을 거쳐 30대인 2016년 SKT 임원으로 선임된 김지원 SKT 담당은 "챗GPT 다음에 어떤 LLM이 나오고 이 것이 트렌드가 될 지를 고민하고 있다"면서 현재 SKT에서 본인이 하고 있는 일을 설명했다. 김 담당은 SKT의 '에이닷(A.)' 모델 개발을 주도하고 있는데, 자사의 생성AI 파운데이션 모델인 '에이닷엑스(A.X)'의 적용 사례를 소개했다.

텍스트, 이미지, 소리, 동영상 등 다양한 모달리티(Modality)에 대한 이해와 생성 능력을 보유한 '에이닷 엑스'는 통신은 물론 제약, 공공, 반도체, 금융, 에너지 등 다양한 도메인(개별 산업)으로 적용 영역을 넓히고 있다. 김 담당은 SKT가 자체 개발한 모델들도 설명했다. 2019년 제일 처음 나온 '코버트(KoBERT)'를 가리켜 "최초의 한국어 딥러닝 모델"이라면서 "허깅페이스 누적 다운로드가 460만이다. 월 평균 10.5만이다. 작년에 기자간담회 할때보다 2배 이상이 됐다. 이번 발표를 준비하면서 집계를 다시 봤는데 굉장히 놀랐다"고 말했다.

김지원 SKT AI테크사업부 AI모델 담당

SKT는 코버트에 이어 1년 후인 2020년 '코버트2(KoBERT2)'를 내놨는데 김 담당은 "최초의 생성형 한국어 모델로 누적 다운로드가 225만"이라고 밝혔다. '코버트3'는 2021년 7월 공개됐다. SKT의 멀티모달 LLM인 '에이닷 엑스'는 시간이 갈수록 기능을 고도화, 2022년 감성 대화에서 시작해 2023년~2014년을 거치며 지식대화, 통화요약, 멀티모달 LLM 에이전트, 멀티 ID AI프로필 기능도 갖췄다.

김 담당은 LLM이 학술 의미에서 벗어나 다양한 영역으로 확장하고 비즈니스에 점점 더 많이 쓰이고 있다면서 "SKT도 LLM에 멀티모달을 더하는 등 멀티모달 LLM으로 지속적으로 확장해 나가고 있다"고 짚었다. 또 AI모델 성능 향상과 관련해서는 "학습 데이터를 기존에는 블로그 같은 수준 지식을 가지고 사전학습을 많이 했지만 점점 더 전문 서적 논문 정도의 문서들을 잘 정제, 고품질 데이터 중심으로 사전학습을 계속해 성능을 올리고 있다"고 말했다. 사내 AI 활용과 관련해서는 홍보부서가 보도자료를 쓸때 초안을 AI를 이용한다고 들려줬다. 이어 오픈AI가 만든 AGI(일반인공지능) 5단계와 추론이 강화된 오픈AI 최근 모델을 언급하며 "앞으로는 전문가 수준 문제 해결이 가능하다. 배터리, 반도체, 에너지, 신약, 로봇 등 다양한 전문가가 있어야 하는 문제 해결에 AI가 더 많이 쓰일 것"이라고 내다봤다.

언어나 이미지 모두를 잘 이해하는 비전랭귀지모델(VLM)을 설명하며 "소량의 데이터를 줘도 AI가 로봇을 잘 제어할 수 있다"고 진단했다. SKT의 LLM이 SK 파운데이션 모델을 지향하고 있다면서 "소리, 동영상 등의 모달리티까지 포함해 SK모델 뿐 아니라 또 SK가 영위하는 많은 비즈니스에서 함께 쓸 수 있는 모델로 확대 공유하며 많은 사업에서 성과를 내려한다"며 마무리 발언을 했다.

오디오 신호처리와 기계학습 전문가이자 밴드 활동 경력이 있는 이교구 교수는 본인이 2020년 공동 창업한 AI스타트업 수퍼톤이 "창작자의 상상력 폭을 확대해주기 위해 만든 회사"라며 그동안 수퍼톤이 생성한 여러 AI 사례를 소개, 시선을 모았다. 영화 마스크걸에 나오는 주인공 배우의 이중 음성과 배우 최민식의 변형 목소리 등이 근래 수퍼톤이 만든 작품이다.

이교구 서울대 융합과학기술대학원 교수

하이브의 자회사이기도 한 이 회사는 음성합성 기술과 스피치 향상(음질 향상) 기술, 디지털 오디오 이펙트 기술 등을 보유하고 있는데 자체 개발한 음성합성 파운데이션 모델 '낸시(NANSY)'를 기반으로 한다. 이 교수는 사전 제작, 제작, 제작 후로 이어지는 콘텐츠 생산 밸류체인에서 AI가 큰 역할을 하고 있다면서 "앞으로는 텍스트 특화 AI 뿐 아니라 음성AI 기술과 콘텐츠 결합을 주목해야 한다"고 강조했다.

미국 버클리대학에서 전자컴퓨터공학을 학부 전공하고 워싱턴대학에서 컴퓨터과학으로 석사와 박사학위를 받은 서민준 교수는 오라클, 구글, 메타에서 근무한 경험도 갖고 있다. 네이버클로바에서 AI개발을 주도하기도 했다. 2021년부터 KAIST 교수로 재직중이다. 공무원 9급 시험에 나오는 영어 문제 2개로 강연을 시작한 서 교수는 생성AI가 등장한 앞 뒤를 짚으며 "1차 산업혁명을 일으킨 증기기관과 2차 , 3차 산업혁명을 일으킨 진공관처럼 생성함수가 그 역할을 할 것"이라며 생성함수를 강조했다.

대학 2년때인 2014년 문장을 생성하는 AI모델이 나왔고 "충격적이였다"면서 생성AI는 분류하는 기존 AI와는 다르다고 밝혔다. 또 툴 기반인 이전 통계기반 기계번역은 성능이 제대로 안나왔는데, 2014년 중간의 룰 기반을 없앤 인코더와 디코더 방식의 혁신 모델이 나왔고, 중간에 설계자 개입을 없애니 결과값이 더 좋았으며, 입력 값과 출력값만 있으면 되는 걸 알게됐다고 들려줬다.

번역이 좋아진 건 뉴럴 기계번역이 상용화한 2017년부터며 이때 모델 중심에서 데이터 중심의 트랜스포머가 나와 지능을 보는 관점이 바뀌었다고 말했다. 즉, 이때 모델 정교화보다 데이터를 중시하는 쪽으로 전환했는데, 성능을 높이려면 어떤 모델을 써야 할까? 혹은 모델의 어떤 부분을 개선해야 할까?하는 모델 중심에서 성능을 높이려면 어떤 데이터를 모아야 할까? 얼만큼 늘려야 할까? 등의 데이터 중심으로 인식이 바뀌었다는 것이다.

관련기사

서민준 KAIST 김재철AI대학원 교수

 서 교수에 따르면, 2018년도에도 대형언어모델이 나오면서 '언어 지식전이'라는 혁신이 일어났다. 언어에 앞서 이미지 지식전이가 일어났는데, 그동안 이미지는 되는데 언어는 왜 안되지? 하는 물음이 있었는데 2018년 이에 대한 해결책을 대형언어모델이 나와 열어줬다는 것이다. 이어 2019년에는 다음 단어 맞추기로 문장을 생성하는 모델(GPT2)과 일반화를 연 GPT3가 2020년 등장했고, 마침내 2022년11월 챗GPT가 나오면서 생성AI 시대가 열렸다고 해석했다. AI의 전기 소모를 언급하며 올해 엔비디아가 출하한 반도체를 지원하려면 원전 2개를 더 지어야 한다고도 말했다.

이어진 패널토론에서는 AI모델이 계속 커져야 하는 지, 또 AI대모라 불리는 미국 스탠포드대 교수 페이 페이 리 교수가 주창하는 3D 기반 '월드 모델'에 대한 패널들 생각과 IG를 달성하기 위한 허들 등이 논의됐다.