'AGI 시대' 어떻게 준비할까…"AI 윤리·안전성 세분화부터"

[전문가 좌담회] "AI법, 천천히 가도 좋아…한국 기업, 오픈AI처럼 공격적 사업 해야"

컴퓨팅입력 :2024/03/20 13:58    수정: 2024/03/21 11:00

인공지능(AI) 기술이 무섭게 성장하고 있다. 지난달 미국에선 오픈AI를 비롯한 구글, 스태빌리티AI 등 AI 기업이 새로운 모델과 서비스를 쏟아냈다. 앤트로픽도 새 모델을 공개하면서 GPT-4를 능가했다는 평을 받고 있다. 이번 주 엔비디아도 고성능 AI칩과 소프트웨어(SW)를 내놨다. 이 와중에 지난주 유럽연합(EU) 의회가 AI법 최종안을 통과시켰다.

일부 전문가들은 AI가 사람의 지적 수준을 넘어서는 현상을 말하는 'AI 특이점' 또는 '일반인공지능(AGI)' 시대가 곧 올 것으로 예측하고 있다. 아직 멀었다는 의견도 있다. 향후 혼선을 없애기 위해 AI 안전과 윤리부터 구체화해야 한다는 주장도 나오는 추세다. AI 주권 또한 잊어선 안 된다는 의견도 등장했다.

지디넷코리아는 포티투마루와 공동으로 '생성형 AI: 특이점이 올 것인가'를 주제로 좌담회를 개최했다. 좌담회에선 최근 이슈인 특이점에 대한 기준, AGI에 대한 개념에 대해 이야기 나눴다. AI 안전과 윤리, 국내 AI법이 가야 할 방향도 토론했다. 

이번 좌담회에 건국대 김두현 컴퓨터공학부 교수, 서울교육대 김봉제 윤리교육과 교수 겸 AI 가치판단 디자인 센터장, 카이스트 김진형 명예교수, 법무법인 원 오정익 AI대응팀 변호사, 경희대 이경전 경영대학·빅데이터응용학과 교수, 상명대 이청호 계당교양교육원 철학담당 교수가 참석했다. 사회는 김동환 포티투마루 대표가 맡았다.

AI특이점·AGI시대 올까…"과학적으로 개념화 어려워"

- 김동환 대표(이하 사회): 최근 오픈AI가 테스트로 이미지를 생성하는 '소라'를 출시했고, 구글도 '제미나이 1.5'와 '젬마'를 내놨다. 스태빌리티AI도 '스테이블 디퓨전 버전 3'를 공개했다. 이렇게 생성형 AI가 비약적으로 발전함으로써 인간의 지적 능력을 넘어서는 지점, 즉 AI 특이점이 올 것인지, 온다면 언제쯤 올 것인지, 왜 그렇게 생각하는지 다양한 관점에서 얘기를 나눠보고자 한다.

김진형 카이스트 명예교수.

- 김진형 교수: '특이점' 용어 자체가 모호하다. 학자들이 특이점을 이야기할 때 '특정 분야를 사람보다 더 잘하는 AI가 나타난 순간'과 '이것저것 다 잘하는 범용 AI의 출현'이라고 한다. 다른 학자들은 지구상 모든 인류의 지능 총합과 AI의 합 중에서 AI가 능가할 경우 특이점이 온 것으로 정의하기도 한다. 비전문가들은 특이점을 단지 일 잘하는 AI, 모든 걸 잘하는 AI가 등장했을 때 특이점이 왔다고 생각한다. 다만 이런 식으로 생각하면 몇몇 분야에서는 특이점이 왔다. 반면 다른 분야는 그렇지 않다. 기준이 모호하다.

-사회: 최근 AGI도 자주 언급되기 시작했다. AGI 시대가 곧 올 거라는 의견이 많아지고 있다. 현재 샘 알트먼 오픈AI 최고경영자(CEO)가 AI 반도체 구축을 위해 전 세계를 돌아다니고 있다. 이것도 다 AGI 시대를 준비하기 위해서라고 본다. 기술적으로 준비는 차질 없이 되는 듯하다. AGI의 등장도 AI 특이점이라고 봐야 할까.

건국대 김두현 교수.

- 김두현 교수: AI의 특이점을 인간과 AI 기술의 축구 경기로 비유할 수 있다. 지금은 전반전이다. 경기 시작부터 인간이 이기고 있어서 현재 1:0 정도로 진행 중이다. 전반전 끝나는 시점이 되면 1:1 정도가 되지 않을까 싶다. 현재 범용 AI든 특화용 AI든 무엇이 더 잘하냐를 볼 때, 아직은 인간이 잘하는 게 좀 더 많다. 다만 AI가 많은 영역에서 인간 능력을 따라잡을 것이다. 그래서 전반전은 1:1로 끝날 가능성이 높다.

관건은 후반전이다. 후반전 중반쯤 AI가 인간을 따라잡아서 2:1 정도 될 수 있을 것 같다. 이 상태에서 10년 더 지날 경우, 3:1까지 격차가 벌어질 수 있다고 본다. AGI가 반드시 필요할까라는 의문이 든다. AGI를 만들어서 어디다 쓸 건지는 좀 고민을 해봐야 한다. AI가 오히려 산업적으로는 필요하지만, AGI가 우리 삶에 유용할까라는 점을 생각할 필요가 있다.

- 오정익 변호사: 누군가 '패널 중 누가 지능이 제일 뛰어날까'라고 묻는다면, 아무도 답할 수 없다. 어느 분야에 대한 지능으로 볼 것인가, 비교 기준점은 무엇인가에 따라 답은 다르다.

법무법인 원 오정익 변호사.

법률 분야에서 AI는 법률을 검색하고 판례를 요약하는 역할을 한다. 그 이상의 업무를 AI가 진행할 때 고려해야 할 점이 많다. 일반적으로 법조인은 어떤 행위에 대한 증거 가치를 판단하고, 그 증거를 재판에 어떻게 적용할지 생각한다. 이전 판례를 참고해 판단할 수는 있지만, 어려운 작업이다. 판결문을 작성하기 전 필요한 모든 것들을 완벽히 할 수 있는 AI는 아직 출현하기 어려울 것으로 보인다. 앞으로는 더 좋아질 거라는 생각은 든다.

- 김봉제 교수: 가치 판단이라는 말이 나왔는데, 논리성은 이미 AI가 인간 능력을 넘어섰다고 본다. 다만 AGI를 위한 AI 발달을 7단계로 나눠봤을 때, AI에서 AGI로 넘어가기 위해 필요한 건 도덕 판단·가치 판단 능력이다. 결국 일상생활에서 AI가 자신의 선택을 정당화할 수 있고, AI 판단력이 사회적으로 받아들일 수 있는 수준이어야 AI 특이점이 왔다고 할 수 있다.

서울교육대 김봉제 교수.

다음 세대를 위해 AGI는 필요하다고 본다. 교육 쪽에 있다 보니까 상상을 많이 한다. 아이들이 학교에서 집에 오면 부모가 없을 때가 있다. 그때 아이들은 AGI 시스템과 대화를 할 수 있다. AGI한테 학교에서 무슨 일이 있었고, 친구와 무얼 하며 놀았고 등등 이런 것 주제로 대화할 수 있다. 즉 AGI 시대에는 아이들이 일상 대화를 AGI와 자연스럽게 할 수 있을 것이다. 이러한 특이점을 확보한 AGI는 우리 세대가 아니라 다음 세대에게 당연한 게 아닐까 라는 생각이 든다.

- 오정익 변호사: EU의 AI법안을 보면, 복지서비스 공급을 위한 평가, 교육 우선순위 제공 등 사람에 대한 가치 판단을 하는 AI는 '금지된 AI'로 분류됐다. 인간 심사자가 서류를 통해 종합적으로 판단하고, 사회적인 가치를 반영해 평가할 순 있지만 이를 AI로 해선 안 된다는 게 EU의 AI법안이다. 이미 EU는 이러한 가치 판단을 AI에 맡기지 않는 기조로 갈 전망이다. 인간으로서 할 수 있는 분야 몇 분야가 벌써 AI를 금지하고 있는 것이라 할 수 있다. AI가 할 수 있는 영역이 너무 많다.

앞으로 사람은 AI를 어디까지 허용해야 할 것이고, 할 수 있어도 활용을 할 것인지 사회적 논의를 해야 할 것이다. 현재 이런 단계가 온 것 같다. 그런데 아무도 이 논의를 하고 있지 않다. 이러한 논의를 하지 않았을 경우 가장 먼저 피해를 보는 분야가 나올 것이다. EU는 AI법 관련 공청회를 현재까지 500회 이상 했다고 말하고 있다. 실제 자료도 많다. 정부뿐 아니 전 사회가 관련 논의를 해야 할 필요가 있다.

경희대 이경전 교수.

- 이경전 교수: AI는 그냥 사람이 이용하는 도구일 뿐이다. 인간과 도구의 대결이 아니라 이 도구를 갖고 있는 사람과 또 다른 도구를 갖고 있는 사람의 경기라고 본다. AI는 그냥 인간이 만든 기계다. 소유권도 인간에게 있다.

기업들이 계속 경쟁하면서 AI 서비스를 팔고 있는 추세다. 서비스를 판다는 건 누구의 소유권을 이전한다는 의미다. 사용권을 이전하거나 재산권을 이전하는 건데, 그러다 보면 결국은 얀 르쿤 메타 AI수석과학자가 얘기하는 것처럼 결국은 수천만의 사람이 저마다 다른 AI를 가지게 될 것이다. AI의 특이점이라든지 AGI 시대 등은 수학적으로 정확히 논의할 수 없는 주제다. 이 시대가 온다 안 온다라고 이야기하면 혼란만 가중된다. 인간이 능력 없어서가 아니라 수학적으로 정의가 되지 못하기 때문이다.

상명대 이청호 교수.

- 이청호 교수: AI가 일반지능이냐, 초지능이냐 이런 기준으로 이야기하기보다는 얼마나 인간의 삶에 영향을 미치고, 사람이 AI에 얼마나 의존하고 얼마큼 활용하는지 생각하는 게 더 중요할 것으로 본다. AI를 어떤 분야에 적용하고, 이를 어느 정도로 개발해야 하는지에 대한 선택과 집중 문제가 계속 생길 것으로 전망한다. 이런 측면에서 AI 특이점을 논하는 것도 중요할 수 있지만, 어떻게 사람이 AI를 잘 활용하고 통제, 관리해서 기술과 공존할 수 있을까의 문제에 좀 더 초점을 맞추는 게 좋다고 본다.

"정부, AI 안전성·윤리 세분화 기준 마련해야개발자도 논의에 참여해야"

사회를 맡은 김동환 포티투마루 대표는 최근 AI 안전성에 대한 중요도가 커졌다고 말했다.

- 사회: 다음 주제는 'AI 안전성'이다. 지난해 11월 영국서 열린 'AI 안전 회의'에서 각국 정상들이 AI 안전성을 이야기했다. 이에 대한 연장선상으로 올해 5월 서울에서 이 행사가 열린다. 그만큼 AI 안전성에 대한 중요도가 커졌다. 최근 AI 안전성이 중요하니까 AI 법제화를 해야 한다는 목소리도 커지고 있다. 반면 사람이 기술 발전을 막을 수 없으니 이에 대한 자율성과 보완책을 마련해야 한다는 의견도 나오는 모양새다. 현재 AI 안전성 현주소와 개선해야 할 점은 무엇일까.

오정익 변호사는 법률 분야에 AI가 들어가려면 범용 기능을 충분히 갖춘 후, 여기에 법률 내용을 덧입히는 방식으로 가야한다고 주장했다.

- 오정익 변호사: 지난해 12월 캐나다가 '법원의 AI 이용 원칙 및 지침'을 발표했다. 같은 달 영국도 '법관의 AI 이용 지침'을 내놨다. 캐나다에서 소송 과정 중 법조인이 AI를 사용해 생성한 문서에는 맨 앞에다 '이 문서는 AI로 생성한 문서다'고 표시하도록 의무화했다. 법원이 AI를 이용할 때는 특정 원칙을 준수하고 공표해야 한다. AI의 위법성 파악, 투명성 등을 준수하라는 것이다. 영국 지침도 마찬가지다. 법관이 확인되지 않은 법률 정보를 검색할 때는 AI를 이용한 검색을 자제하라는 내용이다. 이미 알고 있는 법률 문서를 찾을 때는 괜찮지만, 자기가 알 수 없는 걸 검색할 때는 문제가 될 수 있기 때문이다.

법률 분야는 인간의 권리 의무 관계에 중요한 영향을 미친다. 현재 팩트를 100% 확인할 수 없는 상황에서 AI를 쓰는 게 위험하다라는 것이 기저에 깔려 있다. 캐나다는 한국보다 훨씬 AI 활성화가 빨라서 그런지 이러한 이야기들이 자주 나온다. 법률 분야에 AI가 들어가려면 범용 기능을 충분히 갖춘 후, 여기에 법률 내용을 덧입혀야 한다고 본다. 사법 분야에서는 AI의 안정성뿐 아니라 투명성, 편향성을 포함한 넓은 의미의 신뢰성에 관한 부분을 중요하게 봐야 한다.

다만 AI의 기능을 기술적으로 어떻게 검증할 것인가의 문제는 아직 논의되고 있지 않다. 기술적으로 AI를 어떻게 평가할 것인지, AI가 어느 정도 안전한지, 사법 분야에서는 얼마나 AI를 안전하게 활용할 수 있을까에 대한 평가가 이뤄지고 있지 않다. 기업이 전혀 관심 두지 않는 분야다. 기업 입장에서 이러한 검증이 이뤄지는 순간 부담으로 작용하기 때문이다. 따라서 국가는 이러한 검증 기준을 마련하고 안내해야 한다. AI 개발이 잘못된 방향으로 가지 않도록 해야 한다.


다만 AI 법제화는 서두르면 안 되는 것 같다. 법제화가 한번 굳어지면 오히려 규율로 작용할 가능성이 높다. 국내 AI 기업은 한국만 시장으로 보지 않는다. 한국형 법제화 구조를 만들면, 오히려 그 규제를 받지 않은 외국 기업이 국내에서 상대적으로 발전할 수밖에 없다. 따라서 정부는 법적 효력은 없지만 안내를 해줄 수 있는 가이드라인 수준으로 방향성을 보면서 AI 법을 만드는 게 맞을 것으로 본다.

- 사회: 기술 관점에서는 AI 안전성을 어떻게 보나. AI 기술이 사회에 부작용을 주더라도 개발자는 이를 지속적으로 개뱔해야 할까.

김진형 교수는 AI 안전성을 위해 규제가 좀 강해도 괜찮다고 말했다.

- 김진형 교수: AI 제품 안전을 위해 규제가 좀 강해도 문제없다고 본다. 아무래도 AI가 널리 많이 쓰이다 보니 잘못 활용될 가능성이 높다. 완전하지 않은 기술을 현장에 갖고 나오는 걸 철저하게 막아야 한다. 현재 자율주행차가 100% 안전하지 않기 때문에 길거리 못 다니게 하는 것과 같다. 엔지니어 역할도 중요하다. 제품이 안전하지 않으면 안전하지 않다고 알려야 한다. 이는 엔지니어의 사명이다.

- 김두현 교수: 규제에 대한 표준이 필요하다. 공신력 있는 기관에서 해당 표준을 정해줘야 한다. 그래야 기술이 투명해진다. 기술이 투명해야 소비자들이 안전한 선에서 기술을 자율적으로 활용할 수 있다. 그런 면에서 오픈소스가 중요한 역할을 할 수 있다. 무언가를 오픈소스로 개방하면 많은 개발자나 관계자들이 그 내용을 사전에 검증할 수 있다. 이런 방식처럼 규제도 동일하게 생각해 보는 것도 좋겠다.

- 김봉제 교수: 규제가 세분될 필요도 있다. 그래야 개발자들이 AI 안전성을 구체적으로 검증하고, 윤리학자들이 AI 안전성을 윤리적 측면에서 집중적으로 검증할 수 있다. 안전성을 보장하면서도 기술 개발을 할 수 있는 환경을 조성하는 셈이다. 일단 기술 개발은 이어져야 한다. 그러나 안전성과 관련해서는 국가 수준에서 판단할 수 있는 기준 등을 구체화해서 AI 기능별로 맞춰야 한다.


- 김진형 교수: 제품의 문제점은 그걸 만든 사람이 제일 잘 안다. 현재 대기업들은 내부적으로 AI 제조 과정이 체계화됐다. 어느 부분에서 기술 중간 점검을 하고 검토해야 하는지 다 정해져 있다. 이런 식의 접근법이 우리가 가야 할 방향이라고 본다.

현재 AI가 예상치 못한 어떤 큰 위해를 사람에게 끼쳤을 때 누가 책임져야 하냐는 논쟁도 있다. 개인적으로 AI를 만든 사람이 책임져야 한다고 본다. 따라서 엔지니어로서 아니면 제품을 파는 사업가로서 자기 기술과 제품이 사회에 끼칠 해악을 늘 생각하고 고민해야 한다.

- 오정익 변호사: 사실 AI가 주목받는 이유는 기존과 다른 기술이라는 점 때문이다. AI 안전성이 무엇인가 논의하는 게 중요해졌다. 기술 수준은 높아졌는데, 오히려 철학적인 문제가 더 중요한 시대가 돼버렸다. 지금까지는 법이 정해지거나, 기술 위험성이 알려졌으니까 모두 그러려니 하며 살았다. 그러나 AI는 너무 방대한 영역에 들어설 수 있다보니 모든 사회적 논의와 다 연관됐다. 안전성을 늘 논의해야 한다.

인문학자, 철학자뿐 아니라 개발자들도 머리를 맞대고 AI 안전성 논의를 해야 한다.(사진=이미지투데이)

앞으로 인문학자, 철학자뿐 아니라 개발자들도 머리를 맞대고 AI 안전성 논의를 해야 한다. 안타까운 건 이 기술이 워낙 빠르게 발전하고 있다는 것이다. 아무래도 시장성이 중요할 수밖에 없다. 이런 상황에서 엔지니어들이 더 깊숙하게 안전성에 대해 생각해야 한다.

현재 산업계에 AI 법제 정비를 하는 종사자들이 있긴 하다. 그러나 이들은 법을 잘 모른다. AI에 대해 잘 모르는 사람들이 규제를 만드는 상황이 온 것이다. 그럼 나중에 '뭐 이런 얼토당토않은 법이 있어'라는 목소리가 커질 수 있다. 신기술일수록 개발자가 적극적으로 들어와서 법 제도에 개입해야 한다. 논의가 산으로 가지 않도록 해야 한다는 것이다. 옛날처럼 뒷짐 지고 있으면 탁상공론에 그칠 수 있다.

김봉제 교수는 AI 안전성은 교육 관점에서도 중요하다고 강조했다.

- 김봉제 교수: AI 안전성은 교육 관점에서도 중요하다. 조금 다른 의견을 제시하겠다. 구글 챗봇 제미나이, 오픈AI 챗GPT, 네이버 클로바X에게 동일한 딜레마 상황을 줬었다. 어떤 갈등 상황을 준 다음, 이에 어떻게 대처해야 할까라는 식의 질문이었다. 이때 AI에 필요한 건 도덕적 판단력이었다. 그랬더니 제미나이와 챗GPT는 답 자체를 안 했다. 클로바X만 답했다. 보통 윤리적으로 도덕적 판단력을 검증할 수 있는 단계가 있는데, 예를 들어 1단계부터 5단계까지 있다고 쳤을 때, 클로바X는 4단계 수준으로 답을 했다.

이게 오히려 문제가 된다. 2단계 수준의 지능을 가진 어린이에게 클로바X가 4단계로 답을 하면 안 된다. 아이들 발달 단계에 좋지 않다. 대답 자체가 아이한테 자괴감을 줄 수 있다. 챗봇이 아이 수준을 뛰어넘는 생각을 하기 때문이다. 챗봇은 2단계 아이에게 3단계에 맞는 답을 주거나, 2단계 정도의 안정적인 답을 주면서 반응해 줘야 한다. 일반적인 답을 주면 성인이 볼 때는 문제 없지만, 교육 전문가가 시각에서, 이는 어린이 발달장애에 상당한 해를 끼칠 수 있을 거라고 본다.

- 이경전 교수: 예전 AI 챗봇 '이루다'가 나왔을 때, 이루다에게 성적인 발언을 하는 사람들은 큰 비난을 받았다. 사실 그 사람은 법적으로 아무 잘못 없다. 이루다는 기계이기 때문에 이를 성희롱으로 인지하지 못한다.

현재 오픈AI의 챗GPT 웹 버전 하단을 보면 '챗GPT는 기계이므로 실수를 할 수 있다'고 명시돼 있다. 매우 적절한 조치라고 본다. 계속 이를 알려야 사람들이 잘못 생각하지 않는다. 챗봇은 사람이 아니라 기계라는 개념을 계속 알려야 한다.

이경전 교수는 도구 이용 방식, 사적인 도구 활용 등에 윤리적 잣대를 들이대는 것이 오히려 비윤리적이라고 했다.

또 다른 예시도 있다. 예전 한 정치인이 로봇 개를 발로 찬 적이 있다. 사람들이 그를 비난했다. 개가 불쌍하다는 이유에서다. 사실 그 정치인은 로봇 개가 어떤 자극에도 문제없다는 걸 보여주기 위한 퍼포먼스를 한 것이다. 로봇 개는 고통을 못 느낀다. 그런데 사람들은 공감 능력이 있기 때문에, 개가 차인 것에 대해 아픔을 느꼈다. 여기서 윤리적 판단을 기대하는 건 착각이라고 본다.

만약 그 정치인이 로봇 개 소유권자의 허락을 받았다면 그 개를 차면서 기능 테스트를 해도 된다. 로봇에 손상을 입혔을 경우 금전적 보상을 하면 된다. 윤리상 아무 문제는 없다. 개인의 사생활이나 개인의 도구 이용 방식, 개인의 사적인 사용이라는 것에 윤리적 잣대를 들이대는 것은 오히려 더 비윤리적이라고 본다.

- 이청호 교수: 로봇 개를 학대하는 것은 직접적으로 인간에게 나쁜 영향을 끼치지 않는다. 그러나 칸트 이론에 따르면, 이는 잠재적으로 나쁜 영향을 끼칠 수 있다. 현재 칸트가 존재했다면 한 정치인이 로봇 개를 차는 모습을 보고 이와 같이 발언했을 것 같다.

- 오정익 변호사: 어느 부분을 윤리로 바라볼 것인가가 중요하다. 철학적인 문제와 사회적으로 어느 부분까지 허용할 것인가의 윤리는 또 다른 문제라고 본다. 내가 로봇 소유자로서 누군가가 내 로봇을 발로 찼을 때 비난할 권리는 있다. 그러나 사회적으로 용납 안 되는 윤리는 또 다른 문제인 것 같다. 접근 방법이 다르다.

이루다를 예시로 들면, 사람이 이루다에 성희롱 발언을 하는 행위 자체는 자유로울 수 있고 윤리적 문제도 없을 수 있다. 그러나 본인이 피폐해지는 걸 법적으로 강제할 수 없다. 자살하는 것도 법률적으로 금지할 수 없지만 본인이 자살하는 건 범죄가 아니다. 어떤 지점에서 보면 윤리의 사회적 합의가 필요한 시점이라 할 수 있다.

최근 EU의회가 AI법 최종안을 통과시켰다. (사진=이미지투데이)

- 김봉제 교수: '피폐해진다'는 그 표현 자체가 일단 답을 좀 갖고 있다고 생각한다. 로봇 개를 때리고, 이루다에게만 성적인 발언을 하면서 혼자 살면 상관없다. 그런데 결국 피폐해진 마음을 갖고 사회 속에 나와서 관계하고 살면 그 피폐한 영향력이 자기에게만 한정되지 않고 타인에게 잠재적으로 간다. 그런 부분 때문에 윤리성 고려를 해야 한다.

- 이경전 교수: 지난해 AI 안전성 회의는 나름대로 의미 있다고 볼 수 있다. 중국까지 이 행사에 와서 프론티어AI 합의를 했다는 점에서 주목할 만하다.

- 김진형 교수: EU의 AI법은 AI에 대한 리스크 레벨을 개념화한 건 주목할 만하다. 이런 점에서 AI 안전성 회의는 합리적인 생각을 나눌 수 있던 자리였다. 무조건 AI는 다 위험하다는 논리는 더 이상 통하지 않는 시대가 왔다. 예를 들어, 누군가가 'AI를 통제합시다'고 했을 때, '어떤 AI를 이야기하는 것이냐'고 구체적으로 나가야 한다.

- 이경전 교수: 프랑스 정부는 EU의 AI법의 강력한 규제에 다소 회의적이다. 자국 기업 미스트랄AI의 미스트랄이 높은 퍼포먼스를 보이니까, 프랑스가 AI 규제론에 가까웠다가 이제 개방적으로 바뀌고 있다는 말이 나오고 있다. 중국도 지난해 입법 공약을 보면 처음에 굉장히 강했다. 현재 미국과의 경쟁을 위해서 중국 내부 법률도 많이 완화된 상황에 있는 것 같다.

- 김진형 교수: 부끄럽지만, 한국 AI 기술이 선두는 아니다. 더 강하게 AI를 쓰는 나라들이 어떤 문제를 겪고 있는지를 잘 들여다보고 이를 규제에 반영하는 것도 좋은 전략이 아닐까 싶다.

"국내 AI법, 좀 늦어도 된다…한국 체질에 맞게 만들어야"

- 사회: 최근 소버린AI와 AI주권에 대한 이야기가 지속적으로 나오고 있다. 독자적인 LLM을 보유하고 있느냐 아니냐가, 핵무기를 보유하고 있느냐, 아니냐와 직결된다는 말도 심심찮게 나온다. 현실적으로 한국 기업은 해외 빅테크에 비해 열악하다. 이런 상황에서 한국 정부나 기업들은 AI 패권을 쥐기 위해 어떻게 접근해야 할까.

이청호 교수는 AI가 국력과 직결될 수 있는 가장 중요한 산업 분야로 부상하고 있다고 말했다.

- 이청호 교수: 스탠퍼드대의 휴먼 센터드 인덱스에서 제시한 AI 인덱스를 보면 2016년에는 AI와 관련된 법안이 하나밖에 없었다. 2022년 37개로 늘었다. 전 세계적으로 AI 분야는 국력과 직결될 수 있는 가장 중요한 산업 분야로 부상하고 있다는 것은 부인할 수 없는 사실이다. 현재 우리 정부가 AI 가이드라인에 대해 큰 신경을 쓰지 않다가 뒤늦게 전면적으로 나서고 있는 듯하다.

전 세계적으로 AI 전쟁은 예전부터 시작됐다. 현재 더 가시화되고 있다. 이런 상황에서 우리는 AI 기술뿐 아니라 법에서도 선두 주자는 아니다. 미국이나 중국, 아니면 캐나다 이런 나라들이 AI 기술에 있어서 선두 주자라고 한다면 우린 후발주자로서 좀 느리더라도 안전하게 가야 한다. 선두 주자들이 어떻게 기술 개발하는지를 파악해야 하고 우리나라 체질에 맞게 따라가는 것을 정하는 것도 좋은 전략이다.

- 사회: 최근 일본은 원천 기술 개발보다는 서비스 모델 개발하는 데 집중하겠다고 밝혔다. 국가 차원에서는 아예 그냥 선언처럼 해버린 상황이다. 우리도 비슷한 상황인 것 같다. 원천 기술 쪽에 조금 더 투자하고 집중해서 갈 거냐, 아니면 활용하는 쪽으로 갈 거냐 그런 부분들에 대한 현실적인 고민이 있는 듯하다.

이경전 교수는 국내 스타트업에서도 수준 높은 개발사가 나와야 한다고 봤다.

- 이경전 교수: 일본 사례를 비춰보면, 초거대 AI 모델 만드는 기술 자체가 일상품화(Commodity화) 될 것으로 본다. 앞으로 기업은 투트랙 전략으로 가야 한다. 초거대 AI 기술을 개발하는 것과 초거대 AI를 잘 사용해서 서비스를 만드는 것이다.

아쉬운 점은 한국 정부가 LLM 보유 기업으로 네이버, LG AI연구원, KT 등만 언급하고 있는데, 스타트업에서도 수준 높은 개발사가 나와야 한다고 본다. 정부가 스타트업 자금 대주는 대기업에 인센티브를 주는 방식도 좋다. 지금도 정부가 국내 벤처기업에 돈을 내는 거나 마찬가지다. 이런 정책적 노력이 필요하다.

"고품질 데이터 절실...네이버, 오픈AI처럼 공격적 사업 해야"

김두현 교수는 AI 주권을 국가적 자립으로 봤다.

- 김두현 교수: AI 주권은 자립을 의미하는 것 같다. 자립은 기술적 자립과 산업적 자립으로 이뤄졌다. 기술 자립은 이경전 교수가 언급한 투트랙 전략이라 할 수 있다.

다만 산업적 자립에 있어서 과연 우리나라가 탄탄하게 자립이 가능할지 생각해 봐야 한다. 몇 개의 대기업이 앞서가고 있지만, 대기업이 대부분의 트래픽을 갖는 구조로 가는 것보단 후발주자들 중소기업에게도 뭔가 햇빛이 들 수 있는 정책 요소들이 필요해 보인다.

김진형 교수는 정부가 기초과학에 투자해야 한다고 주장했다.

- 김진형 교수: 이경전 교수가 언급한 투트랙 전략이 맞다고 본다. 그렇게 가야 한다. AI는 상당히 많은 부분이 아직도 과학이다. 그래서 지금 어떤 방법론이 언제 새롭게 또 튀어나올지 모른다. 과학적인 획기적 변화가 AI에서 나오지 않고, 다른 쪽에서 나올 거라고 본다. 컴파일러 기술일 수도 있고, 컴퓨터 아키텍처 기술일 수도 있다.

과학적 투자가 우선이다. 특히 기초과학에 투자해야 한다. AI는 기초과학 요소가 많으면서도 산업적 효과도 크다. 그런 식으로 기초 연구 수업도 대학에서 많이 가르쳐야 한다. 현재 기초과학을 연구하는 연구원이 많지 않지만, 각각 역량을 보면 글로벌에서 높은 수준의 연구를 하고 있다. 연구원 인력을 좀 늘릴 수 있는 방법에 대해 고민을 해야 한다.

정부는 AI 발전 환경을 만들어야 한다. 지금 정부가 나서서 세금 들여가며 정부형 LLM 만든다고 발표했다. 할 필요 없다. 그냥 가만히 있으면 된다. 현재 네이버가 열심히 한다니까 지켜보면 되는 것이다. 혹시 네이버가 무슨 규제 때문에 일을 못하면, 정부가 그때 도우면 된다. 지금은 기업이 잘하는 걸 지켜볼 때다.

- 사회: 최근 오픈소스 필요성에 대해서 강하게 얘기하는 목소리가 나오고 있다.

- 김두현 교수: 그렇다. 오픈소스 모델이 쏟아지고 있다. 그런데 품질 입증은 쉽지 않다. 오픈소스 모델의 공개 여부도 하나의 이슈지만, 또 하나는 공개된 것의 품질에 대한 검증이 있어야 한다. 그래야 기업이 오픈소스를 마음껏 쓸 수 있다. 이를 위해 정부가 좀 해야되는 게 있지 않을까 생각이 든다.

오픈소스 모델을 어떻게 만들어 낼지도 관건이다. 사실 메타에서 오픈소스를 내지만, 과연 계속 공개되는 오픈소스 모델들이 오픈AI의 GPT-4나 향후 GPT-5를 쫓아갈 수 있을지 의문이다. 어느 순간 비공개 모델을 넘어서는 오픈소스가 나올 것인가도 중요한 이슈다. 설령 그렇지 않더라도 거기에 버금가는 오픈소스를 누군가가 만들어내야 한다. 다만 특정 기업만 오픈소스를 만드는 것은 좋지 않을 것 같다. 국제적 연대, 산업 연대가 필요하다.

오픈소스 개념은 참 좋다. 근데 그걸 만들어내려면 어딘가에서 훈련을 시켜야 한다. 그 인프라 비용을 과연 누가 낼 것인지도 정해야 한다. 고민거리다. 오픈소스에 대해서 정말 애착을 갖고 있는 기업들이 공동체를 만들어 이를 해결할 수 있다. 물론 실현 가능성도 지켜봐야 한다.

김봉제 교수는 고품질 데이터가 절실한 상황이라고 말했다.

- 김봉제 교수: 우선 의미 있는 데이터를 획득할 수 있는 구조를 만들어야 한다. 2021년에 정부도 데이터 구축 사업을 활발히 진행했다. 관련 사업을 여러개 맡기도 했다. 당시 데이터 수준이 너무 낮았다. 비용을 많이 들여서 사업을 했는데도 결과물이 좋지 않았다. 정말 의미 있고 깨끗한 데이터를 확보해야 한다는 걸 느꼈다.

- 김두현 교수: 정부가 고품질의 오픈소스 구축을 위해 예산을 투입하는 건 쉽지 않을 것이다. 정제된 데이터를 갖고 있는 기업들이 함께 모여서 파운데이션 모델을 같이 만들고, 이걸 오픈소스 모델로 만드는 시스템을 구축해야 효과적일지 않을까 생각 든다.

- 이경전 교수: '한국 AI 스타트업 100'에서 스타트업 선정하는 일을 최근 3년간 진행했다. 당시 기업들에게 정부가 어떤 정책을 펼쳤으면 좋을지 물어봤다. 그중 하나가 데이터 사업의 비효율성이었다. 정부가 공공 데이터를 많이 만들라고 사업을 지원했지만, 정작 기업은 가장 품질 낮은 데이터를 납품했다. 이를 활용한 기업들도 좋지 않은 결과를 얻었다. 당연한 이치라고 본다. 정부에 납품하는 순간 모든 사람이 해당 데이터를 공유해서 쓰기 때문이다. 데이터 가치는 떨어질 수밖에 없다. 기업은 정부 기준에 맞을 정도의 데이터만 납품하고, 좋은 데이터는 별도로 가질 수밖에 없다. 선해 보이는 정책이지만 결과는 반대였다.

결국 연합학습 방법론이 중요한 이유다. 현재 초거대 AI에는 세 가지 이유 때문에 버틀낵(병목 현상)이 일어난다. 데이터 버틀낵, 모델 사이즈 버틀낵, 컴퓨터 처리 용량의 버틀낵이다. LLM의 오토리그레시브 방법론은 결국 어떤 새로운 돌파구가 있지 않으면 성능의 한계에 빠질 것이다. 그 성능의 한계에 빠지면 결국 오픈소스 모델이 쫓아올 것이다. 결국 오픈소스 모델이 다 따라잡을 것이다. 그게 무서우니까 지금 오픈AI도 GPTs 만들고 여러 모델을 출시해서 네트워크 효과를 일으리켜고 한다.

사실 네이버의 진심을 믿지 않는다. 네이버가 소버린AI를 내세운다면, 네이버가 오픈AI처럼 공격적인 사업을 해야 한다. 사실 '하이퍼클로바X'가 눈에 안 띈다. 모바일 애플리케이션도 없다. 네이버 홈페이지 가면 하이퍼클로바X를 손쉽게 보기 힘들다. 한국 국민들이 하이퍼클로바X를 활발하게 쓸까 봐 겁을 내는 것 같다

관련기사

좌담회 참석자들이 AI 안전성과 윤리, 법안 등에 대해 토론하고 있다.

네이버는 기업소비자간거래(B2C)가 아닌 기업간거래(B2B)에만 진심이다. 그래서 자꾸 정부 관계자나 의사 결정권자들한테만 국산을 쓰라고 강조한다. 국산 애용 운동만 하고 있다. 진짜 시장을 잡으려면 소비자들이 자신의 제품을 쓰게 해야 한다. 이와 반대로 네이버 홈페이지에도 잘 안 보이고, 모바일 앱도 없다. 다만 일본에서 라인을 출시하고, 일본에서 상장시킨 점은 높이 살 만하다.

- 김진형 교수: 소버린AI나 AI 주권을 위해 범용 LLM을 무조건 우리 것으로 만들어야 되겠다고 하는 것에 동의하고 싶지 않다. 특정 분야에 대한 LLM은 전 세계에서 한국 기업이 제일 잘한다는 인상이 더 필요하다. 여기서 생기는 데이터를 어떻게 하면 전세계에 잘 공유할 수 있을까라는 고민도 정부 차원에서 해줘야 한다고 본다. 정부는 이러한 환경을 조성하는 역할을 해야지, 개입하는 게 아니다.