3월22일에 쓴 칼럼 ‘오픈AI CEO의 GPT 경계령은 상술이 아니다’에서 나는 창조주 이야기를 꺼냈다. 천지 창조설(天地創造說)을 신뢰하지는 않지만, 창조주가 인간까지 만든 것이라면, 인간을 만들어놓고 어떤 생각이 들었을까, 하는 상상에 대해서 말이다. 창조주가 보기에 인간은 거의 완벽에 가까운 최고의 걸작일 수도 있고, 고집스럽고 오만한 통제 불능의 실패작일 수도 있다. 그 얘길 이어가보자.
챗GPT를 만든 오픈AI CEO인 샘 알트먼이 기회 있을 때마다 “챗GPT가 두렵다”고 한 데는 진정성이 있다고 보았다.
챗GPT의 능력은 어쩌면 그의 예상을 뛰어넘었을 수 있고, 그럼에도 불구하고 사람들이 이를 어떻게 이용할지(꼭 선의로만 사용할지)에 대해 전혀 예측할 수 없다는 게 두려움의 요체였을 것으로 생각된다. 또 챗GPT가 진짜로 ‘자의식’을 갖는다면 어떻게 할지도 걱정이었을 것이다.
챗GPT를 만든 것은 그였지만 그 또한 챗GPT와 그 후속 서비스가 어디까지 어떻게 발전할지 알지 못한다는 사실을 고백한 셈이다. 더 큰 걱정은 챗GPT만 세상에 있는 게 아니라는 사실이다. 창조주를 닮아 ‘창조의 화신’이 된 인류는 AI 개발에 나선지 수십 년 만에 마침내 자신을 닮은 존재를 내놓기 일보직전에 와 있다. 만들어놓고 보니 그 제작자마저 위의 창조주와 같은 고민에 빠진 것이다.
상황이 그렇다 해도 일론 머스크 테슬라 CEO를 비롯해 세계적인 IT 기업인과 전문가 다수가 최첨단 인공지능(AI) 시스템 개발을 일시중단하자는 서한에 서명했다는 뉴스는 실소를 금치 못하게 한다. 이중 일부는 서명한 일이 없다고 반박하는 등 가짜 서명 논란이 인 것도 촌극이지만, 머스크가 오픈AI 지분을 판 것이 “개발 속도가 더디다”고 판단했기 때문이라는 폭로가 나와 꼴이 더 우스워졌다.
서한 내용도 그렇다. ‘모든 AI 연구소에 GPT-4보다 더 강력한 AI 개발을 최소 6개월간 중단할 것을 요청한다’는 것이다. 실현될 수 없는 이야기다. GPT-4가 지금 어떤 수준이고 이보다 더 강력하다는 것은 또 어떻게 입증할 것인가. 왜 GPT-4가 기준이 되어야 하며, 최소 6개월이란 숫자는 어떻게 해서 나온 것인가. 이런 질문에 서한을 작성한 주체들과 서명한 사람들은 과연 대답이 가능한 걸까.
샘 알트먼의 고백처럼 AI가 언제 어디까지 발전할지 누구도 정확히 예측할 수 없는 건 사실인 듯하다. 미래를 예측할 수 없기에 AI가 인간을 지배하는 디스토피아를 상상하며 두려워 할 수 있다는 점도 충분히 이해한다. 하지만 그렇다고 해서 강제로 기술의 진보를 늦추자는 주장은 동의하기 어렵다. 현실적으로 가능하지 않는 이야기인데다 그렇게 해야 할 명분도 약하다. 설득적인 주장이 아닌 거다.
AI에 대한 두려움은 따지고 보면 기술에 대한 두려움이 아니다. 인간에 대한 두려움이 본질이다. 특히 ‘내가 아닌 너’라는 다른 인간에 대한 두려움이라고 할 수 있다. 핵 그 자체가 두려운 게 아니라 적(敵)이 핵을 갖는 게 두려운 것과 비슷한 이치다. 실제로 할 수 있다면 모든 나라가 핵을 가지려 하지 않는가. AI 또한 기술 개발에 뒤처지면 미래가 불투명하다는 게 모두의 본심이 아니겠는가.
AI에 대한 미래 논의의 출발점은 바로 이 지점이어야 한다. 우리가 진짜 논해야 할 것은 ‘AI 기술의 안정성’이라기보다, 밥을 얻기 위한 노동의 방식이 완전히 바뀐다는 사실과 그 노동을 위한 학습의 길도 완전히 달라진다는 사실이 인간 존재와 사회 사이의 관계를 어떻게 재구성할 것인지의 문제다. 진짜 두려운 건 그나마 있던 작은 밥그릇마저 누군가에게 뺏기지 않을까 하는 실존의 문제이다.
AI를 악용하는 자들도 있을 것이다. 그 문제는 그러나 생각만큼 어렵지 않다. 악에 대해서는 비교적 동의가 쉽고 그래서 제도를 만들기도 쉽다. 악이 있으면 제도를 만들어 응징하면 된다. 악용보다 더 큰 문제는 선용이다. AI를 개발하는 이유는 인간의 노동을 대체하면서도 생산성을 높이기 위함이다. 문제가 복잡해지는 것은 높아진 생산성을 분배할 때다. 모두가 걱정하는 것은 바로 이 문제다.
관련기사
- 챗GPT 시대의 노동은 수행이라기보다 지시다2023.03.30
- 챗GPT 시대에도 ‘롱테일의 법칙’이 통할까2023.03.28
- 오픈AI CEO의 GPT 경계령은 상술이 아니다2023.03.22
- 프롬프트 엔지니어링은 직업이라기보다 역량이다2023.03.16
챗GPT를 차단하는 나라들을 보라. 중국과 러시아 그리고 새롭게 합류한 이탈리아. 그리고 이탈리아와 행보를 같이 하려는 유럽 국가들. 챗GPT에 맞서 자국의 초거대 AI를 개발하려는 곳이나 아예 시도조차 하지 않는 나라들이다. 무엇을 의미하는가. 이것이 곧 미래 패권이 될 수 있다고 보기 때문 아니겠는가. 노동이 배제된 채 높아진 생산성의 혜택을 같이 누릴 수 없다면 끔찍한 일이 될 수 있다.
‘AI 디스토피아’는 자의식을 가진 ‘강한 AI'가 나타나 인간을 지배하는 형태보다 노동이 배제된 채 높아진 사회적 생산성을 제대로 처리하지 못할 때 일어날 가능성이 크다. AI가 사무실의 책상 수를 줄이고 공장 라인을 무인화한다면 이제 어떻게 할 것인가. 기꺼이 일자리를 나눌 준비를 할 수 있겠는가. 주 4일 근무 시대가 성큼성큼 오고 있고 그게 시대정신이라는 데 기꺼이 동의할 수 있겠는가.