챗GPT를 개발한 오픈AI의 샘 알트먼 대표가 9일 방한한다고 한다. 이번 방한은 그가 인공지능(AI)의 건전한 발전을 위해 세계 각국과 논의하고 싶다는 취지를 밝히고 나선 순방길의 일환이다. 우리나라에서는 중소벤처기업부가 초청한 듯하다. 국내 스타트업과의 간담회 등의 일정이 있는 것으로 알려졌다. 그의 방한이 국내 AI 산업의 발전과 정책 재정립의 계기가 되기를 바라는 마음이 크다.
알트먼의 방한은 그러나 AI 개발에 관한 규제 차원에서도 주목될 듯하다. 그의 세계 순방의 목적이 AI 규제에 관해 다 함께 논의하자는 데 있기 때문이다. 그는 일론 머스크 테슬라 CEO처럼 AI 개발 잠정 중단론까지 나아가지는 않았으나, AI가 위험할 수 있다는 점에서는 챗GPT를 출시할 당시부터 경고해온 바 있다. 특히 국제원자력기구(IAEA) 같은 세계 AI 규제기구를 만들자는 주장도 하였다.
샘 알트먼은 사실 독특한 기업가다. 자사 서비스와 상품을 내놓고 ‘불완전 판매’임을 스스로 고백했다고 볼 수 있기 때문이다. 세계 상품 역사에 이런 일이 있는 지 의아스러울 정도다. 자신들이 만들지 않아도 누군가 했을 것이기 때문에 일단 내놓기로 했다는 식의 이야기만으로는 궁금증이 다 가시지는 않는다. 그래서 만약 그와 대면한다면 묻지 않을 수 없는 질문을 일곱 가지 정도로 간추렸다.
가장 궁금한 점은 인간처럼 자의식을 가진 인공지능이 과연 나올 수 있는가의 문제다. 또 나올 수 있다면 언제쯤 가능할 것인가의 문제다. 나아가 결국 나온다면 인간과 인공지능의 관계는 어떻게 되느냐의 문제다. 챗GPT가 나오기 전까지만 해도 자의식을 가진 인공지능(이른바 강한 인공지능)은 먼 미래의 일로 간주됐다. 하지만 최근에는 그 가능성에 대한 디스토피아 담론이 확대돼가고 있다.
생각보다 가까운 미래에 ‘강한 인공지능’이 출현하고 인간이 그것에 지배당할 수도 있다는 말들이 퍼지고 있는 것이다. 이에 대해선 샘 알트먼 조차 정확히 예측할 수 없을 지도 모른다. 다만 그의 생각을 노골적으로 듣고는 싶다. 인간이 AI한테 지배당하는 디스토피아를 그냥 공상과학 소설로 읽으면 그만인 것인지, 그럴 가능성이 눈곱만큼이라도 있기에 적극 반대해야 하는 건지 가늠키 위해.
국제원자력기구(IAEA) 같은 세계 AI 규제기구를 만들자는 주장에 대한 질문도 있다. 이 제안의 요지는 인공지능을 핵(核)과 같은 인류 위협 요소로 보고 세계 기구가 각국을 감시하게 하자는 취지다. 알트먼의 기존 발언을 감안하면 특히 감시해야 할 국가는 전체주의 나라들인 것 같다. 그가 직접 특정 국가를 언급한 기억은 없지만 전체주의를 언급한 것으로 봐 러시아나 중국을 생각했던 것 같다.
IAEA가 러시아와 중국의 핵을 제대로 통제하고 있나. 잘 모르겠다. 아주 작은 나라인 북한마저도 사실상 핵 보유국이라 하지 않는가. 핵마저도 그런데 AI 개발을 국제기구가 통제하는 것이 사실상 가능한 일인지 묻고 싶다. 중국과 러시아가 과연 그 의견에 동의할지 의문스러운 것이다. 그렇다면 타깃이 잘 못된 것 아닌가. 그게 현실적이지 않다면 그런 제안을 한 진짜 이유가 무엇일지 궁금하다.
챗GPT가 거짓을 그럴 듯하게 꾸며내는 이른바 ‘환각(Hallucination) 현상’에 대한 질문도 있다. 너무 늦지 않은 시간에 개선이 가능한가. 그게 챗GPT의 불치병이라면 어떻게 해야 하는가. 챗GPT를 선거나 사이버공격 등에 악용할 가능성에 대한 질문도 있다. 개발 회사 입장에서 기술적으로 이를 어느 수준까지 방어할 수 있는가. 타인의 악용도 개발 회사에 대한 규제 이슈에 해당돼야만 하는가.
관련기사
- 정치인이 포털 뉴스 배치에 관여하려는 건가2023.05.24
- 포털 뉴스에서 조중동과 한경오를 뺄까요2023.05.23
- ‘실시간 검색’에 대한 ‘정치적 낙인’을 지우자2023.05.19
- ‘지역사회 간호’ 문제는 해결할 필요가 없는 건가2023.05.17
일자리에 관한 질문도 필요하다. AI가 일자리를 줄일 것인가, 늘릴 것인가. 만약 줄인다면 어떻게 대응해야 하나. 이 또한 알트먼에 답이 있을 리 없겠다. 다만 모두가 이 문제에 대해 더 관심을 기울여야 할 듯해 그의 목소리를 직접 듣고 싶은 것이다. 끝으로 오픈AI는 한국의 AI 기업들과 어떤 관계를 맺고 어떻게 협력할 것인지 듣고 싶다. 또 이미 협력하고 있는 곳이 있다면 그 사례도 알고 싶다.
위의 여섯 가지 질문은 층위가 다 다르다. 하지만 뭉뚱그려보면 AI의 위험성을 우려해 개발을 주저해야 하는 시점이냐, 그 반대로 더 나은 개발에 매진함으로써 우려되는 문제를 풀어나가야 하는 상황이냐의 선택으로 좁혀볼 수도 있다. 마지막 질문이 그것이다. 그 갈림길에 서 있다면 당신은 한국 정부와 기업에 어느 쪽을 권유할 것인가. 만약 후자라면 이때 규제론은 어떤 의미를 지니고 있는가.