요즘 신문 지면에서 가장 핫한 단어 중 하나가 AI다. 인공지능으로 번역하는 AI는 언론의 단골 메뉴다. AI에 대한 기술, 시장, 기업, 정책 이야기가 끊임없이 쏟아지고 있다. 업데이트 속도가 빨라 잠깐만 놓쳐도 뒤처진 느낌이 든다. AI가 뭔지 찬찬히 들여달 볼 틈도 없다.
'요즘 어른을 위한 최소한의 인공지능 이야기'는 인공지능에 관심은 많지만 잘 모르는 이들을 위한 인공지능 입문서다. 인공지능 기원부터 미래까지 친절히 설명한다. 책은 독자들이 접근하기 쉽게 질답 형식으로 구성됐다. 저자는 IT 분야 기자로 오래동안 일했고, 또 아이들 아빠ㅇ기도 하다. 기자로 일하면서 받은 질문과 아이들에게서 자주 받은 질문 약 30개를 엄선했다. 독자들은 평소 궁금했던 질문을 찾아 하나씩 궁금증을 풀어 가면 된다.
책은 크게 4장으로 이뤄져 있다. 1장은 인공지능에 관한 기본 지식을 알려 준다. 2장은 이런 인공지능을 어떻게 활용하면 좋을지, 인공지능이 우리 실생활에 어떤 변화를 가져올지 들려주고, 3장은 인공지능의 이면 즉, 인공지능의 문제점을 짚는다. 마지막 4장에서는 인공지능의 미래를 내다본다.
■ "생성형 인공지능은 ‘예측’할 뿐"
구체적으로 살펴보면, 1장에선 인공지능이 뭔지, 컴퓨터가 어떻게 만들어진 건지, 요즘 핫한 챗GPT와 생성형 AI는 뭔지, 얼마 전 세계 1위로 등극한 엔비디아란 회사는 어떤 곳인지 등 기본적인 궁금증을 풀어 준다. 2장에서는 인공지능을 공부에 어떻게 활용하면 좋을지, 그리고 인공지능으로 인해 직업 세계가 어떻게 바뀔지, 그에 맞춰 어떻게 준비하면 좋을지 등을 알려 준다. 저자는 영어를 비롯한 언어 공부에 챗GPT를 활용하면 좋고, 또 챗GPT 같은 생성형 인공지능은 기본적으로 인터넷에 쌓인 데이터를 학습하는 거니, 인공지능이 학습할 수 없는 직업들이 살아남을 것이라고 예측한다. 이의 대표적인게 돌봄노동자다.
인공지능은 갑자기 툭 튀어나온 기술이 아니다. 1956년 다트머스 회의 때 처음으로 AI라는 말이 사용됐다. 그때부터 현재까지 약 70년 가까이 지속돼온 기술이다. 최근의 생성형 인공지능이 인간을 대신할 것처럼 전 세계가 술렁거리지만, 저자는 생성형 인공지능은 예측에 능할 뿐이라고 지적한다. 인간이 만들어 낸 데이터를 학습한 후 그걸 토대로 적절한 다음 문장 혹은 이미지를 찾아낼 뿐이라는 것이다. 그러므로 인공지능 시대에는 인공지능이 배우지 못한 것을 생각해 내는 힘, 즉 창의력이 무엇보다 중요하고, 창의력을 계발하기 위해 어느 때보다 더 많이 공부해야 한다고 강조한다.
■ 환경 파괴, 인공지능 무기 등 해결해야 할 문제도 많아
인공지능 문제점을 짚은 3장에서는 먼저, 인공지능이 환경을 파괴할 수 있음을 우려한다. 현재 인공지능은 전기를 어마어마하게 쓰는데, 여전히 전기의 대부분을 화력발전에서 얻기 때문이다. 가장 우려스러운 점은, 인공지능은 인간이 만든 데이터를 학습하기 때문에 인간의 편향된 시각까지 학습했다는 것이다. 실제 인공지능이 생성한 것에 인종과 성 차별 등이 고스란히 반영돼 문제가 되기도 했다. 또 인공지능은 가짜뉴스도 뚝딱 만들어 낼 뿐 아니라 살상 무기에도 쓰일 수 있어 적절한 규제가 시급한 상황이다.
마지막 4장에서는 인공지능이 어떻게 발전해 갈지 예상했다. 현재 인공지능 개발 회사들은 인간 뇌에 준하는 인공지능 즉, 인공일반지능 개발을 꿈꾸고 있다. 일례로 일론 머스크는 뉴럴링크라는 회사를 설립해 사람 뇌와 컴퓨터를 연결하려는 시도를 하고 있다. 문제는 아직 인류가 인간 뇌에 대해 다 알지 못하고, 의식이 어디서 기원하는지도 모른다는 사실이다. 인공일반지능 개발이 가능할진 계속 지켜봐야 한다고 저자는 지적한다.
저자는 아이를 둔 양육자나 교사들을 생각하며 책을 썼다. 인공지능 시대를 살아갈 아이들 물음에 쉽게 설명해 줄 수 있는 안내서를 쓴 것이다. 책에는 30여 개 질문 외에 '더 알기'라는 별면도 있다. 생성형 인공지능 대명사인 오픈AI 창업자 샘 알트먼, 딥러닝 이해에 필요한 심층신경망, 최근 중국 대학교에서 개발한 인공지능 로봇 화학자, 유럽과 미국을 비롯한 세계에서 추진 중인 인공지능 규제법 등을 따로 자세히 설명했다.
아래는 책 속에 나오는 유의미한 문장들이다.
"생성형 AI는 말 그대로 문장이나 이미지를 만들어 낼 뿐, 그 글이나 그림의 의미를 아는 것은 아닙니다. 알지 못하는 것들을 놀라울 정도로 수준 높게 뽑아내는 것뿐이지요. 사람의 말을 아주 능청스럽게 잘 흉내 내는 앵무새에 비교할 수도 있습니다."/16쪽
"그런데 문제가 있습니다. 인공지능 내부에서 어떤 원리로, 어떤 과정을 거쳐 이 같은 일이 일어나는지 아직까지는 정확히 알 수 없다는 사실입니다. 인공지능은 연구자들이 예상하지 못한 방식으로 생각지 못한 능력을 보여 주는 경우도 종종 있답니다."/17쪽
"당시만 해도 여름 한철 머리를 맞대면 주요한 문제를 해결할 수 있으리라고 생각했다고 합니다. “20년 후면 인간이 할 수 있는 모든 일을 하는 컴퓨터가 나올 것”이라고 예측하는 이도 있었답니다. 하지만 약 70년이 흐른 지금 상황을 보면, 다트머스 회의는 실제로는 아주 먼 길의 첫걸음이었던 셈이지요"/28쪽
"챗GPT나 이후 구글에서 나온 제미니Gemini 같은 인공지능은 사람처럼 자연스럽게 언어를 처리하는 데 초점을 맞춘 초거대 언어모델LLM, Large Language Model입니다. 초거대 언어모델은 인터넷과 책, 문서 등에 있는 엄청나게 많은 텍스트 데이터를 학습하고, 이를 바탕으로 그럴듯한 단어와 문장을 만들어 낼 수 있는 인공지능입니다. 한번 더 정리하면, 생성형 AI 기반이 초거대 언어모델인 것입니다. 생성형 AI는 인공지능의 한 분야이고요"/36쪽
"초거대 언어모델의 기본 원리는 심층신경망인 DNN, Deep Neural Network입니다. 심층신경망을 학습시키는 것을 딥 러닝deeplearning이라고 하죠. 딥 러닝은 기계 학습의 일종입니다. 데이터를 많이 학습시켜 원하는 기능을 하는 모델을 만들어 나중에 기존에 배우지 않은 데이터를 접하더라도 제대로 기능할 수 있게 만드는 것입니다."/46, 47쪽
"심층신경망은 구조가 매우 복잡하지만, 간단히 말하면 데이터가 들어가는 입력층과 최종 결과물을 내놓는 출력층, 그리고 둘 사이에 있는 은닉층으로 구성되어 있습니다. 은닉층은 수많은 다른 층으로 이루어져 있는데, 여기서는 원하는 결과물을 내놓기 위한 처리가 진행되지요. 이처럼 여러 층이 쌓여 있는 모습에서 심층신경망이라는 말이 나왔습니다."/54, 55쪽
"한편 인공지능이 하는 말을 다 믿을 수 있을까요? 그럴 수 없다는 걸 이미 뉴스 등을 통해 알고 있을 것입니다. 환각(hallucination)이란 현상이 있습니다. 환각은 생성형 AI가 사실에 어긋나거나 말이 안 되는 말을 마치 진짜인 것처럼 생성하는 현상을 말합니다. hallucination은 환각, 환영, 환청이란 뜻입니다. 실제처럼 보이지만 사실은 실제가 아닌 어떤 것을 말하지요."/57쪽
"인공지능은 그동안 우리가 안전하다고 여기던 전문직들을 위태롭게 하고 있습니다. 여러 기관의 연구도 비슷한 결론을 내립니다. 얼마 전 나온 한국은행의 보고서 '인공지능과 노동시장 변화'를 보더라도 고학력, 고소득 노동자일수록 인공지능에 더 많이 노출되어 있어 대체될 위험이 큽니다. 특히 의사와 회계사, 변호사 등을 인공지능에 대체될 가능성이 큰 직종으로 꼽았습니다."/89쪽
"개인적으로는 챗GPT나 구글 제미니 같은 생성형 AI를 외국어, 특히 영어 공부에 활용해 볼 것을 적극 추천합니다. 우리말을 프롬프트에 입력해 영어 등 외국어로 번역하거나 외국어를 우리말로 번역하는 것은 기본이고요. 자신이 쓴 글을 올려 문법이나 표현이 잘못된 곳을 찾아 달라고 하거나, 같은 의미의 다른 문장으로 바꾸어 달라고도 할 수 있습니다."/93쪽
"건설 현장의 노동자를 예로 들 수 있습니다. 건설 기계나 장비는 계속 좋아지고, 안전이나 진단 전담 부서에서는 인공지능을 활용할 일이 늘어날 것입니다. 하지만 실제 건물을 쌓아 올리는 노동자들은 영향을 덜 받을 것으로 보입니다. 노인이나 환자를 돌보는 간병인, 어린이 돌보는 일을 하는 분들도 인공지능이 대체하기 어렵습니다."/109쪽
"데이터 센터는 전기를 많이 씁니다. 수많은 서버가 바쁘게 돌아갑니다. 서버가 작동하면 이때 나오는 열을 식히기 위해 또 에너지를 써야 합니다. 자연 전기가 많이 필요하죠. 전기를 만들어 낼수록 탄소 배출량이 늘어나고요. 데이터 센터에서 쓰는 전기는 세계 전력 소모량의 1퍼센트 정도라고 합니다. 생성형 AI 서비스가 활발해지면서 데이터 센터의 전력 소모량은 더 커질 것입니다."/118, 119쪽
"인공지능에서 편향된 시각을 완전히 제거하는 것이 가능할까요? 편향된 시각은 인공지능 모델이 학습한 데이터에 깊이 새겨져 있어 완전히 걸러 내기는 불가능합니다. 시각의 균형을 잡으려다 도리어 제미니처럼 생뚱맞은 결과물을 내놓을 수도 있습니다. 사실 인공지능이 보여 주어야 할 ‘바른’ 모습이 무엇인지 결정하는 것 자체가 어려운 일일 듯합니다. 모두 다른 생각, 다른 의견을 갖고 있으니까요."/132쪽
"재판이나 자율 주행 같은 경우 책임 문제는 특히 중요합니다. 책임을 누가 질 것인지 이 문제가 해결되지 않는 한 인공지능 재판관이나 완전 자율 주행 차량은 등장하기 어려울 것입니다. 기술적으로 모든 준비가 다 되어 있더라도 말이지요."/151쪽
"이제 인공지능이 인류를 위협할 새로운 전쟁 수단이 될 수있다는 우려가 나옵니다. 정찰 로봇이 발견한 사람이 적군이나 테러리스트라고 스스로 판단해 공격한다면 어떻게 될까요? 적군을 감지하면 돌진해 자폭하는, 인공지능이 적용된 드론이 리비아 내전과 아제르바이잔-아르메니아 전쟁 등에 실제로 쓰였지요."/154, 155쪽
"인공지능을 전쟁에 사용하는 것을 어떻게 규제할지에 대해서는 아직 국제 사회에서 합의된 내용이 없습니다. 인공지능 기술의 상당수가 많은 데이터를 빨리 처리해 효율적으로 결정하는 데 쓰이는데, 이런 기술을 막을 명분이 약하기 때문이지요. 영화 '터미네이터'에서처럼 인간을 최대 위험 요소로 규정하고 공격하는 ‘스카이넷’은 아직 나오지 않았습니다. 대체로 살상에 관해서는 인공지능이 아닌 인간이 최종 판단을 해야 한다는 큰 원칙 정도가 공유되는 상황입니다"/156, 157쪽
"‘인공지능의 최적 결정’이라는 핑계 뒤에 숨어 공격에 대한 결정을 더 쉽게 내리게 될 수 있습니다. 인공지능을 활용한 현대전은 살인에 대해 무감각하게 합니다. 멀리 떨어진 곳에서 기계를 조작해 미사일을 쏘거나 폭격하거나 드론을 보내 적군을 살상하니 말입니다. 인간의 판단과 양심을 무디게 하는 이런 무기들을 우리는 어떻게 받아들여야 할까요."/158쪽
"이렇게 보면, 사람을 사람으로 만드는 것은 다른 것이 아니라 ‘책임’을 질 수 있는 능력, 또는 기꺼이 책임을 지겠다는 자세일지도 모르겠습니다. 그러니 인공지능에게 재판이나 전쟁을 맡긴다면, 이는 극히 비인간적인 행위가 될 것입니다. 물론 전쟁이나 형사 재판 같은 어려운 일을 결정할 때 점점 더 많이 인공지능의 도움을 받는 시대가 될 것은 분명합니다. 그럼에도 책임감을 놓지 않으려는 자세가 인공지능 시대 인간의 역할이 아닐까요."/163쪽
"사람과 비슷한 정도의 혹은 그 이상의 지적 능력을 가진 인공지능을 인공일반지능(AGI, Artificial General Intelligence)이라고 합니다. 몇몇 기능에 얽매이지 않고 광범위하고 다양한 과제를 사람 수준 이상으로 해낼 수 있는 인공지능을 말합니다. 인간이 할 수 있는 일은 모두 할 수 있다고 보면 됩니다."/167쪽
"하지만 의식을 가진 인공지능의 개발에는 큰 문제가 있습니다. 의식을 구현할 정도로 복잡한 컴퓨터 알고리즘이나 장치를 만들 수 있을지 의문인 데다, 무엇보다 아직까지 우리는 의식이 무엇인지 잘 모르고 있다는 사실입니다."/177쪽
"인공지능은 사람보다 훨씬 많은 데이터로 학습했지만, 사람과 달리 움직임이나 감각에 대한 학습을 할 수 없어 세상을 완전히 이해하기는 어렵습니다. 이런 인공지능에게 로봇은 실제 세상을 배울 수 있는 중요한 통로가 될 것입니다."/192쪽
"인간 지능의 한계를 극복할 수 있는 다른 접근 방법도 있습니다. 바로 사람의 뇌와 컴퓨터를 바로 연결하는 것이죠. 이를 뇌-컴퓨터 인터페이스(BCI, Brain–omputer Interface)라고 합니다. 쉽게 말해 뇌에 칩을 심어 뇌 기능을 조정하거나 강화하는 것입니다"/197쪽
"인공지능 기술 개발은 거의 모든 국가가 관심을 쏟는 분야입니다. 일단은 인공지능이 경제에 큰 도움을 주어서이고, 더 근본적으로는 앞으로 이 기술을 갖고 있지 않으면 외국 기업에 예속될 수 있기 때문이지요. 장기적으로는 국가 안보에도 영향을 미칠 수 있습니다."/223쪽
"세계 각국은 인공지능 기술이 통제할 수 없는 수준으로 발전하기 전에, 적절히 규제할 방법을 마련해야 한다고 목소리를 모으고 있습니다. 인공지능을 안전하게 사용할 수 있게 가이드라인을 만들어야 한다는 것이지요."/226쪽
관련기사
- 인공지능산업협회, '2025 AI 100대 기업' 모집2024.07.02
- 원티드랩, 인공지능 기업-구직자 연결한다2024.07.02
- [기고] 인공지능 규제, 어디로 가야 하나2024.06.21
- LG전자, 4개 사업본부 대수술...고객 지향 솔루션 체제로2024.11.21
◆지은이 한세희는...
연세대 사학과를 졸업한 후 같은 대학교 국제학대학원에서 공부했다. 전자신문, 동아사이언스, 지디넷코리아에서 기자로 일했다. 기술과 사람이 서로 어떻게 영향을 주고받으며 변해 가는지 관찰하고 있다. 인공지능이 화두인 지금은 인공지능을 활용해 편하게 일하고 싶은 욕망과 인공지능이 흉내 내지 못할 글을 써야 한다는 압박감 사이를 오가는 중이다. '디지털 호신술' '플랫폼 경제 무엇이 문제일까?' 등을 썼고, '챗GPT, 기회인가 위기인가'를 함께 썼다.