페퍼, 인간의 감정을 가진 로봇인가

전문가 칼럼입력 :2015/08/21 06:44

이윤수 gemong@digxtal.com

최근 몇 년간 (내가 느끼기에는 특히 지난해부터) 인공 지능과 로봇에 관한 기사가 급등하고 있다. 인공 지능은 그 시작부터 기대와 실망의 연속으로 등락을 거듭해 온 대표적인 (언제나 차세대인) 첨단 기술이다. 체스 경기 우승이 지능의 에이스가 아니었다는 사실, 엄청난 비용과 노력으로 만들어야만 했던 전문가 시스템이 보편적 지능과는 거리가 멀었다는 사실은 인공 지능에 대한 사람들의 기대를 그저 과학 소설이나 영화 속의 판타지에 머무르게 했다.

그런 인공 지능/로봇이 최근 다시 주목을 받는 것은, 그간 하드웨어에서 (지수 함수적으로 증가하는 무어의 법칙에 힘입어) 엄청난 발전이 이루어졌고, 접근 가능한 실질적인 빅 데이터가 축적되고 있으며, 이를 이용한 딥 러닝 등 발전된 인공 지능 알고리즘이 어느 정도 상업화 가능한 수준의 효능을 입증하고 있기 때문이다.

이에 힘입어, 다시금 인공 지능 초기의 기대감이 수면 위로 올라왔다. 즉, 앨런 튜링이 60여 년 전 튜링 테스트를 고안하며 상상했던 궁극적인 디지털 컴퓨터의 모습인 ‘생각하는 기계’에 대한 기대감이다. 오히려 기대감이 지나쳐, 이제는 인간 수준 지능을 넘어서는 초지능의 등장과 그로 인해 벌어질 위험성-약하게는 중산층 노동 시장의 붕괴에서 강하게는 인류 존재 위협까지-에 대한 담론이 심심치 않게 회자하고 있다.

그러나 사실 기술에 대한 보통 사람들의 꿈은 그렇게 부정적은 아닐 것이다. 보통 사람들은 기대하는 기술 발전의 결과물은 다분히 개인적이고 감성적이다. 예를 들면, 소프트뱅크의 손 마사요시가 작년 6월 출시하면서 “25년간 이날이 오기만을 기다렸다”는 인간형 로봇 “페퍼”는 세계 최초로 감정을 가진 로봇이라 홍보되고 있다. 소프트뱅크가 얼마 전 공개한 페퍼의 홍보 동영상을 보면, 인간의 슬픔과 기쁨을 이해하고 다독이고 공유할 줄 아는 로봇의 모습이 인상적으로 (조금은 과하다 싶게) 그려지고 있다. 그런데 정말로 페퍼는 인간의 마음을 이해하고 있는 것일까? 정말로 페퍼는 감정을 만들어 낼 수 있을까?

페퍼는 소프트뱅크가 인수한 프랑스 로봇 회사, 알데바란(나오, 로메오 등의 로봇 개발로 유명)에서 개발을 했고, AGI 사의 감정 지도 기술을 기반으로 하고 있다. 소프트뱅크의 홍보에 의하면, 페퍼는 현재 인간의 감정을 완벽하게 이해하는 것은 아니지만, 서로 마음을 통하게 하는 것을 목표로 하는 로봇이다. 이를 위해 페퍼는 각종 시각, 청각, 촉각 등의 센서를 통해 인간의 감정을 해석하는 것은 물론, 자신의 감정로 정의하는 클라우드 컴퓨팅의 ‘감정 생성 엔진’을 갖추고 있다. 이를 통해 생후 3개월에서 6개월 정도 아기의 감정 발달 수준을 표현할 수 있다고 한다.

이 정도의 수준으로도 사람들의 관심을 끌기에는 충분해 보인다. 지난 2월 개발자 물량 300대, 6월 가정용 초도 물량 1천대가 개시 1분 만에 매진되는 ‘대박’이 났단다. 페터 본체의 가격만 부가세 포함하여 한화로 200여만 원, 게다가 감정 클라우드에 연동되려면 월 15만 원 정도의 ‘기본 플랜’에 가입해야 하고, 수리 및 상담을 위한 ‘보험 팩’까지 더하면 월 총 약 25만 원을 지출(소프트뱅크 홈페이지 참조)해야 하는 상황을 고려한다면, 개발자와 얼리어답터의 지갑을 여는 데는 꽤 성공하고 있다고 할 수 있겠다.

그러나 아까의 질문으로 돌아와서, 그렇다면 페퍼는 인간의 감정을 가진 로봇인가? 또는 그 정도 비용으로 만족할 만한 그럴듯한 감정 로봇인가? 이런 질문은 인공 지능의 초기에서부터 지금까지 여전히 논쟁 중이다. 대표적인 논쟁으로 잘 알려진 철학자 존 설의 ‘중국어 방’ 비유가 있다. 중국어를 전혀 모르는 사람이 방 안에 있는데, 이 사람은 문틈으로 들어오는 중국어 쪽지를 받아 복잡한 지시 사항이 적힌 긴 목록의 규칙에 맞게 중국어를 조합하여 다시 문밖으로 내보낸다.

문밖에 있는 사람은 방 안에 있는 사람이 중국어를 이해(즉, 튜링 테스트 같은 것을 통과)한다고 생각한다. 그렇다고 방 안의 사람이 진짜 중국어를 이해한다고 할 수 있겠느냐는 것이다. 이에 대한 반박으로, 중국어 방 안에 있는 사람이 아니라 그 긴 목록을 만들어 내는 중국어 방 자체라는 시스템이 ‘이해’를 만들어내는 주체로 생각해야 하고, 그것이 수십 분의 1초에 수백만 개의 기억된 규칙으로 전개된다면 중국어 방이 중국어를 이해한다는 점을 부인할 수 있겠느냐는 등의 반론이 대니얼 데닛이나 스티븐 핑커 같은 계산주의자들에 의해 맹렬히 전개되었다.

어느 쪽이 맞는다고 결론을 맺기에는 아직 우리가 인간의 마음이나 의식을 이해하는 수준이 너무 낮다. 우리는 페퍼가 정말로 감정을 가진 로봇이라고 할 수 있는지, 아니면, 인간의 마음을 조금이라도 이해하고 있다고 할 수 있는지 증명할 수 없다. 그나마 우리가 가지고 있는 거의 유일한 검증 방법은 튜링 테스트이다. 하지만 가상 현실 개척자인 재론 래니어는 튜링 테스트가 기계 지능은 인간 관찰자의 관점에서의 상대적 의미로만(즉, 기계 지능의 객관적 데이터가 아니라 관찰자의 주관적 판단으로만) 알 수 있다는 것을 의미한다는 점을 지적한다.

사람들은 언제나 기계가 똑똑한 것처럼 하기 위해 자신을 깎아내린다는 것이다. 즉, 사람은 기계의 수준에 쉽게 적응한다. 불편한 인터페이스와 수고스러운 데이터 입력에도 불구하고, 우리는 디지털 인터넷 기기에 ‘스마트’라는 명칭을 쉽게 부여한다. 그것이 얼마나 스마트한지는 잘 모르지만, 스마트하다고 맘 좋게 인정해 준다. 우리가 어쩌면 신기루일지 모르는 페퍼에 주목하고, 페퍼와 손정의가 무대에서 그럴싸하게 소통하는 모습에 흐뭇한 미소를 짓는 것은, 페퍼가 대단히 뛰어나서 아니라, 우리의 눈높이를 페퍼의 수준으로 확 낮추었기 때문이다.

그런 현상은 인공 지능 개발 역사의 초기부터 이미 인지되었다. 1960년대 요제프 바이첸바움이 개발한 일라이저(ELIZA)라는 심리 치료 상담 프로그램이 그 대표적인 예이다. 이 프로그램은 본격적인 심리 치료 상담 목적은 아니지만, 실험적으로 몇 가지 상담 규칙을 적용해 본 지극히 간단한 모델이었다. 환자에게 긍정적인 공감을 표함으로써 환자 스스로 문제점을 깨닫게 하는 방식으로, 환자가 “나는 ~이 필요해요”라고 하면, “왜 ~이 필요한가요?”라고 하거나, “나는 ~해요”라고 말하면, “스스로 ~한 것에 대해 어떤 기분이 드나요?”하고 되묻는 식이다. 프로그램이 환자의 말을 이해하고 있는 것이 아니라, 그저 환자의 말을 되받아 질문하는 식으로 문장을 던질 뿐이다. 그런데 놀라운 점은, 이 일라이저를 경험한 많은 사람들이 실제 심리 치료사와 상담을 하는 듯한 착각을 보이고, 어느 정도 도움이 되었다고 생각한다는 것이었다.

바이첸바움은 이렇게 단순한 기계에 사람들이 반응하는 모습에 회의를 느끼고 프로젝트를 그만두었으며, 그 후 인공 지능의 위험성을 주장했다. 하지만 일라이저는 오늘날까지도 다양한 챗봇(chatbot) 후예들을 남겼다. 예를 들면 피상담자의 표정과 움직임까지 포착하는 엘리(Ellie) 같은 여러 진보된 인공 지능 챗봇 연구가 진행 중이다. 그러나 엘리도 근본적으로는 일라이저의 원형을 벗어나진 못했고, 그나마 20분 이상 대화를 하면 임상 심리학적 유용성도 제한된다고 한다.

지능이 있다고 하기 힘든 일라이저 같은 프로그램에 사람들이 반응하는 이유는, 인간은 사실 모든 것으로부터 마음을 읽는 성향이 있기 때문이다. 하이더시멜의 유명한 도형 애니메이션 실험에서 보듯, 인간은 한낱 움직이는 두 개의 삼각형과 동그라미의 짧은 애니메이션에서도 각각 성격(마음)을 갖는 인물들이 어떤 이야기를 만들어내고 있다고 느낀다. (따지고 보면, 이것은 모든 미디어가 작동하는 원리이기도 하다) 로봇 얘기를 하고 있으니, 또 다른 예로 히치봇(hitchBOT)을 보자. 간단한 말을 할 줄 알고, GPS와 카메라를 갖추고 있긴 하지만, 스스로 움직이지는 못하는 이 로봇 같지 않은 로봇은, 단순히 히치하이크만으로 여행을 다닌다. 사람들은 이 지극히 단순한 여행 로봇도 쉽게 의인화한다. 마치 생명을 대하듯 한 사람들의 선의로 히치봇은 캐나다에서 26일간 19건의 히치하이크로 1만 킬로미터를 여행하는 기록을 세웠다.

그런데 반전이 있다. 히치봇은 올해 미국 종단을 목표로 새로운 여행길에 나섰다가 시작한 지 얼마 되지 않아 목이 잘려 없어진 처참한 모습으로 발견되었다. 또 다른 예를 보자. 일본에서 수행된 연구에서, 공공장소에 자율 운행 중인 로봇에 대한 어린이들의 행동을 관찰했다. 놀랍게도, 이 연구는 많은 아이가 아무런 해가 없는 이 로봇을 괴롭히고 폭력을 가하고 욕을 하는 등 학대하는 결과를 보여준다. 인간의 감정 이입에도 한계는 있는 것일까? 일본 연구 사례에서, 조사된 아이의 대부분(74%)은 로봇을 살아있는 생명처럼 여기면서도 그렇게 폭력을 가했다. 히치봇 살해 사건도 부정적 결과라는 면만 다를 뿐, 근본적으로 보면 사람들의 무생물에 대한 감정 이입에서 발생한 것이라는 사실을 깨달을 수 있다. 그럼 기계라서가 아니라 그냥 약자라서 폭력을 가했다는 소리인가? 그렇다면, 명백히 감정을 지닌 로봇이라도 같은 결과였을까?

명확지는 않지만, 스티븐 핑커의 주장에서 조금은 힌트를 얻을 수 있다. 핑커는 많은 데이터로부터 인류의 역사에 폭력이 지속해서 감소하고 있음을 보여주면서, 폭력성, 가학성 같은 인간 내면의 악마보다는 감정 이입의 확대 등 선한 천사가 더 우세해지는 사회가 되어가고 있다고 주장한다. 예를 들면, 출판 기술의 발전에서 시작하여 최근의 인터넷까지 폭발적으로 늘어난 미디어의 영향으로 간접적 감정 이입의 기회가 많아지고, 문명화, 민주화, 국제적 교류 등으로 다른 집단과 지역의 사정을 더 잘 이해될 기회가 많아지게 되면 폭력은 점점 줄어들 것이다. 아이들의 폭력은 아마도 교육적인 문제로 치부될 수 있다. 로봇에의 폭력성은 그야말로 비문명적이거나 유아적인 소수에 대한 지엽적 문제가 될 것이다.

게다가 심리학자 매튜 리버만은 많은 신경 과학적 연구 결과를 토대로, 인간이 다른 이들과 연결되고자 하는 욕구가 의식주의 욕구보다 더 근본적인 것이라 주장한다. 말하자면 매슬로우 욕구 5단계 피라미드의 맨 밑이 사회적 욕구가 된다는 것이다. 로봇의 킬러 앱은 바로 이 인간의 사회적 욕구와 관련될 것이다. 중요한 것은 로봇이 감정을 가졌는지, 이해는 하는지가 아니라, 인간의 사회적 욕구를 얼마나 로봇이 수용해 줄 것이냐의 문제가 될 것이다.

관련기사

위에서 언급했던 엘리의 사례에서도 이와 관련한 로봇의 잠재성을 엿볼 수 있다. 엘리 연구자들은 한 실험 집단에게는 엘리가 실제 사람에 의해 원격 조종된다고 하고, 다른 집단에는 엘리가 사람이 배제된 완전한 자율 기계라고 말하고 나서 상담 실험을 진행했다. 그 결과, 사람이 간섭하고 있다고 생각하는 피상담자들이 덜 참여적이고 마음도 덜 연다는 사실을 발견했다. 다른 사람과 연결되려는 사회적 욕구는 반대로 사회적 스트레스를 회피하려는 모습으로도 나타난다. 생면부지의 원격 의사와 응대하느니, 자신을 전혀 평가하지 않을 기계와 상대하는 게 더 편하다는 것이다.

며칠 전, 마포대교 자살 방지 노력에 대한 기사를 봤을 때, 전에 아내가 했던 말이 생각났다. 마포대교 같은 곳에 사람 말을 잘 들어주는 인공 지능 기계만 있어도, 죽으려던 사람을 많이 살릴 것이라고 했고, 나도 그 말에 공감했었다. 그 단순했던 일라이저마저도 사람들이 도움되었다고 느꼈던 이유가 바로 그런 것이다. 어쩌면 페퍼 홍보 영상의 과하다 싶은 시나리오가 사실은 가장 현실적인 인공 지능 로봇 애플리케이션을 보여주는 것인지도 모른다.

*본 칼럼 내용은 본지 편집방향과 다를 수 있습니다.