[박형빈 교수의 AI와 윤리②/존재론] 나를 닮은 AI는 또 다른 '나'인가?

알고리즘 거울에 비친 환영(phantasm)…데이터는 '존재' 증명이 될 수 있을까

전문가 칼럼입력 :2025/12/06 15:30

박형빈 서울교대 윤리교육과 교수

1. 디지털 자아의 출현: '나'의 외주화는 가능한가?

오늘날 우리가 마주하는 인공지(AI)는 더 이상 전통적인 의미의 ‘도구’로만 설명되기 어렵다. 사람의 말투를 따라 하고, 이미지를 그리며, 나아가 판단과 감정의 표현까지 흉내 내는 존재로 진화했기 때문이다. 그러나 그 바탕을 이루는 것은 여전히 통계적 패턴 처리와 확률적 예측이다. 인간 존재의 전체 구조를 그대로 옮겨 심은 어떤 ‘대체물’이라고 말하기는 어렵다.

그럼에도 ‘데드봇(Deadbot)’, 이른바 ‘그리프봇(Griefbot)’ 등장은 기술과 죽음의 관계를 새롭게 사유하게 만든다. 이 시스템은 고인이나 반려동물의 음성, 영상, 대화 기록, SNS 게시물 같은 디지털 흔적을 학습해, 가상 공간에 하나의 인격적 초상을 그려낸다. 가족에게 “오늘 하루는 어땠어?”라고 말을 건네고, 생전에 즐겨 하던 농담을 비슷한 맥락으로 되살리며, 남겨진 글과 발언을 바탕으로 정치·사회 현안에 대한 의견까지 제시한다. 말 그대로 ‘부재하는 존재’와 나누는 대화를 시뮬레이션하는 셈이다.

일부 유가족은 이 챗봇과의 대화를 통해 심리적 위안을 얻었다고 말하는 반면, 또 다른 이들은 “이것이 고인을 실제로 되살린 것이 아님을 알면서도, 감정적으로 큰 혼란을 느꼈다”고 고백한다(Xygkou et al., 2023).

비슷한 흐름은 산업 현장의 ‘디지털 트윈(digital twin)’에서도 관찰된다. 디지털 트윈은 현실 세계의 설비나 공정, 조직을 가상 공간에 구현하고, 센서와 네트워크를 통해 일정한 주기와 정밀도로 상태를 동기화하는 기술이다. 고급 분석 기법, 사물인터넷(IoT), 인공지능(AI)이 결합하면서, 디지털 트윈은 이제 데이터를 보여주는 모니터를 넘어 의사결정을 돕고, 일부 영역에서는 스스로 판단을 내리는 시스템으로까지 확장되고 있다(Milosevic & Van Schalkwyk, 2023).

서로 다른 기능을 담당하는 여러 디지털 트윈을 엮어 공장 전체, 도시 전체를 시뮬레이션하는 시도도 진행 중이다. 그 결과, 현실과 가상이 촘촘히 겹쳐지는 새로운 기술 환경이 서서히 모습을 드러내고 있다.

이러한 기술적 흐름은 결국 하나의 근본적인 질문으로 수렴한다. “AI가 나의 말투, 기호, 과거의 선택 패턴을 고도로 정교하게 재현할 수 있을 때, 그 디지털 존재는 어디까지 ‘나’라고 할 수 있는가?” 이 질문은 기술 효율성의 문제로만 머무르지 않는다. 디지털 자아(digital self)와 인격적 동일성(personal identity)이라는 철학의 오래된 난제를, 오늘의 데이터 시대라는 구체적 환경 속으로 다시 소환한다.

박형빈 서울교대 교수

2. 테세우스의 배와 업로딩된 영혼: 동일성의 기준은 무엇인가

고대부터 논의되어 온 ‘테세우스의 배(Ship of Theseus)’ 역설은, 모든 부품이 조금씩 교체된 배를 여전히 같은 배로 볼 수 있는지 묻는다. 이 사고실험은 오늘날 디지털 환경에서 인간과 유사한 AI의 동일성을 사유하기 위한 강력한 비유적 틀을 제공한다.

한 인간의 동일성을 논할 때, 우리는 통상 육체와 정신이라는 두 축을 가장 기본적인 구성 요소로 상정한다. 그러나 여기서는 한 존재를 인간이라 부를 수 있게 하는 핵심 조건 가운데 하나인 생물학적 신체는 잠시 괄호에 넣어 두고, 반응과 행위로 드러나는 정신에 초점을 맞춰 보려 한다.

한 사람을 가정해 보자. 그는 생의 말기에 자신의 대화 습관, 고민의 양상, 가족과의 추억, 가치관과 신념을 질문–응답 형식의 데이터로 남기고, 이를 특정 AI 시스템에 충분히 학습시킨다. 이후 이 시스템은 고인의 음성을 합성해 가족에게 “오늘 하루는 어땠어?”라고 안부를 묻고, 고인이 평생 즐기던 농담을 비슷한 맥락에서 되살려 말할 수 있다. 나아가 정치적 견해를 묻는 질문에 대해서도, 고인이 남긴 저서와 논문, 기사에 담긴 입장을 토대로 일정한 방향의 판단을 제시한다.

이때 질문은 분명해진다. 이 AI는 고인의 인격과 삶의 연속선상에 있는 존재인가, 아니면 고인을 통계적으로 모사한 정교한 장치에 불과한가? 이 상황은 자연스럽게 영화 '트랜센던스'를 떠올리게 한다. 영화에서 주인공 윌은 죽음을 앞두고 자신의 의식을 컴퓨터로 업로딩하고, 이후 디지털 환경 속에서 부활한 듯 아내와 친구에게 말을 건넨다. 그렇다면 우리는 이 현상을, 육체가 사라진 뒤에도 윌이라는 동일한 인격이 계속 존재하고 있는 것으로 간주해도 되는가?

트랜스휴머니즘을 옹호하는 일부 사상가들, 예를 들어 레이 커즈와일(Ray Kurzweil)과 같은 인물은 인간의 핵심을 정보 패턴으로 이해한다. 그에 따르면, 이 정보 패턴을 충분히 정밀하게 추출해 기계 시스템에 업로드할 수 있다면, 일종의 '개인의 지속' 또는 '디지털 영속성'이 가능해질 것이라고 전망한다. 그러나 이러한 입장은 인간의 내적 경험과 의식을 지나치게 '정보 구조'로만 환원한다는 점에서 비판받는다. 이러한 아이디어는 의식과 의미를 단순한 데이터 구조와 연산 규칙으로 치환할 수 있다는 가정을 전제로 하기 때문이다.

존 설(John Searle)의 '중국어 방(Chinese Room)' 사고실험은, 특정 기호에 규칙적으로 적절한 반응을 생성하는 시스템과 그 기호의 의미를 실제로 이해하는 주체 사이에 본질적인 차이가 있음을 강조한다. 규칙에 따른 입·출력의 적절성이 곧 의미 이해나 의식 경험을 보장하지는 않는다. 다시 말해, 적당한 답변의 제공은 그것이 곧 그 의미를 온전히 이해하고 있음에 대한 충분조건은 되지 않는다.

이 관점에서 보면, AI가 어떤 개인의 말투와 반응 패턴을 매우 정교하게 흉내 내더라도, 그 내부에 '누가 경험하고 있는지', '누가 그 행위에 대해 책임을 질 수 있는지'를 가리키는 주체가 존재하는지는 전혀 다른 문제다. 

필자는 이러한 디지털 복제물을 나의 표면적 흔적을 빌려 작동하는 일종의 ‘시뮬라크르(simulacrum)’로 이해한다. 곧, 그것은 나를 닮은 이미지이자 모사이지만, 존재론적 의미에서의 '나' 자체, 또는 독자적인 존재론적 주체라고 보기는 어렵다는 주장이다.


3. 신체가 없는 자아는 가능한가: 신경과학이 밝힌 존재의 층위

AI가 인간을 존재론적 차원에서 대체하기 어렵다는 직관은 현대 뇌신경과학과 인지과학 연구를 통해 한층 구체적인 근거를 얻는다. 특히 '체화된 자아(embodied self)'를 강조하는 연구들은, 자아와 의식, 감정이 단순히 뇌 속에서만 발생하는 것이 아니라 신체 전체와 환경 사이의 상호작용 속에서 형성된다는 점을 보여준다.

안토니오 다마지오(Antonio Damasio)는 자율신경계의 활동, 심장 박동과 호흡, 내장 감각과 같은 신체 내부 상태의 조절 과정이 감정 형성과 의사결정, 그리고 자아 감각의 형성에 핵심적인 토대를 제공한다고 주장해 왔다. 우리는 예를 들어 중요한 발표를 앞두고 심장이 빨리 뛰고 손에 땀이 나는 신체적 경험과 함께 "긴장된다"는 감정을 인식한다. 즉, 몸의 상태 변화는 단순한 부수적 반응이 아니라 감정과 자아 체험의 구성 요소이다.

현재의 AI 시스템은 센서 데이터를 이용해 심박수나 호흡을 측정하고 이를 시뮬레이션하는 모델을 구성할 수는 있다. 그러나 이 수치 변화가 '나의 긴장', '나의 두려움'으로 체험되는 것과 같은 주관적 경험, 곧 '살아낸 감정'을 가지는 것은 아니다. 이는 단순 계산이나 확률 출력과 구분되는 층위다.

프랑스 현상학자 메를로-퐁티(Merleau-Ponty) 역시 인간의 인지를 세계와 분리된 '머리 속 계산'으로 보지 않았다. 그에게 인지는 몸이 세계와 만나는 사건, 즉 지각과 행동, 몸의 방향성과 리듬 속에서 발생하는 것이다(Merleau-Ponty, 1945; Merleau-Ponty, Landes,  Carman, & Lefort, 2013).

이러한 관점에서 보면, 인간의 자아는 특정한 신체를 통해 공간과 시간 속에서 끊임없이 세계를 '살아내는' 과정의 산물이다. 현재의 디지털 시스템은 이러한 실질적인 체화와 생리적 유한성의 조건을 갖추고 있지 않다. 따라서 AI가 생성하는 문장, 표정, 목소리는 인간에게 매우 자연스럽고 위로처럼 느껴질 수 있으나, 그것은 어디까지나 내부에 감각과 정동을 가진 주체가 없는 '느낌이 없는 출력'으로 이해해야 한다.

실제로 우리는 "AI의 위로가 도움이 되었다"고 말하면서도, “하지만 이 존재가 나를 진짜로 알고, 나를 위해 걱정하는 것은 아니다”라는 것을 곧바로 알아차릴 수도 있지 않을까? 이 직관은 신체화된 자아가 지닌 진실성—몸과 시간, 관계 속에서 축적된 삶의 무게—를 간접적으로 드러낸다.


4. 레비나스의 타자 윤리: 관계는 재현될 수 있는가

존재론의 문제는 필연적으로 윤리의 문제로 이어진다. AI가 인간을 완전히 대체할 수 없다고 보는 또 다른 이유는, 인간관계의 본질, 특히 타자와의 윤리적 관계가 재현가능한 것인지에 대한 물음 때문이다.

엠마누엘 레비나스(Emmanuel Levinas)는 타자의 '얼굴'을 나에게 무한한 책임을 요청하는 윤리적 신호로 이해했다(Levinas, 1969). 타자의 연약함과 상처, 침묵과 호소는 나를 단순한 인지적 주체가 아니라 책임지는 윤리적 주체로 부른다. 여기에서 '얼굴'은 단지 시각적 형상이 아니라 고통받고 기뻐하는 타자의 '현존' 전체를 가리킨다.

오늘날의 기술로 AI에게 얼굴을 부여하는 것은 어렵지 않다. 가상의 아바타는 표정과 시선을 정교하게 모사하고, 음성 합성 기술은 따뜻한 어조와 억양을 흉내 낸다. 그러나 그 얼굴 뒤에는 실제로 고통을 느끼는 자아가 존재하지 않는다. 그 시스템은 타자의 신음에 도덕적 부담을 느끼거나 책임을 자발적으로 떠안는 주체가 아니다.

예를 들어, 노년층 돌봄을 위해 설계된 AI가 "제가 곁에 있으니 걱정하지 마세요"라고 말할 때, 그 문장은 외형상 다정하고 안정감을 줄 수 있다. 하지만 그 시스템은 상대의 죽음에 대해 두려움을 느끼지 않고, 타인의 취약함을 마주함으로써 스스로 상처받는 주체도 아니다. 이 관계는 표면적으로는 관계의 형태를 갖추고 있으나, 고통과 책임, 상호 취약성이라는 차원에서 볼 때 인간관계가 지닌 깊이에 도달하지 못한다.


5. 융의 페르소나와 그림자: AI가 보지 못하는 인간의 또 다른 절반

현대의 생성형 AI는 인간을 '학습'할 때, 주로 디지털 환경에 남겨진 표면적 흔적을 이용한다. SNS에 게시된 사진과 글, 업무 이메일에 드러난 전문성, 인터뷰나 강연에서 사용된 인상적인 문장들이 대표적이다. 말하자면, 사회적 무대에 제시된 '앞면'의 자아, 곧 페르소나(persona)를 중심으로 학습하는 셈이다.

칼 융(Carl G. Jung)은 인간의 진정한 성숙이 페르소나와 그림자(shadow)의 통합에서 이루어진다고 보았다(Jung, 1959). ‘그림자’는 말로 표현되지 않은 두려움, 순간적으로 스쳐 지나가는 질투와 공격성, 과거의 상처, 모순된 욕망, 그리고 당사자 자신조차 완전히 이해하지 못하는 충동의 층위를 포함한다. 이 영역은 종종 드러내기 꺼려지거나 무의식 속에 머무는 경우가 많다.

현재의 데이터 기반 AI가 이러한 그림자 영역을 직접적으로 학습할 수 있을까? 표현되지 않은 두려움이나, 말로 남겨지지 않은 상처, 의식화되지 않은 욕망은 데이터셋에 포함되지 않으며, 설령 일부 단서가 간접적으로 드러나더라도 그것이 가진 전체적인 맥락과 체험적 의미를 그대로 재구성하기는 근본적으로 제한적이다. 통계적 모델은 행동 패턴으로부터 특정 성향을 추정할 수는 있지만, 인간이 자기 삶을 반성하고 수용해 가는 내적 통합의 과정 자체를 대체하지는 못한다.

따라서 AI가 어떤 사람을 매우 설득력 있게 흉내 내더라도, 그것이 포착하는 것은 '내가 대외적으로 보여준 나'의 정제된 버전에 가깝다. 이 디지털 초상은 유용한 요약이 될 수는 있지만, 인간 존재 전체, 특히 상처와 모순, 성장과 후회가 엮여 있는 총체적 자아를 완전히 대변한다고 보기는 어렵다.

이 지점에서 우리는 기술이 우리를 대체한다는 공포나 기술이 우리를 완성해 줄 것이라는 기대를 넘어 더 근원적인 질문을 던져야 한다. AI가 닮을 수 없는 인간의 고유성은 무엇인가? 나의 제안은 이렇다. 불완전함에서 시작되는 성찰, 유한성에서 태어나는 책임, 상처에서 우러나는 공감, 데이터로 환원되지 않는 인간 존재의 미묘한 결이다.

문득 초등학생 시절 나의 마음을 깊이 파고들었던 윤동주의 ‘서시’ 한 구절이 귀가를 맴돈다.

“잎새에 이는 바람에도 나는 괴로워했다. (중략) 오늘 밤에도 별이 바람에 스치운다.” 우리는 완전히 재현될 수 없기에, 존재한다. 그리고 존재하기 때문에, 존엄하다.


◆ 참고문헌

-Jung, C. G. (1959). Aion: Researches into the phenomenology of the self (R. F. C. Hull, Trans.). Princeton University Press. (Original work published 1951)

-Levinas, E. (1969). Totality and infinity: An essay on exteriority (A. Lingis, Trans.). Duquesne University Press. (Original work published 1961)

-Merleau-Ponty, M. (1945). Phénoménologie de la perception. Éditions Gallimard.

Merleau-Ponty, M. (2013). Phenomenology of perception (D. A. Landes, Trans.). Routledge. (Original work published 1945)

-Milosevic, Z., & Van Schalkwyk, P. (2023, October). Towards responsible digital twins. In International Conference on Enterprise Design, Operations, and Computing (pp. 123–138). Springer Nature Switzerland.

-Xygkou, A., Siriaraya, P., Covaci, A., Prigerson, H. G., Neimeyer, R., Ang, C. S., & She, W. J. (2023, April). The “conversation” about loss: Understanding how chatbot technology was used in supporting people in grief. In Proceedings of the 2023 CHI Conference on Human Factors in Computing systems (pp. 1–15).


12회 연재 순서

1회(왜 지금, AI 윤리인가?): 디지털 야누스 앞에 선 인류

2회(존재론): 나를 닮은 AI는 또 다른 ‘나’인가?

3회(감정): 기계가 ‘감정’을 이해한다는 말은 무엇을 뜻하는가?

4회(몸과 관계): AI는 인간의 친밀성과 관계성까지 대체할 수 있는가?

5회(판단): 자율주행차의 도덕적 결정은 누가 만들어야 하는가?

6회(창작): 생성형 AI의 창작은 ‘창작’인가, 변형인가?

7회(진실성): 보이는 것이 진실이 아닐 때, 우리는 무엇을 믿어야 하는가?

8회(공정): 알고리즘은 왜 중립적이지 않은가?

9회(프라이버시와 정신적 자유): 생각이 데이터가 될 때, 자유는 어떻게 지켜지는가?

10회(인간 증강과 미래): 인간을 ‘업그레이드’한다는 말은 어디까지 가능한가?

관련기사

11회(책임) AI가 사고를 치면, 누가 책임져야 하는가?

12회(공존과 인간 번영): AI 시대, 결국 우리가 지켜야 할 것은 무엇인가?

*본 칼럼 내용은 본지 편집방향과 다를 수 있습니다.