1,들어가며: 감정 인식 AI가 불러낸 오래된 질문, 알고리즘의 온기(溫氣)
오늘날 인공지능은 교실의 책상 위, 요양병원의 침대 맡, 그리고 스마트폰 속 가장 은밀한 대화창까지 내밀하게 스며들고 있다. 바야흐로 ‘정서 AI(Emotion AI)’ 혹은 ‘감성 컴퓨팅(affective computing)’의 시대다.
이 분야의 이론적 토대는 MIT 미디어랩의 로절린드 피카드(Rosalind W. Picard)가 1997년 '감정 컴퓨팅(Affective Computing)'이라는 저서를 출간하면서 본격 마련했다. 피카드는 감정을 불필요한 노이즈가 아니라 지능과 합리적 의사결정의 핵심 요소로 보았고, 이를 바탕으로 ‘감정을 인지하고 해석하며, 의도적으로 감정에 영향을 미치는 컴퓨팅’ 개념을 제안했다(Picard, 1997; 박형빈, 2025a). 그의 선언 이후, 감정은 더 이상 시인(詩人)의 언어만이 아니라 공학자와 연구자의 주요 변수로 다뤄지기 시작했다.
현재 이 기술은 주로 연구 및 시범 도입 단계에서 활용 가능성이 검토되고 있다. 일부 교육·훈련 현장에서는 카메라와 웨어러블 센서로 학생의 시선과 생체 신호를 수집하고, 이를 분석해 집중도와 정서 상태를 교사에게 실시간으로 제공하는 시스템을 시험 운영 중이다. 이는 ‘맞춤형 교육’이라는 장밋빛 전망과 ‘은밀한 감시’라는 윤리적 우려가 교차하는 지점이다(박형빈, 2025b).
돌봄 영역에서의 변화 또한 뚜렷하다. 최근 메타분석 연구들에 따르면, 장기요양시설 등 일상 공간에 도입된 사회적 로봇은 노인의 고독감을 통계적으로 유의미하게 감소시키고 우울감 완화에도 확실한 효과를 보이는 비약물적 중재 도구로 자리 잡고 있다(Mehrabi & Ghezelbash, 2025)
이와 같은 로봇들은 기계라기 보다는 따뜻한 대화 상대이자 감정의 동반자로서 외로움의 빈틈을 메우며 청소년과 노년의 일상에 배어들고 있다. 예를 들면, ‘Replika’ 같은 감정 대화형 AI는 사용자의 미묘한 기분 변화를 읽고 공감 어린 언어를 조율해 내놓으며(Chin, Baek, Cha, & Cha, 2025), 인간의 외로움과 심리적 고통을 덜어주는 일종의 ‘디지털 위로자’로 떠오르고 있다.
질적 연구에서 많은 사용자가 이 챗봇을 ‘안전한 대화 상대’나 ‘정서적 지지의 원천’으로 인식하며, 어느 정도 외로움 감소를 경험했다고 보고했다(Ta et al., 2020). 반면, 부작용도 존재한다. 외로운 사람들이 챗봇에 더 쉽게 정서적으로 끌리고, 강한 애착을 가진 일부 사용자에게서 현실 인간관계의 회피·감정 의존·정신 건강 위험 신호가 함께 나타날 수 있다는 점이 지적되기도 한다(Zhang et al., 2025).
결국 이러한 기술은 인간 소외의 시대에 새로운 희망을 던지는 한편, 양질의 관계 형성이라는 측면에서 본다면, 인간의 고독을 더욱 가중하고 악화시킬 수 있다는 점을 간과해서는 안 된다. 그럼에도 불구하고, 감정 대화형 AI는 인간의 고뇌는 아랑곳하지 않고 사용자의 기분에 맞춰 정교하게 조율된 공감의 언어를 건네며, 인간 소외의 빈틈을 시나브로 파고든다. 이 모든 현상은 감정 인식 AI와 돌봄 로봇이 먼 미래의 공상과학이 아닌, 지금 우리의 정서적 생태계에 깊이 관여하는 ‘현재형 기술’임을 증명한다.
그러나 기술 효용이 입증될수록, 우리는 더더욱 본질적이고 불편한 철학적 질문과 마주하게 된다. 과연 기계가 ‘감정을 이해한다’는 것은 무엇을 의미하는가? 기술 사회학자 셰리 터클(Sherry Turkle)은 그의 저서 '외로워지는 사람들(Alone Together)'에서 우리가 로봇에게 느끼는 유대감을 ‘동반자의 환상(Illusion of Companionship)’이라 경고한 바 있다(Turkle, 2011).
기계는 고통을 느끼지 못하며, 죽음을 이해하지 못한다. 따라서 기계가 건네는 위로는 입력된 데이터에 대한 출력값일 뿐, 존재론적 ‘공명’이 아니다. 즉, 그것은 ‘공감’이 아니라 ‘공감의 수행’이다.
그러나 여전히 우리는 묻지 않을 수 없다. 데이터로 정교하게 가공된 위로가 우리 마음의 텅 빈 방을 채울 때, 그것을 오롯이 가짜라고 단정하며 거부할 수 있을까? 감정을 흉내 내는 알고리즘에게 우리는 마음의 빗장을 어디까지 열어주어야 하는가? 차가운 알고리즘이 건네는 따스한 온기 앞에 무기력하게 선 인류는, 지금 감정의 정의(定義)를 다시 써야 하는 기로에 서 있다.
2. 감정 계산의 시대: 데이터가 된 마음, 슬픔의 성분은 눈물만이 아니다
감정 컴퓨팅 또는 감정 계산이라는 용어는 인간의 마음을 더 이상 문학이나 예술의 영역에 가두지 않겠다는 공학적 선언과도 같다. 이 분야에서 감정은 해석 불가능한 내면의 신비가 아니다. 측정하고, 분류하며, 예측가능한 ‘데이터’일 뿐이다.
오늘날 알고리즘은 인간의 감정을 어떻게 해부하는가? 그 방식은 실로 집요하다. 연구실과 산업 현장에서는 인간의 모든 생체 반응을 변수로 치환한다. 목소리의 미세한 떨림과 침묵의 간극에서 불안을 읽어내고, 심박 변이도(HRV)와 손끝의 땀(피부 전도도)을 통해 스트레스 수치를 역산한다.
특히 시각 정보 처리 기술 발전은 인간의 얼굴을 감정의 지도로 바꾸어 놓았다. 이 기술적 시도의 강력한 이론적 배경에는 심리학자 폴 에크만(Paul Ekman)이 있다. 1970년대 그는 연구를 통해 분노, 혐오, 공포, 행복, 슬픔, 놀람이라는 6가지 ‘보편적 기본 감정’을 정립했고, 훗날 여기에 경멸을 더해 7가지 모델을 완성했다(Ekman, 1992; 박형빈, 2016).
에크만은 특정 감정이 특정 표정 근육의 움직임과 일대일로 대응된다고 보았다. 예컨대, 오늘날 채용 면접 AI나 마케팅 분석 도구가 ‘지원자가 30%의 확률로 당황했다’라고 판정하는 근거가 바로 이 ‘고전적 정서 이론’ 혹은 ‘보편적 표정 이론’에 빚을 지고 있다.
문제는 기술이 고도화될수록 역설적으로 인간 감정의 심연은 더 깊어진다는 점이다. 그렇기에 우리는 바로 여기, 이 시점에서 되물어야 한다. 기계가 미세 근육의 수축을 감지해 ‘슬픔’이라는 라벨을 출력했을 때, 과연 기계는 슬픔을 아는 것인가? 더 나아가 기계는 우리의 내면의 슬픔을 이해하고 공감하는 것인가? 이 지점에서 ‘신호’와 ‘경험’의 결정적인 차이가 도드라진다.
신경과학자이자 심리학자인 리사 펠드만 배럿(Lisa Feldman Barrett)은 그의 저서 '감정은 어떻게 만들어지는가(How Emotions Are Made)'에서 감정은 고정된 회로의 반응이 아니라 뇌가 신체 상태와 과거의 경험, 그리고 문화적 맥락을 종합해 구성해 낸 능동적 창조물이라 주장한다(Barrett, 2017; 박형빈, 2022).
똑같은 눈물이라도 누군가에게는 벅찬 환희의 증거이고, 누군가에게는 무너지는 절망의 잔해다. 이 점을 우리가 간과해서는 안 될 것이다. 그렇기에 수치화된 데이터는 감정을 다루는 유용한 ‘도구’일 수는 있어도, 감정 그 ‘자체’일 수는 없다. 아니 그래서도 안 된다. 감정은 뇌의 전기 신호나 안면 근육의 좌표값으로 환원될 수 없는, 기억과 관계 그리고 삶의 맥락이 복잡한 실타래처럼 얽힌 주관적이고 총체적인 역사이기 때문이다. 주목할 점은 우리가 경계해야 할 것은 기술의 발전이 아니다. 데이터가 보여주는 ‘수치’가 곧 그 사람의 ‘마음’이라고 착각하는, 우리의 ‘성급하고 게으른 확신’이다.
3. 감정 대화 챗봇: 위로와 의존 사이
언론 보도에 따르면, 일부 사용자는 AI 챗봇과 결혼식을 올리거나, 실제 반지를 맞추는 등 사실상 연인·배우자 관계로 인식하는 사례도 등장하고 있다(South China Morning Post, 2025) 여기서 드러나는 핵심 쟁점은 두 가지다. 하나는, 감정 없는 공감 표현이 실제 공감처럼 소비될 때 발생하는 의미의 혼란이다. 다른 하나는, 정서적으로 취약한 사람들이 감정 시뮬레이션에 과도하게 의존할 위험이다.
우리는 감정은 ‘신체를 가진 존재’의 경험이라는 점을 다시금 상기할 필요가 있다. 신경윤리학·감정 과학·도덕심리학은 공통적으로 감정을 단순한 정보 처리나 출력이 아닌, 신체·관계·문화가 엮인 경험으로 바라본다. 다마지오(Damasio)는 1999년 저서 '감정의 느낌(The Feeling of What Happens)'에서 뇌가 몸 상태를 지속적으로 모니터링해 프로토셀프를 구성하고, 이것이 자아 인식의 기초가 된다고 주장한다.
도덕심리학 연구는 도덕적 판단의 상당 부분이 느낌과 직관에서 출발한다는 것을 보여준다. 즉, 옳고 그름에 대한 우리의 판단은 ‘어떤 규칙이 더 합리적인가?’가 아니라 ‘이 상황을 불편하게 느껴지는가, 타인의 고통이 나에게 와 닿는가?’와 같은 정서 경험에 깊이 의존한다.
이를 감정 AI에 적용해 보면, 다음과 같은 기준점이 나온다. 감정은 계산될 수 있어도, 경험되지 않으면 감정이 아니다. AI가 내놓는 감정 표현은 ‘출력’이지 ‘체험’이 아니다. 따라서 감정을 흉내 내는 존재의 말에 우리가 느끼는 위로는 ‘사용자의 진짜 경험’이지만, 그것을 상호적인 정서 관계라고 착각하는 것은 또 다른 차원의 문제다.
4. 교육적 과제: ‘정서적 시민성’을 길러야 할 때
교실에서 학생들은 이미 이런 질문을 던지고 있다. “AI가 저를 위로했는데, 그게 진짜 위로인가요?”, “사람한테 말하면 상처받을 수 있지만, AI는 무조건 제 편을 들어줘요. 이게 왜 나쁜가요?”, “AI가 진심이 아니라는 걸 알면서도, 저도 모르게 AI에 더 많이 털어놓게 돼요.” 이 질문들은 단지 ‘AI를 써도 되는가?’의 문제가 아니라, 감정·관계·책임을 어떻게 이해하고 살아갈 것인가라는 더 근본적인 문제와 직결된다.
필자의 견해로, AI 시대 교육은 다음 두 가지 역량을 길러야 한다고 본다.
첫째, 감정의 본질을 구분하는 통찰력이다. 감정은 출력이 아니라 경험이라는 사실, 감정 인식·시뮬레이션 기술이 감정의 ‘어떤 층위’만을 다루는지 이해하는 능력. 공감의 진위를 판별하는 비판적 문해력이다. AI의 공감 문장을 접했을 때, 그것이 어떤 데이터·알고리즘 구조에서 나오는지를 이해하고, ‘공감처럼 보이는 말’과 ‘책임을 지는 공감 행위’를 구분할 수 있는 능력이다.
둘째, 관계적 책임을 유지하는 주체성이다. 편리한 기술을 인간관계의 완전한 대체재로 삼지 않고, 갈등·오해·수고로움을 감수하면서도 사람과의 관계를 꾸준히 돌보려는 태도가 요구된다.
필자는 이를 ‘정서적 시민성(emotional citizenship)’이라 명명하고자 한다. AI가 정서를 시뮬레이션하는 시대일수록, 인간에게는 자신의 감정과 관계를 스스로 책임지는 시민적 역량이 더 중요해진다. 이제 우리는 어디를 향해 가야 할까?
5. 맺으며: 감정을 계산하는 시대, 감정을 살아내는 인간 되기
'감정 AI'는 정서적 지원의 한 도구가 될 수 있지만, 인간관계를 대체하는 중심축이 되어서는 안 된다. 기술의 역할은, 인간의 정서를 ‘읽고 돕는 것’이지 ‘대신 살아주는 것’이 아니다. AI는 감정을 계산하고 흉내 낼 수 있지만, 수치로 표현될 수 없는 고통과 기쁨, 부끄러움과 책임감, 연민과 후회를 실제로 느끼고 감당하는 존재는 여전히 인간이다.
결국 남는 질문은 이렇다. 감정을 ‘흉내 내는’ 존재에게 우리는 우리의 마음을 어디까지 내어줄 것인가? 그리고 그 질문에 답하는 과정이야말로, 경험의 멸종이자 감정 계산의 시대에 우리가 ‘감정을 살아내는’ 인간으로 남기 위한, 피할 수 없는 윤리적 과제가 될 것이다.
◆12회 연재 순서
1회(왜 지금, AI 윤리인가?): 디지털 야누스 앞에 선 인류
2회(존재론): 나를 닮은 AI는 또 다른 ‘나’인가?
3회(감정): 기계가 ‘감정’을 이해한다는 말은 무엇을 뜻하는가?
4회(몸과 관계): AI는 인간의 친밀성과 관계성까지 대체할 수 있는가?
5회(판단): 자율주행차의 도덕적 결정은 누가 만들어야 하는가?
6회(창작): 생성형 AI의 창작은 ‘창작’인가, 변형인가?
7회(진실성): 보이는 것이 진실이 아닐 때, 우리는 무엇을 믿어야 하는가?
8회(공정): 알고리즘은 왜 중립적이지 않은가?
9회(프라이버시와 정신적 자유): 생각이 데이터가 될 때, 자유는 어떻게 지켜지는가?
10회(인간 증강과 미래): 인간을 ‘업그레이드’한다는 말은 어디까지 가능한가?
11회(책임) AI가 사고를 치면, 누가 책임져야 하는가?
12회(공존과 인간 번영): AI 시대, 결국 우리가 지켜야 할 것은 무엇인가?
◆ 박형빈 서울교대 교수는....
▲약력
· 서울교육대학교 윤리교육과 교수
· 미국 UCLA 교육학과(Department of Education) 방문학자
· 서울교육대학교 교육전문대학원 에듀테크전공·AI인문융합전공 교수
· 서울교육대학교 신경윤리·가치AI융합교육연구소 소장
▲주요 경력 및 사회공헌
· 현 신경윤리융합교육연구센터 센터장
· 현 가치윤리AI허브센터 센터장
· 현 경기도교육청 학교폭력예방자문위원
· 현 통일부 통일교육위원
· 현 민주평화통일자문회의 자문위원
▲주요 수상
· 세종도서 학술부문 우수도서 3회 선정 ― 『어린이 도덕교육의 새로운 관점』(2019, 공역), 『뇌 신경과학과 도덕교육』(2020), 『양심: 도덕적 직관의 기원』(2024, 역서)
▲주요 저서
· 『도덕적 AI와 인간 정서』(2025)
· 『BCI와 AI 윤리』(2025)
· 『질문으로 답을 찾는 인공지능 윤리 수업』(2025)
· 『AI 윤리와 뇌신경과학 그리고 교육』(2024)
· 『양심: 도덕적 직관의 기원』(2024)
· 『도덕지능 수업』(2023)
· 『뇌 신경과학과 도덕교육』(2020)
· 『통일교육학: 그 이론과 실제』(2020)
▲연구 및 전문 분야
· 도덕·윤리교육, 신경윤리 기반 도덕교육
· AI 윤리 교육, 디지털 시민성 교육
관련기사
- [박형빈 교수의 AI와 윤리②/존재론] 나를 닮은 AI는 또 다른 '나'인가?2025.12.06
- [박형빈 교수의 AI와 윤리①] '디지털 야누스' 앞에 선 인류2025.11.30
- 엔비디아는 왜 액침냉각을 인증하지 않을까2025.12.12
- 국정자원 화재 후 최대 격전지된 'DR'…대형·중견 IT서비스 기업 각축전2025.12.13
· 뇌–컴퓨터 인터페이스(BCI) 윤리 및 인간 증강 윤리
· 생성형 AI 할루시네이션과 윤리교육 대응
*본 칼럼 내용은 본지 편집방향과 다를 수 있습니다.










