1. 들어가는 말: 로봇은 말보다 '몸'으로 먼저 말한다
‘로봇’이라는 단어가 세상에 처음 등장한 것은 체코 작가 카렐 차페크(Karel Čapek)의 희곡 'R.U.R.(Rossum's Universal Robots)'을 통해서다. 작품은 1920년 탈고·출간됐고, 이듬해인 1921년 프라하 국립극장에서 공식 초연됐다.
‘robot’이라는 명칭은 차페크가 형 요제프 차페크(Josef Čapek)의 제안을 받아 사용한 것으로, 체코어 robota-봉건 시대의 강제 노동, 부역-에서 유래했다. 이 어원 안에는 이미 하나의 암시가 새겨져 있다. 로봇은 탄생의 순간부터 말만 하는 존재라기보다 인간의 일·공간·질서 속으로 들어와 자리를 차지하는 존재로 상상됐다.
차페크는 'R.U.R.'에서 로봇이 인간의 노동을 대신하는 세계를 무대에 올린다. 로봇의 반란과 인류의 멸망을 통해 그가 던지는 질문은 선명하다. 인간이란 무엇이며, 인간 삶의 목적은 어디에 있는가.
로숨 공장의 풍경은 노동과 권력의 역학을 탐색하는 장치이기도 하다. 차페크의 무대에서 로봇은 공장의 생산 체계를 바꾸고, 사회의 분업 구조를 재편하며, 마침내 인간 세계의 조건 자체를 흔든다. 주목할 것은 재앙의 기원이다. 재앙은 ‘거짓말하는 로봇’ 때문이 아니라, 로봇이 세계에 배치되는 과정에서 인간의 관계·노동·규범이 조용히 재구성되면서 시작된다. 문제의 핵심은 로봇이 무엇을 ‘말했는가’가 아니라, 로봇이 거기에 ‘있음’으로써 무엇을 ‘하게 만들었는가’에 있다.
한 세기가 지난 지금, 로봇은 더욱 영리해졌으며 그 무대는 공장을 넘어 병원, 식당, 가정으로 확장되었고, 이제 교실로까지 그 발걸음이 향하고 있다. 우리는 AI 튜터를 떠올릴 때 흔히 ‘무슨 말을 해 주는가’를 먼저 묻는다. 정답을 제시하는가, 설명이 친절한가, 칭찬을 적절히 하는가. 그러나 로봇형 튜터가 교실에 들어오는 순간, 질문의 축 자체가 달라진다. 로봇은 공간을 점유하고, 학생의 동선과 시선을 바꾸며, 교사의 수업 운영 방식과 교실의 규범적 리듬을 재배치한다. 챗봇이 텍스트와 음성을 통해 ‘정보’를 주고받는다면, 로봇은 거기에 더해 ‘물리적 현존’ 자체로 상호작용의 조건을 바꾼다.
이 변화의 윤리적 무게는 교실 밖에서 이미 예고되어 왔다. 물류 현장에서는 자율 이동 로봇이 작업 공간을 공유하며 동선을 재설계하고, 공장에서는 협동 로봇과 산업용 로봇이 생산라인에 투입되어 작업의 순서·속도·안전 절차를 재구성하며, 일부 도시에서는 자율주행 기반 서비스가 사회적 규칙과 책임의 설계를 새로 요구하고 있다. 물론 이 사례들이 교실과 동일하지는 않다. 그러나 공통점은 분명하다. 피지컬 AI는 ‘도구 한 점’이 아니라 ‘환경의 일부’가 되며, 그 순간 윤리의 무게중심은 기능의 우수성에 더하여 배치가 만들어내는 관계의 변화로까지 증폭한다.
2. 몸을 가진 기계의 등장: 도구가 아니라 ‘사건’으로서의 로봇
여기서 한나 아렌트(Hannah Arendt)의 통찰이 날카롭게 개입한다. 아렌트는 '인간의 조건』(The Human Condition, 1958)'에서 인간 활동의 양태를 노동·작업·행위로 구분하고, 그 가운데 ‘행위’를 타자들 사이에서 새로운 시작을 열고 복잡한 관계의 그물을 형성하며 변형시키는 고유한 영역으로 규정했다. 아렌트에게 ‘행위’란 목적을 위한 기능적 산출이 아니다. 그것은 이미 존재하는 관계망 속에 개입해 예측 불가능한 과정을 촉발하는 새로운 시작의 사건이다.
이 사유의 궤적 위에서, 로봇이 교실에 진입하는 순간 우리는 피하기 어려운 존재론적 질문에 직면하게 된다. “로봇은 정보를 매개하는 도구인가, 아니면 교실 내부의 관계적 배치를 근본적으로 뒤흔드는 하나의 ‘사건’인가?”
이 질문의 층위를 전환하면 그 의미는 더욱 선명해진다. 디지털 AI가 주로 판단·선택·이해의 영역에 개입하는 ‘정보적 영향’에 집중해 왔다면, 물리적 실체를 가진 피지컬 AI는 거기에 더해 공간을 재구성하고, 특정 행동을 유도하며, 접근 가능성의 구도 자체를 바꾸는 ‘물리적·인과적 영향’을 함께 수반한다. 이제 기술은 중립적으로 ‘사용되는 도구’에 머물지 않는다. 그것은 우리의 경험을 구조화하는 ‘환경’ 자체가 된다.
그렇다면, 교실에 AI 튜터 로봇을 도입하는 일은 ‘신규 교구의 확충’이 아니라, 학생들이 타자와의 관계를 배우고 공동체의 규범을 내면화하는 ‘환경 자체의 변형’으로 읽혀야 한다. 바로 이 지점이 학교 AI 튜터 로봇 윤리가 닻을 내려야 할 좌표다. 로봇의 언어적 능력을 포함해 그 현존의 효과에서 논의를 시작할 때, 우리는 비로소 다음의 질문들을 제대로 마주할 수 있다.
로봇 튜터는 학습의 효율을 높이는 보조자인가, 아니면 교실의 관계망을 근본적으로 재배치하는 행위자인가? 학생의 자율성과 교사의 권위는 어떤 조건 아래에서 보존될 수 있는가? 그리고 무엇보다, 문제가 생길 때, 누가 어떤 근거로 책임을 지는가?
이 질문들은 단순하지 않다. 그러나 묻지 않은 채 로봇을 교실에 들이는 것은, 차페크가 경고했던 그 실수를 교육이라는 이름으로 되풀이하는 일이다. 차페크의 로봇이 언어의 기교가 아니라 현존으로 세계의 질서를 흔들었듯, 교실에 들어올 피지컬 AI 역시 ‘정답을 얼마나 그럴듯하게 말하는가’가 아니라 ‘거기에 있음으로써 교실에서 무엇이 가능해지고 무엇이 불가능해지는가’로 평가되어야 한다.
로봇이 교실의 공기를 바꾸고, 시선의 방향을 재배치하며, 교사의 판단이 도달하기 전에 학생의 행동을 ‘개입 대상’으로 만들어 버린다면-윤리는 그때부터 시작된다-. 그리고 그 윤리적 물음의 핵심에는 해석이 있다. 로봇이 학생을 읽고, 판단하고, 개입을 결정하는 순간, 우리는 묻지 않을 수 없다. 로봇이 학생을 교육적으로 ‘올바르게 읽는다’는 것은 과연 무엇을 뜻하는가.
3. 누가 아이의 침묵을 읽는가: 해석의 권한은 교실에 있어야 한다
미래 교실을 상상해 보자. 교실에 로봇 튜터가 들어왔다. 학생이 오답을 냈다. 학생이 침묵한다. 로봇은 이 침묵을 읽는다. 표정을 스캔하고, 시선의 방향을 감지하며, 음성 신호의 부재를 처리한다. 그리고 판단한다-이것은 혼란인가, 포기인가, 아니면 생각 중인가. 그 판단에 따라 다음 개입이 결정된다. 힌트를 줄 것인가, 기다릴 것인가, 난이도를 낮출 것인가.
관찰자는 같은 장면을 보고 있지만, 떠오르는 핵심 질문은 하나로 수렴한다. “로봇의 그 판단은 과연 이 아이의 침묵을 ‘올바르게’ 읽은 것인가. 그리고 더 근본적으로-그 해석의 권한이 로봇에게 주어져도 되는 것인가?”
로널드 드워킨(Ronald Dworkin)은 '원칙의 문제』(A Matter of Principle, 1985)'에서 어떤 대상을 해석한다는 것은 그것을 단순히 ‘있는 그대로’ 기술하는 행위가 아니라, 그 대상이 속한 실천이 전제하고 지향하는 도덕적·규범적 가치를 탐색하고 그에 비추어 그 실천을 가장 설득력 있게 이해·정당화하려는 규범적 활동이라는 견해를 제시한다. 이듬해 저작 '법의 제국(Law's Empire, 1986)'에서 그는 이를 ‘건설적 해석’으로 정식화하며, 해석이란 그 실천을 ‘가장 잘 보이도록’ 만드는 이론을 제시하는 것이라고 규정한다.
드워킨은 이를 법 해석에 적용했지만, 그의 통찰은 교육 현장에서 더욱 예리하게 빛난다. 교실은 언제나 ‘해석’의 공간이었기 때문이다. 교사는 학생의 침묵을 무지로 읽기도 하고, 사유의 깊이로 읽기도 한다. 같은 행동이 반항으로도, 자기표현의 시도로도 보인다. 가르침의 기예는 상당 부분 이 해석의 기예이기도 하다. 그리고 이 해석은 언제나 교사의 몫이었다-지금 이 아이의 맥락을, 어제를, 오늘의 표정을 아는 인간의 몫.
그런데 로봇 튜터가 교실에 들어오는 순간, 이 해석의 자리에 알고리즘이 먼저 앉는다. 학생의 침묵이 교육적으로 '최선의 상태'로 해석되고 있는지를 판단하는 권한-그것은 알고리즘이 아니라 인간 교사에게 남아 있어야 한다. 이것은 권한 배분의 문제가 아니라 교육의 본질에 관한 문제다.
넬 나딩스(Nel Noddings)가 돌봄 윤리에서 주장했듯, 교육적 관계는 눈앞의 학습자의 구체적 현실에 응답하는 행위다. AI 개발자는 수천 명의 평균적 학습자를 상정하지만, 교사는 지금 이 아이의 어제를 알고 있다. 더욱이 몸을 가진 로봇은 화면보다 훨씬 가까이에서, 훨씬 직접적인 방식으로 그 아이의 공간에 개입한다. 해석의 권한이 교실에-인간 교사에게-있어야 하는 근거는 바로 이 좁힐 수 없는 비대칭성에 있다.
4. 알고리즘이 교사의 자리에 앉을 때: 해석 주권의 조용한 이전
피지컬AI는 점차 인간의 행동·상태를 ‘추정’하고 그에 따라 개입을 조정하는 주체로 등장하고 있다. 오늘날 일부 소셜·돌봄 로봇은 카메라와 마이크 등 센서를 통해 표정, 음성의 억양, 시선 방향, 자세 같은 신호를 수집·분석하여 사용자의 주의·정서·이해 상태를 확률적으로 추정하고, 그 결과에 따라 다음 행동을 결정한다. 즉 로봇은 찡그린 얼굴을 ‘혼란’으로, 고개를 드는 동작을 ‘이해’로 단정한다기보다 그런 범주로 분류하거나 가설화하고, 그 가설에 맞춰 상호작용 전략을 선택하는 방식으로 작동한다.
교실에 피지컬 AI가 들어온다면, 이러한 정보를 종합해 학생에 대한 설명의 속도, 질문의 난이도, 반복 여부, 안내 방식 등을 조절한다. 이 순간, 드워킨적 의미에서 심각한 전도가 발생한다. 교실의 해석학적 주권이 조용히 기계 쪽으로 이전되는 것이다. 학생의 감정과 이해 상태에 관한 1차 해석을 알고리즘이 수행하고, 교사는 그 결과물-로봇이 출력한 학습 데이터와 감정 분석 리포트-을 사후에 전달받는 2차 관찰자로 밀려날 위험이 있다.
리사 펠드먼 배럿(Lisa Feldman Barrett)의 감정 구성주의는 이 위험의 깊이를 보여준다. 배럿에 따르면, 감정은 얼굴 표정이나 신체 신호에 새겨진 보편적 데이터가 아니다. 그것은 문화·언어·맥락·개인사에 의해 구성되는 경험이다. 같은 찡그림이 어떤 아이에게는 집중의 표시이고, 어떤 아이에게는 복통의 신호이며, 또 다른 아이에게는 전날 밤 집에서 있었던 일의 잔상일 수 있다. 로봇이 이 찡그림을 ‘혼란’으로 일률 해석하고 교육적 개입을 결정하는 순간, 그것은 드워킨이 경계한 최악의 해석-대상을 ‘최선의 상태’가 아닌 ‘알고리즘이 가장 처리하기 쉬운 상태’로 환원하는 해석-을 수행하는 것이다.
이것이 문제인 이유는 단지 오류 가능성 때문이 아니다. 해석권의 이전은 교사의 전문성을 형해화한다. 교사가 로봇의 분석 리포트를 ‘참고’하는 것과, 로봇의 해석이 교사의 판단을 구조적으로 선점하는 것 사이에는 건너기 어려운 경계가 있다. 그 경계가 무너지는 속도는, 피지컬 AI의 도입 속도보다 훨씬 빠를 수 있다.
5. 결론: 로봇이 교실에 들어오기 전 우리가 먼저 답해야 할 것들
드워킨의 법 해석론은 하나의 핵심 전제 위에 서 있다. 해석은 홀로 완결되는 작업이 아니라 공동체 안에서 지속되는 실천이라는 것이다. 법의 의미는 입법자도 판사도 단독으로 확정하지 못하며, 법적 공동체 전체가 참여하는 대화 속에서 만들어진다. 교실도 그러하다. 교실의 의미는 교사 혼자도, 교육과정 설계자 혼자도 아닌, 교사와 학생과 학부모가 함께 참여하는 살아있는 해석의 공간에서 형성된다. 피지컬 AI가 언젠가 이 공동체에 진입할 때, 우리가 먼저 제기해야 할 질문은 의외로 단순하다. “로봇은 그 해석의 대화를 풍요롭게 하는가, 아니면 대체하는가?”
로봇이 교사의 관찰을 보완하고 해석을 뒷받침하는 정보를 제공한다면, 그것은 공동체의 유능한 조력자다. 반면 로봇이 학생에 관한 결정적 해석을 선점하고 교사의 직관과 경험을 구조적으로 압도하기 시작한다면, 교실은 해석의 공동체이기를 멈추고 알고리즘의 집행 현장이 된다. 이 경계를 지키는 일은 윤리와 제도의 몫이다.
그렇기에 피지컬 AI 튜터가 교실에 들어오기 전에, 다음의 선제 조건이 반드시 충족되어야 한다.
첫째, 교사는 로봇을 언제든 즉각 중단시킬 수 있어야 하며, 그 권한은 매뉴얼의 조항이 아니라 실질적 현장 권한으로 보장되어야 한다. 둘째, 학생의 감정·행동 데이터가 어떻게 수집되고 어디에 쓰이는지에 대한 투명한 고지가 선행되어야 한다. 셋째, 문제가 생겼을 때 제조사·개발사·학교·교사 가운데 누가 어떤 근거로 책임을 지는지, 그 지도가 도입 전에 그려져 있어야 한다.
선의는 책임을 대체하지 못한다. 책임의 지도 없는 도입은 혁신이 아니라 위험의 외주화다. 학생의 침묵이 무엇을 의미하는지, 찡그린 표정이 무엇을 말하는지-그 최종 해석은 기계가 아니라 ‘인간 교사’에게 남아 있어야 한다. 드워킨의 언어로 말하자면, 교육적 가치라는 왕관은 알고리즘에 양보할 수 없다. 그것은 여전히 교사의 손에 있어야 하며, 바로 그 손이 교실을 교실이게 만드는 마지막 조건이다.
교실에 로봇을 정박시키는 행위는 공학적 효율의 문제가 아니라, 본질적으로 ‘설계의 위계’에 관한 문제다. 무릇 설계란 언제나 특정한 가치 체계의 선택과 배제를 전제하기 때문이다. 이러한 가치 결단의 책무를 유예하거나 기술 개발자의 알고리즘에 위임하는 것은, 차페크의 희곡에서 인류가 범했던 치명적 오류-즉, 존재를 책임의 고리 없이 세계에 방류했던 그 과오-를 ‘교육 혁신’이라는 미명하에 반복하는 것에 다름 아니다.
만약 우리가 기술의 물리적 진입에만 매몰돼 그 이면의 윤리적 기표들을 읽어내지 못한다면, 교육의 주체성은 급격히 형해화될 수밖에 없다. 로봇이라는 물리적 실체를 교실로 들이기 전에, 우리가 먼저 문턱 너머로 들여야 할 것은 바로 이러한 존재론적 물음들이어야 하지 않을까.
◆ 필자 박형빈 서울교대 교수는....
▲약력
· 서울교육대학교 윤리교육과 교수
· 미국 UCLA 교육학과(Department of Education) 방문학자
· 서울교육대학교 교육전문대학원 에듀테크전공·AI인문융합전공 교수
· 서울교육대학교 신경윤리·가치AI융합교육연구소 소장
▲주요 경력 및 사회공헌
· 현 신경윤리융합교육연구센터 센터장
· 현 가치윤리AI허브센터 센터장
· 현 경기도교육청 학교폭력예방자문위원
· 현 통일부 통일교육위원
· 현 민주평화통일자문회의 자문위원
▲주요 수상
· 세종도서 학술부문 우수도서 3회 선정 ― 『어린이 도덕교육의 새로운 관점』(2019, 공역), 『뇌 신경과학과 도덕교육』(2020), 『양심: 도덕적 직관의 기원』(2024, 역서)
▲주요 저서
· 『도덕적 AI와 인간 정서』(2025)
· 『BCI와 AI 윤리』(2025)
· 『질문으로 답을 찾는 인공지능 윤리 수업』(2025)
· 『AI 윤리와 뇌신경과학 그리고 교육』(2024)
· 『양심: 도덕적 직관의 기원』(2024)
· 『도덕지능 수업』(2023)
· 『뇌 신경과학과 도덕교육』(2020)
· 『통일교육학: 그 이론과 실제』(2020)
▲연구 및 전문 분야
관련기사
- 서울대 로보틱스연구소 출범…피지컬AI 연구 허브 구축2026.02.23
- [박종성 피지컬AI⑦] 미·중 패권 속 위태로운 대한민국 로봇 산업2026.02.22
- IITP, 피지컬AI PM 신설...AX 초점 조직 재편2026.02.22
- [피지컬AI와 윤리①] AI 동반자(Companion AI), 위로인가 통제인가2026.02.22
· 도덕·윤리교육, 신경윤리 기반 도덕교육
· AI 윤리 교육, 디지털 시민성 교육
*본 칼럼 내용은 본지 편집방향과 다를 수 있습니다.










