1. 들어가며: 탈로스의 후예들, 도로에 서다
그리스 신화에 등장하는 헤파이스토스(Hephaestus)는 신들의 대장장이였다. 절름발이의 몸으로 올림포스에서 내던져진 이 신은, 그러나 다른 어느 신도 흉내 낼 수 없는 것을 빚어냈다. 바로 스스로 움직이는 금속 자동 장치였다. 호메로스의 '일리아스'는 헤파이스토스가 금으로 만든 하녀들이 살아 있는 여인처럼 움직이며 주인을 부축하고 세밀하게 보조했다고 전한다(호메로스, 2025). 서양 문헌에 기록된, 지능과 자율성을 부여받은 금속 자동 장치에 대한 가장 이른 상상 가운데 하나다.
크레타 섬을 홀로 순찰하던 청동 거인 탈로스(Talos)는 한층 더 직접적이다. 헤파이스토스가 단조한 이 청동 자동인은 미노스 왕의 왕국을 방어하기 위해 창조된 존재로, 크레타 섬의 해안을 순찰하다 적선이 접근하면 거대한 바위를 던져 배를 침몰시키도록 설계돼 있었다. 탈로스는 스스로 움직이는 인간형 금속 기계이자, 자율적으로 침입자를 탐지하고 격퇴하는 고대 신화 속 자율 경비 로봇에 가장 가까운 존재다(Mayor, 2018).
이 신화적 존재 안에는 피지컬 AI 시대를 사는 오늘, 우리가 정면으로 마주하는 질문들이 고스란히 새겨져 있다. 탈로스가 누군가를 죽였을 때, 그 행위는 누구의 의지인가. 책임은 탈로스에게 있는가, 그를 만든 장인 신에게 있는가, 아니면 그를 섬에 배치한 주권자에게 있는가. 설계자의 의도인가, 제작자의 결함인가, 운용자의 과실인가. 수천 년 전 신화가 던진 이 물음은, 알고리즘이 핸들을 쥔 오늘에도 여전히 답을 기다리고 있다.
이 질문이 법정 언어로 번역되기까지 수천 년이 걸렸다. 2018년 3월, 미국 애리조나주 템피에서 자율주행 시험 운행 중이던 우버(Uber) 차량이 자전거를 끌고 도로를 가로지르던 보행자 를 치어 숨지게 한 사고는, 자율주행 모드 차량에 의한 보행자 사망 사례로서는 최초의 교통 사망 사고로 기록된다. 조사 결과는 여러 층위의 실패를 드러냈다. 우버는 자율주행 시스템의 개발과 운영 과정에서 체계적인 안전 위험 평가, 운전자 모니터링, 비상 제동 설정 등에서 중대한 공백을 남겼고, 연방 및 주 규제기관은 공공 도로에서의 자율주행 시험에 대해 명확한 기준과 감독 체계를 충분히 갖추지 못한 상태에서 시험을 허용한 것으로 평가됐다.
기술적으로도 문제가 중첩됐다. 차량 센서는 충돌 수 초 전부터 보행자를 감지했지만, 소프트웨어는 대상을 일관되게 분류하지 못해 충돌 위험을 적절히 예측하지 못했고, 비상 자동제동 기능을 비활성화해 둔 상태였다. 그 결과 충분한 제동 시간이 있었음에도 자동 제동은 작동하지 않았고, 운전자 역시 제때 브레이크를 밟지 못했다. 최종 보고서에서 사고의 가장 가능성 높은 직접 원인으로 운전자가 개인 휴대폰으로 영상을 시청하느라 전방을 주시하지 않은 점을 지목하는 동시에, 우버의 안전 관리 체계와 소프트웨어 설계상의 결함, 규제 당국의 감독 부재 역시 중대한 기여 요인으로 함께 지적했다(Plungis, 2019).
2023년, 당시 운전자는 위험 초래 혐의에 대해 유죄를 인정하고 3년간의 감독 보호관찰형을 선고받았다. 검찰은 이 사건과 관련해 ‘차량 운전은 중대한 책임을 수반하는 행위이며, 어떤 기술이 적용되더라도 안전은 항상 최우선이어야 한다’고 강조했다(Riess & Sottile, 2023). 그러나 법원이 최종적으로 피고석에 앉힌 것은 운전자 개인 한 명 뿐이었다. 우버의 알고리즘 설계, 기업의 안전 관리 체계, 규제 당국의 감독 부재 등 지적된 다층적인 실패는 형사 책임의 언어로는 충분히 번역되지 못한 채, 조사 보고서와 기사 속 기록으로만 남았다.
2. 자율주행의 도덕적 지형: 트롤리 문제에서 현실의 도로로
1967년 철학자 필리파 풋(Philippa Foot)은 '낙태 문제와 이중 효과의 원리(The Problem of Abortion and the Doctrine of Double Effect)'」에서 이른바 ‘브레이크가 고장 난 전차’ 사례를 제시한다. 선로 위 다섯 사람을 향해 달려가는 전차를 본 운전자가 레버를 조작해 한 사람이 있는 곳으로 방향을 바꿀 수 있을 때, 과연 그렇게 해야 하는가를 묻는 사고 실험이다(Foot, 1967).
이 사례는 이후 주디스 톰슨(Judith Thomson)에 의해 ‘트롤리 문제(Trolley Problem)’로 정식화되었다(Thomson, 1976). 풋에 의해 처음 제시된 이 문제는 이중 효과의 원리, 칸트주의 원칙, 공리주의 각각에 대한 도덕적 직관을 동시에 시험하는 장치로 기능하며, 이후 수많은 철학자와 심리학자들이 다양한 변형 시나리오를 제시해 왔다(Andrade, 2019).
오늘날에는 자율주행 윤리 논의의 대표적 패러다임 가운데 하나로 다뤄진다. 자율주행 차량의 충돌 회피 알고리즘 역시 극단적 상황에서 이와 유사한 선택을 미리 설계해야 하기 때문이다.
그런데 우리는 여기서 톰슨의 논의를 더 깊이 들여다볼 필요가 있다. 그녀는 '죽이는 것, 죽게 내버려 두는 것, 그리고 트롤리 문제(Killing, Letting Die, and the Trolley Problem)'에서, 풋의 핵심 논지를 다음과 같이 요약한다. 즉, 우리는 ‘부정적 의무’-사람을 죽여서는 안 된다는 의무-가 ‘긍정적 의무’-생명을 구해야 한다는 의무-보다 더 엄격하다는 점을 받아들여야 한다는 것이다.
트롤리 문제에서 아무것도 하지 않으면 다섯 생명을 구해야 할 긍정적 의무를 위반하게 되고, 한 사람을 희생시키면 그를 죽이지 말아야 할 부정적 의무를 위반하게 된다. 풋에 따르면, 한 사람을 죽이지 말아야 할 부정적 의무는 한 사람을 살려야 할 긍정적 의무보다 강할 뿐 아니라, 다섯 사람을 살려야 할 긍정적 의무보다도 더 강하다. 톰슨은 이와 같은 ‘부정적 의무의 우위’ 설명을 하나의 해명 방식으로 제시한 뒤 그 함의를 분석하며, 이 구분만으로는 다양한 트롤리 변형 사례들의 도덕적 차이를 충분히 설명할 수 없다고 비판적으로 검토한다(Thomson, 1976).
이 논리를 자율주행 알고리즘에 그대로 대입하면, 사고 실험은 돌연 설계 명세서가 된다. 자율주행 차량은 충돌이 불가피한 순간, 인간 운전자라면 본능과 공황 속에 내리게 될 결정을 사전에 코드로 설계해야 한다. 즉 알고리즘은 ‘죽이는 행위’와 ‘죽게 내버려 두는 행위’ 사이의 도덕적 경계를, 사고가 발생하기 훨씬 전 조용한 엔지니어링 회의실에서 미리 확정해야 한다. 이 설계 행위 자체는 이미 도덕적 선택이다. 알고리즘이 ‘행동’을 선택하도록 프로그래밍 되는 순간, 그 코드 한 줄은 부정적 의무의 위반을 사전에 승인한 것이 된다. 반대로 ‘회피 불가’ 상황에서 아무 개입도 하지 않도록 설계하면, 이번에는 긍정적 의무의 포기가 미리 각인된다. 어느 쪽이든 알고리즘은 중립일 수 없다. 그리고 그 비중립적 선택에 서명한 자, 예를 들면, 설계자, 제조사, 규제 당국은 이미 도덕적 공범의 자리에 서 있다. 트롤리 문제가 오늘날 자율주행 윤리 논의에서 여전히 유효한 이유가 바로 여기에 있다.
3. 알고리즘의 도덕은 누가 결정하는가: 선호의 역설에서 규범의 한계까지
자율주행차는 교통사고를 대폭 줄일 수 있지만, 때로는 두 가지 악 중 하나를 선택해야 하는 상황에 직면한다. 보행자를 치는 것과, 스스로와 탑승자를 희생하여 그들을 구하는 것 사이에서 결정해야 하는 국면이 그것이다. 이러한 도덕적 판단을 알고리즘으로 구현하는 일은 공학의 문제이기 이전에 윤리학의 문제다.
트롤리 문제가 자율주행 윤리의 사고 실험으로 자리 잡는 과정에서, 학자들은 더 근본적인 질문에 봉착했다. 알고리즘이 충돌 상황에서 어떤 선택을 해야 하는가를 논하기 전에, 그 기준을 누가, 어떻게 정하는가라는 문제다. 이 질문에 실증적으로 접근한 것이 '사이언스(Science)'에 발표된 장프랑수아 보네퐁(Jean-François Bonnefon) 등의 2016년 연구 ‘자율주행차의 사회적 딜레마(The Social Dilemma of Autonomous Vehicles)’다.
이 연구는 여섯 개의 실험을 통해, 참가자들이 공리주의적 자율주행차 다시 말해, 더 큰 선을 위해 탑승자를 희생하는 차량을 도덕적으로 지지하며 타인이 이를 구매하기를 원하지만, 정작 자신은 탑승자를 보호하는 차량을 선호한다는 사실을 발견했다. 또한 공리주의적 알고리즘을 법적으로 강제하는 규제에는 반대하며, 그러한 규제가 도입될 경우 구매 의향이 유의미하게 낮아진다는 것도 확인했다(Bonnefon et al., 2016).
연구에서 드러난 논리 구조를 좀 더 찬찬히 들여다 보자. 실험 참여자 대다수는 전체 사상자를 줄이는 공리주의적 알고리즘이 도덕적으로 옳다고 판단했다. 그러나 정작 자신이 탑승할 차량에는 자기 자신을 최우선으로 보호하는 알고리즘이 탑재되기를 원했다. 여기까지는 심리적 이중성의 문제다. 그런데 진짜 역설은 그다음에 있다.
정부가 ‘모든 자율주행차에 공리주의 알고리즘을 의무적으로 탑재하라’고 규제할 경우, 실험 참여자들의 차량 구매 의향 점수는 유의미하게 하락했다. 사람들은 도덕적으로 옳다고 믿는 차를 사려 하지 않는다. 이 구매 기피는 소비자 심리의 문제라기보다 더 심각한 사회적 결과를 낳는다. 자율주행 기술은 인간 운전에 비해 교통사고를 최대 90%까지 줄일 잠재력을 가진 것으로 평가된다(Bonnefon et al., 2016). 그런데 공리주의 알고리즘의 의무화가 보급 속도를 늦춘다면, 그 지연된 시간만큼 기존 인간 운전으로 인한 사망자는 계속 누적된다.
물론 자율주행차가 모든 사고를 원천적으로 피할 수 있는 것은 아니다. 일부 충돌 상황에서는 여러 보행자를 피하기 위해 한 사람을 희생할지, 혹은 탑승자를 희생해 보행자를 살릴지를 선택해야 하는 국면이 발생한다. 이런 상황이 드물어 보일 수 있지만, 수백만 대의 차량이 동시에 운행되는 현실에서 그것은 언젠가 반드시 일어날 사건이 된다. 실제로 발생하지 않더라도, 알고리즘에는 반드시 그 가상의 상황에 대한 결정 규칙이 미리 새겨져 있어야 한다.
피해를 어떻게 분배할 것인가는 전형적으로 도덕, 윤리의 영역에 속하는 문제이며, 따라서 알고리즘은 불가피한 피해 상황에서 어떤 형태로든 도덕 원칙을 반영할 수밖에 없다.
제조사와 규제기관은 일관된 기준의 유지, 대중의 반발 방지, 구매 의욕의 저해 방지라는 세 가지 목표를 동시에 달성해야 하는 삼중의 압력 아래 놓인다. 그러나 이 세 목표는 구조적으로 충돌한다. 다수의 생명을 살리기 위해 방향을 바꾸는 선택은 공리주의적 관점에서 옳다. 그러나 그 동일한 논리를 일관되게 적용하면, 탑승자를 희생하는 선택 역시 정당화된다. 그리고 바로 그 지점에서 소비자는 등을 돌린다. 더 도덕적인 알고리즘을 강요할수록 총 사망자가 늘어날 수 있다는 것이 앞에서 언급한 역설의 구조다. 개별 행위의 윤리와 집합적 결과의 윤리가 정면으로 충돌하는 지점이다.
이 역설은 도덕철학이 수백 년에 걸쳐 대립해 온 두 진영인 공리주의와 의무론이 알고리즘이라는 물리적 형태로 충돌하는 장면이다. 제러미 벤담(Jeremy Bentham)과 존 스튜어트 밀(John Stuart Mill)의 고전적 공리주의를 전제로 하면, 한 사람을 희생해 다섯 사람을 구하는 선택은 원칙적으로 ‘얼마나 많은 사람의 행복(또는 고통의 감소)이 걸려 있는지’를 계산해 결정해야 할 문제로 이해된다. 이 전제를 받아들일 경우, 자율주행차와 같은 알고리즘은 각 선택이 초래하는 피해와 이익을 가능한 한 수량화하고 그 총량을 최소화·최대화하는 방향으로 설계되어야 한다고 주장할 수 있다.
그러나 칸트적 의무론은 정반대의 지점에서 출발한다. 그는 '도덕 형이상학의 정초(Grundlegung zur Metaphysik der Sitten)'에서 인간을 언제나 수단이 아닌 목적으로 대우해야 한다는 정언 명령을 제시한다(Kant, 1785/1998). 이 원칙에 따르면, 탑승자를 다수를 위해 희생시키도록 사전에 설계된 알고리즘은 그 탑승자를 확률적 계산의 도구로 전락시키는 행위다. 탑승자는 차량에 오르는 순간 자신이 언제 희생 변수로 코딩될지 알지 못한 채, 이미 그 계산식 안으로 들어선다.
공리주의를 택하면 칸트를 배반하고, 칸트를 따르면 최대 다수의 최대 행복을 포기해야 한다. 다수결적 선호 집계로 기준을 정하면 인권의 원칙을 침해할 수 있고, 인권의 원칙을 고수하면 어떤 선택도 온전히 정당화하기 어려워진다. 이 해소되지 않는 도덕철학적 긴장은 자율주행 도로에서 답을 찾지 못한 채, 이제 그 동일한 무게를 짊어지고 또 다른 공간인 물류 창고의 밀폐된 통로와 자동화된 선반들 사이로 무대를 옮긴다.
4. 물류 로봇이 열어 놓은 윤리의 새 전선
자율주행의 윤리는 주로 ‘사고의 순간’인 충돌을 피할 수 없는 그 찰나의 결정을 둘러싼 것이었다. 물류 로봇의 윤리는 그보다 훨씬 넓고, 훨씬 일상적인 영역을 건드린다. 사고가 나기 전, 사고가 나지 않더라도, 알고리즘이 인간의 몸과 존엄에 매일 가하는 것들이 문제다.
그리스 신화의 탈로스는 크레타 섬을 순찰하며 침입자를 막았다. 그는 명령받은 임무를 정확하게 수행했다. 오늘날 아마존(Amazon)의 물류 창고에서 24시간 쉬지 않고 이동하는 자율이동로봇들은 피지컬 AI 시대를 상징하는 존재 가운데 하나다. 2025년, 아마존 로보틱스 부사장은 아마존이 운영 중인 로봇이 100만 대를 돌파했다고 발표했다. 동시에 아마존은 딥플릿이라는 생성형 AI 기반 모델을 도입했는데, 내부 물류 데이터를 학습한 이 시스템은 지능형 교통 관리처럼 로봇들의 이동 경로를 실시간으로 조정해, 전체 로봇 플릿의 이동 시간을 약 10% 단축시키는 것으로 보고되었다. 아마존은 이러한 자동화·로봇 도입과 병행하여 2019년 이후 전 세계적으로 70만 명이 넘는 직원을 기술 중심 역할 등으로 업스킬링했다고 밝히고 있다(Dresser, 2025).
숫자만 놓고 보면 인간과 로봇의 공존이 비교적 순조롭게 진행되는 듯 보인다. 그러나 크레타 섬을 순찰하던 청동 거인 탈로스가 침입자를 공격했을 때 제기되었던 질문은 오늘의 창고에서도 여전히 답을 얻지 못하고 있다. 이 존재의 행위에 대한 책임은 누구에게 있는가. 100만 대의 로봇이 수백 개가 넘는 시설을 누비는 지금, 그 질문의 무게 역시 100만 배로 불어난 것은 아닐까?
5. 안전의 역설-로봇이 많을수록 더 위험한 창고
물류 자동화의 공식적 명분은 언제나 ‘안전’이었다. 위험하고 반복적인 육체노동을 기계가 대신함으로써 인간의 부상을 줄인다는 것이다. 그러나 로봇은 위험한 개별 작업을 인간 대신 수행하지만, 동시에 인간 노동자에게 로봇의 속도에 맞추도록 강제하는 알고리즘적 압력을 부과한다. 조지메이슨대학교 브래드 그린우드(Brad Greenwood) 교수 연구팀은 ‘창고 자동화가 작업 안전을 실제로 향상시키는가’라는 질문에 답하기 위해, 대형 물류 기업의 로봇 도입 효과를 분석했다.
그 결과, 창고 로봇 도입은 고위험 작업을 줄여 심각 부상률은 약 40% 감소시키지만, 남은 비자동화 작업의 작업 강도와 속도를 높여 비(非)심각 부상률은 약 77% 증가시키는 이중 효과를 보인다는 사실이 드러났다. 연구팀은 이를 두고 창고 ‘자동화는 노동자를 더 안전하게 만든 것이 아니라, 위험을 한쪽에서 다른 쪽으로 재배치했을 뿐’이라고 요약한다(Burtch et al., 2025; Sohn, 2025)
더욱 주목할 점은 알고리즘 관리와 인간 존엄성 문제다. 물류 창고의 또 다른 윤리 논쟁은 더 근본적인 차원에 놓인다. 로봇이 인간을 해치는 것이 아니라, 알고리즘이 인간을 관리하는 방식이 문제다. 알고리즘 기술이 수천 명의 인간 노동자의 작업을 지시하는 아마존 물류센터의 자체 자동화 시스템은 창고와 같은 전통적 작업장이 앞으로 어떻게 변화할 수 있는지를 보여준다. 나아가 카메라, 스캐너, 센서 등을 포함한 기술의 전략적 결합은 노동자의 생산성을 감시하고, 수집하며, 측정하는 동시에 노동자의 부적절한 행동을 적극적으로 방지하는 체계를 형성한다(Cheon & Erickson, 2025).
이 시스템 안에서 노동자의 행동 전체가 데이터로 변환되고, 그 데이터가 노동자 자신을 향한 명령의 근거가 된다. 의사결정권이 알고리즘으로 이전될수록, 인간 노동자의 숙련과 판단 능력은 잠식된다. 칸트의 정언 명령으로 돌아가면, 노동자를 알고리즘의 효율을 극대화하기 위한 수단으로 운용하는 이 체계는, 인간을 목적이 아닌 도구로 대우하는 것이지 않는가?
6. 드워킨 ‘원칙의 문제’가 알고리즘 책임 논쟁에 던지는 질문
현행 법 규범은 알고리즘이 야기하는 사고에 대해 충분한 규범적 해답을 제공하지 못하는 측면이 있다. 전통적 제조물책임법은 물리적 제조물의 결함을 중심으로 설계되어 왔으며, 소프트웨어 및 AI 시스템의 책임을 포괄하도록 확장되는 것은 비교적 최근의 입법·해석적 변화에 해당한다.
또한 도로교통법 체계는 인간 운전자를 전제로 형성되어 왔기 때문에, 운전자 없는 완전자율주행 상황에 그대로 적용하기에는 구조적 한계를 가진다. 나아가 산업안전보건 법령 역시 인간과 AI 기반 자율이동 로봇이 동일한 작업공간에서 상호작용하는 새로운 노동 환경을 충분히 예견하거나 반영하지 못하고 있다.
한편, 로널드 드워킨(Ronald Dworkin)은 '원칙의 문제(A Matter of Principle)'에서 법실증주의를 비판하면서 규칙이 다하지 못하는 경우에도 판결은 여전히 법질서 내부의 법적 원칙에 의해 제약되고 정당화되어야 한다고 주장한다(Dworkin, 1985).
그에게 법은 규칙만으로 이루어지지 않는다. 법에는 규칙뿐 아니라 원칙과 정책이 함께 존재한다. 이 중 원칙은 무게와 중요성의 차원을 가지며 상호 경합 한다. 드워킨에 따르면 사법 심판의 정당한 근거는 일반적 정책 목표가 아니라 개인의 권리를 보호하는 원칙에 기반한 논거다 이 구분이 알고리즘 책임 논쟁에서 예상치 못한 날카로운 빛을 발한다.
드워킨의 언어로 이 글에서 다룬 논쟁들을 다시 읽어 보자. 자율주행 기술은 교통사고를 90%까지 줄일 수 있다는 전제는 전형적인 정책 논거다. 공동체 전체의 안전이라는 집합적 목표를 근거로 기술의 도입과 확산을 정당화한다. 반면 탑승자를 사전에 희생 변수로 코딩해서는 안 된다는 주장은 원칙 논거다. 칸트의 정언 명령이 뒷받침하는 개인의 권리 논거다. 드워킨에게 두 논거가 충돌할 때 원칙이 정책을 이긴다. 원칙은 정책에 대한 음뜸패(trump)이기 때문이다(Dworkin, 1985).
보네퐁 연구팀이 발견한 역설-공리주의 알고리즘이 도덕적으로 옳다고 생각하면서도 자신의 차에는 탑재하고 싶지 않은-은, 드워킨의 틀에서 보면 정책 논거와 원칙 논거 사이의 충돌이 개인의 내면에서 재연되는 장면이다. 그 사람은 집합적 목표(정책)는 지지하지만, 그것이 자신의 권리(원칙)를 침해할 때 저항한다.
자율주행 알고리즘의 설계 엔지니어는 제한된 시간 안에, 제한된 데이터로, 원칙들 사이의 경합을 코드로 번역해야 한다. 그 코드는 원칙에 대한 하나의 해석을 물리적으로 고정한다. 그리고 그 고정된 해석은 사고가 발생하는 순간 이미 집행된다. 이것이 알고리즘 시대의 난해한 문제가 전통적 그것과 다른 결정적 이유다. 전통적 난해한 사건에서는 판결자가 사건이 발생한 후 원칙을 탐색한다. 반면, 알고리즘의 난해한 사건에서 원칙의 탐색은 사건이 발생하기 전, 엔지니어링 설계 단계에서 이미 이루어진다. 사후적 해석이 아닌 사전적 각인이다. 알고리즘의 판결자는 사고가 발생하기 훨씬 전부터 이미 코드 편집기 앞에 앉아 있다. 그런데 그 편집기 앞의 인간은 자신이 판결자의 역할을 하고 있다는 사실을 알고 있을까?
드워킨은 이렇게 경고한다. ‘만약 우리가 원칙을 너무나 경시한 나머지, 우리의 목적에 부합한다는 이유로 정책을 원칙의 옷으로 갈아입힌다면, 우리는 원칙의 가치를 떨어뜨리고 그 권위를 약화시키게 된다(Dworkin, 1985).’
이 경고는 오늘의 알고리즘 논쟁에 그대로 적용된다. ‘자율주행이 더 안전하다’는 정책 논거를 ‘알고리즘이 더 공정하다’는 원칙 논거로 포장하는 순간, 드워킨이 경고한 일이 일어난다.
이 글이 애초 제기한 질문인 ‘사고는 알고리즘 책임인가’에 대한 드워킨적 대답은 이렇다. 사고는 알고리즘의 책임이 아니다. 알고리즘은 원칙을 가질 수 없기 때문이다. 사고의 책임은 알고리즘에 어떤 원칙을 각인했는가를 결정한 ‘인간’과 ‘제도’에 있다. 그리고 그 책임은 정책의 언어인 효율, 안전, 비용이 아니라 드워킨이 강조한 원칙의 언어인 권리, 존엄, 통합성으로 물어져야 하지 않을까?
◆ 필자 박형빈 서울교대 교수는....
▲약력
· 서울교육대학교 윤리교육과 교수
· 미국 UCLA 교육학과(Department of Education) 방문학자
· 서울교육대학교 교육전문대학원 에듀테크전공·어린이철학교육전공 교수
· 서울교육대학교 신경윤리·가치AI융합교육연구소 소장
▲주요 경력 및 사회공헌
· 현 신경윤리융합교육연구센터 센터장
· 현 가치윤리AI허브센터 센터장
· 현 경기도교육청 학교폭력예방자문위원
· 현 통일부 정책자문위원
· 현 민주평화통일자문회의 자문위원
▲주요 수상
· 세종도서 학술부문 우수도서 3회 선정 ― 『어린이 도덕교육의 새로운 관점』(2019, 공역), 『뇌 신경과학과 도덕교육』(2020), 『양심: 도덕적 직관의 기원』(2024, 역서)
▲주요 저서
· 『도덕적 AI와 인간 정서』(2025)
· 『BCI와 AI 윤리』(2025)
· 『질문으로 답을 찾는 인공지능 윤리 수업』(2025)
· 『AI 윤리와 뇌신경과학 그리고 교육』(2024)
· 『양심: 도덕적 직관의 기원』(2024)
· 『도덕지능 수업』(2023)
관련기사
- [박형빈 교수 AI와 윤리⑫·끝] 공존과 인간 번영...책임의 시대로 진입2026.02.14
- [박형빈 교수 AI와 윤리⑪-책임] 몰트북이 우리에게 남긴 것2026.02.07
- [박형빈 교수 AI와 윤리⑩] 인간 증강시대..'Doing'이냐 'Being'이냐2026.01.31
- [피지컬AI와 윤리⑤] 의료로봇과 의료AI 사고시 책임은 누가2026.03.21
· 『뇌 신경과학과 도덕교육』(2020)
· 『통일교육학: 그 이론과 실제』(2020)
*본 칼럼 내용은 본지 편집방향과 다를 수 있습니다.










