1. 속도의 문명에서, 신뢰의 문명으로
우리는 지금 ‘더 빠른 기술’의 시대를 지나 ‘더 깊은 책임’의 시대로 진입하고 있다. 인공지능(AI)은 업무를 보조하는 도구에서 진화해 인간의 판단·감정·의사결정이 이뤄지는 인지적 공간을 재구성하고 때로는 그 과정을 대체한다. 이는 생산성과 효율의 문제를 초월해 인간이 세계를 이해하고 타인과 관계 맺는 방식-곧 문명의 운영체계(OS)-을 다시 쓰는 일이다.
그리고 이 변화는 자율주행 자동차와 피지컬 AI를 통해 한층 심화하고 확장된다. AI가 ‘말하는 인터페이스’에 머물던 단계를 지나, 이제는 도로와 가정, 공장, 돌봄 현장이라는 ‘물리적 세계의 행위자’로 진입했기 때문이다. 최근 ‘행위자형(Agentic) AI’가 빠르게 일상으로 스며들고 있는 현상은 우리로 하여금 이를 더욱 실감하게 한다.
예컨대 오픈클로(OpenClaw) 같은 오픈소스 에이전트 생태계는 AI가 대화로 조언만 하는 것이 아니라, 사용자의 지시를 받아 계획을 세우고 실행하며, 필요하면 로컬 PC·웹·메신저 환경에서 실제 작업 흐름을 이끄는 ‘실행 주체’로 기능하게 만든다. 나아가 어떤 사례에서는 에이전트가 물리적 행동이 필요한 단계에서 인간을 ‘고용’해 심부름·조사·현장 업무까지 위임하는 플랫폼 형태로 확장되기도 했다. 이때 AI는 더 이상 콘텐츠를 생성하는 존재가 아니라, 권한을 배분하고 행위를 촉발하는 존재가 된다.
2. 행위자로 전환된 AI, 책임은 어디에 설계되는가
여기서부터 AI의 영향은 정보·추천·요약의 차원을 넘어, 충돌·상해·재산 피해처럼 되돌리기 어려운 결과를 동반할 수 있다. 책임 역시 ‘누가 오답을 냈는가’가 아니라 다음과 같은 구조적 질문으로 이동한다.
즉 ▲누가 이 행위를 가능하게 설계했는가?(모델·로봇·서비스의 설계자와 운영자는 어떤 안전장치를 사전에 내장했는가) ▲누가 행동의 범위를 정했는가?(AI가 어디까지 결정하고 실행할 수 있도록 권한을 부여했는가) ▲어떤 데이터와 목표가 이 행동을 유도했는가?(학습·최적화 기준이 인간 안전과 복리를 우선했는가) ▲어느 플랫폼이 이를 배포하고 확산시키는가?(접근성·추천·자동화 기능이 위험을 증폭시키지는 않는가) ▲누가 현장에서 ‘최종 통제권’을 갖는가?(중단 버튼, 인간 승인, 책임 있는 감독 체계가 실제로 작동하는가) ▲사고가 났을 때 책임은 누구에게 귀속되는가?(개발자·제조사·운영사·사용자 중 책임 배분은 어떻게 설계되어 있는가) ▲어떤 정부·감독 기관이 무엇을 기준으로 허용했는가?(사전 인증·감사·사후 조사 체계는 충분한가) ▲피해가 발생했을 때 회복과 구제는 어떻게 보장되는가?(보험·배상·재발 방지 의무가 제도화되어 있는가)
이들 질문은 ‘AI가 위험하다’는 단순 경고가 아니라, AI가 행위자로 전환되는 순간 반드시 필요해지는 책임의 좌표다. 즉, 기술의 성능을 논하기 전에, 그 기술이 어떤 조건에서 행동하고, 어떤 방식으로 통제되며 어떤 경로로 책임이 귀속되는지부터 먼저 합의해야 한다. 따라서 AI 시대의 핵심 쟁점은 ‘얼마나 잘 작동하는가’를 넘어 ‘피해가 발생했을 때 책임은 어디에 귀속되는가’로 이동해야 한다.
독일 철학자 한스 요나스(Hans Jonas)는 '책임의 원칙(The Imperative of Responsibility)'에서 ‘미래 세대의 인간다운 삶이 지속 가능하도록 책임 있게 행위하라’고 촉구했다(Jonas, 1979/1984). AI 시대의 윤리는 바로 이 요청에서 시작된다. 기술의 속도가 인간의 숙고와 성찰을 앞지르는 순간, 우리에게 필요한 것은 뒤늦은 제동이 아니라, 사전에 설계된 책임이다. 왜냐하면, 사후적 규제만으로는 이미 기술이 초래한 비가역적인 정신적·사회적 손상을 회복할 수 없으며, 책임 기준이 전제되지 않은 기술의 힘은 결국 인간의 통제 범위를 벗어난 맹목적인 위협으로 변질되기 때문이다. 그렇기에 지속가능한 AI(Sustainable AI)와 신뢰 가능한 AI(Trustworthy AI) 그리고 궁극적으로 ‘모두를 위한 AI(AI for All, Inclusive AI)’를 향한 가장 확실한 출발점은 책임을 먼저 ‘구조화’하는 것이다.
3. 지속가능한 AI: 세계는 왜 ‘신뢰’를 조건으로 삼는가
최근 각국의 정책적 기조를 ‘규제’라는 단일한 프레임으로 환원하는 것은 사태의 본질을 축소하는 것이다. 이는 기술의 잠재력을 억누르기 위한 차단막이 아니라, 지속가능한 AI 발전과 신뢰할 수 있는 생태계를 조성하기 위한 정교한 ‘제도적 건축’에 가깝다.
2024년 제정된 EU AI법(EU AI Act)은 이러한 흐름을 가장 선명하게 보여준다(European Commission, 2024a). 이 법은 AI를 잠재적 위험 수준에 따라 세밀하게 분류하는 ‘위험 기반 접근’을 채택했다(European Commission, 2023). 특히 고위험(High-Risk) AI에 대해 엄격한 사전 적합성 평가와 투명성·책임 의무를 강제한 것은(Regulation (EU) 2024/1689) ‘안전이 담보되지 않은 기술은 시장에 진입할 수 없다’는 새로운 원칙을 천명한 것으로 이해할 필요가 있다.
또한 우리가 주목할 것은 미국에서 2025년 12월, 42개 주 법무장관이 13개 AI 기업에 공개 서한을 발송해 ‘청소년 보호’와 ‘안전 강화’를 촉구했다는 사실이다. 서한은 OpenAI, Google, Meta, Microsoft, Anthropic, Apple, Character Technologies, Perplexity AI 등을 포함한 13개 기업을 대상으로 했다.
AI 챗봇이 아동 및 취약계층과 부적절한 상호작용을 하고, 일부 대화가 폭력, 입원, 살인, 자살로 이어진 사례들을 구체적으로 지적했다(James, 2025). 이는 혁신을 멈추라는 요구라기 보다, ‘안전과 책임 없는 확장은 사회적 허가를 얻을 수 없다’는 기준 설정이다. 법무장관들은 기업들에 2026년 1월 16일까지 16가지 안전 조치를 이행할 것을 요구했으며, 이를 준수하지 않을 경우, 주법 위반으로 법적 조치를 취할 수 있음을 경고했다(Pennsylvania Office of Attorney General, 2025).
미국 각 주의 상황은 어떠한가. 최근 일부 주는 이른바 AI 동반자(AI companion) 및 정신건강 관련 AI 서비스에 대해 고지 의무, 자해·자살 위험 대응, 광고 제한, 전문직 영역 보호 등을 중심으로 규범을 구체화하고 있다. 뉴욕주는 2025년 제정된 AI 동반자 관련 법률에 따라, 2025년 11월부터 이용자에게 해당 서비스가 인공지능임을 명확히 고지하도록 요구하고, 자해 또는 자살 사고가 감지될 경우, 이를 완화·대응하기 위한 합리적인 프로토콜을 마련하도록 규정하였다(New York State Assembly, 2025).
이 법은 AI 동반자 서비스의 안전성과 투명성 확보를 목적으로 한다. 캘리포니아는 2025년 제정된 상원법안 SB 243을 통해 AI 동반자 운영자에게 이용자에 대한 AI 고지 의무를 부과하고, 자해·자살 관련 위험 대응 장치 및 일정한 보고 의무를 규정하였다(California State Legislature, 2025). 해당 법은 2026년 1월부터 시행중이다.
일리노이는 2025년 8월 제정된 법률을 통해, 치료(therapy) 및 심리치료(psychotherapy) 서비스에서 AI가 독립적으로 치료적 결정을 하거나, 치료적 커뮤니케이션의 형태로 내담자와 직접 상호작용하거나, 면허 전문인의 검토·승인 없이 치료적 권고나 치료계획을 생성하는 행위 등을 제한하는 규율을 도입하였다(Wellness and Oversight for Psychological Resources Act, 2025). 이는 AI가 전문직 의료·정신건강 영역을 대체하는 것을 방지하기 위한 취지로 이해된다.
유타는 2025년 제정된 House Bill 452를 통해 정신건강 관련 챗봇에 대해 이용자에게 AI임을 고지하도록 요구하고, 해당 챗봇을 활용한 특정 광고 행위를 제한하는 규정을 도입하였다(Utah Legislature, 2025). 이 법은 2025년 5월부터 효력을 발생하였다. 이처럼 미국 일부 주는 AI의 정서적·심리적 영향력이 확대되는 영역에서, 일반 소비자 보호 차원을 넘어 고지·안전 프로토콜·전문영역 보호라는 구조적 규율을 도입하고 있다.
한편, 우리나라의 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)’은 2026년 1월 22일부터 본격 시행됐다. 유럽연합(EU)의 AI법보다 실제 전면 시행 시점이 빨라 세계 최초로 포괄적 AI 규제를 본격 적용하는 사례로 평가받고 있지만, 미국의 주별 사례(정신건강 및 AI 동반자 규제)와 비교할 때 다음과 같은 보완 필요성이 제기된다.
첫째, 정신건강 AI의 세부 규정 부재다. 뉴욕주가 자살 및 자해 감지 프로토콜을 의무화하고 일리노이주가 면허 없는 AI 치료를 금지한 것과 달리, 우리 법은 의료 AI를 ‘고영향 AI’로 포괄할 뿐 정신건강 특화 서비스에 대한 구체적인 안전 설계 기준은 아직 미흡하다.
둘째, AI 동반자의 엄격한 고지 의무다. 타겟 광고를 금지하는 등 이용자 심리 보호를 위한 세부 조항이 보강될 필요가 있다.
셋째, 규제 불확실성 해소다. 현재 ‘고영향 AI’의 정의가 다소 포괄적이라 사업자의 예측 가능성이 낮다. 이에 시행령 및 분야별 가이드라인을 통해 전문 영역 보호 기준을 구체화해야 한다.
그럼에도 불구하고, 법적 규제와 제도의 정비만으로는 충분하지 않다. 법은 사회적 합의의 최소한을 규정할 뿐, 기술이 인간의 내밀한 삶 속으로 파고들 때 발생하는 미묘한 ‘존재론적 변화’까지 포착하기는 어렵기 때문이다. 규제가 ‘안전장치’라면, 그 위에서 살아가는 우리의 실제 삶은 ‘어떤 관계를 맺을 것인가’라는 실존적 물음에 직면하게 된다. 이제 시선은 집단 도덕의 집대성이라 할 수 있는 법전을 넘어, AI가 물리적 실체를 입고 우리의 안방과 거실, 그리고 아이들의 책상 위로 들어오는 ‘생활 세계’로 향해야 한다.
4. 공존의 현실: 도구적 유용성을 넘어 관계적 행위자로
우리 일상은 이미 거대한 실험실이다. 자율주행 차량이 도로를 점유하고, 돌봄 로봇이 노인의 말벗이 되며, AI 비서가 가정의 대소사를 관리하는 풍경은 더 이상 미래학자의 상상이 아니다. 여기서 주목해야 할 것은 기술의 ‘물리적 현전’이다. 화면 속에 갇혀 있던 AI가 로봇과 사물의 형태를 입고 우리 곁에 섰을 때, 그것은 단순한 자동화 기기가 아니라 자율성을 지닌 ‘준(準) 행위자’로 격상된다.
이러한 변화는 권한의 미세한 이동을 수반한다. AI는 운전자의 판단을 보조하는 것을 넘어 핸들의 통제권을 쥐고, 부모를 대신해 아이에게 동화책을 읽어주며, 가족의 소비 패턴을 분석해 결정을 내린다. 즉, 공장에서의 생산성 도구가 가정이라는 가장 사적인 공간의 관리자로 변모한 것이다. 이 과정에서 우리는 세 가지 층위의 윤리적 딜레마와 마주한다.
첫째는 자율주행이나 로봇의 오작동이 초래할 수 있는 ‘물리적 안전’의 문제다. 둘째는 AI 동반자와의 애착 형성이 인간관계를 대체하거나 왜곡할 수 있는 ‘정서적 영향’이다. 셋째는 판단과 선택의 과정을 AI에 끊임없이 위탁함으로써 발생하는 ‘인지적 의존’이다. 이제 핵심 질문은 ‘AI를 허용할 것인가’라는 추상적 당위의 문제를 넘어섰다. AI는 이미 우리의 도로와 가정, 학교와 병원에 들어와 있다.
따라서 남은 과제는 배제의 선택이 아니라 조건의 설계다. 이스라엘의 역사학자 유발 하라리(Yuval Noah Harari)는 2026년 다보스 포럼(Davos Forum)에서 AI를 우리 사회에 진입하는 ‘수백만의 디지털 이민자(AI Immigrants)’에 비유했다. 그는 ‘이번 이민자들은 연약한 배를 타고 오는 인간이 아니라, 우리보다 법률을 잘 작성하고, 우리보다 거짓말을 더 잘하며, 비자 없이 빛의 속도로 이동할 수 있는 수백만 개의 AI가 될 것’이라고 경고했다. 그는 이 AI 이민자들이 일자리를 대체하고, 모든 국가의 문화를 완전히 변화시키며, 심지어 종교와 로맨스까지 바꿀 것이라고 지적했다(Harari, 2026).
5. 교육과 공명의 복원: 미래 세대를 위한 AI 설계 원칙
앞서 우리는 AI가 도구를 넘어 ‘준(準) 행위자’로 전환되었으며, 이에 따라 책임의 구조를 사전에 설계해야 한다고 논했다. 또한 각국의 입법 동향은 신뢰를 기술 확장의 전제 조건으로 삼고 있음을 보여주었다. 그러나 제도적 장치만으로는 충분하지 않다. 법은 최소한의 안전선을 긋지만, 인간의 내면에서 일어나는 변화-사유의 방식, 관계의 형식, 세계와 맺는 태도-까지 대신 설계해 주지는 못한다.
독일의 사회학자 하르트무트 로자(Hartmut Rosa)는 현대 사회를 ‘사회적 가속화’의 체제로 진단하며, 그 결과 인간이 세계와 살아 있는 관계를 맺는 ‘공명(resonance)’의 능력이 약화되고 있다고 분석했다(Rosa, 2019). 공명은 인간이 세계에 응답하고 동시에 세계로부터 응답을 받는 상호적 관계를 의미한다. 그러나 AI의 즉답성은 기다림과 숙고, 시행착오와 사유의 시간을 단축시킨다. 이는 편리함을 제공하지만, 동시에 인간 고유의 성찰적 능력을 침식할 위험을 내포한다.
따라서 미래 세대를 위한 AI 설계는 AI ‘활용 능력 향상’에 머물러서는 안 된다. 오히려 어디까지를 위임하고, 어디서부터는 스스로 판단해야 하는가를 구분하는 능력을 길러야 한다. 기술 친화성이 아니라, 기술과의 거리를 조절하는 능력이 교육의 핵심이 되어야 한다. 이를 위해 우리는 다음과 같은 설계 원칙을 견지해야 한다.
첫째, 아동·청소년의 발달 단계에 부합하는 ‘아동 중심 설계’다. 인지적·정서적 취약성을 고려한 인터페이스, 반복적 AI 고지, 유해 상호작용 차단 장치 등은 선택이 아니라 전제 조건이 되어야 한다.
둘째, ‘사유 보존’의 원칙이다. AI는 정답을 즉시 제공하는 기계가 아니라, 질문을 더 깊게 만들고 사고를 촉진하는 보조자로 기능해야 한다. 교육 현장에서 AI는 사고를 대체하는 것이 아니라 사고를 확장하는 도구로 위치 지어져야 한다.
셋째, ‘인간 최종 통제’의 원칙이다. 모든 중요한 판단-특히 도덕적·법적 책임이 수반되는 결정-은 궁극적으로 인간의 승인과 감독 아래 있어야 한다.
넷째, ‘책임의 가시화’다. 설계 단계에서부터 로그 기록, 설명 가능성, 사후 감사 가능성을 내장해야 한다. 그래야만 사고 발생 시 책임이 추적 가능하고, 제도적 신뢰가 유지된다.
무엇보다 중요한 것은 교육의 본질 회복이다. 기계가 답을 제시하는 시대일수록, 교육은 깊이 읽기, 치열한 토론, 성찰적 글쓰기를 통해 인간 고유의 사유 근육을 단련해야 한다. 미래 세대의 번영은 AI 없이도 얼마나 깊이 사고하고 타인과 공명할 수 있느냐에 달려 있지 않을까?
6. 인간 번영은 자동화되지 않는다
AI와의 공존에서 가장 치명적인 것은 인간이 판단의 과정을 점진적으로 포기하는 ‘위임된 사고’다. 기술은 효율을 제공하지만, 책임까지 대신 떠맡지는 않는다. 판단을 외주화할수록 결과에 대한 책임은 흐릿해지고, 사회에는 ‘조용한 책임 공백’이 형성된다. 그렇다면 이제 남는 질문은 하나다. 우리는 어떤 인간으로 남을 것인가?
AI는 생산성을 향상시키고 의료를 정밀화하며, 복잡한 계산을 대신 수행할 것이다. 그러나 편리함은 결코 인간다움을 대체하지 못한다. 인간 번영의 핵심은 다음 네 가지에 달려 있다. 즉,
▲사유의 깊이를 유지하는 능력 ▲타인과 공명하는 관계적 역량 ▲행위에 대한 책임을 자각하는 주체성 ▲기술을 통제하는 윤리적 용기 등이다.
기술은 자동화할 수 있다. 그러나 인간의 번영은 결코 자동화되지 않는다. 번영은 오직 설계된 책임 위에서만 축조되며, 교육을 통해 유지되고, 제도를 통해 보호되며, 깨어 있는 개인의 성찰을 통해 비로소 실현된다.
AI와의 공존은 기술적 적응의 문제가 아니다. 그것은 문명의 항로를 결정하는 윤리적 기획이며, 인간이 스스로 ‘사유하는 주체’로 남을 것인가에 대한 실존적 물음이다. 우리가 책임의 구조를 선제적으로 세우지 않는다면, 기술의 속도는 윤리의 속도를 추월하여 우리를 통제 불가능한 궤도로 이끌 것이다.
그러나 희망은 있다. 우리가 기술에 대한 맹신 대신 신뢰를 설계하고, 기계적 속도 대신 인간적 공명을 복원하며, 사유의 주체성을 끝내 지켜낸다면 AI는 인류를 위한 가장 강력한 도구가 될 것이다. 다시 한번 강조하건대, 인간 번영은 자동화된 알고리즘의 결과값이 아니다. 그것은 우리가 끝까지 책임을 설계하고, 치열하게 사유하기를 멈추지 않는 고단하지만 위대한 용기 속에 있다.
◆ 박형빈 서울교육대학교 윤리학과 교수는....
-서울교육대학교 윤리교육과 교수
-미국 UCLA 교육학과(Department of Education) 방문학자
관련기사
-서울교육대학교 교육전문대학원 에듀테크전공·AI인문융합전공 교수
-서울교육대학교 신경윤리·가치AI융합교육연구소 소장
*본 칼럼 내용은 본지 편집방향과 다를 수 있습니다.










