[피지컬AI와 윤리] 바흐 음악서 배워야 할 AI규제

우리나라 AI 기본법이 간과하면 안 되는 것 3가지

전문가 칼럼입력 :2026/04/18 20:01

박형빈 울교육대학교 윤리교육과 교수

1장. 바흐가 보여준 악보라는 질서, 자유라는 역설-규범이 창조를 가능하게 할 때

요한 세바스찬 바흐(Johann Sebastian Bach)의 푸가를 처음 듣는 사람은 종종 당혹감을 느낀다. 그 음악이 너무 엄격하기 때문인데 하나의 주제가 제시되면 이어지는 모든 성부는 그것을 정해진 간격과 규칙에 따라 모방하고 전개해야 한다. 대위법의 법칙은 어떤 음이 어떤 음 다음에 올 수 있는지를 제약하고 어떤 화음이 허용되며 어떤 불협화음이 어떻게 해소되어야 하는지를 규정한다. 이 촘촘한 규칙의 전모를 파악하고 나면 오히려 더 깊은 의문이 생기는데 이토록 빈틈없는 제약 안에서 어떻게 저토록 무한한 음악이 나올 수 있는가 하는 것이다.

바흐의 ‘푸가의 기법’, ‘평균율 클라비어 곡집’, ‘골드베르크 변주곡’은 모두 이 역설의 증언이며 규칙이 창조를 억압한 것이 아니라 규칙이 창조를 구조화함으로써 가능하게 하고 그 깊이와 울림을 장대하게 한다. 모든 성부가 동시에 움직이면서도 서로 충돌하지 않을 수 있는 것은 공유된 문법이 있기 때문이다. 듣는 이를 언제나 경건함으로 이끄는 바흐의 천재성은 규칙 바깥에서 출현한 것이 아니라 오히려 규칙의 가장 깊은 곳에서 솟아난 듯 보인다. 바흐는 우리에게 형식이란 창조를 가두는 감옥이 아니라 창조가 도약하는 발판이라는 것을 현시하지 않았을까?

필자는 바흐의 이 음악적 통찰이 2024년 유럽연합이 제정한 ‘AI법(AI Act)’(Regulation (EU) 2024/1689)을 이해하는데 비유 이상의 의미를 갖는다고 생각한다. AI 시스템을 위험의 등급에 따라 분류하고 그에 상응하는 의무와 규범을 부과하는 이 입법은 비판자들의 우려처럼 혁신을 질식시키는 관료적 통제 체계가 아닐 수 있다. 반대로 그것은 바흐의 대위법 문법처럼 작동할 수 있는데 AI 시스템들이 서로 그리고 인간과 충돌하지 않으면서 공존할 수 있게 하는 공유된 규범적 문법으로서 말이다.

이 비유는 하나의 가능성이지만 바흐의 대위법이 그토록 아름답고 경건하며 풍요로운 음악을 낳은 것은 그 규칙이 음악의 본질이라 칭할 수 있는 성부들의 유기적 협화(協和)에 대한 깊은 통찰로부터 도출되었기 때문이지 않을까. 만약 그 규칙이 음악의 본질이 아니라 악보 출판업자의 영업적 편의로부터 도출되었다면 그것은 창조를 가능하게 하는 질서가 아닌 창조를 가로막는 관리 규정에 불과했을지도 모를 일이다.

2장. EU AI법 위험 기반 규제 체계: 구조, 논리 그리고 설계의 논거

2024년 8월 1일 발효해 조항별 단계적으로 적용되는 EU AI법(Regulation (EU) 2024/1689, EU AI Act)은 단일 규범 체계로서 AI 시스템 전반을 규율하는 세계 최초의 포괄적 입법이다. 법의 중심 아키텍처는 비례적 규제의 원리에 입각한 위험 기반 분류 체계에 있는데 모든 AI 시스템에 동일한 잣대를 적용하기보다는 시스템이 발생시키는 위험 수준과 사회적 맥락에 따라 규제 부담을 차등화하는 구조다. 이를 통해 혁신을 과도하게 저해하지 않으면서도 기본권을 보호하려는 EU 특유의 균형 전략으로 이해할 수 있으며 그 주요 특징은 다음과 같이 정리할 수 있다.

첫째, EU AI Act는 위험 기반 접근을 취하며 실무적으로는 금지되는 AI 관행, 고위험 AI 시스템, 특정 투명성 의무 대상 AI, 최소 또는 무위험 AI의 네 층위로 설명된다. ① 금지되는 AI 관행은 인류의 보편적 가치와 기본권을 정면으로 침해하는 사례로서 원칙적으로 금지된다. 여기에 해악을 야기하는 조작과 기만, 취약계층의 취약성 착취, 개인을 대상으로 한 사회적 점수제, 오로지 프로파일링 또는 성격·인성 특성 평가만에 근거하여 개인의 범죄 위험성을 평가·예측하는 행위, 인터넷·CCTV 자료의 무차별 스크래핑을 통한 안면인식 데이터베이스 구축, 의료적·안전 목적 외에 직장 및 교육기관에서 사용되는 감정 인식 AI 시스템 그리고 인종, 정치적 견해, 노동조합 가입, 종교·철학적 신념, 성생활, 성적 지향 등 보호 특성을 추론하는 생체 범주화, 공공장소에서의 실시간 원격 생체식별(법 집행 목적의 매우 제한적인 예외를 제외)이 포함된다.

② 고위험 시스템은 인간의 신체적 안전과 기본권에 중대한 위해를 야기할 수 있는 영역에서 사용되는 특정 AI를 가리킨다. 핵심 인프라, 교육 및 직업훈련, 고용·노동 관련 의사결정, 신용·대출·사회보장 등 필수 서비스 접근, 법 집행, 출입국 관리·국경 통제, 사법 행정에 사용되는 AI가 대표적이다. 이러한 시스템은 시장 출시 전 적합성 평가를 거쳐야 하며 위험 관리 체계 구축, 데이터 품질과 거버넌스, 기술 문서화, 기록 및 추적 가능성, 인간에 의한 감독, 높은 수준의 사이버 보안 요건을 충족해야 한다.

③ 제한적 위험 시스템에는 챗봇이나 딥페이크 생성 도구처럼 사람과 직접 상호작용하거나 합성 콘텐츠를 만들어내는 AI가 포함된다. 이 범주의 시스템은 고위험 AI에 요구되는 엄격한 사전 적합성 의무를 부담하지 않지만 사용자가 AI와 상호작용하고 있음을 알 수 있도록 하거나 콘텐츠가 합성·조작되었음을 명시하는 등 투명성 의무를 주요 규제 수단으로 적용받는다.

④ 최소 또는 무위험 AI는 대부분의 일상적 활용 영역에 해당한다. 스팸 필터, 단순 게임 AI, 추천 기능 일부 등은 현행 일반 법질서와 자율 규제, 윤리 가이드라인으로도 관리 가능하다고 간주되며 별도의 특정 의무는 부과되지 않는다. 이와 같은 네 단계 구조는 위험 기반 규제 접근의 핵심을 잘 드러내는데 기술의 난이도나 지능 정도가 아니라 기본권과 안전에 미치는 위험의 유형과 정도가 규제 강도의 기준이 되는 것이다.

둘째, EU AI법은 규제 대상을 로봇의 외형이나 지능성 수준이 아닌 시스템의 용도와 사회적 맥락을 기준으로 정의한다. 규정에 따르면 AI 시스템은 명시적 또는 암묵적 목표를 달성하기 위해 예측, 추천, 결정 또는 콘텐츠를 생성하는 기계 기반 시스템으로 규정되며 다양한 수준의 자율성을 가질 수 있다는 점이 명시된다. 이 정의는 휴머노이드 로봇이나 자율 이동체라는 물리적 형태 자체가 규제 대상이 아님을 분명히 한다. 동일한 기술이라도 어떤 맥락에서 어떤 목적을 위해 어떤 사람들에게 적용되는가에 따라 위험 등급이 달라지는 구조이기 때문이다. 또한 규정은 군사·국방 또는 국가안보 목적을 위해 구체적으로 설계되거나 사용되는 AI 시스템을 적용 범위에서 제외한다. 다만 민간과 군사 목적 모두에 활용될 수 있는 이중 사용 시스템의 경우에는 구체적 목적과 사용 맥락에 따라 해석이 필요하다.

셋째, EU AI법은 안전과 기본권 보호를 핵심 목표로 하며 이를 위해 고위험 AI 시스템에 대해 문서화·기록·위험관리·인간 감독·정확성·사이버보안 등의 의무를 부과한다. 또한 특정 경우에는 영향을 받은 자연인이 해당 결정에 사용된 고위험 AI 시스템에 관해 명확하고 의미 있는 설명을 받을 수 있도록 한다.

그럼에도 불구하고, 피지컬 AI와의 철학적 긴장은 남는데 내부 시장의 경제적 경쟁력과 시민의 기본권 보호라는 두 목표 사이에서 위험 기반 체계는 디지털 환경에서의 위험을 비교적 세밀하게 포착하는 데 장점을 가지지만 물리적 세계에서 자율적으로 움직이는 로봇 시스템의 복합·비예측 위험을 사전에 완결적으로 등급화할 수 있는가에 대해 여전히 개방된 질문이 존재한다.

박형빈 서울교육대학교 윤리교육과 교수

이 열린 쟁점은 기술 규제의 층위를 넘어선다. 로봇을 어떻게 등급화할 수 있는지를 묻는 것은 더 근본적으로 어떤 존재가 외부의 기준에 의해 평가·분류될 수 있는가라는 철학적 물음과 맞닿아 있기 때문이다. 그런데 분류 행위는 언제나 특정한 존재론적 가정을 전제하며 분류 대상이 외부 기준에 의해 측정 가능한 속성을 지닌다는 가정이 그것이다. 이 가정이 검토되지 않은 채 작동할 때, 분류 체계는 자신이 무엇을 전제하고 있는지 스스로 알지 못하는 규범적 맹점을 안게 된다.

EU AI법이 AI 시스템을 위험 수준에 따라 세밀하게 분류하기 위해서는 바로 이 맹점을 직시해야 한다. 이언 헌터(Ian Hunter)의 칸트 독해는 이 맹점의 철학적 지형을 해명하는 데 유용한 출발점을 제공하는데 그것이 정확히 어떤 존재가 도덕적·규범적 평가의 대상이 될 수 있는가라는 물음을 정면으로 다루기 때문이다.

3장. 분류의 철학적 전제: 헌터의 칸트 독해와 등급화

어떤 존재를 등급화한다는 것은 그 존재가 외부의 기준에 의해 평가 가능한 속성을 지닌다는 전제를 내포하며 이 전제는 자명해 보이기도 하지만 철학적으로 깊은 지층을 가지고 있다.  헌터는 ‘형이상학의 도덕성: 지적 파이데이아로서의 칸트 '도덕 형이상학 정초'(The Morals of Metaphysics: Kant’s Groundwork as Intellectual Paideia)’에서 칸트의 도덕철학을 보편적 이성 법칙의 형식적 해명으로만 읽는 전통적 해석은 그 철학이 실제로 수행하는 바를 간과한다고 비판한다.

헌터에 따르면 칸트의 도덕철학은 무엇보다 일종의 지적 파이데이아 곧 특정한 도덕적·지적 인격을 형성하는 훈육 프로그램으로 기능한다. 다시 말해, 학생들이 스스로를 감각적 본성과 이성적 본성으로 분열된 존재로 인식하도록 유도하고 그 분열을 계기로 순수 이성의 도덕 법칙을 내면으로부터 명령받는 존재로 자신을 재구성하도록 이끄는 자기 변형의 실천이라는 것이다.

이 독해에서 특히 중요한 것은 칸트가 상정하는 이성적 존재의 개념인데 헌터는 칸트가 도덕 원리를 인간의 경험적 성격이나 역사적 생활양식이 아니라 순수 이성의 개념에 기초한 형식적·선험적 원리로 정초하려 한다는 점을 강조한다. 그의 요점은 칸트의 이성적 존재 개념은 특정한 지적·도덕적 페르소나를 길러내기 위한 규범적 이상이라는 것이다(Hunter, 2002, 908-929).

이 관점에서 현재의 AI 시스템, 특히 피지컬 AI가 도덕적 지위를 부여받을 칸트적 의미의 이성적 존재로 분류될 수 있는지를 물어보면 답은 상당히 분명하다. 오늘날 ‘AI 시스템’이라 부르는 대규모 언어 모델, 강화학습 기반 로봇, 생성형 AI 등은 대규모 데이터로부터 패턴을 추출하고 확률적 규칙에 따라 출력을 생성하는 복합적 정보 처리 시스템이다. 이들은 정교한 최적화와 자기조정 기능을 갖추고 있음에도 불구하고 칸트가 말하는 의미에서 순수 이성의 개념에 근거해 자기 의지를 스스로 입법하고 그 법칙에 따라 행위를 규정하는 주체로 보기는 어렵다.

맥락을 전환해 보면 EU AI법이 채택한 위험 기반 등급화는 칸트적 의미의 ‘도덕적 주체’ 자체를 평가하거나 서열화하는 체계라기보다 오히려 그것은 이론적으로 이성적 존재로 보기 어려운 도구적 행위 시스템들을 인간의 안전과 기본권 관점에서 어떠한 위험을 야기할 수 있는지에 따라 관리하기 위한 규범적 장치로 이해하는 편이 더 적절해 보인다.

다시 말해, EU AI Act는 AI를 칸트적 자율 주체로 끌어올려 도덕적 지위를 부여하는 법제가 아니라 도덕적 주체가 아닌 시스템을 어떻게 설계·운영·제한할 것인가를 다루는 위험 관리 체계로서 원칙적 정당성을 갖는다. 이 철학적 배경을 고려할 때 우리는 AI의 도덕적 지위를 둘러싼 형이상학적 논쟁에 매몰되지 않고도 위험 등급화와 책임 귀속, 권리 보호라는 구체적 규범 설계 문제를 보다 명료하게 사유할 수 있다.

의심할 여지 없이 이 판단이 완전히 확정적이라고 말하기는 어렵다. 차머스(Chalmers, 1995, 200–219)가 제기한 ‘의식의 어려운 문제’ 즉, 물리적 과정이 왜 주관적 경험을 낳는지를 기능적 설명으로는 원리상 해명할 수 없다는 테제는 어떤 시스템이 진정으로 내면적 경험을 갖는지를 외부 관찰만으로 확인하는 것이 원리적으로 불가능함을 시사한다. 그러나 이 존재론적 불확실성이 규제의 유보 근거가 되어서는 안되며 불확실하기 때문에 기다리는 것이 아니라 불확실하기 때문에 더욱 원칙에 기반한 규범적 틀이 선제적으로 작동해야 한다. EU AI법의 위험 기반 등급화는 다름아니라 이 선제적 규범의 시도로 읽혀야 한다.

4장. 드워킨의 원칙 문제: 위험 등급화는 정책인가, 원칙인가

우리는 이 지점에서 로널드 드워킨(Ronald Dworkin)의 법철학을 개입시켜 볼 수 있는데 그는 『원칙의 문제(A Matter of Principle)』(1985, 박형빈 역, 2026 출간 예정)에서 법적·정치적 정당화의 두 유형 즉 정책과 원칙을 구분하여 설명한다. 그의 핵심 테제는 법원의 판결, 특히 난제에서의 판결은 반드시 원칙에 근거해야 하며 정책적 편의에 의해 결정될 수 없다는 것이다. 권리는 집합적 목표에 대한 '으뜸패'이며 이 원칙을 정책의 언어로 둔갑시키는 것은 원칙을 값싸게 만들고 그 도덕적 권위를 훼손하는 일이 된다. 이와 같은 구분을 EU AI법의 위험 기반 등급화에 적용하면 흥미로운 긴장이 드러난다.

현행 EU AI법의 위험 기반 분류 체계는 근본적으로 정책 논거와 원칙 논거 양자를 동시에 내포한다. 혁신 촉진, 내부 시장 단일화, 신뢰 가능한 AI 생태계 구축이라는 집합적 목표가 규제 설계의 한 축을 이루면서도 법의 전문(前文)과 제5조의 절대적 금지 조항들은 명백히 원칙의 언어로 작성되어 있다. 사회적 점수제 금지, 실시간 생체인식 대량 감시 금지, 잠재의식적 조종 기법 금지는 그것이 경제적으로 효율적인지 여부와 무관하게 인간 존엄을 침해하기 때문에 금지된다. 이것은 드워킨이 말한 으뜸패의 논리로 볼 수 있는데 EU AI법은 이 지점에서 적어도 수용 불가 위험의 범주에서만큼은 드워킨적 의미의 진정한 원칙 입법으로 평가받을 자격이 있다.

그러나 고위험 범주의 설계로 내려오면 원칙과 정책의 경계가 다소 흐려진다. 고위험 AI 시스템의 목록은 주로 분야와 기능의 조합으로 구성된다. 의료기기 분야의 AI, 핵심 인프라 관리 AI, 법 집행 목적의 생체인식 AI 등이 그것이다. 이 분류의 근거는 해당 분야에서 발생 가능한 피해의 심각성과 광범위성으로 이것은 합당한 위험 관리의 논리이지만 드워킨의 시각에서 보면 여기에는 한 가지 보완이 필요한 구조적 결함이 있다. 분야와 기능이 아니라 영향을 받는 개인의 권리가 실질적으로 침해되는가를 일차 기준으로 삼지 않는다면 같은 분야 안에서도 권리 침해의 심도가 전혀 다른 시스템들이 동일한 등급에 묶이는 역설이 발생하기 때문이다.

이 역설은 피지컬 AI, 특히 신체적 자율성을 갖는 로봇 시스템에서 가장 명징하게 드러난다. 피지컬 AI는 소프트웨어 AI와 질적으로 다른 위험 프로파일을 지니며 이 차이는 정도의 차이라기 보다 종류의 차이로 보이는데 소프트웨어 AI의 오류는 정보적 피해를 낳는다. 예를 들면, 잘못된 신용 평가, 편향된 채용 결정, 오진과 같은 것은 심각하고 구제되어야 하는 피해이다. 그러나 피지컬 AI의 오류는 신체적 피해를 직접 낳는다는 특성을 갖기도 하는데 외과 로봇의 오작동, 돌봄 로봇의 낙상 사고, 자율주행 시스템의 충돌과 같은 것을 생각할 수 있다. 신체의 불가침성은 다른 어떤 가치보다 선재하는 원칙의 영역에 속하며 드워킨의 언어로 말하자면 신체적 자율성과 물리적 안전은 경제적 효율성이나 기술 혁신의 속도라는 집합적 목표가 상쇄할 수 없는 으뜸패적 권리이다.

이 인식을 바탕으로 필자는 피지컬 AI에 적용할 때 필요한 보완 방향을 다음과 같이 세 가지로 제안하며 이는 우리나라 AI 기본법도 간과해서는 안 되는 지점들이라 생각한다.

첫째, 피지컬 AI 로봇을 위한 신체적 위해 가능성 기준의 명시적 도입이다. AI 고유의 자율적 의사결정 능력이 야기하는 신체적 위해 가능성 특히 강화학습을 통해 행동을 스스로 갱신하는 로봇의 예측 불가능한 물리적 행위는 기존의 기계 안전 규정이 설계된 당시에는 상정되지 않았던 위험 유형이다. 그렇기에 고위험 목록에 신체적 공간에서 자율적으로 행위하며 인간에게 직접적인 신체적 피해를 야기할 수 있는 AI 시스템을 독립 범주로 명시하는 것이 필요하다. 이것은 드워킨적 의미에서 신체 불가침의 원칙을 등급화 기준의 내부로 끌어들이는 작업이다.

둘째, 지속적 적합성 평가 메커니즘의 도입인데 강화학습 기반의 피지컬 AI 로봇은 배치 이후에도 환경과의 상호작용을 통해 자신의 행동 정책을 지속적으로 갱신하며 책임 공백은 정확히 이 지점에서 발생한다. 위험 관리 시스템은 지속적 모니터링을 포함하도록 설계되어 있으나 자율 학습 시스템에 대한 사후 재평가 의무는 아직 명확히 규정되어 있지 않다. 이 공백을 메우는 지속적 적합성 평가 체계의 도입은 피지컬 AI 규제의 실효성을 높이는 핵심 보완 조치가 될 것이다.

셋째, 인간 감독 요건의 원칙적 재정의로 현행 규정에서 인간 감독은 주로 위험 관리의 수단으로 정당화된다.

오류를 감지하고 시스템을 정지시킬 수 있는 능력을 확보하는 것으로서 드워킨의 틀에서 이것은 정책 논거로 이해된다. 그러나 인간 감독의 진정한 규범적 근거는 더 깊은 곳에 있는데 AI가 인간의 신체적 공간에 자율적으로 개입할 때 그 개입의 영향을 받는 개인, 예를 들면 환자, 돌봄 수혜자, 작업자, 학생은 자신의 신체에 가해지는 결정 과정에 인간의 판단이 개입할 것을 요구할 원칙적 권리를 갖는다. 이것은 효율성 논거로 축소될 수 없으며 피지컬 AI에 있어 인간 감독 요건을 이 원칙적 근거에서 재정의하는 것은 AI 기본법이 인간 존엄 보호 입법으로서의 위상을 강화하는 방향이다.

우리나라의 경우 AI 기본법은 EU AI법의 위험 기반 등급화 체계를 모니터링하면서도 동시에 정책과 원칙의 드워킨적 구분에 비추어 더 정밀하게 재설계하는 것이 필요하다. 구체적으로는 피지컬 AI가 인간의 신체적 공간에 개입하는 맥락에서 인간의 신체 불가침성, 자율성, 평등한 배려의 권리를 등급화 기준의 내부에 원칙으로서 명시적으로 내재화하는 것이다.

바흐의 대위법 규칙이 성부들 각각의 선율적 정체성을 존중하면서 전체의 조화를 구성한 것처럼 AI법의 위험 등급화 체계도 AI 시스템의 행위 가능성을 확장하면서도 그 확장이 인간의 권리를 으뜸패로 존중하는 방식으로 이루어지도록 설계될 때 비로소 바흐의 대위법이 음악에서 성취한 것을 규범의 영역에서 획득하게 될 것이다.

5장. 결론: 인간 존엄 원칙과 대위법적 공존을 향하여

바흐를 상기해 보면 푸가의 엄격한 대위법적 규칙이 개별 성부들을 억압하는 대신 그들이 충돌 없이 하나의 장대한 화음을 이루게 하는 토대가 되었다. 이와 마찬가지로 AI를 향한 규범적 제재는 기술의 역동성을 질식시키는 감옥이 아니라 오히려 기계 시스템과 도덕적 주체인 인간이 같은 시공간 안에서 파괴적 마찰 없이 공존하기 위해 반드시 합의해야 할 최소한의 대위법적 문법으로 기능할 수 있다.

우리가 AI를 위험 수준에 따라 분류하고 통제해야 하는 근본적인 이유는 헌터의 칸트 독해에서 확인했듯 이 시스템들이 스스로 도덕적 결단을 내릴 수 있는 이성적 존재가 아니기 때문이다. 도덕적 행위자가 아닌 도구적 시스템이 도덕적 주체인 인간의 존엄성과 기본권에 미칠 수 있는 예측 불가능한 위해를 관리하기 위해 등급화라는 보다 섬세한 규범적 체계 도입이 요청된다.

드워킨의 법철학적 통찰은 이 규제 아키텍처가 결코 양보해서는 안 될 최후의 보루를 제시하기에 로봇 등급화는 산업적 편의나 경제적 효율성이라는 정책의 언어에 매몰되어서는 안 된다. 그것은 언제나 기본권 보호라는 원칙의 으뜸패 아래 구속되어야 한다. AI의 분류와 통제가 기계를 향할 때는 기술 관리의 정당한 수단이 되지만 그 메커니즘이 인간을 향해 역진입할 때 즉 기계의 결정이 인간의 삶을 점수화하고 개인을 위험 범주로 귀속시키며 알고리즘적 서열 안에 인간의 가능성을 가둘 때 이는 이미 헌법적 원칙과 인간 존엄성에 대한 중대한 침해로 귀결된다. 규제의 대상은 기계의 용도여야 하며 인간의 삶 자체가 될 수 없다.

이상의 논의는 비단 EU에 국한된 문제가 아니다. 2026년 1월 22일부터 시행 중인 우리나라 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’은 인간의 생명·신체의 안전 및 기본권 보호에 중대한 영향을 미칠 수 있는 AI 시스템을 규율 대상으로 설정하고 있으나 피지컬 AI에 대한 독립적 분류 기준과 인간 감독의 원칙적 근거는 아직 충분히 구체화되어 있지 않다.

드워킨이 법적 판단에 요구한 원칙론적 엄격성에서 보면 집합적 목표의 언어가 아닌 개인의 권리 언어로 규범을 설계하는 것은 우리 입법에도 동등하게 요구된다. 따라서 철학적·규범적 논의를 바탕으로 필자는 우리나라 AI 기본법의 보완을 위해 다음의 두 가지 규범적 제언을 남기고자 한다.

첫째, 피지컬 AI를 위한 독립적 규제 범주와 평가 기준 수립이다. 현재의 AI법은 소프트웨어 AI와 물리적 세계에서 작동하는 피지컬 AI(로봇)를 명확히 구분하여 규율하지 않고 있다. 로봇은 디지털 공간의 출력물을 넘어 물리적 세계에서 자율적으로 움직이며 신체적 위해를 가할 수 있고 사용 맥락에 따라 위험의 본질이 시시각각 변화한다. 보완 입법에서는 AI 구성요소의 기능 뿐 아니라 로봇의 물리적 자율성 수준, 신체적 피해 발생 가능성 그리고 인간과의 물리적 접촉 방식을 복합적으로 고려한 피지컬 AI 전용의 독립적 분류 체계가 마련되어야 한다.

둘째, 원칙에 기반한 설명 요구권과 권리 구제의 실질화이다. 시스템의 적합성 평가나 투명성 의무 같은 절차적 요건을 충족하는 것만으로 규제의 책임을 다했다고 볼 수 없다. 고위험 AI 또는 피지컬 AI가 인간의 삶에 중대한 영향을 미치는 결정을 내리거나 물리적 행위를 수행했을 때 시민 누구나 기술적 오류의 단순 정정이 아닌 원칙의 언어로 그 결정의 정당성을 묻고 이의를 제기할 수 있어야 한다. 기술적 설명 가능성을 넘어선 규범적 해명의 절차가 제도적으로 단단히 뿌리내려야 한다.

규칙은 맹목적일 때 인간을 소외시키지만 확고한 원칙을 지향할 때 비로소 진정한 자유와 공존을 가능하게 한다. AI라는 낯설고도 거대한 성부가 인간의 세계라는 주선율과 어우러져 조화로운 곡을 완성해 내기 위해서는 기술을 조율하는 우리의 규칙이 인간 존엄이라는 흔들릴 수 없는 원칙 위에 서 있음을 끊임없이 증명해 내야 할 것이다.

바흐의 평균율 클라비어 곡집 제1권 C장조 프렐류드를 들을 때면, 필자는 번번이 같은 자리에서 멈추게 된다. 그 곡은 단 하나의 화음 분산 패턴만을 반복하는데 장식도 없고 돌발도 없다. 그런데 그 반복 속에서 화성은 조용하지만 거역할 수 없는 방식으로 움직이며 듣는 이를 어떤 필연의 끝으로 데려간다. 규칙이 이렇게 작동할 때 그것은 억압이 아니라 중력이 된다.

우리가 물리적 세계로 걸어 나오는 자율적 기계들을 향해 세워야 할 규범도 이와 같아야 한다. ‘인간 존엄’이라는 묵직한 중력이 모든 기술적 판단의 가장 깊은 지층에서 말없이 작용하되 어떠한 로봇 시스템도 그 힘의 궤도로부터 벗어날 수 없도록 옭아매는 근원적 장치 말이다.

관련기사

바흐의 C장조가 결코 무너지거나 엇나가지 않는 이유는 규칙이 외부에서 음악을 강제해서가 아니라 그 규칙이 곧 음악의 본질 그 자체로 내재되어 있기 때문이지 않을까. 기술이 우리의 일상을 어떻게 직조하든 인간의 생명과 신체적 자율성이라는 원칙이 우리 규범의 ‘평균율’로 단단히 조율되어 있는 한 우리는 이 거대한 기계의 시대 속에서도 결코 인간성이라는 주선율을 잃지 않을 것이다.

바흐의 C장조가 결코 무너지거나 엇나가지 않는 이유는 규칙이 외부에서 음악을 강제해서가 아니라

*본 칼럼 내용은 본지 편집방향과 다를 수 있습니다.