AI 활용에 따른 법적 책임 주체는?···기존 법은 모호

[법무법인 디라이트 조원희 대표변호사 인공지능 연재 컬럼③] 건강한 시장 성장위해 법·제도 인프라 갖춰야

전문가 칼럼입력 :2023/03/13 07:29    수정: 2023/03/13 08:25

조원희 디라이트 대표변호사

인공지능(AI)이 산출한 결과물은 소유권이 누구일까? 또 인공지능이 촉발한 사고나 사건의 책임은 누가 져야 할까?

자율주행에 대한 기대가 한참 커가던 2016년 5월 미국 플로리다에서 테슬라가 대형 트레일러와 충돌해 운전자가 즉사하는 사고가 일어났다. 테슬라의 자율주행 시스템이 흰색 트레일러 옆면을 제대로 감지하지 못해 발생한 사고였다. 사고 책임을 누가 져야하는지 공방이 있었다. 자율주행 모드 중 핸들 위에 손을 올려 놓으라는 경고를 7번이나 보냈지만 이를 제대로 따르지 않는 등 운전자의 과실이 인정되어 테슬라는 사고 책임이 없다는 결론이 났지만, 인공지능이 촉발한 사고에 대해 누가 법적 책임을 부담해야 하는지는 계속 논란이 되고 있다.

인공지능도 법적 책임의 주제가 될 수 있을까? 인공지능에도 사람과 마찬가지로 책임을 물을 수 있을지가 논란이다. 법인을 생각해 보면 이는 전혀 낯선 논의가 아니다. 왜 주식회사와 같은 법인에도 '법인격'이라는 걸 인정해 책임의 주체로 삼았을까? 개인 책임을 사업 책임에서 분리하기 위한 거 였다. 그래야 손해 발생 위험에도 불구하고 사업을 하지 않겠는가. 그리고 이것이 사회 전체적으로는 이익이라고 보기 때문이다.

인공지능도 마찬가지다. 인공지능도 주체성을 논의할 수 있을 정도로 개별화될 수 있다면 그리고 이를 이용하는 개인과 분리되어야 할 사회적 필요성이 제기된다면, 멀지 않은 미래에 인공지능에도 법인격이 부여되고 책임의 주체가 될 수도 있을 것이다. 최근 인공지능에 대한 형사책임으로 새로운 데이터에 의한 재학습(리프로그래밍)이 논의되기도 한다.

그렇다면 당분간은 인공지능 활용에 따른 책임은 이를 이용하는 사람이나 법인에 귀속될 것이다. 관여의 내용에 따라 좀 나누어 보면, 인공지능을 개발한 사람, 개발한 인공지능을 활용해 서비스를 제공하는 사람, 해당 서비스를 이용하는 사람으로 나눠 볼 수 있겠다. ChatGPT를 예로 든다면, ChatGPT의 인공지능 엔진을 개발한 Open AI, 이를 활용해 ChatGPT 서비스를 하는 마이크로소프트, ChatGPT를 이용하는 이용자로 구분해 볼 수 있다.

만약 ChatGPT를 이용해 기사를 작성하다 전혀 사실이 아닌 내용이 들어가 ‘가짜 뉴스’로 누군가의 명예를 훼손하게 되었다면 누가 책임을 져야 할 것인가? 새로운 기술이 나올 때마다 책임 문제는 큰 논란이였다. 음악이나 영화가 온라인을 통해 유통되기 시작하자 불법 복제가 기승을 부렸다. P2P 서비스와 웹하드 서비스는 불법 파일 유통에 일조했다. 불법 복제를 하고 이를 유통한 이용자 외에 P2P 서비스나 웹하드 서비스 제공자도 책임을 져야 할까?

게임 내에 유료 아이템이 등장하자, 유료 아이템을 거래하는 이용자들이 생겼고, 아예 편리하게 아이템 거래를 편리하게 할 수 있는 거래소도 등장했다. 게임 이용약관에 의하면 게임 아이템 거래는 약관 위반이다. 게임 아이템을 약관에 위반하여 사용한 이용자 외에 아이템 거래소도 책임을 져야 할까? 이러한 책임 문제가 명확하게 정리되지 않으면 적법한 시장은 생겨나기 어렵다.

자동차 시장을 예로 들어 보자. 자동차 사고에 따른 피해는 적지 않다. 2021년 우리나라의 교통사고 건수는 202만3130건이었고, 부상은 29만1608명, 사망은 2916명이었다. 사고는 자동차 결함에 따른 것도 있고 운전자 과실인 경우도 있다. 이런 사고에도 자동차의 판매, 운행은 여전히 계속되고 있다. 왜 일까? 자동차 이용으로 인한 경제적 효용이 훨씬 크기 때문이다. 대신 사고로 인한 피해를 최소화하고 원활한 피해 보상을 위해 각종 보험과 사고예방을 위한 장치나 시설 등이 활용되고 있다.

인공지능에 결함이 있어서, 또는 학습 데이터에 오류가 있어서, 아니면 이용자가 잘못 활용해서 문제가 발생한다면 그 책임을 누가 져야 하는지 그 책임 관계가 정리돼야 한다. 기존의 불법행위 법리나 제조물책임법으로 해결하기에는 모호한 지점이 많다. 인공지능 내에서의 결과 도출에 인과관계를 적용하기 어렵다. 문제 원인을 찾기가 쉽지 않다는 것이다.

 단순히 알고리즘을 일부 수정한다고 해결되지도 않는다. 인공지능 서비스에 관여하는 사람들의 책임 내용과 범위가 보다 구체화되고, 이를 예방할 수 있고 피해를 보전할 수 있는 제도들이 마련될 때, 시장이 건강하게 성장할 수 있다. 이제 인공지능 시대를 준비하기 위해 법적, 제도적 인프라를 갖추어야 할 때다.

조원희 법무법인 디라이트 대표변호사

필자 약력

-법무법인 태평양 변호사(2001~2017)

-법무법인 디라이트 대표변호사(2017~현재)

-한국과학기술원(KAIST) 겸임교수(2013~현재)

-과학기술정보통신부 자문변호사(2020~현재)

-ALB 선정 Korea Super Lawyer 30인(2022)

-리걸 타임즈 선정 TMT 분야 올해의 변호사(2021)

*본 칼럼 내용은 본지 편집방향과 다를 수 있습니다.