챗GPT의 폭발적인 인기에 대한 후폭풍이 드세다. 얼마 전에는 GPT-4를 넘어서는 초인공지능의 개발을 6개월간 중단하자는 제안이 있었고, 오픈AI 창업자이기도 했던 일런 머스크를 비롯해 애플 공동창업자인 워즈니악, 세계적 베스트셀러 작가 유발 하라리, 핀터레스트 CEO 에번 샤프 등이 이 제안에 서명을 했다.
인공지능 안전성이나 윤리성을 이제라도 검토해보자는 것이다. 물론 이로 인해 인공지능 기술 개발이 중단될 것 같지는 않지만, 실리콘벨리에서조차 인공지능의 미래에 대한 불안이 크다는 점은 확인되고 있다. 며칠 전 미국 비영리단체인 '인공지능 및 디지털 정책 센터(Center for AI and Digital Policy)'가 연방거래위원회(FTC)에 오픈AI를 고발했다는 기사가 나왔다. 고발의 구체적인 사유가 확인되지는 않고 있지만 챗GPT나 GPT4의 출시가 불공정하고 기만적인 영업행위를 금지한 공정거래법을 위반했다는 취지라고 한다. FTC가 오픈AI나 GPT 기술을 본격적으로 들여다보기 시작한다면 인공지능에 대한 규제는 새로운 국면을 맞이할 수도 있다.
글로벌하게도 우려의 목소리가 나오고 있다. 지난 달 30일 오드리 아줄레 유네스코(UNESCO) 사무총장은 인공지능에 대한 더 강력한 윤리가 필요하다며 2011년 11월 회원국들에 의해 승인된 '인공지능의 윤리에 대한 권고(Recommendation on the Ethics of Artificial Intelligence)'의 시행을 촉구한다는 성명을 발표했다. 위 권고는 인공지능과 관련된 윤리 기준을 규정한 최초의 세계적인 표준으로 AI 개발에 있어 고려해야 할 윤리적 이슈들을 규정하고 있다.
이러한 일련의 상황들을 보며 떠오르는 의문이 있다. 인공지능에서는 왜 적법성을 넘어 윤리성에 대한 고려까지 필요한 걸까? 산업혁명 이후 수 많은 기술들이 개발되고 사용되었지만 기술에 윤리나 도덕의 잣대를 들이댄 일이 없었는데 왜 인공지능은 다를까? 사실 우리는 포스트포더니즘이나 해체주의 이후 윤리를 상대화해 왔고 어느 하나의 윤리적 기준을 고집한다는 것 자체에 거부감이 있었다. 도덕이니 규범 역시 마찬가지다. 그런데 왜 새삼 우리는 인공지능에는 윤리를 가르쳐야 한다고 생각하는 걸까?
지금까지의 기술은 수단이었다. 일의 수단, 삶의 수단, 생각의 수단 등. 그리고 사람에 의한 통제가 가능했다. 그래서 기술은 중립적이라는 주장이 설득력이 있었다. 문제는 기술이 아니라 기술을 사용하는 사람이다. 탱크나 전투기가 문제이겠는가? 이걸 인류를 살상하기 위해서 사용하는 사람이 문제이지. 그런데 인공지능은 다른 점이 있다. 단순한 수단이라기 보다는 대체나 확장의 측면이 있다. 구글 검색과 챗GPT가 다르게 느껴지는 이유이기도 하다. 또한 통제 가능성에 대한 염려도 있다. 무슨 근거로, 어떤 자료를 통해 결과를 도출하는지를 제대로 알지 못한다. 인간의 지능을 넘어서는 것은 멀지 않았고, 곧 인간도 통제할 수 없는 상황에 놓일 거라는 우려의 목소리가 있다.
인공지능의 윤리성을 논할 때 자주 등장하는 용어가 있다. ‘트롤리 딜레마’이다. 다수를 위해 소수를 희생할 수 있을까의 문제이다. 예를 들면, 자율주행 자동자가 운행 중 사고를 낼 수 밖에 없는 상황이라고 치자. 그냥 직진하면 5명이 사상할 수도 있는데, 옆으로 틀면 1명의 사상으로 그칠 수 있다고 할 때, 어떤 결정을 할 것인가의 이슈다. 인간이라면 순간적인 판단에 의해 결정할 것이고, 그 판단에는 자신의 윤리적 기준이 작동되었다고 볼 수 있다. 그렇다면 자율주행 자동차는 어떤 결정을 하도록 설계돼야 할까? 사고 상황에서 요구될 수 있는 윤리적 판단 기준이 사전에 입력되어 있어야 할까?
윤리는 신념체계를 전제로 한다. 옳고 그름이나 선과 악에 대해서는 객관적인 기준을 제시하기 어렵다. 인류의 역사에서 윤리는 상대화되어 왔고, 모두에게 공통된 윤리나 도덕은 법이나 제도로 자리 잡아 왔다. 인공지능에 윤리를 요구하는 것은, 인공지능이 스스로 신념체계를 가지고 스스로 판단하도록 요구하는 것과 다르지 않다. 인공지능 윤리성과 인공지능 개발이나 사용 과정에서의 윤리성을 구분해야 한다.
인공지능이 윤리적일 필요는 없다. 인공지능에 요구되어야 하는 것은 수단성과 통제 가능성이다. 인공지능이 성별이나 인종에 대한 편향성을 가지지 말아야 한다고 할 것이 아니라, 그러한 편향성이 언제든 통제되고 수정될 수 있도록 해야 한다. 이제 인공지능에 대한 규제가 다양한 차원에서 논의될 것이다. 인공지능이 윤리를 가질 때 문제가 해결되는 것이 아니라, 인류가 인공지능을 통제할 수 있을 때 문제가 해결될 수 있다.
◆필자 약력
-법무법인 태평양 변호사 (2001~2017)
-법무법인 디라이트 대표변호사 (2017~현재)
-한국과학기술원(KAIST) 겸임교수 (2013~현재)
-정보통신과학기술부 자문변호사 (2020~현재)
*본 칼럼 내용은 본지 편집방향과 다를 수 있습니다.