"인공지능(AI)이 100년 안에 인간을 멸종시킬 수 있는 가능성이 99.9%에 달합니다. 미래에는 AI가 인간을 반드시 해칠 수 있습니다."
로만 얌폴스키 루이빌대 사이버보안연구소 교수가 최근 AI의 위험성을 제기하며 이처럼 경고하고 나섰다. 챗GPT 개발사 오픈AI와 구글 딥마인드의 전·현직 직원들뿐 아니라 국가안보 정부 당국자, AI·보안 전문가들도 함께 우려하며 재앙을 피할 수 있는 시간이 얼마 남지 않았다는 경고의 메시지를 잇따라 내놓고 있다.
6일 비즈니스인사이더 등 외신에 따르면 AI 전문가인 얌폴스키 교수는 지난 4일 과학자 렉스 프리드먼이 진행하는 팟캐스트에 출연해 "AI가 인류를 멸망시킬 가능성은 인간이 향후 100년 안에 버그 없이 고도로 복잡한 소프트웨어를 만들 수 있는지에 달려 있다"고 주장했다.
그러면서 "하지만 AI 모델이 의도하지 않은 작업을 안전하게 수행하도록 만들 수 없기에 사고를 피할 가능성은 낮다"며 "AI는 이미 실수를 저질렀는데 사고나 탈옥을 경험하기도 했고, 개발자가 의도하지 않은 일을 성공적으로 수행한 대형언어모델(LLM)은 하나도 없을 것"이라고 덧붙였다.
또 그는 "인공일반지능(AGI)이 등장하게 되면 문제가 더 커진다"며 "인간보다 더 똑똑한 시스템이 무엇을 할 것인지 예측이 어렵다"고 강조했다.
AGI는 인간 수준의 사고가 가능해 주제에 구애받지 않고 성공적으로 문제를 해결할 수 있는 AI다. 이에 일각에선 향후 인간이 AI를 통제하는 것이 사실상 불가능하고 안전성과 관련된 문제가 필연적으로 발생할 수밖에 없다고 보고 있다.
얌폴스키 교수는 결국 인류의 운명이 3가지 중 하나일 것으로 관측했다. ▲AI가 모두를 죽이는 상황 ▲AI로 인해 모두가 고통받고 차라리 죽기를 바라는 상황 ▲모든 인간이 목적을 완전히 상실하는 상황 등이다.
얌폴스키 교수뿐 아니라 많은 전문가들은 AI가 일자리를 빼앗고 창의적으로 발전해 앞으로는 인간의 존재 가치가 없어질 것이라는 지적을 내놓고 있다.
앞서 AI 정책 조언 등을 제공하는 민간 업체 글래드스톤 AI가 지난 3월 미국 국무부의 의뢰로 작성한 보고서에선 미국 연방 정부가 AI로 인해 재앙을 피할 수 있는 시간이 얼마 남지 않았다고 경고했다. 보고서는 주요 AI 기업의 최고 경영진, 사이버 보안 연구원, 대량살상무기(WMD) 전문가, 국가안보 정부 당국자 등 200여 명을 1년여에 걸쳐 인터뷰한 내용을 토대로 작성됐다.
보고서는 "최첨단 AI 시스템이 향후 돌이킬 수 없는 피해를 가할 가능성이 있는 무기로 전용될 가능성이 있다"며 "어느 시점이 되면 인간이 개발 중인 AI 시스템에 대한 통제력을 상실해 잠재적으로 세계 안보에 파괴적인 결과를 초래할 수 있다"고 경고했다.
이어 "AI와 AGI의 부상은 핵무기 도입을 연상시키는 방식으로 세계 안보를 불안정하게 할 가능성이 있다"며 "AI 군비 경쟁과 분쟁, 대량살상무기 규모의 치명적인 사고의 위험이 있다"고 덧붙였다.
'AI 대부'로 불리는 제프리 힌턴 캐나다 토론토대 명예교수는 더 섬뜩한 예언을 내놨다. 지난 3월 일본 니혼게이자이신문과의 인터뷰에선 "AI에 목표를 주면 해결책으로 인간에게 나쁜 방법을 찾아낼지도 모른다"며 "10년 내 자율적으로 인간을 죽이는 로봇 병기가 등장할 것"이라고 주장했다.
최근에는 오픈AI와 구글 전·현직 직원들도 AI의 급속한 발전에 대한 우려를 표하는 성명을 발표했다. AI의 위험성을 다루기엔 기업의 내부 규제 시스템에 기대는 것만으로는 부족해 AI와 관련된 사법 체계가 구축돼야 한다고 강조했다.
이들은 "우리는 AI 기술에 의해 야기되는 심각한 위험을 알고 있다"며 "기존의 불평등을 심화시키는 것부터 조작과 잘못된 정보, 잠재적으로 인류의 멸종을 초래하는 자율적인 AI 시스템의 통제 상실까지 다양한 위험이 도사리고 있다"고 말했다.
이어 "AI 기업은 기술로 인해 발생하는 다양한 종류의 위험에 대한 상당한 비공개 정보를 보유하고 있지만 이런 정보 중 일부를 정부 또는 사회와 공유할 의무가 약하다"며 "우리는 이러한 기술을 모두 신뢰할 수 있다고 생각하지는 않는다"고 덧붙였다.
이 때문에 AI를 제어하기 위한 방안 마련을 위한 움직임도 곳곳에서 나오고 있다. 유럽연합(EU)이 올해 3월 세계 최초로 포괄적인 AI 기술 규제법안인 'AI법'을 최종 승인한 배경도 이런 위험도를 낮추기 위한 수순으로 분석된다. 2026년 이후 전면 시행될 이 최종안에 따르면 EU는 AI 활용 분야에 대해 총 4단계의 위험 등급으로 구분해 차등 규제할 예정이다. 법 위반 시 경중에 따라 전 세계 매출의 1.5%에서 최대 7% 수준의 과징금이 부과될 수 있다.
영구적인 안전장치가 필요하다는 주장도 있다. 에릭 슈미트 전 구글 최고경영자(CEO) 는 최근 개최한 컨퍼런스에서 AI가 자유의지를 가지게 된다면 해결책은 코드를 뽑는 것 하나뿐이라고 발언해 주목 받았다.
관련기사
- "AI가 인류 파괴할 가능성 99.9%"…근거는?2024.06.04
- "테일러 스위프트도 당했다"…AI 음란 딥페이크에 美 청소년들 '울상'2024.06.03
- AI 해석 능력이 부의 추월차선을 결정한다2024.05.21
- [기고] 거스를 수 없는 AI의 흐름2024.05.10
반면 일각에서는 이 같은 주장들이 너무 비관적이라고 지적했다. 유명 과학자 렉스 프리드먼이 진행하는 팟캐스트에 출연한 다수 AI 전문가들은 AI의 인간 멸종 가능성을 1~20%로 예상했다. 또 옥스포드대학교가 최근 실시한 과학자 2천778명 대상 설문 조사에서는 5%에 불과하다는 결과가 나왔다.
아르빈드 크리슈나 IBM 최고경영자(CEO)는 지난달 미국에서 열린 '밀컨 글로벌 콘퍼런스'에 참석해 AI 기술에 대한 정부 규제를 비판하며 "규제를 과도하게 하면 혁신이 (규제 범위 안에서) 융화돼 경쟁을 저해할 수 있다"며 "과도한 규제는 규제를 하지 않는 것보다 더 나쁘다"고 피력했다.