"인공지능(AI) 기술이 향후 30년 내 인류 멸종을 초래할 확률은 10%에서 20%에 달할 수 있습니다."
'AI 대부'로 불리는 제프리 힌튼 토론토대 교수가 AI의 위험성을 이처럼 경고하고 나선 가운데 초지능 인공지능(superintelligent AI) 개발을 잠정 중단하자는 요구가 또 다시 고개를 들고 있다. 인류가 통제할 수 없는 수준의 AI가 등장할 수 있다는 우려가 커지면서 세계 각국의 과학자·기업인·유명 인사들이 '개발 속도를 늦추고 안전 기준을 마련하자'는 목소리를 높이고 있다.
22일 블룸버그통신에 따르면 영국 해리 왕자와 그의 아내 메건 마클, 힌튼 교수를 비롯한 저명 인사들이 AI 초지능 개발의 잠정 중단을 요구하는 공동 성명을 발표했다. 이들은 AI가 안전하게 통제될 수 있다는 광범위한 과학적 합의가 이루어질 때까지 개발을 유예해야 한다고 주장했다.
이 같은 움직임은 '미래생명연구소(Future of Life Institute)'가 주도하고 있다. 성명에는 애플의 공동 창업자인 스티브 워즈니악, 경제학자 대런 아세모글루, 전 국가안보보좌관 수잔 라이스 등 다양한 분야의 전문가들도 이름을 올렸다. 이들은 인간의 지능을 훨씬 뛰어넘는 'AI 초지능'의 개발 과정에서 발생할 수 있는 잠재적 위험을 경고하며 안전하고 통제 가능하다고 광범위한 과학적 합의가 이뤄질 때까지 개발을 중단할 것을 촉구했다.
초지능은 AI가 인간의 지능을 초월하는 단계로, 스스로 목표를 설정하고 개선하는 능력이 탁월해 인간이 상상할 수 없는 수준의 복잡한 문제를 창의적으로 해결할 수 있다. AI 간의 자발적 소통이 가능해 인류가 전유물로 여겨온 '집단 지성'도 구현할 수 있다.
현재 상황에선 AGI 구현도 아직은 제대로 되지 않고 있다는 평가가 많지만, 빅테크들을 중심으로 기술 구현을 위해 활발히 움직이고 있다. 메타는 올해 6월 '메타 초지능 연구소'(Meta Superintelligence Labs, MSL)'를 출범시키며 시장 주도권을 잡기 위해 고군분투하고 있다.

과거에도 AI 개발 속도 조절에 대한 목소리가 있었으나, 이번 성명은 정치적 스펙트럼을 가로지르는 더욱 폭넓은 분야의 유명 인사들이 대거 참여했다는 점에서 주목받고 있다.
미래생명연구소의 설립자이자 MIT 교수인 맥스 테그마크 박사는 "이들을 하나로 묶는 것은 바로 그들이 인간으로서 미래가 기계가 인간을 지배하는 것이 아니라 인간을 위해 기계가 봉사하는 세상이 되기를 바란다는 깊은 관심"이라며 "AI 초지능에 대한 우려가 기술 전문가 집단을 넘어 다양한 분야로 확산되는 것은 긍정적"이라고 평가했다.
테그마크 박사가 이끄는 연구소의 의뢰로 진행된 최근 설문조사에 따르면 미국 성인의 73%가 고급 AI에 대한 강력한 규제를 찬성하는 것으로 나타났다. 또 다양한 조사에서 AI 감독에 대한 초당적인 지지 또한 확인되고 있다. 실제 갤럽 조사 결과 민주당원의 88%, 공화당원 및 무소속 유권자의 79%가 AI의 안전 및 보안 관련 규제 유지를 지지하는 것으로 조사됐다.
또 스티브 배넌 전 백악관 수석 전략가를 포함한 일부 우익 진영 인사들은 AI의 위험성을 지적하며 개발 중단을 지지했다. 반면 트럼프 행정부 시절 AI 정책을 주도했던 데이비드 삭스 등 일부 인물들은 혁신을 저해할 수 있다는 이유로 과도한 규제에 반대하는 입장을 보이기도 했다.
관련기사
- 정부, AI 연구개발 '투트랙 전략' 추진…'AGI·과학' 연구소 설립 검토2025.10.16
- "군, 합동 전영역 지휘통제 개념 도입 서둘러야"2025.09.10
- "통제불능 AGI, 인류 대체할 '지적 외래침입종' 될 수 있다"2025.08.24
- 애플 AI 핵심 인력, 또 메타로 떠났다…"벌써 6명째"2025.08.22
테그마크 박사는 삭스와의 논의를 통해 AI 발전을 저해하지 않으면서도 안전성을 충분히 확보하려는 노력이 병행될 수 있음을 시사했다.
그는 "삭스는 대규모 데이터센터를 통해 연구 발전을 도모하고자 하지만, 통제 불가능한 디지털 지배자의 등장을 열망하는 모습은 아니었다"며 "AI의 안전한 발전 방향에 대한 논의는 지속될 것"이라고 말했다.