"첨단 AI, 인류 생존 위협한다"…美서 나온 섬뜩한 '경고'

글래드스톤 AI, 2028년 AGI 등장 전망…"세계 안보 불안정 초래, AI 개발 시 美 정부 개입해야"

컴퓨팅입력 :2024/03/14 09:42

인공지능(AI)의 빠른 발전이 인류의 생존을 위태롭게 할 수 있다는 경고와 함께 이를 방지하기 위한 정부의 대책 마련이 시급하다는 주장이 나왔다.

14일 CNN방송 등 외신에 따르면 AI 정책 조언을 제공하는 민간 업체 '글래드스톤AI'는 전날 홈페이지에 '첨단 AI의 안전성과 보안성을 높이기 위한 방안'이라는 보고서를 발표했다.

미국 국무부가 의뢰해 작성된 이 보고서는 주요 AI 기업 경영진, 사이버 보안 연구원, WMD 전문가 등 200여 명과 1년여에 걸친 인터뷰를 바탕으로 작성됐다.

이 보고서에선 최첨단 AI와 인간을 능가하는 지능을 갖춘 일반인공지능(AGI)의 등장을 핵무기에 비교하며 통제를 하지 않을 경우 인간을 멸종시킬 수도 있다고 주장했다. 또 고도로 발전한 AI의 위험 요소로 '무기화'와 '통제력 상실'을 꼽았다. AI를 좋은 곳에 사용하면 인류에 큰 편리함을 가져줄 수 있지만, 반대의 경우엔 생화학·사이버 전쟁 등에 활용될 수도 있다고도 분석했다.

보고서는 AGI의 진화 속도가 매우 빨라 5년 내에 AGI가 실제로 나타날 것으로 내다봤다. 실제로 오픈AI, 구글 딥마인드, 엔비디아 등은 모두 2028년쯤 AGI에 도달할 수 있을 것으로 보고 있다.

CNN은 "(최악의 경우) AI로 인해 재앙적 국가안보 위험이 발생해 인류 멸종 수준의 위협이 될 수 있다"며 "AI와 AGI의 부상이 핵무기 도입 때를 연상시킬 만큼 세계 안보를 불안정하게 만들 잠재력이 있고, 대량살상무기(WMD) 규모의 치명적인 사고 위험이 있다"고 말했다.

AI 생성 이미지(제공=픽사베이)

이 때문에 보고서는 위협에 대응하기 위해 미국 정부가 AI 개발에 빠르게 개입해야한다고 주장했다. 긴급 규제 안전장치와 AI감독 기관을 만들고, AI모델 훈련에 사용할 수 있는 컴퓨터 성능을 제한해 AGI의 출현 속도를 늦춰야한다는 판단이다. 또 AI반도체 제조와 수출에 대한 통제도 강화해야한다고 제언했다.

다만 보고서는 이런 위험성 때문에 AI 연구를 아예 그만두게 하는 것은 바람직하지 않다고 봤다.

관련기사

제러미 해리스 글래드스톤AI 최고경영자(CEO)는 "(AI가) 재앙적 위험을 포함한 심각한 문제를 초래할 수 있으므로 주의해야 한다"며 "특정 임계값을 넘으면 통제할 수 없을 것"이라고 지적했다. 

그러면서도 "최악의 시나리오 중 하나는 모든 사람의 AI 연구를 완전히 중단시켜 이 기술의 놀라운 이점을 누리지 못하는 것"이라고 덧붙였다.

AI