18개국 'AI 안전 가이드라인' 나왔다…한국도 참여

"설계부터 안전하게" 강조…시스템 오남용·데이터 변조 방지 등 담아

컴퓨팅입력 :2023/11/28 10:48    수정: 2023/11/28 17:23

한국을 비롯해 미국, 영국 등 18개 국가가 안전한 인공지능(AI) 기술 개발에 초점을 맞춘 국제 가이드라인을 발표했다.

27일(현지시간) 주요 IT 외신은 주요 18개국이 안전한 AI 시스템을 구축할 수 있는 방법에 대한 가이드라인을 만들었다고 보도했다. 20쪽 분량으로 구성된 이번 가이드라인은 미국 국토안보부 사이버보안 및 인프라 보안국과 영국 국가안보센터가 공동으로 지난 26일 공개했다. 

해당 가이드라인은 AI 시스템 설계부터 개발, 배포, 유지, 관리까지 프로세스 각 단계에 필요한 권장 사항으로 구성됐다. 주요 내용은 ▲AI 시스템 오남용 모니터링 ▲시스템 위협요소 분석 ▲데이터 변조 방지 ▲소프트웨어 공급망 보안 권장 사항 등 4가지로 이뤄졌다.

(출처: 오픈AI 달리3)

예를 들어, 권한 없는 사용자가 민감한 데이터셋을 유출하지 못하게 막는 방법이나, AI 시스템이 설계된 대로 작동하기 위한 기술적 지침을 명기했다. 

현재까지 이 가이드라인을 받아들인 국가는 한국, 미국, 영국, 호주, 캐나다, 칠레, 체코, 에스토니아, 독일, 이스라엘, 이탈리아, 일본, 나이지리아, 폴란드, 싱가포르 등 18개 나라다.

특히 한국에선 국가정보원이 가이드라인 파트너사로 참여했다. 국정원은 지난 4월 '한미 전략적 사이버안보 협력 프레임워크'와 11월 '한영 전략적 사이버 파트너십' 체결 등 연이은 정상 간 사이버안보 협력 토대를 조성한 바 있다. 

이번 가이드라인 참여를 통해서도 다방면으로 국가적 협력을 다질 방침이다. 국정원 백종욱 3차장은 "국정원은 주요국들과 사이버안보 파트너십 바탕으로 AI 등 신기술 등장에 따른 신종 공격 위협에 적극 대응할 것"이라고 밝혔다.

관련기사

미국 국기(제공=이미지투데이)

외신들에 따르면 미국 사이버 보안 및 인프라 기관 책임자인 젠 이스털리는 "이번 가이드라인은 AI 시스템 안전성에 대한 중요성을 나타낸다"고 밝혔다. 그는 "그동안 나온 지침들은 AI를 시장에 얼마나 빨리 출시할 수 있는지, 비용을 얼마나 절감할 수 있는지에 대한 내용으로 이뤄졌다"며 "AI 안전성을 우선시하는 가이드라인을 구체화한 것은 이번이 처음이다"고 강조했다. 

지난달 바이든 행정부는 AI 위험 관리에 초점 맞춘 AI 행정 명령을 발표한 바 있다. 해당 명령에는 새로운 개발 안전 표준을 비롯한 근로자 보호 원칙, 개인 정보를 보호하면서 AI 시스템 훈련할 수 있도록 지시하는 내용을 담았다. 또 기관이 개인 데이터를 상업적 목적으로 정보 수집하기 전 평가를 받아야 한다. 의료·기후 변화 영역에서 AI 연구 보조금을 확대하는 도구에 대한 적정성도 평가한다.