AI안전연구소 어떤 일 하나···구성원과 처우는

현재 12명서 30명으로 늘리고 연구 예산 80억...김명주 소장 "기업 돕는 세르파 될 것"

컴퓨팅입력 :2024/11/27 20:32    수정: 2024/11/27 20:44

"히말라야 등정을 돕는 세르파(Sherpa)같은 연구소가 되겠습니다."

김명주 AI안전연구소(AISI, AI에스아이로 발음) 소장은 27일 이 같이 밝혔다. 이날 판교에서 출범한 'AI안전연구소'는 AI기술 오용, AI 통제력 상실 등으로 발생할 수 있는 다양한 AI위험에 전문적으로 대응하기 위한 공공 성격의 AI안전연구 전담조직이다. 정부출연 연구원 중 한 곳인 한국전자통신연구원(ETRI) 부설로 신설됐다. 산‧학‧연이 AI안전분야 연구 협력과 정보 교류를 할 수 있는 대한민국 AI안전연구 허브이기도 하다. 선진 10개국이 참여해 최근 만든 '국제 AI안전연구소 네트워크’ 일원으로도 활동한다. 정부는 AISI를 통해 과학적 연구데이터에 근거한 AI안전 관련 정책을 개발, 선진화를 추진할 계획이다.

AISI는 '안전한 AI로 만드는 지속가능한 미래'를 비전으로 내세웠다. 3대 미션은 ▲AI안전에 대한 과학적 이해 증진 ▲AI안전 정책 고도화 및 안전 제도 확립 ▲국내 AI기업의 안전 확보 지원이다. 또 수행할 4대 핵심 과제로 ▲AI안전 평가 ▲AI안전 정책 연구 ▲AI안전 글로벌 협력 ▲AI안전 연구개발(R&D)을 설정했다.

이날 개소식에는 류광준 과기정통부 과기혁신본부장, 염재호 국가AI위원회 부위원장, 이경우 대통령실 AI·디지털 비서관 등 정부 주요인사와 오혜연 KAIST AI연구원장, 이은주 서울대 AI신뢰성 연구센터장, 방승찬 ETRI 원장, 황종성 NIA 원장, 김동환 포티투마루 대표, 김영섬 코난테크놀로지 대표, 김윤 트웰브랩스 사장 겸 최고전략임원, 오승필 KT CTO(부사장) 등 AI분야 산학연 관계자 40여명이 참석했다.

초대 소장을 맡은 김명주 소장은 서울여대 정보보호학부 교수로 서울대 컴퓨터공학과에서 학·석·박사 학위를 받은 AI 윤리·신뢰성 분야 전문가다. 바른AI연구센터장, 국제AI윤리협회장, AI윤리정책포럼 위원장 등을 맡으며 안전하고 책임 있는 AI 개발·활용 확산을 위해 힘써왔다. 경제협력개발기구 글로벌 인공지능 파트너십(OECD GPAI) 엑스퍼트 매니저로도 활동, 지속가능한 AI 발전을 위한 국제사회 논의에도 활발히 참여해왔다. 김 소장 임기는 3년이다. 김 소장은 개소식 행사후 기자들과 만나 연구원 운영 방안을 설명했다. 이날 김 소장과 기자들과 오간 이야기를 일문일답으로 정리했다.

김명주 초대 AI안전연구소장이 27일 판교에서 열린 개소식에서 연구소 운영 방안을 발표하고 있다.

-AI안전연구소는 무슨 일을 하나?

"AI안전과 관련해 크게 평가, 정책 제안, 기술개발 등 세 가지 일을 한다. AI안전연구소로는 미국, 영국, 일본, 싱가포르, 캐나다에 이어 세계 6번째다. 이들 해외 AI안전연구소와 적극적으로 협력한다. 특히 우리 연구소는 규제기관의 성격이 아니다. 국내 AI 기업이 글로벌 경쟁력을 확보하는데 장애가 되는 위험요소를 최소화하도록 지원하는 협력기관으로서의 역할을 한다. 예컨대, GDPR(유럽일반개인정보보호법)로 유럽에 진출하는 국내 IT기업 등은 유럽 시장법을 새로 따라야 한다. 우리 AI 업도 이러한 장벽에 가로막힐 수 있으므로 R&D 단계부터 규제, 인증 및 여러 표준절차를 살피는 게 필요하다."

-조직 구성은 어떻게?

"연구소 산하에 3개실(AI안전정책 및 대회협력실, AI안전 평가실, AI안전 연구실)이 있다. 전체 직원은 총 30여명 규모인데, 출범 현재는 나와 ETRI 파견인력 8명, TTA 파견인력 3명 등 12명이다. 내년 1월 신규 6명을 우선 채용하고, 내년까지 전체 직원을 30명 규모로 늘린다. 영국이 AI안전연구소를 세계서 가장 먼저 만들었는데, 영국은 직원들이 공무원일 뿐 아니라 풀타임 인력도 130명에 달한다."

-국제협력을 강조하는데 국제협력은 어떻게?

"지난주 샌프란시스코를 갔다 왔다. 여기서 10개국으로 구성한 국제 AI안전연구소 네트워크가 출범했다. 의장국은 미국이다. 부의장국은 못 정했다. 다들하고 싶어했는데. 내년 2월 프랑스 파리에서 AI안전과 관련한 정상회의가 열리는데 이때 정하기로 했다. 일단 미국, 캐나다, 일본, 싱가포르 등 5개 나라와 MOU를 체결했다. EU와는 따로 만났다. EU가 세계서 제일 먼저 AI법을 만들었고, 우리도 AI법을 만들려고 하니, 호환성을 뒀으면 좋겠다. 진짜 MOU를 맺고 싶은 나라가 한 두 개 있었다. 언어나 문화에 따라 생성 AI가 다른 답을 주는 문제가 있는데 이 분야 연구는 싱가포르와 일본이 우리보다 먼저 연구했다. 우리가 늦었는데, 남은 기간동안 노력해서 내년 2월 파리 회의때는 우리도 비등하게 참여할 예정이다."

-예산은 얼마나 되나

"내년 안전성 평가 지표 마련 등 비R&D 과업에 약 40억 원, 솔루션 개발 등 R&D에 약 80억 원이 책정돼 있다."

-내년에 착수할 연구는 어떤 것이?

"보통 AI를 말할 때 잠재적 위험이라는 표현을 한다. 잠재적이라는 이야기는 아직 밝혀지지 않은 거다. 현재 세계 AI안전연구소들이 공통으로 생각하는 것은, 리스크에 대한 전체 도메인을 빨리 잡자는 거다. 어떤 리스크가 있는 지 다 잡아서 그 리스크별로 우선순위를 매겨 먼저 풀어야 할 것들을 우선 해결하자는 거다.  샌프란시스코 회의때도 세션이 3개였는데, 첫번째 세션이 페이크였다. 연구소 내년 R&D 규모가 80억 정도인데 4개 과제가 잡혀 있다. 평가와, 위험 측정 등에 관한 것들이다. 우리 말고도 국내에 연구 기관이 몇 곳 있는데, 연구소마다 주력하는게 조금씩 다른데, 조정 여지는 있는 것 같다."

-글로벌 빅테크와도 협업을 하나

" 지난주 샌프란시스코 회의때도 MS, 오픈AI, IBM 등 글로벌 기업들도 왔다. 우리도 이들 글로벌 기업들과 만났다. 궁극적으로는 이들 빅테크 기업들하고 어떤 테스트를 한다든지, 어떤 걸 할때  같이 움직였으면 좋겠다는 생각을 갖고 있는데, 이 부분은 쉽지 않은 문제인 것 같다. 구글 등과 컨택을 하고 있다. 미국 정부도 엔트로픽 등 몇 개 기업과 협약을 해 테스트를 같이 진행하고 있다."

-AI관련 국제 표준 인증을 만드는 것도 국제 AI안전연구소 네트워크가 다루나

"표준이라는 키워드는 이미 나왔고, 기술적인 표준과 절차 표준을 국제 네트워크에서 다룰 거다. 기존 표준화 기구들이 많이 있는데, 거기서도 AI 표준을 다루고 있기 때문에, 우리랑 같이 움직일지, 아마 같이 움직일 것 같은데, 안전에 대한 키워드는 아무래도 AI안전 국제네트워크에서 끌고 가지 않을까 싶다. 우리도 국제 공조를 하고."

-AI안전연구를 영국이 리딩하는 이유가 뭔가

"AI윤리라는 키워드를 영국이 가장 먼저 제시했다. AI 안전연구소도 영국이 맨 처음 만들었다. 영국은 서양 세계에서 자기네가 정신적인 지지와 근원이라는 프라이드가 있는 듯 하다. 영국이 AI안전연구소를 처음으로 만들면서 자기네 나라에만 두고 싶어했다. 그래서 요슈아 벤지오를 통해 안전 보고서를 마련하게 했고, 두 번째가 나올 예정이다. 영국과 미국이 생각이 다른 면이 있다. 영국은 10개국 중심으로만 하자는 생각이 있고, 미국은 필요하면 계속 늘리자는 생각이다. 이제 시작했기 때문에 어떻게 될 지는 더 지켜봐야 할 것 같다."

-중국과는 어떤 관계를 가져가나

"공식적으로 들은 바는 없다. 원래 작년 런던 회의할 때 중국을 넣었으면 좋겠다는 의견들이 계속 있었다. 어떻게 보면, AI 기본법은 유럽이 아니라 중국이 먼저라고 생각한다. 중국이 AI에 관한 규정을 사실 제일 먼저 만들었다. 그런데 중국은 글로벌 스탠더드가 아니지 않나. 중국 서비스는 당성 검사를 받아야 오픈할 수 있는데, 바이두 애니봇이 이 당성 검사 때문에 우리나라 네이버 하이퍼 클로버보다 며칠 늦게 오픈했다. 언론 자유 측면에서 보면 중국은 굉장히 통제된 나라다. 스탠포드 대학에서 2019년 AI 인덱스를 발표할 때 각 나라별 AI 윤리를 분석했는데 중국은 아주 특이한 패턴이 나왔다. 다른 나라에서 많이 나오는 공정성은 중국에서 전혀 논의되지 않았다. 특이하게 10개국이 참여하는 국제AI안전연구소 네트워크에 케냐도 들어왔다."

-AI전문 인력이 전반적으로 부족하다. 좋은 연구원 확보 방안은?

"우리 연구원은 출발이 에트리(ETRI)다. 나도 에트리 직원이다(웃음). 에트리 직원 월급으로, 이런 대우로, 현 AI 세계에서 좋은 인재를 뽑을수 있을까? 하는 퀘스천이 있는 것도 사실이다. 어쨋든 판교에 있는 AI기업들의 평균 정도는 줘야 하지 않나 하는 생각들이 있는 듯 하다. 영국의 경우 직원 연봉이 거의 2억이다. 또 거기는 정식 공무원이다. 앞으로 계속 풀어야 할 문제다. 좋은 인재를 얻기 위해서."

관련기사

-고위험 AI 범주가 관심인데...

"기본적으로 사람 생명과 관련한 거나 사람의 운명을 결정 하는 것 등이 대상일 듯 하다. 리스크 평가는 대단히 중요하다. 영국도 지금 위험별로 이거에 대한 연구를 하고 있고, 일부 실험을 하고 있는 듯 하다. 잘 지켜보고 있다."