미국이 정부 주도로 안전하고 신뢰할 수 있는 인공지능(AI)을 개발하기 위한 본격적인 움직임에 착수했다.
11일(현지시간) 미국 상무부에 따르면 AI 역량평가, 위험 관리, 합성 콘텐츠 워터마킹 지침 개발 등을 위해 '인공지능 안전 연구소 컨소시엄(AISIC)'이 발족됐다. 이곳에는 정부를 비롯해 학계, AI 개발자 뿐만 아니라 오픈AI, 구글, 마이크로소프트, 아마존 등 관련 기업과 퀄컴 등 하드웨어 기업, 금융업 등도 함께 한다.
상무부는 "컨소시엄은 지금까지 설립된 테스트 및 평가팀 가운데 가장 큰 집합체"라며 "AI 안전에 대한 새로운 측정(measurement) 과학의 토대를 구축하는 데 초점을 맞출 것"이라고 말했다.
미국이 이처럼 나선 것은 AI가 빠른 속도로 발전하는 것에 맞춰 안전성을 검토할 필요가 있다는 주장이 제기됐기 때문이다. 미국 외에도 현재 영국, 일본 등에서도 관련 기구를 설립하겠다고 밝힌 상태로, 영국은 작년 11월, 일본은 작년 12월 전담 연구조직을 검토하겠다고 공표했다.
관련기사
- 타임 "르쿤, 오픈소스로 AI발전 기여"···'2024 영향력 인물' 선정2024.02.10
- [주간 AI 핫뉴스] 세계 28개국 첫 'AI규제안' 마련···"김 빠진 회의" 평가도2023.11.06
- 민간자율 AI 신뢰성 검·인증 설명회 열려2023.10.31
- 정부 "AI용 데이터·컴퓨팅·전력 부담 50% 이상 경량"2023.10.31
현재 민간 자율로 운영되고 있는 우리나라는 아직 검토 중인 것으로 알려졌다. 과학기술정보통신부는 오는 5월 한국에서 열릴 'AI 세이프티 미니 정상회의'에서 해외 사례를 살펴보고 별도 조직이 필요할 지 검토할 예정이다.
지나 러몬도 미국 상무부 장관은 "조 바이든 대통령은 AI 안전 표준을 설정하고 혁신 생태계를 보호하는 목표를 달성하기 위해 모든 수단을 동원하라고 지시했다"며 "AISIC는 이 목표 달성을 돕기 위해 설립됐다"고 밝혔다.