AI 산업 발전을 위해 안전 문제부터 보장해야 한다는 학계 의견이 제기됐다. 정부에서도 빠른 시일 내에 AI 안전에 대한 종합계획을 내놓는다는 방침이다.
한국통신사업자연합회 AI미래가치포럼이 11일 국회에서 개최한 정책토론회에서 김명주 AI안전연구소장은 “안전과 신뢰가 확보되지 않는 상황에서 AI 산업 발전은 국가경쟁력 측면에서 문제가 된다”고 말했다.
김 소장은 “스타트업인 오픈AI가 GPT 3.0을 만들고 2년 반 가까이 서비스를 내놓지 않은 것은 비윤리적 정보에 대한 학습을 시키는 과정이 있었다”며 “AI 안전이 보장되지 않으면 AI가 위험한 무기가 될 수 있기 때문이다”고 설명했다.
이어, “구글도 이때 인터뷰에서 AI의 잠재인 사회 윤리 위험을 통제할 수 없는 상태서 AI 플랫폼을 출시할 수 없다고 했는데, 바드를 내놓고 할루시네이션이 발생하면서 구글이 직접 AI에서 물러설 수 없다고 한 게 지금의 AI 기술 전쟁으로 이어진 것”이라고 덧붙였다.
AI 안전에 대한 관심이 국가적인 단위로 높아지면서 영국을 시작으로 AI 안전을 따로 집중하는 AISI 조직이 생겨났고, 한국은 여섯 번째로 AI안전연구소를 설립했다. 연구소는 물론 대학과 같은 기관에서 AI 안전을 측정하는 지표를 내놓고 있는데 한국도 그에 맞는 지표를 내놓는다는 계획이다.
김 소장은 “곧 한국형 AI 위험 지도를 발표하겠다”면서 “개별 리스크를 집중하는 것과 달리 저전체 도메인을 만드는 작업이라 세계적인 관심을 받고 있다”고 밝혔다.
이같은 발표 이후 토론에 참여한 법무법인 세종의 황정현 변호사는 “AI 기술 경쟁의 단순 수용국이 아니라 위험을 스스로 정의하고 규범을 직접 설계할 수 있는 국가적 역량을 갖춰야함 글로벌 AI 시대의 실질적 주권을 확보할 수 있다”고 강조했다.
그러면서 “개인정보와 관련해 유럽이 GDPR을 만들 때 우리나라도 개인정보보호법을 만들면서 유럽 대비 엄격한 규제가 마련됐다”며 “AI 안전에 대해서는 AI기본법을 활용해 글로벌 규제와 공조할 필요가 있다”고 했다.
민대기 이화여대 교수는 “규네라고 하면 기업의 비즈니스에 제약이 되지만 기업이 사업을 하면서 불확실성을 제거하는 역할을 한다”며 “안전한 AI를 어디까지 준비해야 하는지 규제로 또는 가이드라인으로 담든지 국가 차원에서 고민해 실질적인 안내를 하면 유의미할 것”이라고 내다봤다.
관련기사
- 한국 5G 다운로드 속도, 주요 7개 선진국보다 3.8배 빠르다2025.11.24
- "AI 시대 안정적 네트워크 투자 구조 마련해야"2025.09.30
- 글로벌 AI 안전 협력, 서울서 현실화…"책임 확장에서 실행으로"2025.10.29
- 글로벌 AI안전 전문가들 "AI 규제와 혁신, 함께 가야 한다"2025.10.28
김국현 과학기술정보통신부 AI안전신뢰정책과장은 “AI 환각이나 편향성, 인간의 기술 오용, AI 스스로 통제력을 상실할 수 있는 우려에 따라 세계적으로 노력하고 있고, 정부도 AI 안전에 대한 노력을 기울이고 있다”며 “부총리 부처로 승격되면서 AI 안전 부서가 2개과가 생겼고, AI안전연구소의 역할이 더 커져야 한다고 생각한다”고 말했다.
AI미래가치포럼 의장을 맡고 있는 이성엽 고려대 교수는 “AI안전연구소는 기관의 운영 자율성과 위상을 강화할 필요가 있다”며 “이를테면 노동과 일자리 문제도 나중에 이야기를 해야 하기 때문에 별도의 기관으로 독립성이 보장되는 것이 맞다”고 했다.











