인공지능(AI) 안전성에 대한 글로벌 논의가 단순히 선언적 수준에 머물지 않고 실질적 영향을 발휘할 수 있어야 한다는 지적이 나왔다.
이은주 서울대 언론정보학과 교수 겸 AI신뢰성센터장은 11일 코엑스 그랜드볼룸에서 열린 'AI 서울 2025'에서 이같이 주장했다. 글로벌 차원에서 AI 안전 논의가 이뤄지고 있지만 추상적이고 표면적인 결과만 도출된다는 이유에서다.
이 센터장은 "기후 위기나 코로나19 대응처럼 AI 안전도 글로벌 단위 노력이 필요하지만, 국가 간 이해관계가 얽혀 있어 실효성 있는 합의에 이르는 것이 쉽지 않다"고 지적했다. 그는 "최근 딥시크나 소버린AI 처럼 AI가 국가 안보, 정보 유출 문제와 직결됐다"며 "각국 이해관계가 충돌하는 상황에서 올바른 합의가 진행될지 우려스럽다"고 이유를 밝혔다.
그는 글로벌 논의를 통한 결과물이 실제 AI 개발 과정에 큰 영향을 미치지 않는다고 주장했다. 그는 "AI 안전 논의 결과는 누구도 반대하기 어렵고, 추상적이고, 당연한 원칙에 그치는 경우가 많다"며 "'AI가 인간 중심이어야 한다' 또는 '윤리적이어야 한다' '평등해야 한다'는 선언적 수준에 머물러 있다"고 지적했다.
또 그는 '인간중심(Humancentric) AI' 개념 확산을 우려했다. 그는 "여기서 말하는 '인간'에 대한 주체도 불분명하다"며 "마치 공식적인 대상이 있는 것처럼 간주해 명확성이 부족하다"이라고 주장했다.
그는 글로벌 기업과 각국 정부가 단순히 AI 안전·규범에 대한 논의를 넘어 'AI가 인간을 얼마나 더 안전하게 만들 수 있는가'라는 관점에 집중해야 한다고 강조했다. 단순히 인간을 AI 위협으로부터 보호하는 것이 아니라 AI가 사회적 위험을 예방·대응하는 역할을 수행할 수 있게 도와야 한다는 설명이다.
이 센터장은 이를 위해 기술과 법·제도적 논의뿐 아니라 인간의 AI 기술 수용, 평가, 반응 방식을 과학적으로 이해하는 것도 필요하다고 설명했다. 실제 AI 이용자 경험과 관점을 바탕으로 AI 안전성 방향을 설정해야 한다는 의미다.
AI안전연구소 "AI 테스트·평가 발전…기술·규제적 대응 시급"
한국전자통신연구원(ETRI) 최민석 AI안전연구소 실장은 AI 안전성 확보를 위해 기술적 대응과 규제적 대응을 병행해야 한다고 강조했다.
최 실장은 AI 안전 핵심 요소로 ▲견고성(Robustness) ▲확실성(Assurance) ▲명확성(Specification)를 제시했다. 견고성은 비정상적인 상황에서도 AI가 안전하게 작동하는 능력을 의미한다. 확실성은 AI의 작동 방식을 설명할 수 있는 능력이다. 명확성은 AI 모델이 의도한 대로 정확히 작동하도록 설계하는 기술적 접근을 말한다.
그는 AI 모델 테스트와 평가가 더욱 중요해질 것으로 전망했다. 최 실장은 "AI 모델을 사람이 일일이 평가하기에는 한계가 있다"며 "테스트와 평가의 자동화, 수치화가 확대될 것"이라고 내다봤다. 또 특정 안전 조치가 실제 유효한지를 지속적으로 검증하는 절차도 필수적이라고 강조했다.
관련기사
- AI 미래 엇갈린 전망…캐플런 "사업 창출" vs 벤지오 "안전 우선"2025.02.11
- 오세훈 서울시장 "5천억 AI 펀드 신설…GPU 지원 확대"2025.02.11
- 중국 AI 부상 경계… 英 기술 장관 "서구가 주도해야"2025.02.11
- "요슈아 벤지오·스튜어트 러셀도 동참"…TTA, AI 신뢰성 확보 나선다2025.02.11
최 실장은 "앞으로 견고성과 확실성, 명확성을 AI 안전 평가 핵심 요소로 삼아야 한다"며 "기술과 정책이 유기적으로 협력해 다양한 위험 요소를 과학적으로 분석해야 한다"고 말했다.
최 실장은 AI 전체를 획일적으로 규제하는 것은 바람직하지 않다고 지적했다. 그는 "위험 유형에 따라 기술적 해결책이 더 효과적일 수 있고, 일부 분야는 규제적 접근이 필요할 수 있다"며 "맞춤형 대응 전략이 중요할 것"이라고 강조했다.