한국인공지능산업협회가 인공지능(AI) 기본법 시행에 따른 사업자 책임 강화에 대응해 산업 현장 적용형 AI 안전·신뢰 표준 마련에 나선다.
한국인공지능산업협회는 글로벌 표준 기반의 산업 적용형 AI 안전·신뢰 관리 기준 도출을 위한 'AI 안전·신뢰 표준화 포럼'을 출범한다고 24일 밝혔다.
포럼은 과학기술정보통신부 산하 정보통신기술(ICT) 표준화 포럼의 일환으로 운영된다. AI 개발·이용사업자, 데이터·보안 기업, 학계 전문가 등이 참여하는 산·학·연 협력 구조를 기반으로 ISO/IEC·NIST 등 글로벌 표준을 토대로 산업 현장에서 실제 적용 가능한 AI 안전·신뢰 관리 기준을 도출하고 이를 표준화하는 것이 목표다.
최근 AI 기술이 산업 전반으로 확산되면서 거버넌스·위험관리·운영관리·책무 이행 등 관리 체계 전반을 포괄하는 기준 필요성이 커지고 있다. 특히 AI기본법 시행으로 사업자 책임이 강화되면서 기업이 실제 적용할 수 있는 실행 기준과 운영 체계 마련이 과제로 부상하고 있다.
협회는 포럼을 통해 산업별 AI 활용 환경에 따른 위험요소 및 관리 기준을 도출하고 이를 포럼 표준 및 단체표준(TTA)으로 연계 추진할 계획이다. 세미나·가이드라인·교육을 통한 표준의 산업 확산도 병행한다.
협회는 슈어소프트테크·셀렉트스타와 함께 운영 중인 AI 신뢰성 검증 인증 제도 'AI-MASTER'와 포럼 도출 표준을 연계해 평가 체계 정합성을 강화하고, 인증 적용 범위를 확대할 방침이다. 이를 통해 AI 안전·신뢰 확보를 위한 표준과 인증이 유기적으로 연결되는 산업 생태계 조성을 추진한다.
협회 관계자는 "AI 안전·신뢰 표준화 포럼은 글로벌 표준과 산업 현장을 연결하는 실질적인 실행 기준 마련에 목적이 있다"며 "TTA AI 신뢰성 얼라이언스와 연계해 국내 AI 신뢰성 검증 체계 고도화와 산업 확산을 동시에 추진할 것"이라고 말했다.











