오픈AI "안전성 입증된 기업만 새 AI 기술 사용 가능"

보안·핵 제조 등 특정 영역 기업, AI 안전 보고서 제출 필수

컴퓨팅입력 :2023/12/19 18:28

오픈AI는 안전한 생성형 인공지능(AI) 사용 확대를 위한 프레임워크를 만들었다. 회사가 안전하다고 판단하는 기업·기관에만 최신 AI 기술을 배포할 방침이다.

18일 오픈AI는 사이버 보안이나 핵무기 제조 등 특정 영역 사용자에게 최신 AI 기술 공급 제한을 걸겠다고 공식 홈페이지를 통해 밝혔다. 특정 분야 사용자가 안전하게 AI 기술을 활용하겠다는 보고서를 제출하고, 승인받아야만 오픈AI의 최신 솔루션을 이용할 수 있다는 내용이다.

발표문에 따르면, 특정 기업이나 기관이 안전 보고서를 별도로 오픈AI에 제출해야 한다. 새로운 AI 기술을 어떤 분야에 어떤 방식으로 사용할 건지 최대한 구체적으로 작성해야 한다. 오픈AI는 보고서 검토 후 배포 여부를 판단한다. 이때 경영진과 이사회가 모두 솔루션 공급에 동의해야만 한다. 모두 찬성하면, 오픈AI는 해당 사용자에게 새 AI 솔루션을 제공한다.

관련기사

샘 알트먼 오픈AI CEO

오픈AI는 편파적인 의견 제시를 피하고자 그룹 자문단도 구성한다고 밝혔다. 기업 외부에서 활동하는 AI 연구원을 비롯한 컴퓨터 과학자, 국가 안보 전문가, 정책 전문가들이 안전 보고서 평가를 돕기로 했다. 미국 매사추세츠공과대학(MIT) 알렉산더 매드리 교수가 해당 팀을 이끈다. 매드리 교수는 MIT에서 AI 정책 포럼을 운영하고 있다.

매드리 교수는 "오픈AI 외부에서 충분한 능력을 갖춘 AI 전문가를 자문단에 더 추가할 것"이라며 "어느 한쪽에도 치우치지 않은 판단을 경영진과 이사회에 제시할 것"이라고 전했다.