'책임 있는 AI' 제작·활용 가이드라인 나왔다...오픈AI도 참여

AI 콘텐츠에 워터마크 권장, 위협성 미리 알리기 등 20개 항목

컴퓨팅입력 :2023/03/02 12:53    수정: 2023/03/06 08:02

오픈AI를 비롯한 10개 기업이 인공지능(AI) 콘텐츠를 책임 있게 구축, 공유하자는 가이드라인을 제시했다. 생성 AI 제작이 윤리적으로 이뤄지고, AI로 인한 개인정보 유출 등을 방지하는 게 주목표다.

MIT테크놀로지리뷰는 오픈AI, 틱톡, BBC, 어도비를 비롯한 10개 기업이 이런 내용에 공식적으로 동의했다고 지난달 28일(현지시간) 보도했다.

해당 가이드라인은 오픈AI와 같은 제작사가 생성 AI에 활용한 데이터셋과 알고리즘 제작 과정을 개방화하겠다는 내용으로 이뤄졌다. 또 BBC나 틱톡 같은 디지털 미디어 제작자도 책임 있는 AI 콘텐츠 공유를 의무화한다고 선언했다.

PAI가 소개한 '책임 있는 AI 원칙' (사진=PAI 홈페이지 캡처)

또 AI 개발자와 배포자 모두 사용자들이 AI 기술을 이용하고 있다는 점도 명백히 알리겠다고 했다. 예를 들어, AI 생성 콘텐츠에 반드시 AI 워터마크를 달거나, AI 콘텐츠 위협성을 미리 알리는 식이다. 이와 관련한 세부 조항은 20가지다. 10개 기업은 AI 콘텐츠 악용에 대응하는 연구 기획, 정책 마련에 지속적으로 협업하겠다는 항목을 담았다.

미국 비영리 AI 연구 단체인 파트너십온에이아이(PAI)은 해당 가이드라인 초안을 만들었다. 50개 넘는 AI 비영리 조직과 협업해 마련한 내용이다. PAI는 조항을 조합, 완성하고 이를 오픈AI, 틱톡, BBC를 비롯한 10개 기업에 권장해 동의를 얻은 셈이다.

가이드라인 실효성이 부족할 전망이라는 목소리도 나왔다. 취지는 좋지만 10개 기업이 과연 이를 지킬지 의문이라는 입장이다. 하니 파리드 캘리포니아 버클리대학 교수는 "자발적 지침과 원칙은 효과가 없다"고 지적했다. 예를 들어, 워터마크를 자발적으로 새기자고 권하는 것보다는 의무화하는 방침을 넣어야 한다는 것이다.

관련기사

일케 데미르 인텔 수석 과학자는 "해당 지침에 중요한 사항이 빠졌다"고 했다. 그는 "뻔한 지침보다는 AI 모델이 어떻게 훈련됐는지, 어떤 데이터셋으로 이뤄졌는지, 편향은 얼마나 있는지를 투명하게 공개하는 것이 더 책임성 있는 AI 시스템을 만들 수 있다"고 주장했다.

이에 레어 레이보위츠 PAI AI책임자는 "생성 AI 콘텐츠가 사람들에게 해를 끼치지 않고, 창의성과 지식을 공유하는 데 활용되길 바란다"며 "10개 기업으로 시작해 꾸준히 참여 기업·기관을 늘리겠다"고 전했다.