'AI 안전팀' 해체 후 韓서 입 연 오픈AI…무슨 말 했나

애슐리 판툴리아노 "오픈AI, 여전히 안전에 집중…최근 일, 확인 필요한 가치 있는 것들"

컴퓨팅입력 :2024/05/23 21:21    수정: 2024/05/23 23:48

챗GPT 등을 앞세워 전 세계 인공지능(AI) 산업을 이끌고 있는 미국 오픈AI가 'AI 서울 서밋'을 기점으로 안전성에 더 주의를 기울이겠다는 의사를 내비쳤다. 최근 사내 'AI 안전팀'을 전격 해체한 데 이어 AI 안전성을 강조하는 반(反) 샘 알트먼 세력들이 회사를 떠난 후 AI 안전보다 '수익'에 치중하는 것 아니냐는 지적에 따른 행보로 분석된다.

애슐리 판툴리아노(Ashley Pantuliano) 오픈AI 법률고문은 22일 서울 더 플라자 호텔에서 열린 'AI와 데이터 거버넌스 국제 컨퍼런스'에 참석한 후 기자와 만나 "오픈AI는 여전히 안전에 매우 집중하고 있다"며 "최근 일들은 안전과 관련한 우리의 모든 관행들에 대해 확인이 필요한 가치 있는 것들이었다"고 밝혔다.

지난 22일 서울 더 플라자 호텔에서 열린 'AI와 데이터 거버넌스 국제 컨퍼런스'에 참석한 애슐리 판툴리아노 오픈AI 법률고문 (사진=장유미 기자)

앞서 오픈AI는 사내 '수퍼얼라인먼트(superalignment)'팀을 해체하고 팀원들을 사내 여러 팀으로 재배치했다. 작년 7월 만들어진 이 팀은 오픈AI 공동 창립자 중 한 명으로 최근 회사를 떠난 일리야 수츠케버 최고과학자가 이끌었다. 이곳에선 고도로 발전한 AI가 사람의 의지를 배반하거나 인류를 해치지 않도록 통제하는 방법을 연구했다.

수츠케버와 함께 이 팀의 공동 리더였던 얀 리이크는 지난 18일 "오픈AI에서의 모든 직위를 내려놨다"며 "우리 팀을 사랑하지만 회사에서 AI 안전은 반짝이는(shiny) 제품에 밀려 뒷전이 됐다"고 밝혔다.

그러면서 "지난 수개월 동안 자신이 이끄는 팀이 사내 우선순위에서 밀려났다"며 "중요한 연구 수행을 위한 지원을 확보할 수 없었다"고 토로했다.

업계에선 이 일을 두고 AI 기술 개발 경쟁이 치열해지면서 'AI 윤리' 문제가 뒷전으로 밀려나는 상황이 벌어진 것이라고 해석했다. 또 오픈AI의 설립 취지와 다소 다르게 샘 알트먼 오픈AI 최고경영자(CEO)의 수익성 추구 움직임이 갈수록 강화되고 있다는 점에서 우려도 표했다.

이 같은 움직임에 대해 판툴리아노 법률고문은 "(이와 관련해) 더 할 말은 없을 듯 하다"면서도 "안전과 관련한 우리의 입장은 최근 뉴스룸을 통해 자세히 게재했다"고 설명했다.

실제 오픈AI는 최근의 AI 안전과 관련한 논란을 의식한 듯 지난 21일 뉴스룸을 통해 이와 관련된 입장을 밝혔다. 이는 같은 날 한국에서 'AI 서울 정상회의' 개최에 맞춰 오픈AI, MS, 구글 등 해외 기업을 비롯해 삼성전자와 네이버, 카카오, LG AI연구소 등 국내 기업 등 총 14개 기업이 '서울 서약'을 발표한 데 따른 것이다. 이 서약은 AI의 책임, 발전, 혜택 등 기업이 추구해 나갈 방향을 담은 자발적인 약속으로, 책임 있는 AI 개발 및 사용을 보장하고 AI의 지속가능한 발전과 혁신 추구, AI의 공평한 혜택을 보장하겠다는 것이 골자다.

이에 더해 오픈AI는 뉴스룸을 통해 10가지 안전 수칙을 운영하고 있음을 알렸다. 특히 출시 전 레드팀을 통해 안전성을 테스트함으로써 임계값인 '중간'을 넘을 경우 사후 완화 조치를 충분히 시행해 위험 점수를 낮출 때까지 서비스를 출시하지 않는다는 점을 강조했다. 최근 출시한 'GPT-4o' 역시 70명 이상의 외부 전문가의 평가를 통해 초기 점검 사항의 취약점을 보완할 수 있었다고 피력했다.

오픈AI는 오랜 시간 동안 안전성을 연구하고 투자한 덕분에 서비스 오류가 적을 뿐 아니라 유해한 콘텐츠를 선보일 가능성이 적은 스마트한 모델을 구축했다는 점도 자신있게 내세웠다. 자사 기술이 악용되는 것을 막기 위해 꾸준히 모니터링하고 있을 뿐 아니라 AI 모델 수명 주기를 고려해 다양한 단계에서 이에 맞는 안전 조치도 시행하고 있다는 점을 강조했다.

판툴리아노 법률고문은 "사전 데이터 학습부터 론칭까지 모델의 전 과정에서 단계적으로 유해성을 제거하기 위해 노력하고 있다"며 "인풋 단계가 아닌 결과물이 아웃풋이 돼 나가기 전에도 필터링 과정을 거치게 함으로써 안전성을 검증하는 것에 집중하고 있다"고 설명했다. 

이어 "오픈AI도 레드팀을 통해 검증을 하고 그 결과물을 투명하게 공개해 사용자들의 신뢰를 쌓는 것을 중요하게 여기고 있다"며 "특히 자체 '안전 자문 위원회' 운영을 통해 모델이 개발된 후 배포하는 과정에서의 안전성 점검도 다시 한 번 더 철저하게 하고 있다"고 덧붙였다.      

샘 알트먼 오픈AI CEO (사진=지디넷코리아 DB)

이 외에 오픈AI는 어린이 보호 조치를 '챗GPT'와 이미지 생성 AI 모델 '달리'에 구축했다는 점을 강조했다. 또 정부 및 이해관계자와 협력해 정치와 관련해 오해의 소지가 있는 콘텐츠를 생성하는 것도 막기 위해 노력하고 있다고 피력했다. 여기에 지적 재산과 데이터 보호를 최우선으로 생각하고 있을 뿐 아니라 고객의 보안에 대해서도 주의를 기울이고 있다고 설명했다.

관련기사

오픈AI 측은 "안전한 의사 결정을 위해 여러 부서를 아우르는 안전 자문 위원회를 통해 모델 기능 보고서를 검토하고, 배포에 앞서 권장 사항을 제시한다"며 "최종 결정은 회사 경영진이 내리고, 이사회는 이러한 결정에 대한 감독권을 행사하는 과정을 거쳐 현재 유능하고 안전한 모델을 선보일 수 있었다"고 밝혔다.

그러면서 "점차 정교해지는 공격에 탄력적으로 대응할 수 있도록 보안 태세를 강화하고 주요 모델을 출시하기 전에 안전성을 테스트하는 데 더 많은 시간을 투자해야 한다는 점을 잘 알고 있다"며 "더 성능이 향상된 AI를 안전하고 유익하게 제공하기 위해 현장에선 풀어야 할 어려운 과제가 있지만, 앞으로 이에 잘 대응하는 모습을 꾸준히 공유해 나갈 것"이라고 덧붙였다.