메타가 인공지능(AI) 오픈소스 전략을 유지하면서도 보안 위험이 높은 시스템의 개발과 배포를 제한하기로 했다. AI 기술의 혁신과 보안 사이에서 균형을 맞추겠다는 방침이다.
4일 테크크런치에 따르면 메타는 AI 시스템의 위험도를 평가하고 관리하기 위한 내부 정책인 '프론티어 AI 프레임워크'를 발표했다. 이 문서를 기반으로 메타는 AI 기술이 초래할 수 있는 보안 위험을 고려해 '고위험'과 '치명적 위험' 두 단계로 분류하고 이에 따라 개발과 공개 여부를 결정할 계획이다.
메타에 따르면 '고위험' AI 시스템을 사이버 보안 침해, 화학·생물학적 공격을 돕는 기술이다. 다만 '고위험' 시스템은 공격을 보다 쉽게 수행할 수 있게 만들지만 완전한 성공을 보장하지는 않는다.
![](https://image.zdnet.co.kr/2024/07/24/bacedefcd05b5af84fd57c249da5ffb3.jpg)
메타는 '치명적 위험' AI 시스템을 두고 통제할 수 없는 치명적인 결과를 초래할 수 있는 기술로 정의했다. 일례로 '최신 보안이 적용된 기업 네트워크를 자동으로 침해하는 기술'과 '고위험 생물학적 무기의 확산' 가능성이 '치명적 위험'에 해당된다.
회사는 AI가 '고위험 시스템'으로 분류될 경우 내부 접근을 제한하고 위험도를 '중간 수준'으로 낮출 때까지 공개하지 않기로 했다. '치명적 위험'으로 평가된 시스템은 보안 조치를 통해 유출과 개발이 즉시 중단된다.
다만 회사의 위험 정의 리스트는 완전하지 않은 상태로, AI 기술 발전에 따라 지속적으로 업데이트될 예정이다. 또 AI 시스템의 위험도는 단순한 정량적 테스트가 아닌 내부 및 외부 연구진의 평가를 바탕으로 최고위 의사 결정자들의 승인을 받는 방식으로 운영될 예정이다.
관련기사
- MS·AWS·메타, 딥시크 'R1' 쓴다…챗GPT 의존도↓2025.01.30
- 메타 저커버그 "딥시크 걱정하지 않는다"2025.01.30
- 알리바바, 새 AI 모델 출시…"오픈AI·딥시크·메타 능가"2025.01.30
- LGU+ 키즈토피아, 100만 가입자 돌파...글로벌서 메타버스 통했다2025.01.30
업계에서는 메타의 이번 정책 발표를 두고 AI 기술 개방과 보안 리스크 사이의 균형을 찾으려는 움직임으로 분석한다. 메타는 경쟁사인 오픈AI와 달리 AI 모델을 오픈소스 모델로 제공해왔다. 실제로 메타의 AI 모델 '라마' 시리즈는 수억 회 다운로드되며 전 세계에서 활용되고 있다. 다만 오픈소스 모델 특성 상 누구나 사용할 수 있다는 점 때문에 거대한 위험을 초래할 수 있다는 비판이 꾸준히 제기되고 있다.
메타 관계자는 "AI 기술을 사회에 제공하면서도 적절한 수준의 위험을 유지하는 것이 가능하다"며 "기술의 이점과 위험을 모두 고려한 개발 및 배포 전략을 지속할 것"이라고 밝혔다.