"오픈AI 'GPT-4o' 넘는다"…新무기 내놓은 메타, AI 지배력 강화할까

메타, 3개월 만에 '라마3.1' 새롭게 선봬…엔비디아 'H100' 1만6천 개로 훈련

컴퓨팅입력 :2024/07/24 09:18    수정: 2024/07/24 09:37

페이스북 모회사 메타플랫폼이 자사 새로운 인공지능(AI) 모델 '라마(Llama)3.1'을 앞세워 AI 초격차 전쟁에서 우위를 잡기 위한 본격적인 움직임에 나섰다.

24일 테크크런치 등 외신에 따르면 메타는 지난 4월 '라마 3'를 선보인 이후 3개월여만에 '라마 3.1'을 새롭게 선보였다. '라마'는 메타의 거대언어모델(LLM) 이름이다.

이번 일로 메타는 최근 'GPT-4o(포오)'를 선보인 챗GPT 개발사 오픈AI를 비롯해 '제미나이'를 앞세운 구글, '클로드 3.5 소네트'로 무장한 앤스로픽 등과 AI 시장에서 치열한 경쟁을 벌일 것으로 보인다.

메타는 '라마 3.1'이 이전 버전보다 더 많은 데이터로 학습돼 성능이 크게 향상된 덕분에 강력한 AI 모델을 활용하고자 하는 기업 등에 도움이 될 수 있을 것으로 봤다.

메타 측은 "라마3.1이 AI 모델 평가 테스트인 대규모 다중작업 언어 이해(MMLU)의 여러 평가 항목에서 오픈AI의 최신 모델인 'GPT-4o(포오)', 앤스로픽의 '클로드 3.5 소네트'를 능가했다"고 강조했다.

마크 저커버그 메타 최고경영자 (사진=메타 뉴스룸)

이번 모델은 3가지 버전으로 출시됐다. 가장 큰 버전인 '라마 3.1 405B'은 AI의 데이터 처리 능력과 연관되는 매개변수(파라미터)가 4천50억 개에 달한다. GPT-3의 1천750억 개를 2배 이상 능가하는 규모다.

메타는 매개변수가 70억 개인 소형 모델 '라마3.1 8B'와 함께 700억 개인 중형 모델 '라마 3.1 70B'도 선보였다. 이 소형 모델들은 챗봇과 소프트웨어 코딩 AI를 작동시키는 데 이용될 수 있는 것으로 알려졌다.

메타는 이전 모델과 마찬가지로 이번 '라마 3.1'도 누구나 무료로 사용할 수 있도록 오픈 소스로 제공키로 했다. 오픈AI나 구글이 자사 AI 모델을 비공개로 유지하는 것과 대조적이다.

일각에선 메타의 이런 움직임이 더 많은 사용자 기반을 확보해 업계 표준 지위를 획득함으로써 지배력을 강화하기 위한 전략으로 해석했다. 다만 '라마 3.1'이 멀티모달 모델이 아닌 만큼 이미지를 이해하거나 입력할 수 없다는 것을 두고 아쉬워 했다.

메타는 "라마 3.1이 오픈AI의 GPT-4o 운영 비용의 약 절반밖에 들지 않는다"며 "이 모델을 많은 개발자가 이용할 수 있도록 마이크로소프트(MS), 아마존, 구글, 엔비디아 등 20여 개 이상의 기업과 협력하고 있다"고 강조했다.

관련기사

라마 3.1은 3가지 버전으로 출시됐다. (사진=메타 뉴스룸)

또 '라마 3.1'은 현재 상용 중인 AI 칩으로는 가장 최신인 엔비디아의 'H100' 그래픽처리장치(GPU) 1만6천 개를 기반으로 훈련된 것으로 전해졌다. 메타는 '라마 3.1'의 개발 비용을 공개하지 않았지만, 'H100' 칩이 1개당 3만∼4만 달러에 이르는 점에서 칩 구매에만 수억 달러(수천억원)가 소요됐을 것으로 예상된다.

마크 저커버그 메타 최고경영자(CEO)는 "'라마 3.1'은 가장 진보된 모델과 경쟁할 수 있는 제품"이라며 "내년부터는 향후 출시될 라마 모델이 업계에서 가장 진보된 모델이 될 것으로 기대한다"고 말했다.