[라스베이거스(미국)=권봉석] 엔비디아가 5일(이하 현지시간) 라스베이거스 퐁텐블로 시어터에서 진행한 기조연설에서 데이터센터용 차세대 AI GPU 플랫폼 '루빈'(Rubin)을 공개했다.
엔비디아는 2024년 컴퓨텍스 기조연설에서 블랙웰을 시작으로 매년 새 GPU를 출시하겠다고 밝힌 바 있다. 지난 해 블랙웰을 강화한 '블랙웰 울트라'에 이어 올해는 CPU와 GPU를 새로 설계한 '루빈'이 투입된다.
루빈은 단일 GPU를 넘어 CPU, 네트워크, 보안, 스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처로, 대규모 학습과 추론 비용을 획기적으로 낮추는 데 초점을 맞췄다.
루빈 GPU는 3세대 트랜스포머 엔진과 하드웨어 가속 적응형 압축을 적용해 추론에서 50페타플롭스(NVFP4) 연산 성능을 제공한다. GPU 간 연결에는 6세대 NV링크를 적용해 GPU당 3.6TB/s, NVL72 랙 기준 260TB/s 대역폭을 구현했다.
CPU는 Arm IP 기반 새 제품인 '베라'이며 에이전틱 AI 추론을 겨냥했다. 최대 88개 코어로 구성된 CPU가 루빈 GPU와 직접 연결돼 전력 효율과 데이터 이동 성능을 동시에 확보했다.
엔비디아는 루빈 플랫폼을 구성하는 베라(Vera) CPU와 루빈 GPU, GPU 사이에서 데이터를 주고 받는 NV링크 6 스위치, 데이터 전송에 관여하는 블루필드4 DPU 등을 통합설계했다.
관련기사
- SK하이닉스, 美에 첫 2.5D 패키징 '양산 라인' 구축 추진2025.12.29
- 엔비디아, 29조원 주고 AI칩 스타트업 '그로크'와 기술 계약2025.12.26
- 엔비디아, RTX 프로 5000 72GB 블랙웰 GPU 출시2025.12.19
- 엔비디아, HPC·AI 오픈소스 생태계 확장…스케드엠디 인수2025.12.17
이를 이용해 루빈이 블랙웰 대비 1/10 수준의 토큰 비용으로 대규모 '혼합 전문가'(MoE) 모델 추론을 수행할 수 있으며 동일한 모델 학습에 필요한 GPU 수를 25% 수준으로 줄일 수 있다는 것이 엔비디아 설명이다.
엔비디아는 루빈이 올 하반기부터 주요 클라우드와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. AWS, 구글 클라우드, 마이크로소프트, OCI를 비롯해 다수의 AI 연구소와 기업들이 루빈을 도입 예정이다.











