"대규모 AI인프라 운영 새 방향 제시"...래블업, 쿠버네티스 10주년 행사 참여

애틀란타에서 10~13일 'KubeCon+CloudNativeCon North America 2025' 열려

컴퓨팅입력 :2025/11/07 21:00

AI 인프라 전문기업 래블업(Lablup, 대표 신정규)은 쿠버네티스 10주년을 기념해 미국 애틀란타에서 열리는 'KubeCon+CloudNativeCon North America 2025'에 오는 10일부터 13일까지 실버 스폰서로 참가한다고 7일 밝혔다.

래블업은 이번 행사에서 독자 개발한 GPU 오케스트레이터 '소코반(Sokovan)'과 쿠버네티스(Kubernetes) 통합 기술을 중심으로, 대규모 AI 인프라 운영의 새로운 방향을 제시한다.

래블업의 백엔드AI(Backend.AI)는 다양한 기업과 연구기관이 사용하는 클라우드 네이티브 기반 AI 인프라 운영 플랫폼이다. 플랫폼 핵심에는 GPU 오케스트레이션 엔진 ‘소코반’이 있으며, 이는 수천 개의 GPU 노드에서 워크로드 스케줄링과 자원 관리를 수행하는 고성능 기술로 평가받고 있다.

'소코반'은 다양한 가속기 지원, 실시간 장애 복구, 자원 자동 할당 등 AI 워크로드 운영에 필요한 기능을 통합 제공, 대규모 인프라 환경에서도 안정적 운영을 가능하게 한다고 회사는 밝혔다.

쿠버네티스 통합으로 클라우드 네이티브 AI 인프라 확장 기반 마련

래블업은 이번 행사에서 'Backend.AI'와 쿠버네티스 통합 기술을 중심으로, AI 인프라 운영 효율성을 극대화하는 방향을 제시한다. 'Backend.AI'의 쿠버네티스 네이티브 확장은 GPU 기반 AI 워크로드를 보다 유연하게 관리할 수 있도록 돕고, 클라우드 네이티브 환경에서도 'Backend.AI'의 GPU 최적화 기능을 그대로 활용할 수 있게 한다. 이를 통해 데이터 과학자와 엔지니어는 인프라 설정에 대한 부담 없이 모델 개발에 집중할 수 있으며, 시스템 관리자는 대규모 배포 환경의 모니터링 및 제어 효율을 높일 수 있다고 회사는 설명했다.

래블업은 다양한 기관의 GPU 인프라 운영을 'Backend.AI'로 지원하고 있다. 최근에는 국가 파운데이션모델 개발 프로젝트에서 500장 규모의 'NVIDIA HGX B200' GPU를 운영하며 Backend.AI와 소코반의 안정성과 확장성을 검증했다. 이 과정에서 자동 복구 및 워크로드 재배치 기능을 통해 장애 발생 시에도 운영 중단 시간을 최소화하는 등 대규모 GPU 클러스터 운영의 신뢰성을 확보했다.

이번 'KubeCon + CloudNativeCon NA 2025' 참가를 계기로 래블업은 글로벌 클라우드 네이티브 커뮤니티와의 기술 협력 네트워크를 강화할 예정이다. 특히 쿠버네티스 생태계 내에서 GPU 자원 운영의 새로운 표준을 제시하며, AI 인프라 산업 전반의 기술 발전 방향을 함께 모색할 계획이다.

관련기사

래블업은 ‘인류를 위한 지능의 민주화(Democratizing intelligence for humanity)’라는 미션 아래, 글로벌 AI 인프라 시장에서 지속적인 혁신을 이어가고 있다.

김준기 래블업 최고기술책임자(CTO)는 “대규모 GPU 환경에서는 장애가 불가피하지만, Backend.AI와 소코반을 통해 중단 시간을 최소화하고 시스템 안정성을 높이고 있다”고 밝혔다. 이어 “쿠버네티스 통합을 통해 AI 워크로드 유연성과 생태계 확장성을 결합, 클라우드 네이티브 환경에서도 안정적인 인프라 운영이 가능하게 될 것”이라며 “AI인프라 산업은 이제 에너지와 국가 인프라 차원의 접근이 필요한 시점”이라고 강조했다.