"GPU는 많은데 쿠다는 하나"...AI 주권 위협하는 시스템 SW 종속

엔비디아 의존 심화에 AMD·국산 칩도 생태계 진입 난항…오픈소스 활용 필요성 제기

컴퓨팅입력 :2025/08/01 13:35    수정: 2025/08/01 14:03

인공지능(AI) 시대 그래픽처리장치(GPU) 확보가 필수 요소로 떠오르면서 이를 실제 작동하게 하는 소프트웨어(SW) 생태계 구축이 핵심 경쟁력으로 부각되고 있다.

다만 국내를 비롯한 글로벌 AI 산업은 엔비디아의 병렬 컴퓨팅 플랫폼 '쿠다(CUDA)' 의존도가 높아 새로운 AI 가속기가 실효성을 갖기 어려운 구조라는 우려도 나온다.

1일 업계에 따르면 국내 주요 AI·클라우드 기업은 대부분 엔비디아 GPU 기반의 연산 인프라를 도입하고 있으며 모델 학습과 추론도 쿠다 기반 SW 스택 위에서 수행 중이다.

일부 기업이 AMD의 'ROCm'이나 국산 AI 반도체를 실증하고 있지만 생태계 호환성과 개발자 도구 부족으로 인해 상용 환경에서의 확장은 제한적인 것으로 알려졌다.

엔비디아 쿠다 생태계 종속이 심화되고 있다. (사진=챗GPT 제작)

엔비디아는 자사 GPU용 병렬 컴퓨팅 플랫폼 쿠다를 통해 사실상 GPU 업계의 운영체제(OS) 역할을 수행하고 있다. AI 프레임워크 대부분이 쿠다 기반으로 최적화돼 있으며 '파이토치'나 '텐서플로우'와 같은 주요 AI 개발 도구도 쿠다 없이는 성능 구현이 어렵다. 이에 전 세계 개발자 생태계가 자연스럽게 쿠다에 락인된 상태다.

클라우드 업계 관계자는 "GPU는 많지만 쿠다는 하나라는 말이 괜히 나온 게 아니다"라며 "AI 개발자에게 쿠다는 선택이 아닌 전제 조건"이라고 말했다.

국내 기업이 설계한 AI 반도체 역시 같은 문제에 봉착해 있다. 자체 하드웨어(HW)를 개발해도 아직 파이토치나 허깅페이스 등 주요 AI 프레임워크와 바로 연결되지 않아 코드가 없는 반도체라는 현실적 벽에 직면했다는 게 업계의 시각이다. ONNX 변환, 트라이톤 서버 호환 등을 통해 다양한 호환 경로를 모색 중이지만 쿠다 기반 환경 대비 모델 구동 속도나 디버깅 편의성이 크게 떨어진다는 지적이 나온다.

공공 AI 개발 사업도 비슷한 양상이다. 대부분의 사업 제안요청서(RFP)에서 쿠다 기반 모델 구현을 전제로 하고 있어 대체 생태계가 실질적으로 배제되고 있다는 목소리가 나온다.

이같은 종속 구조 속에서 글로벌 오픈소스 진영은 '탈(脫) 쿠다'를 위한 기술적 시도를 이어가고 있다. 인텔은 CPU·GPU·FPGA를 아우르는 병렬 컴퓨팅 플랫폼 '원API'를 통해 쿠다 대항마 생태계 구축에 나섰다.

C++ 기반 병렬 언어인 SYCL도 산업계에서 점차 채택이 늘고 있다. 구글이 주도하는 MLIR, 오픈AI의 트라이톤도 쿠다 없이 GPU 커널을 작성할 수 있는 대안 기술로 주목받고 있다.

다만 이들 기술은 아직 파이토치나 텐서플로우와의 완전한 통합, 성능 최적화, 디버깅 기능에서 초기 단계에 머무르고 있어, 대규모 AI 모델을 효율적으로 돌리는 데에는 부족하다는 평가가 많다.

관련기사

이 가운데 정부는 독자적인 AI 모델과 인프라 구축을 담은 '소버린 AI' 핵심 국가 전략으로 추진 중이다. 그러나 대규모 GPU 투자 대비 이를 운용·활용할 수 있는 범용 SW 스택에 대한 전략은 아직 미비하다는 평가다. 이에 정부는 최근 산학연과 함께 국산 시스템 SW 경쟁력 강화와 생태계 조성을 위한 인재 양성에 힘쓰고 있다.

AI 업계 관계자는 "진정한 소버린 AI란 단순히 GPU를 국산화하거나 반도체만 확보하는 것이 아니라 그 위에서 AI를 개발하고 서비스로 연결할 수 있는 생태계 전체의 자립"이라며 "장기적으로 정부와 민간이 함께 쿠다에 대응할 수 있는 오픈소스 기반 범용 SW 생태계 육성 전략을 세워야 한다"고 강조했다.