네이버 클라우드와 삼성전자가 공동 개발에 나선 인공지능(AI) 반도체의 시연이 공개됐다. 엔비디아와 같이 AI 반도체 시장에서 선두권에 있는 회사의 상용 제품과 비교해 AI 연산 과정에서 8배 이상의 전력 효율을 장점으로 내세웠다.
두 회사는 과학기술정보통신부가 19일 서울 서초구 더케이호텔에서 개최한 AI 반도체 최고위 전략대화 행사장 앞에 전시 부스를 꾸리고 현재 개발 단계 중에 있는 FPGA 형태의 AI 반도체 시연을 선보였다.
네이버의 초거대 AI 모델인 하이퍼클로버X를 구동하는 형태의 시연이다.
지난해 12월 업무협약 이후 약 1년간 공동 개발의 결과물로 4배 이상 압축된 초거대 모델을 저전력 하드웨어에서 구현한 것이 특징이다. 기존 컴퓨팅 시스템에서는 초거대 모델을 압축하면 속도가 느려지는 반면, 두 회사가 개발하는 시스템에서는 연산이 4배 빨라지는 결과를 검증했다.
연산 속도를 높이는 동시에 전력 효율을 끌어올린 점이 주목할 부분이다. 이동수 네이버클라우드 이사는 “현재 AI 반도체 시장에서 엔비디아 제품이 가장 가격이 저렴하고 성능이 좋지만, 네이버와 삼성전자가 개발한 AI 반도체가 8배 이상 전력 효율이 높다”고 설명했다.
양산이 이뤄질 경우 시스템 구성 측면에서 보급 확산이 더욱 빠를 것으로 예상된다. 최근 들어 메모리업계가 생산 가동률을 높이기 시작한 HBM이 아닌 모바일 기기에서 많이 쓰이는 LPDDR을 활용했기 때문이다. 전력 효율성을 끌어올린 주된 이유로도 꼽힌다.
관련기사
- 韓 AI칩 스타트업 삼총사, '엔비디아' 대항 동맹 맺었다2023.11.02
- AI 반도체 훈풍에 경계현 사장 "삼성, 美 AI 시장 확대 도울 것"2023.08.24
- 엔비디아, 매출 101%-영업익 1263% 증가…'AI특수' 제대로 누렸다2023.08.24
- 엔비디아, 세계 최초 'HBM3e' 탑재 AI칩 내년 양산2023.08.09
실제 글로벌 경쟁사의 모델 비교에서도 HBM을 활용한 두 회사와 달리 네이버와 삼성은 LPDDR5X로 비교 값을 내놨다.
양사의 AI 반도체는 현재 기술검증을 마친 단계로, 시장성이 입증되면 양산 체제에 돌입할 수 있을 전망이다.