온디바이스 AI 시대, HBM도 '저전력' 맞춤 설계 주목

저전력 특화 HBM 설계 요청 많아져

반도체ㆍ디스플레이입력 :2024/01/29 14:48    수정: 2024/01/29 20:48

최근 IT 시장에 온디바이스 AI 기술이 빠르게 도입되면서, 미래 HBM(고대역폭메모리) 시장에도 변화가 감지된다. HBM의 성능을 다소 낮추더라도 저전력(LP)에 특화된 맞춤 제품에 대한 수요가 최근 증가하고 있는 것으로 파악된다.

29일 업계에 따르면 일부 IT 기업들은 온디바이스AI 시장을 겨냥해 저전력 특성을 높인 HBM 설계를 요청하고 있다.

(사진=SK하이닉스 뉴스룸)

HBM은 여러 개의 D램을 수직으로 적층한 첨단 메모리다. 전기 신호를 통하게 하는 입출력 단자(I/O)를 1천24개로 기존 D램(최대 32개) 대비 크게 늘려, 대역폭을 크게 확장한 것이 특징이다. 대역폭이 높으면 데이터 처리 속도가 빨라진다.

현재 HBM은 고용량 데이터를 처리해야 하는 AI 산업에서 수요가 빠르게 증가하고 있다. 엔비디아·AMD 등이 설계하는 서버용 GPU(그래픽처리장치)와 여러 개의 HBM을 집적한 AI 가속기가 대표적인 사례다.

나아가 HBM 시장은 향후 온디바이스 AI 등 저전력 특성이 강조되는 시장에 맞춰 설계될 수 있을 것으로 기대된다.

반도체용 소프트웨어 업계 관계자는 "최근 복수의 잠재 고객사들이 HBM의 대역폭을 낮추더라도 저전력 특성을 강화하는 방안을 제시해 왔다"며 "서버 만큼의 성능은 아니지만, 일부 엣지 단에서 HBM을 쓰고자 하는 요청이 적지 않다"고 밝혔다.

온디바이스 AI는 클라우드 및 데이터센터를 거치지 않고 기기 자체에서 AI 기능을 수행하는 기술이다. 삼성전자, 퀄컴, 인텔 등이 최근 온디바이스 AI 성능이 강조된 칩셋 및 제품을 잇따라 공개하면서 시장 안착에 속도를 붙이고 있다.

관련기사

온디바이스 AI의 실제 구동 환경에서는 클라우드와 엣지 네트워크를 동시에 활용하는 '하이브리드 AI' 운용이 필요할 것으로 관측된다. 이에 전 세계 주요 IT기업들도 엣지 분야에서 HBM을 활용할 수 있는 방안을 강구하고 있다.

AI 반도체 기업 고위 임원은 "모바일이나 오토모티브 등을 겨냥한 엣지용 AI 칩셋도 향후 HBM과 결합될 가능성이 충분히 높다고 본다"며 "아직까진 설계 초기 단계이기는 하나 막연하게 먼 미래가 아닌 시장에서 가시적으로 실체가 나타나고 있는 상황"이라고 말했다.