IBM, 텔럼2 칩셋에 부착하는 '스파이어'로 AI 가속기 시장 공략

'핫칩스 2024'서 공개…스파이어, 텔럼2 프로세서 보완하며 추가 AI 연산 능력 제공

컴퓨팅입력 :2024/08/27 10:17

생성형 인공지능(AI)이 실용 단계로 접어든 가운데 AI와 대규모언어모델(LLM)의 빠른 연산을 제공하기 위해 IBM이 새로운 칩셋과 가속기를 발표했다.

IBM은 반도체 학회 '핫칩스 2024'에서 메인프레임 칩셋 '텔럼 2' 프로세서와 '스파이어' 인공지능(AI) 가속기를 공개했다고 27일 밝혔다.

이번 공개된 텔럼 2 프로세서는 차세대 IBM Z 시스템에 구동되도록 1세대 텔럼 칩에 비해 클록·메모리 용량 증가, 데이터 처리에 일관성을 제공하는 부속 데이터 처리 장치(DPU)가 특징이다.

AI얼라이언스에 후원사로 참가한 IBM에서 AI관련 기술을 소개했다.

또 이 제품은 5.5기가헤르츠(GHz)로 실행되는 8개의 고성능 코어 및 기존 대비 약 40% 증가한 360메가바이트(MB) 용량의 온칩 캐시 용량도 가지고 있다.

동시에 발표된 스파이어 엑셀러레이터는 텔럼 2 프로세스를 보완하기 위해 추가적인 AI 연산 능력을 제공한다.

관련기사

이번에 공개된 스파이어는 신규 모델로 텔럼2와 함께 작동해 여러 개의 머신 러닝 AI 모델을 인코더 LLM과 결합할 수 있다. 각 칩은 지연 시간이 짧고 대규모 처리가 필요한 AI 애플리케이션을 위해 인트4, 인트8, 에프피8 및 에프피16 데이터 유형을 지원하는 32개의 컴퓨팅 코어를 가질 전망이다.

티나 타르퀴니오 IBM Z 제품 관리 담당 부사장은 "강력한 로드맵을 통해 증가하는 AI 수요를 비롯한 기술 트렌드에서 앞서 나갈 수 있는 기반을 마련했다"며 "텔럼 2 프로세서와 스파이어 엑셀러레이터는 고성능, 보안, 전력 효율성이 우수한 엔터프라이즈 컴퓨팅 솔루션을 제공해 고객이 LLM과 생성형 AI를 대규모로 활용할 수 있게 할 것"이라고 말했다.