인텔, 500개 AI 모델 코어 울트라에 최적화

오픈비노 프레임워크로 라마·스테이블 디퓨전 등 오픈소스 모델 최적 성능 구현

컴퓨팅입력 :2024/05/02 10:47

인텔은 2일 500개 이상의 AI 모델을 코어 울트라 프로세서용으로 최적화했다고 밝혔다.

코어 울트라 프로세서는 CPU와 아크 GPU 이외에 저전력·상시 AI 처리를 돕는 NPU(신경망처리장치)를 포함했다. 이를 탑재한 PC는 지난 해 12월 이후 현재까지 500만 대 이상 출하됐다.

인텔이 최적화한 500개 AI 모델은 오픈비노 모델주, 허깅페이스, ONNX 모델주, 파이토치 등 온라인 라이브러리를 통해 쉽게 도입할 수 있다.

인텔 코어 울트라 탑재 노트북. (사진=지디넷코리아)

미스트랄, 라마, 스테이블 디퓨전 1.5 등 주요 오픈소스 모델을 포함해 거대언어모델(LLM), 스테이블 디퓨전, 해상도 향상, 사물 인식, 사진 분류 등이 CPU와 GPU, NPU 등 코어 울트라 프로세서 내 자원을 활용해 구동된다.

인텔은 AI 모델 최적화에 CPU와 GPU, NPU를 모두 구동할 수 있는 오픈소스 AI 프레임워크인 오픈비노(OpenVINO)를 활용하고 있다.

오픈비노는 CPU와 GPU, NPU 등 모든 연산 자원을 고르게 활용하고 AI PC에서 효율적으로 각종 모델이 구동되도록 이를 압축하며 메모리 대역폭을 최대한 활용할 수 있도록 최적화하는 역할을 수행한다.

관련기사

인텔이 현재 진행하는 전세계 중소규모 개발자 대상 지원 프로그램. (사진=인텔)

인텔은 지난 해 10월부터 AI 소프트웨어 확대를 위해 주요 소프트웨어 개발사, 개인 개발자나 스타트업 지원을 확대하고 있다. 또 최근 메타가 공개한 LLM인 라마3(Llama 3) 지원도 발표했다.

로버트 헐록 인텔 클라이언트 컴퓨팅 그룹 AI 총괄은 "인텔 코어 울트라 프로세서에 최적화된 AI 모델 500개 돌파는 AI 개발자에 강력한 개발 도구, AI 소프트웨어 이용자에 신뢰를 주겠다는 인텔의 의도를 반영한 것"이라고 밝혔다.