소이넷, AI 가속엔진 '소이넷2.0' 19일 공개

ICT이노페스타2018 전시부스에서 소개

컴퓨팅입력 :2018/12/17 17:55

소이넷(대표 김용호, 박정우)은 오는 19일 서울 삼성동 코엑스 'ICT이노페스타(INNOFESTA) 2018'에서 인공지능(AI) 실행 가속엔진 '소이넷(SoyNet) 2.0'을 소개한다고 17일 밝혔다.

소이넷은 범용 서버 기반 AI 서비스시 모델 연산을 가속해주는 소프트웨어(SW) 제품을 공급하는 회사다. 소이넷의 AI 가속엔진 SW제품은 AI 애플리케이션 및 서비스를 구현하려는 개발자와 기업을 대상으로 한다. 동일 하드웨어 투자비용 대비 높은 AI 실행 성능을 원하는 개발자와 기업에게 소이넷의 SW제품이 일정한 역할을 할 수 있다. 회사는 2016년부터 기술을 개발해 왔고 올해 창업했다. 경기도 판교 소재 회사다.

소이넷2.0은 회사의 최신 SW제품이다. 회사측 주장에 따르면 이는 학습 과정에 필요한 '역전파' 알고리즘 등 무거운 모듈로 메모리를 점유하지 않아 실행시 점유 메모리를 줄일 수 있고 모델에 따라 2~5배 속도를 낸다. 소이넷의 첫 제품은 엔비디아 병렬프로그래밍모델 쿠다(CUDA)를 지원하는 소이넷1.0이었다. 소이넷2.0은 엔비디아의 AI 추론 라이브러리 텐서RT(TensorRT)를 지원하며 기존대비 50% 나은 성능을 낸다.

AI 모델을 딥러닝 라이브러리 '욜로v3(YOLOv3)'와 엔비디아 GTX1080TI GPU를 구동하는 서버에서 소이넷의 가속엔진을 적용한 AI 실행성능 및 점유 메모리 대조. [사진=소이넷]

여타 AI 가속엔진 솔루션은 SW와 하드웨어를 결합한 형태가 많다. 그런 가속엔진 솔루션의 하드웨어는 주문형반도체(ASIC)나 현장프로그래밍이 가능한 게이트어레이(FPGA)를 탑재해 고가에 제공된다. 소이넷의 SW형태 솔루션은 개발자와 기업이 이미 도입했거나 여러 용도를 염두에 두고 도입한 범용 서버의 중앙처리장치(CPU)와 그래픽처리장치(GPU)를 활용한다.

관련기사

소이넷 측은 이미지 탐지 및 분류시 비전검사방식을 딥러닝으로 전환하면서 속도와 메모리 문제를 겪는 대기업을 주요 잠재고객으로 지목했다. 소이넷 엄동원 상무는 "소이넷 엔진은 학습된 추론모델을 실행하는 단순한 API 구조를 제공한다"며 "대형 SI업체에서 기존 IT인력을 활용한 AI 응용서비스 개발 모델로 제안하고 있다"고 설명했다. 향후 자연어처리 분야 수요도 발굴할 방침이다.

ICT이노페스타는 과학기술정보통신부 주최, 정보통신산업진흥원, 벤처기업협회, 한국정보방송통신(ICT)대연합 주관 행사로 오는 19일 오후 1시반부터 열린다. 1부 인디고고 존 바스키스 부사장의 글로벌 크라우드펀딩 성공전략 및 사례 주제의 기조강연과 개막식에 이어 2부 스타트업 IR 피칭 및 해외 스타트업 초청강연, 구글과 한국블록체인산업진흥협회 초청연사 특별강연, ICT중소벤처상담회 및 전시회로 구성됐다.