국내 연구진이 중소기업과 스타트업에서 인공지능(AI) 반도체를 개발하기 위해 투입하는 시간과 비용을 단축하는 핵심기술을 공개했다. 그간 걸림돌이었던 하드웨어와 소프트웨어 간 호환성과 확장성 문제를 해소하는 시스템 소프트웨어 개발로 AI 반도체 개발에 속도가 붙을 전망이다.
한국전자통신연구원(ETRI, 원장 김명준)은 AI 핵심 시스템 소프트웨어인 딥러닝 컴파일러 ‘네스트(NEST-C)’를 개발했다고 26일 밝혔다. 개발자가 쉽게 활용할 수 있게 자체 개발한 AI 반도체 하드웨어와 함께 '깃허브(Github)'에 공개했다.
AI 기술이 발전함에 따라 딥러닝 응용 서비스가 다양한 분야로 확장되고 있다. 이를 구현하는 AI 알고리즘도 복잡해지면서 더 뛰어나고 효율적인 연산 처리 필요성이 커지고 있다. ETRI는 AI 응용프로그램에 적합한 공통 중간표현을 정의해 네스트 컴파일러에 적용, 문제를 해결했다.
AI 응용프로그램과 AI 반도체 간 이질성을 해소함으로써 AI 반도체 개발이 쉬워진다는 것이 ETRI 설명이다. 이번 기술은 한국정보통신기술협회(TTA) 표준으로도 제정됐다. 현재 중앙처리장치(CPU)나 그래픽처리장치(GPU) 대신 AI 연산 처리에 특화한 신경망처리장치(NPU) AI 반도체가 주목받고 있는데, 자율주행과 사물인터넷(IoT), 센서 등 응용프로그램을 실행하기 위해서는 최적화한 AI 반도체를 각각 설계해야 한다. 동시에 최적화한 각각의 컴파일러가 정확한 실행 코드를 만들어야 최대 성능을 낼 수 있다. 딥러닝 모델의 추론 성능을 보장하는 핵심 시스템 소프트웨어인 '딥러닝 컴파일러'가 중요한 이유다. 하드웨어와 응용 소프트웨어 간 가교 역할을 하는 셈이다.
일반적으로 제조사들은 AI 반도체, 시스템 소프트웨어, 응용프로그램을 함께 개발해 판매한다. 그간 중소기업과 스타트업은 반도체 설계에 역량을 집중하기 어려웠다. 시스템 소프트웨어, 응용프로그램 개발 및 최적화에 적지 않은 시간을 투입하기 때문이다. 또, 대형 제조사가 제공하는 시스템 소프트웨어는 자사 칩에 최적화돼 있고 비공개로 개발돼 적용에 한계가 있었다. 특히, 컴파일러는 칩 종류와 AI 응용프로그램에 따라 일일이 다르게 개발해야 하는 번거로움도 존재했다. 상호 호환성과 새로운 영역으로의 확장성에 한계가 존재하고 있는 상황이다.
이번 개발을 통해 응용프로그램 개발 과 최적화 시간을 단축하고 시스템 소프트웨어 개발 수고를 덜 수 있게 됐다고 ETRI는 설명했다. 이번 성과는 반도체 생산과 판매비용 절감효과 와도 연계된다. CPU, GPU뿐 아니라 NPU 프로세서까지 모두 호환되기 때문이다. 특히, 지원해야 할 AI 응용프로그램과 칩의 종류가 늘어나면 이 차이는 더 두드러진다. 기존에는 ‘딥러닝 플랫폼 종류 칩 종류’ 만큼 컴파일러를 개발해야 했으나, 이제는 범용성 높은 '네스트 컴파일러' 하나가 대신할 수 있다.
ETRI는 '네스트 컴파일러'를 오픈소스로 공개하면서 관련 산업 생태계 활성화 목적으로 자체 개발한 AI 반도체에 네스트 컴파일러를 적용한 참조 모델까지 함께 공개했다. 특히, AI 반도체 개발용 소프트웨어와 하드웨어를 모두 공개한 것은 이번이 최초다. 연구진은 현재 파편화돼 개발되는 AI 반도체 생태계에서 '네스트 컴파일러'가 구심점 역할을 할 수 있다는 점에서 이번 공개가 의미가 크다고 밝혔다.
ETRI는 국내 AI 반도체 스타트업이 자체 개발한 고성능 AI 반도체에도 '네스트 컴파일러'를 적용했다. 관련 기업과 협업해 딥러닝 컴파일러 지원 범위를 넓힐 계획이며, SW 전문 기업을 통해 AI 반도체 적용 서비스 사업화도 추진 중이다. 또, AI 응용 서비스 개발에 필요한 성능과 편의성을 향상시켜 새로운 서비스 창출에도 기여할 계획이다.
ETRI 김태호 차세대시스템SW연구실장은 “표준 딥러닝 컴파일러 오픈소스 공개는 국내 AI 반도체 생태계 활성화를 위한 것"이라며 "다양한 AI 반도체 기업에 적용하기 위해 기술협력을 진행 중"이라고 밝혔다. 이번 기술은 과학기술정보통신부 '인공지능 시스템을 위한 뉴로모픽 컴퓨팅 SW 플랫폼 기술 개발' 사업의 지원을 받아 구현됐다.