"카메라만으로 고효율 자율주행 시스템 가능합니다"

[CES 2024] '3D 인식 네트워크' 개발한 김준환 스트라드비젼 대표

반도체ㆍ디스플레이입력 :2024/01/11 16:02    수정: 2024/01/12 09:24

"스트라드비젼이 이번 CES 2024에서 처음 선보인 3D Perception Network(3D 인식 네트워크)'은 기존 카메라가 지닌 거리 측정의 한계를 극복하는 기술입니다. 이를 활용하면 자율주행 시스템 구축에서 라이다(LiDAR)의 필요성을 줄여, 비용을 크게 줄일 수 있죠. 고객사들의 반응도 뜨겁습니다."

김준환 스트라드비젼 대표는 최근 기자와의 서면 인터뷰에서 회사의 자율주행용 신규 솔루션에 대해 이같이 소개했다.

스트라드비젼은 지난 2014년 설립된 AI 및 비전 기술 기반의 영상 인식 소프트웨어 개발 업체다. LG전자·현대자동차·현대모비스 등 국내 대기업은 물론, 자율주행 분야 3대 기업 중 하나인 미국 앱티브, 독일 자동차 부품공급사 ZF 등으로부터 투자를 유치해 업계의 주목을 받은 바 있다. 

김준환 스트라드비젼 대표(사진=스트라드비젼)

스트라드비젼의 주력 제품은 ADAS(첨단운전자보조시스템)용 객체 인식 솔루션인 'SVNet(에스브이넷)'이다. 에스브이넷은 차량에 탑재된 카메라를 통해 들어온 영상을 AI로 분석해 주변의 사람이나 차선, 신호등, 표지판 등을 구별할 수 있도록 하는 소프트웨어다. 현재 전 세계 13개 OEM 업체가 에스브이넷을 채택하고 있다.

스트라드비젼은 여기서 한 발 더 나아가, 지난해 자율주행의 성능 및 비용 효율성을 높일 수 있는 3D 인식 네트워크 기술을 개발해 에스브이넷에 적용했다.

3D 인식 네트워크의 핵심은 '카메라 영역의 확장'이다. 자율주행 센서용 카메라는 라이다, 레이더 등에 비해 해상도가 높다는 장점이 있으나, 객체와의 거리를 정확히 측정할 수 없다는 단점이 있었다.

반면 3D 인식 네트워크를 적용한 에스브이넷은 영상을 기존 2D에서 3D로 변환할 수 있게 만든다. 현재 측정 가능한 최대 거리는 250m로, 라이다에 준하는 안정성을 확보한 것으로 알려졌다. 또한 향상된 딥 러닝 기능과 줄어든 후처리 과정으로 차량용 시스템반도체에 부과되는 리소스를 줄였다.

이를 통해 기존 거리 측정을 위한 라이다의 역할을 카메라가 대체하고, OEM 기업들의 ADAS 시스템 구축 비용을 줄일 수 있다는 게 스트라드비젼의 설명이다.

이번 CES 2024 행사장에서 3D 인식 네트워크 기술을 처음 공개한 김준환 대표는 "회사의 솔루션에 대한 고객사의 반응이 매우 뜨겁다"며 "올해 하반기 IPO를 앞두고 있는 만큼 가시적인 성과 달성을 위해 고객사 확보에 총력을 기울일 것"이라고 밝혔다.

다음은 김준환 대표와의 일문일답이다.

Q. 3D 인식 네트워크는 그간 카메라가 지닌 한계를 극복하는 기술로 보인다. 구체적인 원리에 대해 설명 부탁드린다.

"자율주행 시스템은 감지, 인식, 계획, 행동이라는 4단계의 과정을 거친다. 3D 인식 네트워크는 이 중 인식 단계에서 데이터를 2D에서 3D로 변환하는 솔루션을 제공한다. 즉, 기존 딥러닝 기반 기술에 3D 공간 계산을 확대 적용한 것이다. 이를 활용하면 기존 카메라로는 수행하지 못한 물체와의 거리 측정이 가능해진다.

또한 3D 인식 네트워크는 향상된 딥 러닝과 줄어든 후처리 과정으로 확장성을 대폭 높였다. 후처리 과정의 코드 복잡성을 50%까지 대폭 줄였기 때문에, 고객사는 통합 및 유지 관리 프로세스를 간소화할 수 있다.

기존 거리 측정을 위한 라이다의 기능을 대신한다는 점도 핵심 요소다. 예를 들어 고객사가 자율주행 시스템 개발 단계에서 라이다 센서를 활용해 거리 측정에 대한 학습을 시키면, 실제 양산되는 차량 내에 굳이 라이다 센서를 탑재하지 않아도 카메라가 이 기능을 수행할 수 있다."

Q. 그렇다면 3D 인식 네트워크의 측정 안정성이 라이다 시스템 대비 어느 수준까지 도달했다고 볼 수 있는지?

"98% 수준까지 도달했다고 말씀드릴 수 있다. 측정 가능한 거리는 250m다."

김준환 대표가 CES 2024 방문객들에게 3D 인식 네트워크를 소개하고 있다(사진=스트라드비젼)

Q. 악천후에 약하다는 점도 카메라의 단점이다. 결과적으로 라이다를 완벽히 대체할 수는 없을 것으로 보이는데.

"스트라드비젼은 설립 이후 2015년까지는 머신러닝 기반의 기술 개발에 집중했으나, 2016년부터는 딥러닝 기반으로 전환한 바 있다. 머신러닝에서 딥러닝 기반으로 전환한 이유는 정확성을 높이기 위함이다. 악천후 같은 다양한 조건에서 머신러닝 방식은 정확도가 75%에 불과하지만, 딥러닝을 통해서는 90% 수준까지 끌어올릴 수 있다.

물론 라이다 및 레이더가 객체의 위치 정확도나 속도 예측에서 장점이 있는 건 맞다. 그러나 고객사의 비용 측면을 생각해본다면, 라이다 및 레이더를 무조건 탑재하기보다는 차량의 종류와 방식에 따라 유동적인 설계를 하는 것이 더 경제적이고 실용적일 것이라고 생각한다.

예를 들어 저가 차량은 센서에 드는 비용을 줄여야 하기 때문에, 악천후 상황 등 카메라가 동작하지 않을 시 알람을 설정하는 방안 등을 고려할 수 있다. 고가 차량의 경우 더 높은 안전성을 요구하므로, 카메라가 작동하지 않을 시 최소한의 대체 기능을 제공할 수 있는 센서를 추가할 수 있을 것이다."

Q. 3D 인식 네트워크를 개발하게 된 배경이 궁금하다. 고객사의 요청이 따로 있었는지?

"3D 인식 네트워크는 고객의 요구에서 개발이 시작된 것은 아니다. 스트라드비젼 스스로 해당 솔루션을 통해 고객사에 더 많은 혜택을 줄 수 있다고 믿었기 때문에 개발에 착수했었다.

내부적으로는 크게 세 가지의 과제를 두고 3D 인식 네트워크를 개발했다. 첫 번째는 위치나 방향, 거리, 움직이는 물체의 속도 등 운전에 필요한 모든 필수 요소를 더 정확하게 표현하는 것이다.

두 번째는 딥러닝 모델의 성능 향상이다. 기존 딥러닝 모델은 영상 좌표계와 차량 좌표계 간의 변환 과정이 복잡해, 성능을 유지하거나 높이는 데 상당한 노력이 필요했다. 마지막으로 시스템 내부의 여러 소프트웨어의 통합이나 리소스 할당 문제를 개선하고자 했다."

Q. 3D 인식 네트워크의 상용화 시점은 언제인가?

"미국 텍사스인스트루먼트(TI)의 자율주행용 칩셋에 처음으로 적용된다. 2024년 말이나 2025년 초 쯤에 실제 차량이 생산될 것으로 예상된다."

Q. CES 2024 내 현장 반응은 어떠한지

"3D 인식 네트워크에 대한 고객사 반응이 뜨겁다. 올해 하반기 IPO를 앞두고 있는 만큼, 가시적인 성과 달성을 위해 다양한 고객사 확보를 위해 노력하고 있다. 이번 CES 2024에서 그 어느 해보다 많은 고객사와의 미팅이 예정돼 있어 첫 날부터 바쁜 일정을 소화했다.

뿐만 아니라 협력업체와의 데모도 순조롭게 진행됨은 물론, 현장 반응도 좋아 이번 CES 2024에서 많은 성과를 거둘 것으로 기대하고 있다."

Q. 자율주행 산업이 레벨3, 레벨4 단계를 바라보고 있는데, 스트라드비젼은 이를 어떻게 바라보고 준비하고 있나?

"스트라드비젼의 에스브이넷은 지금도 레벨 4 이상의 자율주행 프로젝트에 대응이 가능하다. 실제 개념증명(PoC)도 진행한 바 있다. 다만 현재 완성차 기준으로 회사가 공급하는 소프트웨어 수준은 대부분 레벨 2~3에 해당한다. 때문에 당장은 오토모티브에서 레벨2+ 정도에 대응되는 기술이 회사가 가장 주력하는 부분이다. 

그러나 스트라드비젼의 지향점은 AI 기반 비전 기술을 오토모티브에 국한하지 않고, 모빌리티, 서비스, 인더스트리 등 더 넓은 영역으로 자연스럽게 확장해나가는 것이다. 이를 통해 사람들에게 더 나은 삶을 제공하는 것이 우리 스트라드비젼의 궁극적인 목표다."

관련기사

Q. 올해 스트라드비젼이 설정한 최우선 과제가 있다면.

"올해에는 유럽 및 일본 시장 내 자동차 OEM사와의 여러 생산 프로젝트를 진행하기 위한 전략적 협업을 강화할 예정이다. 또한 올 하반기에는 기업공개를 추진하고자 한다. 올해 가파른 성장에 힘입어 올해 4분기 기술특례 상장을 추진할 계획이다. 최근 한국거래소가 지정한 기술평가 전문기관으로부터 모의 기술성에 대한 평가로 A등급을 받았다."