[풀어쓰는 과학 이야기] 뇌 모방에 진심인 뉴로모픽 컴퓨팅

뇌 신경망 원리 적용, 에너지 절감하고 효율 높여...차세대 반도체 기술로 주목

과학입력 :2022/05/27 16:15    수정: 2022/05/30 14:12

지난 24일 이종호 과학기술정보통신부 장관이 취임 첫 행보로 인공지능(AI) 반도체 스타트업과의 만남을 가졌다.

AI 반도체는 방대한 데이터를 빠르게 학습하고 이를 바탕으로 추론하는 작업에 특화된 반도체다. 데이터를 순차적으로 직렬 처리하는 일반 CPU와 달리 대규모 데이터를 병렬 방식으로 빠르게 처리한다. 단순한 계산을 병렬 방식으로 빠르게 반복하는데 적당한 그래픽처리장치(GPU)를 AI 연산에 사용하다, 아예 이같은 특성을 살려 별도의 반도체로 만든 것이다.

이종호 과학기술정보통신부 장관이 24일 오후 서울 강남구 퓨리오사AI를 방문해백준호 퓨리오사AI 대표로부터 'AI반도체 소개 및 영상인식 기술' 설명을 듣고 있다. (자료=과기정통부)

AI 활용이 늘어남에 따라 AI 작동을 위한 반도체 수요는 계속 커질 전망이다. AI가 쓰이는 영역이 확대되고, AI가 학습할 데이터 규모 역시 커지면서 이들 반도체의 전력 소모는 줄이고 효율은 높이는 것이 숙제다. 이는 AI의 혜택을 일반 소비자에게 전하고, 탄소중립을 실현하는데도 중요한 과제다.

글로벌 테크 기업들이 AI 반도체 시장에 뛰어드는 가운데, 학계에서는 한걸음 더 나가 가장 효율적인 생각 및 감각 기계, 즉 인간의 뇌를  보다 직접적으로 모방해 성능과 효율을 극대화하려는 연구가 한창이다. 바로 뉴로모픽 컴퓨팅이다.

■ '에너지 구두쇠' 뇌 뉴런 모방한다 

컴퓨터는 사람처럼 연산한다. 그러나 컴퓨터에서 연산이 이뤄지는 과정은 뇌와 다르다.

컴퓨터는 헝가리 출신의 미국 과학자 폰 노이만이 제안한 '폰 노이만' 구조에 의존한다. 연산을 처리하는 연산장치(CPU)와 명령어와 데이터가 저장된 메모리 영역을 구분하고, 연산에 필요한 명령어와 데이터는 필요에 따라 버스라는 통로를 통해 불러오는 방식이다.

폰 노이만 구조 개념도

이러한 접근은 오늘날의 발전된 컴퓨터를 가능하게 했다. 하지만 명령어와 데이터가 계속 이동해야 하고, 두 영역을 오가는 과정에 병목이 생겨 속도와 효율성에 한계가 있다. 연산이 복잡해지고 데이터가 늘어날수록 발열과 전력 소모도 커진다.

대규모 인공지능을 가동하려면 막대한 전력이 투입된다. 오픈AI가 개발한 자연어처리 모델 GPT-3를 한번 학습시키는데 시간당 약 1.3기가와트의 전력이 필요하다. 우리나라 전체에서 1분간 쓰이는 전력량과 같은 수준이다. 데이터센터가 사용하는 전기는 세계 전력량의 1%에 해당한다.

반면 인간의 뇌는 전구 하나를 밝힐 수 있는 20와트 정도의 에너지만 쓸 뿐이다. 인간의 신경세포(뉴런)는 의미있는 신호만 받아들이고 다른 신호는 무시해 에너지 소비를 최소화하기 때문이다.

뉴런은 자극이 의미있는 수준에 도달할 때 신호가 강해져 스파이크처럼 솟아 오르며 시냅스를 통해 인근 뉴런에 전달하며, 평소에는 별 반응을 보이지 않는다. 스파이크 신호 사이 간격이 짧아들수록 중요한 자극으로 간주되어 시냅스 연결이 강화되고, 간격이 멀어지면 시냅스 연결이 억제된다.

생체 및 인공 스파이크 신경망 비교 (자료=사이언스)

뇌는 이렇게 중요한 자극만 전달하기 때문에 에너지 효율이 높고, 감각신호도 아날로그 형태로 정교하게 전달할 수 있다. 신호에 시간 개념을 더한 생체 신경망의 이런 특성을 활용하려는 스파이크신경망(SNN)이 최근 뉴로모픽 컴퓨팅 연구의 관심사로 떠오른 이유다.

■ 뉴로모픽 컴퓨팅 연구 박차

현재 인공신경망은 신경 구조를 소프트웨어적으로 구현한 것이 대부분이다. 반면 뉴로모픽 컴퓨팅은 실제 생명체의 뉴런과 시냅스를 모방한 하드웨어를 활용하고, 이에 최적화된 소프트웨어를 개발해 적용하는 것을 목표로 하고 있다. 모든 칩들이 병렬로 서로 연결돼 있고, 폰 노이만 구조와 달리 연산과 저장이 분리돼 있지 않아 효율을 높일 수 있다.

세계 과학자들과 글로벌 기업들의 연구를 통해 뉴로모픽 컴퓨팅의 가능성은 조금씩 확인되고 있다.

오스트리아 그라츠대학 연구진은 뉴로모픽 컴퓨팅으로 인공지능의 전력 소모를 기존 반도체의 16분의 1까지 줄일 수 있다는 사실을 입증한 논문을 24일(현지시간) 학술지 '네이처 머신 인텔리전스(Nature Machine Intelligence)'에 게재했다. 

연구진은 신호를 전달한 후 휴지기에 들어가는 뇌 신경망을 모방, 한번 신호를 보내면 강제로 재전송을 일시 멈추는 후과분극(AHP, after-hyperpolarizing) 효과를 재현했다. 이를 인텔의 뉴로모픽 반도체 '로이히'에 적용해 장단기 메모리(LSTM, Long Short-Term Memory) 기법의 인공지능 연산을 수행한 결과, 뚜렷한 전력 절감 효과를 확인했다.

인텔이 인간의 두뇌와 닮은 800만 개의 디지털 뉴런을 갖춘 포호이키 비치 컴퓨터 시스템을 공개했다. (사진=인텔)

KAIST 신소재공학과 김경민 교수 연구팀은 뉴런과 시냅스 사이의 흥분과 억제를 관장하는 '신경 조율' 기능을 SNN에 적용, 효율적 인공지능 학습을 위한 알고리즘을 개발했다. 또 시냅스를 모사한 메모리 하드웨어 어레이를 제작해 에너지 절감 효과를 입증했다.

같은 과 이건재 교수 연구팀은 뉴런과 시냅스를 모방, 학습과 기억을 동시에 수행하는 나노 단위 메모리 디바이스를 제작했다. 이 연구는 '네이처 커뮤니케이션스(Nature Communications)'에 최근 실렸다.

■ 오감 감지하는 인공지능 센서에도 적용

뇌의 스파이크 기반 신호 체계를 모방하는 기술은 시각이나 촉각 등 다른 감각의 구현 및 전달에도 응용될 수 있다. IoT와 메타버스 확산 등에 힘입어 센서로 데이터를 수집하고, 이를 바탕으로 감각을 디지털 신호로 바꿔 전달하는 시도가 이뤄지고 있다.

뇌의 효율성을 모방하면, 센서가 자극을 받아들이면서 바로 AI 연산 등을 수행하는 '인-센서 컴퓨팅'도 가능해진다.

(자료=KIST)

포항공과대학교 이장식 교수 연구팀은 강유전체 기반 시냅스 소자를 집적한 소자 어레이를 제작, 사진 속 임의의 물체 종류를 90% 이상 정확히 인식할 수 있음을 보였다.

한국과학기술연구원(KIST) 강종윤·윤정호 박사 연구팀은 자극 정도에 따라 뇌에 전달하는 생체 신호의 강도를 조절하는 반도체 전자소자를 개발했다. 약한 자극에는 적응하고, 위험한 자극은 전달해 피해를 막을 수 있다. KAIST 전기및전자공학부 최양규 교수 연구팀은 인간의 촉각 뉴런을 모방한 뉴로모픽 모듈을 개발했다.

자극이 임계점에 달했을 때 스파이크를 일으키는 과정을 모방하기 위한 기술도 다양하게 시도되고 있다. 전류 흐름과 시간 변화에 따라 저항의 강도가 바뀌고, 전원 공급이 끊기기 직전의 전류 방향과 양을 기억하는 멤리스터 소자가 대표적이다. 강유전체는 외부 전원 없이 스스로 전기적 분극을 유지하는 성질을 가져 전기적 특성을 정밀하게 제어하는 시냅스 소자를 만들 수 있다.

관련기사

KIST 이수연 박사 연구팀은 특정 전압 이하에서는 높은 저항을 유지하고, 그 이상에서는 급격히 저항이 줄어드는 OTS(Ovonic Threshold Switch) 소자로 뉴런 소자를 개발했다. 강종윤 박사 연구팀은 소자마다 은 입자 양을 조절하는 방식을 시도했다. 은이 적게 포함된 소자는 작은 자극에 의한 발열에 곧 은 회로가 끊어지고, 은이 많이 포함된 소자는 회로가 두껍게 형성돼 강한 자극에도 소실되지 않고 신호를 전달하는 원리다.

SNN 기반 뉴로모픽 칩 개발 프로젝트 동향 (자료=IITP)

하지만 뇌의 신비가 아직 거의 밝혀지지 않은 현재, 뉴로모픽 컴퓨팅 역시 해결해야 할 과제는 많다. 아직은 가장 초보적인 형태의 신경망 모방만 가능한 수준이다.  정보통신기획평가원의 '스파이킹 뉴럴 네트워크(Spiking Neural Network) 기반 인공지능 반도체: 이것이 답일까?' 보고서는 SNN 기술의 도약을 위해 ▲뇌 연구에 활용 가능한 표준 네트워크의 개발 ▲SNN 학습 효율 향상 ▲학습 데이터 확보 등을 과제로 꼽았다.