한국전자통신연구원(ETRI)은 인공지능(AI)을 이용해 소리를 듣고 어떤 상황인지 음향 인식 기술을 겨루는 국제대회에서 세계 1위를 달성했다고 20일 밝혔다.
기계가 사람과 같이 청각을 인식하는 것에 한 걸음 더 나아가고, 음향 기술과 다양한 산업 분야 융합이 가속화할 것으로 ETRI는 전망했다.
ETRI는 지난 3일 열린 세계적 인공지능 기반 음향 이벤트 및 장면 인식 기술 경진 대회(DCASE, Detection and Classification of Acoustic Scenes and Events)의 '음향 장면 인식 분야’에 참가, 세계 기업 및 대학 연합팀들과 겨뤄 이 같은 쾌거를 거뒀다.
올해 6회째를 맞이한 이 대회는 세계 전기·전자기술자협회(IEEE) 산하 AASP(Audio and Acoustic Signal Processing)가 주관하고 구글, 인텔, 아마존, IBM, 삼성, LG 등 세계 유수 기관이 참가하는 음향 기술 관련 세계적 대회다.
대회는 6개 분야에 총 138개 팀과 473개 제안 시스템이 제출, 지난 3월부터 6월 중순까지 과제별 기술 경쟁이 이뤄졌다.
ETRI가 참가한 '복수 단말 대상 음향 장면 인식' 과제는 여러 종류의 단말기로 녹음한 소리를 듣고 녹음 장소를 알아 맞히는 것이다. 액션캠 및 바이노럴 마이크 뿐 아니라 잡음이 쉽게 섞이는 일반 스마트폰에 이르기까지 장비별로 다른 신호 특성을 정확히 판단하는 것으로, ‘일반화 성능’이 관건이다.
예를 들면, 학습용 음향 데이터로 프랑스 파리 지하철에서 나는 소리를 스마트폰으로 녹음한 파일이 주어지면 이를 인식하는 시스템을 개발한 뒤, 평가에서는 학습에 쓰이지 않았던 액션캠으로 녹음한 지하철 소리를 들려주며 상황을 맞힐 수 있는지 알아보는 방식이다.
연구진은 해당 분야에서 시스템 순위 1, 2위를 기록했다. 팀별로 최대 4개 기술까지 제출이 가능해 총 28개 팀, 92개 시스템이 출전해 거둔 실적이다. ETRI는 팀 순위 1위를 달성했다. 팀 순위 2등은 조지아텍-중국과기대-텐센트-UEK 연합팀이 차지했다.
ETRI가 개발한 기술은 노약자 및 청각 장애인 등을 위한 '위험 회피 기술' 분야로 응용이 가능하다. 또 소리를 잘 듣지 못해 상황을 인식하지 못하는 계층을 위해서도 사용이 가능하다. 이외에 소리를 듣고 관련 정보를 도출하는 미디어 자동 태깅과 자동차, 공장 라인 소리를 듣고 이상 유무를 알아내는 장비 상태 모니터링, 로봇 등 다양한 분야에서 활용이 가능하다.
ETRI 연구진은 우수 성적 비결로 ▲소리를 주파수 대역별로 나눠 모델이 각각 학습을 할 수 있도록 만든 '딥러닝 기반 트라이던트(Trident) 구조 신경망 개발' ▲단말별 오디오 신호처리 특성 일반화를 이루는데 강점을 지닐 수 있는 ‘비균등 입력 특징 분할 기법’을 설계해 적용한 점을 들었다.
한편, 연구진은 수행 중인 과제와 관련해 ‘저복잡도 기반 음향 장면 인식’과 ‘음향 발생 방향 및 이벤트 인식’ 분야에도 참가, 좋은 성적을 거뒀다. 입상한 팀은 추가 성능 분석 결과를 포함해 학회 논문 제출 및 발표를 진행할 예정이다.
ETRI 김흥묵 미디어연구본부장은 “딥러닝 기반 음향 인식 기술은 향후 새로운 응용 서비스 기술 개발을 통해 국내 관련 산업의 경쟁력 확보와 시장 활성화에 크게 기여할 것"이라고 강조했다.
AI가 시각, 언어 인식 등 분야에는 인간을 상회하는 수준으로 연구가 이뤄진 것에 비해 청각 분야에서는 아직 갈 길이 먼 상황에서 ‘전자 귀’와 같은 모든 음향을 인식할 수 있는 수준을 목표로 ETRI 연구진은 개발 중이다.
이번 대회는 ETRI 미디어부호화연구실 서상원 연구원, 박수영 연구원, 정영호 책임연구원이 공동으로 참여했고, 과기정통부 '신체기능 이상이나 저하를 극복하기 위한 휴먼 청각 및 근력 증강 원천 기술 개발' 과제 일환으로 연구를 진행했다.
이번 기술과 관련해 연구진은 지난 2017년부터 국내외 특허 17건 출원, 기술 논문 11건을 발표했다. 한편, ETRI는 지난 달 14일, 인공지능 영상 압축 대회인 'CLIC 2020'에서도 세계 1위를 거둔 바 있어 오디오 및 비디오 분야를 아우르는 기술력을 갖추고 있음을 입증했다.