"생각한 것이 말로 되는 BTS, 한국이 세계적으로 안 뒤져"

이성환 고려대 교수 지능정보산업협회 1월 조찬서 강연

컴퓨팅입력 :2020/01/16 10:10    수정: 2020/01/16 15:34

"BTS(Brain to Speech)'는 생각만으로 제어할 수 있는 궁극적 인터페이스입니다. 고려대가 중점적으로 연구하고 있는 분야 중 하나입니다. 세계적으로 BTS 논문이 별로 없습니다."

지능정보산업협회(회장 장홍성 SK텔레콤 광고 & 데이터사업단장)가 주최한 'AIIA(AI Is Anywhere) 2020년 1월 조찬 포럼'이 15일 강남 JW메리어트호텔에서 열렸다. 2016년 설립된 지능정보산업협회는 인공지능(AI) 분야 국내 대표 협회다.

이날 행사에서 이성환 고려대 인공지능학과 교수(한국과학기술한림원 정회원, IEEE 펠로)는 '인공지능 기술의 연구 현황 및 전망'을 주제로 초청 강연을 했다. 고려대 패턴인식 및 머신러닝 연구실을 이끌고 있는 이 교수는 특히 연구실이 수행하고 있는 ▲BTS(Brain to Speech) ▲음성 합성(Speech Synthesis) ▲뉴로-레그(Nero-Leg) ▲뉴로-암(Neuro-Arm) ▲컬링 로봇 ▲ADAS 등 6가지 연구 성과를 소개, 눈길을 끌었다.

'CES 2020' 등에서 나온 인공지능 중요성을 설명한 이 교수는 AI를 맛있는 음식에 비유했다. "맛잇는 음식이 나오려면 좋은 식재료와 레시피, 좋은 주방 등 3박자가 필요하다. AI도 마찬가지다. 기술이 다가 아니다. 기계학습과 딥러닝 같은 기술에 빅데이터, 강력한 컴퓨팅의 3박자를 갖춰야 한다"고 운을 뗐다.

이성환 고려대 교수가 발표를 하고 있다.

고려대 패턴인식 및 머신러닝 연구실이 수행하고 있는 BTS는 뇌-컴퓨터 인터페이스 기술로, 사람이 상상한 단어를 음성으로 출력하는 기술이다. 말하려는 것 그 자체를 떠올리거나 상상하는 것만으로 소통이 가능한 최첨단 기술이다.

이 교수는 고려대가 수행한 BTS 실험 결과를 소개했다. 실험은 Imagined speech(언어 중추가 있는 측두엽의 뇌 신호만 사용)와 Visual Imagery(시각 중추가 있는 후두엽의 뇌 신호만 사용)로 구분, 진행됐다.

이 교수는 "실험 결과 언어 중추는 80% 이상 (인식하는) 성과를 보였다"고 밝혔다. 이어 "BTS는 생각만으로 제어할 수 있는 궁극적 인터페이스다. 세계적으로 BTS 논문이 별로 없다"면서 고려대가 이 분야에서 세계적으로 앞서가고 있음을 시사했다.

'음성 합성(Speech Synthesis)'은 텍스트를 음성으로 바꿔주는 TTS(Text to Speech) 기술의 일종으로, 고려대는 스타일(강세, 발성, 억양, 톤)을 조절할 뿐 아니라 감정 표현도 가능한 기술 개발을 목표로 하고 있다. 좋아하는 가수를 비롯해 원하는 목소리로 변환이 가능한 음성 변환 기술 개발도 이에 포함된다.

이 기술을 오디오북에 적용하면 원하는 목소리의 말투로 책을 읽어 줄 수 있다. 또 문화콘텐츠에 적용하면, 성우나 가수를 대체할 수 있는 음성합성이 가능하다.

이 교수는 "현재 4시간 정도의 음성 데이터가 있어야 해당 분야 음성 합성이 가능한데 이를 1~5분 정도로 줄이는데(Few-shot) 주력하고 있다"고 말했다.

'뉴로-레그(Neuro-Leg)'는 뇌-컴퓨터 인터페이스 기술 중 하나로 고려대는 생각대로 움직이는 로봇 다리(외골격 로봇 제어 시스템)를 연구하고 있다. 이 교수는 "뇌에서 잡음이 많이 일어나 이 연구가 어렵다"면서 "잡음이 무수히 유발되는 이동환경에서도 강인한 사용자 의도 인식이 가능한 뇌 신호 알고리즘을 연구하고 있다"고 설명했다.

'뉴로-암(Neuro-Arm)'은 마비 환자나 뇌졸증 및 뇌병변 환자들을 위한 재활 의료 분야이면서 팔 움직임이 불편한 노인들의 보조 서비스로 활용 가능한 실버 산업 분야에도 적용이 가능하다. 또 무거운 짐을 들거나 식사 보조에도 활용할 수 있다. 이 교수는 "미국 마이크로소프트(MS)가 컨퍼런스를 하면서 나델라 CEO가 우리 연구 성과를 인용, 소개할 정도로 인정받고 있다"고 말했다.

이 교수는 'AI 컬링 로봇'도 소개했다. 인공지능이 수립한 전략에 따라 경기 수행이 가능한 '컬링 로봇'을 제작했다.

컬링 로봇 개발은 경기 상황 인식(경기장 패턴 인식과 스톤 위치 인식 및 추적을 수행하는 실시간 경기 상황 인식 개발)->경기 빅데이터 구축(기계학습 기반의 고수준 전략 학습을 위한 컬링 경기 빅데이터 구축)->시뮬레이션(스톤 충돌, 마찰력, 빙질 변화 등을 고려한 사실적 컬링 시뮬레이션 기술 개발)->최적 전략 수립(컬링의 불확실성을 반영한 심층 신경망과 몬테 카를로 트리 탐색 기반의 최적 전략 수립 기술개발) 순으로 진행, 불확실성을 고려한 DNN 기반 MCTS 알고리즘을 개발, 적용했다.

이 교수는 "AI컬링 로봇은 기술적으로 보면 AI 이슈이자 SW이슈이며 로봇 이슈"라면서 "매년 그 해에 세계 최고로 인정하는 AI기술 30여개 내외를 선정, 시연 및 전시하는 'NeurlPS'에 지난해 참석, AI컬링 로봇을 시연했다"고 설명했다.

안전 운전 지원을 위한 스마트카 비전 기술도 소개됐다. 다양한 주행 환경을 고려한 단안 블랙박스 카메라 기반의 실시간 보행자 안전 지원 시스템으로 차가 달리면서 보행자 행동을 실시간으로로 인식한다.

관련기사

이 교수는 "3가지 보행자 행동(걷기, 서기, 자전거 타기)을 인식하고 보행자의 신체 방향을 360도 연속적으로 추정할 수도 있다"고 말했다.

한편 지능정보산업협회가 주최한 이날 행사에는 장홍성 회장을 비롯해 민기영 한국데이터산업진흥원장, 김영환 인공지능연구원 대표 등 협회 회원 50여명이 참석했고, 전익환 아람코(aramco) 아시아코리아 기술 및 엔지니어링 부장이 사우디 아람코를 소개하는 시간도 마련됐다.

지능정보산업협회가 주최한 AIIA 1월 조찬 포럼이 15일 JW메리어트호텔에서 열렸다.