AI로 사람 감정 읽는 서비스로봇 만든다

[인터뷰] KT AI원팀 명현·윤성의·조성호 카이스트 교수

방송/통신입력 :2022/04/22 06:00    수정: 2022/04/22 06:45

과거 로봇이 산업용 위주로 개발됐다면 현재는 호텔, 공항에서 안내를 하거나 식당에서 서빙을 해주는 서비스로봇이 주목받고 있다.

시장조사기관 스트래티지 애널리틱스는 전 세계 서비스로봇 시장이 2019년 310억 달러(약 38조4천억원) 규모에서 2024년 1천220억 달러(약 151조원)까지 늘어날 것으로 전망했다.

KT는 서비스로봇 시장의 성장가능성에 주목하고 관련 역량 강화를 위해 대한민국 대표 산학연들이 참여하는 ‘AI원팀’을 운영하고 있다. 최근에는 AI원팀의 공동연구 성과를 공개했다.

20일 ‘로봇 실내 공간지능 기술’과 ‘로봇 소셜 인터랙션 기술’을 연구한 KT AI원팀의 명현·윤성의·조성호 카이스트 교수와 인터뷰를 진행했다.

■ 움직이는 사물 인식률 개선

명현 교수는 KT와 ‘로봇 실내 공간지능 기술’을 개발했다. 로봇 실내 공간지능 기술은 멈춰있는 사물만 정확히 인식했던 기존 기술과 달리 움직이는 사물에 대한 인식률을 높였다.

카이스트 명현 교수. (사진=강준혁 기자)

명 교수는 “기존 방법이 동적인 환경에서 320cm 정도의 오류를 보인다면 새로운 기술은 이를 17cm까지 줄였다. 약 20분의 1 정도를 개선했다고 보면 된다”고 설명했다.

명 교수는 기술개발 시 어려웠던 점으로 서비스로봇의 낮은 카메라 위치를 꼽았다.

그는 “기존 로봇은 사람 눈높이에 카메라를 장착해 사물을 구분할 수 있도록 했지만, KT와의 협력은 서비스로봇 개발이기 때문에 카메라 탑재 위치가 낮았다”며 “때문에 기존 데이터를 활용하기도 힘들었다”고 토로했다.

기존 공간지능 기술이 딥러닝을 기반으로 사물을 인식했다면 로봇 실내 공간지능 기술은 딥러닝과 자체 개발한 알고리즘을 혼용해 사물을 구분한다. 딥러닝 방식으로는 동적 환경에서 인식률을 높이기 어렵기 때문이다.

로봇 실내 공간지능 기술은 카메라를 이용해 사물을 분석하지만 프라이버시 문제도 해결했다.

명 교수는 “사람을 인식할 때 RGBD(Red Green Blue Depth) 카메라를 통해 사람의 형태만 가지고 위치를 분석한다. 때문에 개인정보 침해 문제나 프라이버시 문제도 걱정할 필요 없다”고 설명했다.

해당 기술은 메타버스에도 적용할 수 있다. 명 교수는 “로봇 실내 공간지능 기술로 3D 공간 정보를 모으고 이를 가상현실 등에 적용하는 방안을 고려해볼 수 있다”고 설명했다.

■ 사람 행동 파악해 도움 주는 서비스로봇

‘로봇 소셜 인터랙션 기술’은 카이스트 윤성의 교수와 조성호 교수가 공동으로 연구했다. 해당 기술은 로봇에 달린 카메라를 통해 사람의 행동을 파악하고 도움을 주는 게 핵심이다. 기존 로봇들이 정해진 업무를 수행하는 데 그쳤다면 더 다양한 상황에도 도움을 줄 수 있는 장점이 있다.

윤 교수는 “로봇은 처음에는 신기하지만 사용하면 할수록 단조롭다는 단점을 발견하게 된다”며 “KT와의 연구에서는 이러한 점을 개선해 다양한 환경에서도 대처할 수 있는 로봇을 만드는 것이 목표”라고 설명했다.

카이스트 윤성의 교수. (사진=강준혁 기자)

로봇 소셜 인터랙션 기술이 적용된 로봇은 사람의 행동을 예측해 작업에 도움을 줄 수 있다. 윤 교수는 이를 요리 로봇의 예를 들어 설명했다.

그는 “요리할 때 기존 로봇은 정해진 시나리오에 따라 요리를 진행할 때만 도와줄 수 있었다”며 “소셜 인터랙션 기술이 적용되면 요리 순서를 바꾼다고 해도 도와줄 수 있다”고 말했다.

조성호 교수는 모든 서비스로봇에 로봇 소셜 인터랙션 기술을 적용할 수 있다고 설명했다.

그는 “해당 기술은 사람에게 서비스하는 모든 로봇에 적용될 수 있다”며 “일단 현재는 일반적인 상황에 맞춰 로봇을 개발하는 것이고 구체적인 적용 사례가 생기면 거기에 맞게 최적화하는 과정을 거쳐서 제품으로 출시하게 될 것”이라고 말했다.

관련기사

카이스트 조성호 교수. (사진=강준혁 기자)

두 교수가 로봇 소셜 인터랙션 기술의 최종단계로 생각하는 건 사람의 감정도 인식할 수 있는 로봇이다.

윤 교수는 “현재 기술은 사람의 행동을 인식하도록 해 로봇의 행동을 늘린 것이다. 관련 분야에 대한 연구가 계속되면 사람의 감정 상태를 보고 감정에 맞게 대처할 수 있는 서비스로봇을 만들 수 있다”고 자신감을 나타냈다.