'눈짓'만으로 로봇 팔 제어 성공…물건 들기도

UNIST, 센서붙인 스마트 콘택트렌즈 개발…마스크 없이 패터닝 가능

과학입력 :2026/04/15 09:15

센서를 붙인 콘택트 렌즈를 끼고 안구를 굴리면, 로봇 팔이 그대로 따라 움직이는 기술이 개발됐다. 무겁고 복잡한 기존 확장현실(XR) 기기를 대신할 차세대 인간-기계 인터페이스 기술이다.

UNIST는 정임두 기계공학과 교수(인공지능대학원 겸직) 연구팀이 센서를 렌즈에 직접 인쇄하는 특수 기술과 센서 저해상도 신호를 고해상도로 복원하는 AI 기술을 결합한 스마트 콘택트렌즈를 개발했다고 15일 밝혔다.

눈동자 움직임으로 로봇을 제어하는 콘택트렌즈 개념도.(그림=UNIST)

연구팀은 이 기술로 로봇 팔을 원격 제어하는데 성공했다.

연구팀은 스마트 렌즈 위에 100개(10x10)의 빛 검출 센서를 집적했다. 이 센서가 눈이 움직일 때마다 달라지는 빛 분포를 읽어내 시선 방향을 추적하는 원리다.

위·아래·좌·우는 물론 대각선 방향까지 구분할 수 있다.  안구 깜박임으로 물건을 집을 수도 있다.

연구진은 둥근 렌즈 표면에 센서를 직접 프린팅할 수 있도록 ‘메니스커스 픽셀 프린팅(MPP)’ 기술을 개발했다. 노즐 끝에 맺힌 센서 원료 잉크를 렌즈 표면에 콕콕 찍어내는 형태의 기술이다.

메니스커스는 액체의 볼록하거나 오목한 곡면을 말하는데, 이 곡면 덕분에 잉크가 배출되는 힘과 잉크 퍼짐을 막는 힘이 균형을 이뤄 잉크를 원하는 양만큼 찍어낼 수 있다.

잉크를 건조하면 빛을 감지하는 페로브스카이트 물질만 남아 센서 역할을 하게 된다.

정임두 교수는 "일반 센서 제작과 달리 센서 패턴을 새기기 위한 마스크가 필요 없고 다양한 안구 곡률에 맞춰 센서를 인쇄할 수 있어 개별 맞춤형 렌즈를 만들 수 있는 장점이 있다"고 설명했다.

렌즈라는 작은 공간 탓에 신호 해상도가 떨어지는데, 이 문제는 인공지능 기술로 해결했다. 실제 100개 센서가 있지만, 딥러닝 기반 초해상도 기술을 적용하면 최대 6,400개(80x80)의 센서가 있는 것과 같은 신호 데이터를 얻을 수 있다. 재구성에 필요한 시간도 0.03초로 짧다. 로봇 팔에 정보 전달이 거의 실시간에 가깝다.

안구 모형을 이용한 실험에서, 눈동자 움직임만으로 물체를 집어 옮기는 동작까지 확인했다. 방향 인식 정확도는 99.3% 수준을 기록했다.

이번 연구는 공병훈, 김도현 UNIST 기계공학과 연구원이 제1저자로 참여했다.

연구를 총괄한 정임두 교수는 “별도 컨트롤러없이 인간의 시각 정보를 로봇 제어 신호로 직접 변환하는 고도화된 인간-기계 상호작용(HRI) 시스템 구현이 가능함을 증명했다”고 말했다.

관련기사

정 교수는 또 “차세대 초경량 XR 인터페이스 장치로서 눈의 움직임만으로 다양한 전자 기기를 정밀하게 제어할 수 있다는 점에서, 증강현실 기반 산업용 로봇 원격 제어, 재난·재해 환경에서의 탐사 로봇 운용, 국방 분야의 무인체계 및 드론 조종, 의료 및 재활 지원 시스템, 스마트 모빌리티 인터페이스 등 다양한 분야로 확장될 수 있는 잠재력을 지닌다“고 밝혔다.

연구 결과는 재료 과학 분야 국제 학술지 ‘어드밴스드 펑셔널 머티리얼즈((IF19.0)에 게재됐다. 조만간 최신호 전면 표지 논문으로 출판될 예정이다.