KAIST 연구진이 변환라벨((transformational labels)없이 스스로 학습할 수 있는 새로운 시각 인공지능 모델(STL)을 개발했다고 13일 밝혔다.
컴퓨터 비전에서 주로 사용하는 자기지도 학습(self-supervised learning)은 데이터를 시각적으로 표현하는데 많이 사용하지만, 변환 전후의 이미지 표현을 동일하게 만들기 때문에 일부 시각적 세부사항을 놓칠 가능성이 있다
특히, 세부적인 특징이 필요한 작업에 한계가 있다.
이를 극복할 대안으로 변환 등변 학습(transformation-equivariant learning) 방법이 쓰이지만, 이는 명시적인 변환 레이블에 의존하는 경우가 많아 일반화 능력이 제한적이다.
연구진은 이에 이미지 간 변환 관계를 효과적으로 학습할 수 있는 AI모델인 STL(Self-supervised Transformation Learning) 프레임워크를 개발했다.
논문 제1저자인 유재명 연구생(전기 및 전자공학부 박사과정)은 "이미지 변환 전후의 특징을 비교해 변환 과정을 나타내는 '변환 표현'을 학습하는 방법으로 새로운 AI모델을 설계했다"며 "이를 통해 같은 변환이 다른 이미지에서도 동일하게 작용하도록 학습하며, 별도의 변환 라벨 없이도 복잡한 변환 방식을 이해하고 적용할 수 있다"고 설명했다.
유재명 연구생은 "기존 방법론들을 통해 학습한 모델이 이해할 수 없는 세부적인 특징까지도 학습할수 있다"며 "기존 방법 대비 최대 42% 우수한 성능을 나타냈다"고 부연 설명했다.
김준모 교수는 "이번에 개발한 STL은 복잡한 변환 패턴을 학습하고 이를 표현 공간에서 효과적으로 반영하는 능력을 통해 변환 민감 특징 학습의 새로운 가능성을 제시했다”고 말했다.
관련기사
- AI모델과 데이터 보호, '동형 암호'가 답이다2024.12.09
- 프랑스 통신사, 서아프리카 언어 이해하는 AI모델 개발2024.11.28
- NIA, AI모델 성능 평가 전면 재편···추론·감성 등 9개 지표 사용2024.08.13
- "한 장에 0.5초"…스태빌리티AI, 2D를 3D로 만드는 고속 AI모델 공개2024.08.04
김 교수는 "라벨 없이도 변환 정보를 학습할 수 있는 이 기술이 향후 다양한 AI 응용 분야에서 핵심적인 역할을 할 것”으로 기대했다.
연구결과는 국제 학술대회 ‘신경정보처리시스템학회(NeurIPS) 2024’에서 이달 내 발표할 예정이다.