KAIST, 변환 라벨없이 스스로 학습가능한 AI 모델 개발

기존 기법 대비 최대 42% 우수…변환민감특징학습 분야 새로운 가능성 제시

과학입력 :2024/12/13 22:57    수정: 2024/12/14 21:52

KAIST 연구진이 변환라벨((transformational labels)없이 스스로 학습할 수 있는 새로운 시각 인공지능 모델(STL)을 개발했다고 13일 밝혔다.

컴퓨터 비전에서 주로 사용하는 자기지도 학습(self-supervised learning)은 데이터를 시각적으로 표현하는데 많이 사용하지만, 변환 전후의 이미지 표현을 동일하게 만들기 때문에 일부 시각적 세부사항을 놓칠 가능성이 있다

특히, 세부적인 특징이 필요한 작업에 한계가 있다.

기존 데이터 증강이 변환 민감 정보를 포함하는 특정 태스크에 미치는 악영향을 나타낸다. 색상, 방향 등이 중요한 결정 요소일 때, 기존 데이터 증강을 수행하면 해당 정보를 잃게 된다.

이를 극복할 대안으로 변환 등변 학습(transformation-equivariant learning) 방법이 쓰이지만, 이는 명시적인 변환 레이블에 의존하는 경우가 많아 일반화 능력이 제한적이다.

연구진은 이에 이미지 간 변환 관계를 효과적으로 학습할 수 있는 AI모델인 STL(Self-supervised Transformation Learning) 프레임워크를 개발했다.

논문 제1저자인 유재명 연구생(전기 및 전자공학부 박사과정)은 "이미지 변환 전후의 특징을 비교해 변환 과정을 나타내는 '변환 표현'을 학습하는 방법으로 새로운 AI모델을 설계했다"며 "이를 통해 같은 변환이 다른 이미지에서도 동일하게 작용하도록 학습하며, 별도의 변환 라벨 없이도 복잡한 변환 방식을 이해하고 적용할 수 있다"고 설명했다.

유재명 연구생은 "기존 방법론들을 통해 학습한 모델이 이해할 수 없는 세부적인 특징까지도 학습할수 있다"며 "기존 방법 대비 최대 42% 우수한 성능을 나타냈다"고 부연 설명했다.

김준모 교수는 "이번에 개발한 STL은 복잡한 변환 패턴을 학습하고 이를 표현 공간에서 효과적으로 반영하는 능력을 통해 변환 민감 특징 학습의 새로운 가능성을 제시했다”고 말했다.

관련기사

새로운 AI모델을 개발한 KAIST 김준모 전기및전자공학부 교수(오른쪽)와 유재명 연구생(박사과정, 논문 제1저자).

김 교수는 "라벨 없이도 변환 정보를 학습할 수 있는 이 기술이 향후 다양한 AI 응용 분야에서 핵심적인 역할을 할 것”으로 기대했다.

연구결과는 국제 학술대회 ‘신경정보처리시스템학회(NeurIPS) 2024’에서 이달 내 발표할 예정이다.