트웰브랩스가 아마존웹서비스(AWS) 기술로 멀티모달 모델을 확장했다.
AWS는 6일까지 미국 라스베이거스에서 열리는 'AWS 리인벤트'에서 스타트업 트웰브랩스가 AWS상에서 자체 기반 모델을 구축했다고 4일 발표했다.
트웰브랩스는 AWS 기술로 자연어를 영상 내부에서 일어나는 일에 매핑하는 기반 모델의 개발을 가속화할 예정이다. 여기에는 동작, 객체, 배경 소리가 포함됐다. 개발자는 영상 검색부터 장면 분류, 요약, 영상 클립 챕터 구분이 가능한 애플리케이션을 만들 수 있다.
트웰브랩스는 아마존 세이지메이커 하이퍼팟(Amazon SageMaker HyperPod)을 사용해 영상, 이미지, 음성, 텍스트와 같은 데이터 형식을 동시에 이해할 수 있는 기반 모델을 훈련한다. 이를 통해 모델은 한 가지 데이터 유형에만 집중하는 다른 AI 모델들에 비해 더 깊은 통찰력을 얻을 수 있다. 훈련 작업은 병렬로 작동하는 여러 AWS 컴퓨팅 인스턴스에 분산돼 트웰브랩스는 중단 없이 몇 주 또는 몇 달 동안 기반 모델을 훈련시킬 수 있다. 아마존 세이지메이커 하이퍼팟은 AI 모델을 빠르게 가동하고, 성능을 미세 조정하며, 원활하게 운영을 확장하는 데 필요한 모든 것을 제공한다.
트웰브랩스는 AWS와 협력해 고급 영상 이해 기반 모델을 새로운 산업 분야에 배포하고 아마존 세이지메이커 하이퍼팟을 사용해 모델 훈련 능력을 향상시킬 예정이다. 스타트업의 성장을 돕는 프로그램인 AWS 액티베이트는 트웰브랩스가 생성형 AI 기술을 전 세계적으로 확장하고 수백 페타바이트의 영상에서 초 단위의 정확도로 더 깊은 통찰력을 얻을 수 있도록 지원했다. 이 지원에는 기계 학습 성능 최적화와 시장 진출 전략 구현을 위한 실무 전문 지식이 포함된다. 또 AWS 마켓플레이스를 통해 트웰브랩스는 혁신적인 영상 인텔리전스 서비스를 전 세계 고객 기반에 원활하게 제공할 수 있다.
트웰브랩스의 마렝고(Marengo)와 페가수스(Pegasus) 파운데이션 모델은 100개 이상의 언어로 텍스트 요약과 오디오 번역을 제공한다. 또 음성에서 말한 내용을 영상에 표시된 내용과 맞추는 등 단어, 이미지, 소리가 서로 어떻게 관련되는지 분석하는 영상 분석을 제공한다. 콘텐츠 제작자는 자연어 검색을 통해 쇼나 게임 내의 정확한 순간, 각도나 이벤트에 접근할 수 있다.
관련기사
- AWS, 데이터센터 설계 방식 진화…에너지 효율·AI 지원 강화2024.12.03
- AWS-앤트로픽, AI 협력 더 확장…베드락 업그레이드로 시장 공략2024.12.03
- AWS, 아마존 커넥트 업그레이드…생성형 AI로 맞춤형 서비스 강화2024.12.03
- 정부, AWS리인벤트 부스 꾸려…"韓 기업 해외 진출 도울 것"2024.12.03
이재성 트웰브랩스 대표는 "AWS는 우리에게 멀티모달 AI의 과제를 해결하고 영상을 더 접근 가능하게 만들 수 있는 컴퓨팅 파워와 지원을 제공했다"며 "우리가 혁신을 지속하고 전 세계로 확장해 나갈 앞으로의 큰 협력을 기대한다"고 밝혔다.
AWS 존 존스 스타트업 부문 부사장 겸 글로벌 책임자는 "트웰브랩스는 클라우드 기술을 통해 방대한 양의 멀티미디어 데이터를 접근 가능하고 유용한 콘텐츠로 전환해 다양한 산업 분야의 개선을 이끌고 있다"며 "트웰브랩스가 관련성 높은 콘텐츠를 더 잘 이해하고 신속하게 제작하는 데 필요한 도구를 구축할 수 있도록 지원했다"고 말했다.