[라스베이거스(미국)=김미정 기자] 아마존웹서비스(AWS)가 생성형 인공지능(AI) 사업을 본격 확장했다. 차세대 AI 칩과 새 AI 모델 시리즈를 공개하고 기존 솔루션 기능을 업그레이드했다. 이를 통해 고객에게 고성능·저비용 AI 서비스를 제공하겠다는 전략이다.
맷 가먼 AWS 최고경영자(CEO)는 3일(현지시간) 미국 라스베이거스에서 열린 'AWS 리인벤트' 기조연설에서 기업의 모든 애플리케이션에 AI가 탑재될 것이라며 이를 위한 AWS 사업 전략을 발표했다.
트레이니움3 내년 말 출시…애플 무대 첫 등장
이날 가먼 CEO는 3나노미터 공정으로 제작된 차세대 AI 칩인 '트레이니움3'를 공개했다. 내년 말 출시 예정이다. 이 칩은 이전 세대인 Trn2 울트라서버보다 4배 높은 성능을 갖췄다.
가먼 CEO는 현재 트레이니움2를 이용하는 고객을 소개했다. 이들이 트레이니움2를 통해 이룬 성과를 공유했다. 특히 애플이 처음 리인벤트에 참석해 트레이니움2를 통한 애플 인텔리전스 개발 후기를 알렸다. 애플은 AWS와 약 10년 동안 파트너십을 맺었다.
애플 브누아 뒤팽 머신러닝·AI 수석 디렉터는 "AWS와 협력을 통해 애플 인텔리전스 기술을 강화할 계획"이라면서 "이를 위한 확장성 있는 성능과 기술이 필요하다"고 밝혔다.
이어 "AWS는 이런 요구를 만족시킬 수 있다"며 "트레이니움2는 애플 인텔리전스 효율성을 50% 개선할 것이라는 내부 평가가 나오기도 했다"고 설명했다.
새 AI 모델 '아마존 노바' 발표..."타이탄 확장판"
이날 앤디 제시 아마존 CEO가 무대에 올라 새로운 AI 모델 시리즈 '아마존 노바'를 발표했다. 이번에 공개 모델은 거대언어모델(LLM) '아마존 노바 마이크로'와 멀티모달 모델 '아마존 노바 라이트' '아마존 노바 프로' '아마존 노바 프리미어'다. 현재 아마존 베드락에서 이용 가능하다. 기존 AI 모델인 '타이탄' 확장판인 것으로 알려졌다.
아마존 노바 마이크로는 문자만 이해·처리할 수 있는 모델이다. 초당 210개 출력 토큰을 생성할 수 있다. 메타의 '라마' 3.1 8B 모델과 구글의 '제미나이 1.5 플래시' 8B 모델 대비 모든 벤치마크에서 동등하거나 더 우수한 결과를 기록했다. 빠른 응답이 필요한 애플리케이션에 최적화된 모델이다.
아마존 노바 라이트는 텍스트와 이미지, 비디오를 처리하는 멀티모달 형태다. 오픈AI의 GPT-4o 미니와 비교했을 때 19개 부문 중 17개에서 동등하거나 더 나은 성과를 기록했다. 제시 CEO는 "이 모델은 비용 효율성과 속도를 동시에 갖춘 모델로 다양한 작업에서 활용될 수 있다"고 설명했다.
아마존 노바 프로는 다양한 작업에서 정확성, 속도, 비용 효율성을 최적화한 고성능 멀티모달 모델이다. 오픈AI의 GPT-4o와 비교했을 때 20개 벤치마크 중 17개에서 동등하거나 더 우수한 결과를 보였다. 구글의 '제미나이 1.5 프로'와 비교할 경우 21개 중 16개 벤치마크에서 동등하거나 더 나은 성과를 나타냈다. 복잡한 추론 작업과 사용자 정의 모델 학습을 위한 모델이다.
아마존 노바 프리미어는 복잡한 추론 작업에서 가장 강력한 성능을 제공하는 멀티모달 모델이다. 사용자 맞춤형 모델 학습도 지원한다. 긴 컨텍스트를 처리할 수 있는 능력을 갖췄으며, 최대 30만 개의 입력 토큰 또는 약 30분 분량의 비디오를 처리할 수 있다. 제시 CEO는 "내년 초까지 200만 개 이상의 입력 토큰을 지원할 계획"이라고 밝혔다.
AWS는 내년 1분기에 음성 AI 모델 출시 계획도 알렸다. 이 모델은 스트리밍 음성 입력을 이해하고 음성 억양과 리듬 등 비언어적 신호를 해석하는 기능을 갖췄다. 이를 통해 자연스럽고 인간과 유사한 상호작용을 제공할 수 있다. 내년 중반에는 문자뿐 아니라 이미지, 오디오, 비디오를 입력받아 어떤 형식으로든 출력할 수 있는 멀티모달 모델 출시도 앞뒀다.
"AI 개발 더 쉽고 저렴하게"…아마존 베드락 업데이트
AWS는 아마존 베드락 업데이트 소식도 알렸다. 개발자가 아마존 베드락으로 AI 연구와 애플리케이션 개발을 더 빠르고 저렴하게 진행할 수 있도록 신기능을 추가했다.
아마존 베드락은 '모델 디스틸레이션' 기능을 탑재했다. 대형 모델이 갖고 있는 복잡한 지식을 소형 모델에 쉽게 이전해 주는 기술이다. 해당 지식을 전달받은 소형 모델은 같은 지식을 가진 대형 모델보다 최대 500% 더 빠르고 75% 더 저렴한 비용으로 작동할 수 있다.
AWS는 아마존 베드락 내 모델들에 '지연 시간 최적화 버전'을 적용했다고 발표했다. 현재 메타 '라마'와 앤트로픽 '클로드 3.5 하이쿠'에만 적용한 상태다. 특히 하이쿠 모델은 기존보다 추론 속도가 60% 개선됐다. 그는 "트레이니움2를 활용해 고성능·고효율 AI 모델을 구축할 것"이라고 밝혔다.
두 기업은 대규모 AI 모델 훈련에 특화된 클러스터 '프로젝트 레이니어'를 발표했다. 이 클러스터는 수십만 개의 트레이니움2 칩으로 구성돼 기존 대비 5배 이상의 성능을 제공한다.
AWS는 자동화된 추론 검사(Automated Reasoning Check) 기능도 아마존 베드락에 추가했다. 이를 통해 모델 응답 정확성을 수학적 증명을 통해 검증하고 사실 오류를 방지할 수 있다.
가먼 CEO는 "자동화 추론 검사 목표는 모델의 환각 문제를 최소화하기 위함"이라며 "환각은 기업 환경이나 민감한 정보가 중요한 도메인에서 결과 신뢰성을 크게 저하할 수 있다"고 지적했다. 이에 "이 기능은 단순히 오류를 감지하는 데 그치지 않는다"며 "발견된 문제를 수정하기 위한 권장 사항도 제공한다"고 덧붙였다.
AWS는 아마존 베드락에 '모델 지연 시간 최적화 버전'도 추가했다. 현재 메타의 '라마'와 앤트로픽의 '클로드 3.5 하이쿠'에 적용한 상태다. 특히 하이쿠는 해당 기능 적용 후 추론 속도가 60% 늘었다.
기업·개발자 업무 생산성, '아마존 Q'가 책임진다
이날 AWS는 생성형 AI를 개발·비즈니스에 활용할 수 있는 '아마존 Q' 제품군을 새로 발표했다.
아마존 Q 디벨로퍼는 개발자의 생산성을 높이고 반복적인 작업을 줄이기 위해 설계된 생성형 AI 어시스턴트다. 문서 검색부터 실시간 코드 제안, 에이전트로 복잡한 작업 간소화를 돕는다. 또 유닛 테스트 자동 생성, 코드 문서화 및 코드 리뷰 자동화, 코드 변환과 레거시 현대화 등 개발자의 업무 효율을 높이는 다양한 기능을 제공한다.
관련기사
- AWS, 데이터센터 설계 방식 진화…에너지 효율·AI 지원 강화2024.12.03
- AWS-앤트로픽, AI 협력 더 확장…베드락 업그레이드로 시장 공략2024.12.03
- AWS, 아마존 커넥트 업그레이드…생성형 AI로 맞춤형 서비스 강화2024.12.03
- 정부, AWS리인벤트 부스 꾸려…"韓 기업 해외 진출 도울 것"2024.12.03
아마존 Q 비즈니스는 반복적이고 시간이 많이 드는 사무 업무를 줄인다. 다양한 시스템과 애플리케이션에서 데이터를 빠르게 찾고 분석해 비즈니스 의사 결정을 지원한다.
가먼 CEO는 "고객 요구에 부응하는 혁신적인 AI 솔루션을 제공하기 위해 노력할 것"이라며 "이번 발표를 통해 기업들이 AI 모델의 효율성과 성능을 극대화할 수 있을 것으로 기대한다"고 강조했다.