아마존웹서비스(AWS)는 파운데이션모델(FM) API를 제공하는 완전관리형 생성 AI 서비스 ‘아마존 베드록’을 정식 출시한다고 5일 밝혔다.
AWS는 이와 함께 ‘아마존 타이탄 임베딩’ 모델을 일반에 공개했으며, 아마존 베드록에서 메타의 ‘라마 2(Llama 2)’를 사용할 수 있게 했다. 조직의 자체 내부 코드베이스를 기반으로 코드위스퍼러의 코드 제안을 안전하게 커스터마이징할 수 있는 AI 기반 코딩 컴패니언 ‘아마존 코드위스퍼러’의 새로운 기능을 발표할 예정이다.
클라우드용으로 구축된 통합 BI서비스 ‘아마존 퀵사이트’를 위한 생성형 BI 작성 기능의 프리뷰도 출시했다. 자연어로 주목도 높은 비주얼 제작, 차트 서식 지정, 계산 등의 작업을 수행할 수 있도록 지원한다.
아마존 베드록은 생성형 AI 애플리케이션을 구축하는 데 필요한 광범위한 기능을 제공한다. AI21 랩스, 앤트로픽, 코히어, 메타, 스태빌리티 AI, 아마존 등을 비롯한 주요 AI 선도 기업의 고성능 FM을 선택할 수 있다.
개인정보를 보호하고 보안을 유지하면서도 개발 과정은 간소화한다. 또한 FM의 유연성을 통해 검색부터 콘텐츠 제작, 신약 개발에 이르기까지 다양한 사용 사례에 적용할 수 있다.
많은 기업의 생성형 AI 도입을 가로막는 몇 가지 장애 요인이 있다. 첫째, 우수한 결과를 제공하며 목적에 가장 적합한 고성능 FM을 찾고 액세스할 수 있는 간단한 방법이 필요하다. 둘째, 고객은 대규모 인프라 클러스터를 관리하거나 많은 비용을 들이지 않고도 애플리케이션을 원활하게 통합할 수 있기를 원한다. 마지막으로, 고객은 기본 FM을 쉽게 사용하고 자신의 데이터로 차별화된 앱을 구축할 수 있는 방법을 원한다. 고객이 커스터마이징을 위해 원하는 데이터는 매우 가치 있는 IP이므로 그 과정에서 완벽하게 보호되고 보안이 유지되어야 하며, 고객은 데이터의 공유 및 사용 방식을 제어하기를 원한다.
아마존 베드록은 다양한 FM을 쉽게 실험하고, 자신의 데이터를 사용해 비공개로 맞춤 설정할 수 있다. 여행 예약, 보험금 청구 처리, 광고 캠페인 생성, 재고 관리 등 복잡한 비즈니스 작업을 코드 작성 없이 실행하는 관리형 에이전트 생성 등 차별화된 기능을 제공한다. 아마존 베드록은 서버리스기 때문에 고객은 인프라를 관리할 필요가 없으며, 이미 익숙한 AWS 서비스를 사용해 생성형 AI 기능을 애플리케이션에 안전하게 통합 및 배포할 수 있다.
보안과 개인정보 보호를 염두에 두고 구축된 아마존 베드록은 고객이 민감한 데이터를 쉽게 보호할 수 있도록 지원하며, 고객은 AWS 프라이빗링크를 사용해 공용 인터넷에 트래픽을 노출하지 않고도 아마존 베드록과 가상 프라이빗 클라우드(VPC) 간 프라이빗 보안 연결을 설정할 수 있다. 또한 엄격한 규제가 적용되는 산업에 종사하는 고객을 위해 아마존 베드록은 미국의 의료정보보호법(HIPAA)과 유럽연합(EU) 개인정보보호규정(GDPR)을 준수하고 있고, 이를 통해 보다 많은 고객이 생성형 AI의 혜택을 누릴 수 있을 전망이다.
모든 사용 사례에 최적화된 단일 모델은 존재하지 않으며, 생성형 AI의 가치를 실현하기 위해 고객이 다양한 모델을 검토해 필요에 따라 가장 적합한 모델을 찾아야 한다. 아마존 베드록은 고객이 단일 API를 통해 AI21 랩스, 앤트로픽, 코히어, 메타, 스태빌리티 AI, 아마존의 모델을 포함한 다양한 선도적인 FM을 쉽게 찾고 테스트할 수 있도록 지원한다.
향후 앤트로픽의 모든 FM은 모델 커스터마이징 및 파인 튜닝에 대한 고유한 기능을 아마존 베드록을 통해 조기에 사용할 수 있다. 이번 발표를 통해 아마존 베드록은 새로운 모델에 대한 액세스를 통해 FM 선택의 폭을 확장한다.
아마존 타이탄 FM은 AWS가 대규모 데이터 세트에 대해 생성하고 사전 학습한 모델 제품군으로, 다양한 사용 사례를 지원하는 강력한 범용 기능이다. 고객이 일반적으로 사용할 수 있는 첫 번째 모델인 아마존 타이탄 임베딩은 텍스트를 임베딩이라는 숫자 표현으로 변환해 검색, 개인화, 검색 증강 생성(RAG) 사용 사례를 강화하는 대규모 언어 모델(LLM)이다.
FM은 다양한 작업에 적합하지만, 학습 데이터와 문맥 정보에서 학습한 내용을 바탕으로 질문에 즉각적으로 답변을 도출하기 때문에 시기적절한 지식이나 내부 데이터가 필요한 경우 효율성 측면에 한계가 있다. 추가 데이터를 활용해 FM의 출력값을 보완하려면 많은 조직에서 대중적인 모델 맞춤형 기법인 RAG을 통해 FM이 다른 지식 소스를 활용해 출력값을 보완하도록 설계한다.
RAG를 시작하려면 먼저 임베딩 모델에 액세스해 데이터를 임베딩으로 변환해 FM이 데이터 간의 의미론적 의미와 관계를 보다 쉽게 이해할 수 있도록 해야 한다. 임베딩 모델을 구축하려면 방대한 양의 데이터와 리소스는 물론 심층적인 ML 전문 지식이 필요하기 때문에 고객들이 스스로 구축하기는 쉽지 않으며, 많은 조직에서 RAG는 상대적으로 실행가능성이 낮은 옵션이 된다.
고객이 아마존 타이탄 임베딩을 활용하면, RAG로 쉽게 시작해 내부 데이터를 활용해 모든 FM의 성능을 확장할 수 있다. 아마존 타이탄 임베딩은 25개 이상의 언어와 최대 8,192개의 토큰을 지원하므로, 고객의 사용 사례에 따라 단일 단어, 구문 또는 전체 문서로 작업하는 데 적합하다. 이 모델은 1,536개의 차원으로 구성된 출력 벡터를 반환하므로 정확도가 높을 뿐만 아니라, 지연 시간이 짧고 비용 효율적인 결과를 얻을 수 있도록 최적화돼 있다.
라마 2 모델은 40% 더 많은 데이터로 학습되고 더 큰 문서 작업을 위해 4천개 토큰으로 더 긴 컨텍스트 길이를 갖는 등 기존 라마 모델에 비해 대폭 개선됐다. AWS 인프라에서 신속하게 답변을 제공하도록 최적화 설계된 아마존 베드록을 통해 제공되는 라마 2 모델은 대화 사용 사례에 이상적이다. 고객은 인프라를 설정하고 관리할 필요 없이 13B 및 70B 파라미터의 라마 2 모델로 구동되는 생성형 AI 애플리케이션을 구축할 수 있다.
아마존 코드위스퍼러는 개발자의 생산성을 향상시키는 AI 기반 코딩을 지원한다. 그러나 내부 코드는 문서가 제한돼 있을 수 있고, 개발자가 도움을 요청할 수 있는 공개 리소스나 포럼이 없기 때문에 개발 작업에 한계가 있다. 장바구니에서 항목을 제거하는 전자상거래 웹사이트의 함수를 작성하려면 개발자는 먼저 애플리케이션과 상호작용하는 데 사용되는 기존 API, 클래스 및 기타 내부 코드에 대해 숙지해야 한다. 이전에는 개발자가 필요한 정보를 찾고 작동 방식을 이해하기 위해 이미 작성된 내부 코드를 검토하는 데 몇 시간을 소비하는 경우가 있다.
올바른 리소스를 찾은 후에도 코드가 회사의 코딩 모범 사례를 준수하는지, 참조 코드에 존재하는 결함이나 취약점이 반복되지 않는지 면밀히 확인해야 한다.
아마존 코드위스퍼러의 새로운 커스터마이징 기능은 고객의 내부 코드베이스와 리소스를 안전하게 활용해 고유한 요구사항에 맞춤화된 권장 사항을 제공함으로써 생성형 AI 기반 코딩의 잠재력을 최대한 발휘할 수 있도록 지원한다. 개발자는 다양한 작업에서 코드 제안의 관련성을 개선해 시간을 절약할 수 있다.
먼저 관리자는 깃랩 또는 아마존 S3와 같은 소스에서 비공개 코드 리포지토리에 연결해 자체 사용자 지정 생성 작업을 예약한다. 코드위스퍼러는 사용자 지정 생성 시 다양한 모델 및 컨텍스트 사용자 지정 기술을 활용해 고객의 저장소에서 학습하고 실시간 코드 제안을 개선하므로 개발자는 차별화되지 않은 문제에 대한 정답을 찾는 시간을 단축하고, 새롭고 차별화된 경험을 만드는 데 더 많은 시간을 집중한다. 관리자는 AWS 콘솔에서 모든 사용자 지정 사항을 중앙에서 관리하여 평가 지표를 확인하고, 각 사용자 지정 사항의 성능을 예측하고, 회사 전체의 특정 개발자에게 선택적으로 배포해 민감한 코드에 대한 액세스를 제한한다.
관리자는 최고 품질의 저장소만 선택적으로 활용해 코드위스퍼러가 제공하는 커스터마이징이 더 이상 사용되지 않는 코드를 생략하고, 조직의 품질 및 보안 표준을 충족하도록 확인한다. 엔터프라이즈급 보안 및 개인정보 보호를 염두에 두고 구축된 이 기능은 커스터마이징을 완전히 비공개로 유지하며, 코드위스퍼러를 구동하는 기본 FM은 해당 커스터마이징을 교육에 사용하지 않으므로 고객의 소중한 지적재산을 보호한다.
이 커스터마이징 기능은 새로운 코드위스퍼러 엔터프라이즈 티어의 기능으로 미리보기로 제공될 예정이다. 코드위스퍼러 커스터마이징 기능은 기본적으로 안전하며, AWS는 아마존 코드위스퍼러 프로페셔널 티어 또는 엔터프라이즈 티어를 사용하는 개발자의 통합 개발 환경(IDE)에서 요청을 처리할 때 고객 콘텐츠를 저장하거나 로깅하지 않는다.
아마존 퀵사이트는 클라우드 기반으로 구축된 통합 BI 서비스다. 이 서비스는 대화형 대시보드, 페이지 기반 보고서 및 내장된 분석 기능을 제공한다. 뿐만 아니라 사용자는 퀵사이트 Q의 자연어 질의를 통해 보다 쉽게 원하는 정보를 얻을 수 있다.
비즈니스 애널리스트들은 종종 BI 도구를 사용해 다양한 데이터 원본을 탐색하고, 계산을 추가하며, 시각화를 생성하고 개선한 후, 비즈니스 이해관계자에게 대시보드로 제공하기 위해 많은 시간을 투자한다. 하나의 차트를 만들기 위해 애널리스트는 먼저 적절한 데이터 원본을 찾아야 하며, 데이터 필드를 식별하고, 필터를 설정하고, 사용자 정의를 통해 시각적으로 흥미로운 결과를 얻어내야 한다. 시각화에 새로운 계산이 필요한 경우(예: 연간 매출), 애널리스트는 필요한 참조 데이터를 찾아내 시각화를 확인하고 보고서에 추가해야 한다. 비즈니스 애널리스트가 이러한 작업에 소요되는 시간을 줄이면, 조직은 보다 가치 있는 작업에 더 많은 시간을 할애할 수 있다.
새로운 생성형 BI 작성 기능은 잘 구조화된 질문에 답하는 것을 넘어, 퀵사이트Q의 자연어 쿼리 기능을 확장함으로써 애널리스트가 질문 조각에서 커스터마이징 가능한 시각자료를 빠르게 만들고, 후속 질문을 통해 쿼리의 의도를 명확히 하고, 시각자료를 구체화하고, 복잡한 계산을 완료할 수 있도록 지원한다. 퀵사이트는 비즈니스 애널리스트가 원하는 결과를 설명하면 클릭 한 번으로 대시보드나 보고서에 쉽게 추가할 수 있는 매력적인 시각자료를 생성한다.
예를 들어, 애널리스트가 '2022년과 2023년의 운동화 판매량 월별 추세'에 대한 시각자료를 퀵사이트Q에 요청하면, 이 서비스는 자동으로 적절한 데이터를 선택하고 요청에 따라 가장 적합한 차트 형식을 사용해 정보를 띄워준다. 또한 쿼리가 여러 데이터 필드와 일치하는 모호한 경우, 애널리스트가 이를 명확히 할 수 있도록 관련 질문도 제공한다. 애널리스트가 초기 시각자료를 만든 후에는 자연어 프롬프트를 사용해 복잡한 계산을 추가하고, 차트 유형을 변경하고, 시각자료를 구체화할 수도 있다. 비즈니스 애널리스트는 퀵사이트Q의 새로운 생성형 BI 작성 기능을 통해 빠르고 쉽게 매력적인 시각자료를 만들고, 데이터 기반 의사 결정에 필요한 인사이트를 대규모로 제공하는 데 걸리는 시간을 단축할 수 있다.
한국앤컴퍼니의 주요 사업회사인 한국타이어앤테크놀로지는 데이터 플랫폼, 생성형 AI 등 디지털 기술 혁신을 통해 글로벌 타이어 산업의 변화를 선도하고 있다.
김성진 한국앤컴퍼니 최고디지털책임자(CDO) 겸 최고정보책임자(CIO)는 "전기차와 스마트 타이어에 대한 수요가 증가함에 따라, 생성형 AI와 같은 최신 기술을 도입해 제품 개발 가속화와 직원 생산성 향상을 위해 노력하고 있다"며 "직원들이 방대한 사내 지식 저장소에서 타이어 관련 기술 문서, 과거부터 현재까지의 R&D 데이터, HR 및 IT 지원을 포함한 회사 운영 관련 자료 등의 필요한 자료를 신속히 찾을 수 있도록 아마존 베드록을 활용해 사내 플랫폼을 구축하고 있다”고 밝혔다.
그는 “정보를 찾는데 들어가는 자원을 절감함으로써, 직원들이 새로운 혁신 분야에 보다 집중할 수 있게 될 것”이라며 “연구 개발, 생산, 품질 관련 제조 데이터를 활용한 타이어 성능 개선 솔루션을 구축하는 등, 아마존 베드록을 통해 제공되는 파운데이션 모델을 파인 튜닝해 활용하는 것에 큰 기회가 있을 것으로 보고 있다”고 덧붙였다.
아디다스도 AWS의 생성 AI 서비스를 활용중이다. 다니엘 아이크텐 아디다스 엔터프라이즈 아키텍처 부사장은 "아마존 베드록은 아디다스의 생성형 AI 툴킷에 빠르게 큰 가치를 더했고, 인프라 관리와 같은 과중한 작업을 처리함으로써 우리가 LLM 프로젝트의 핵심 부분에 집중할 수 있게 했다”며 “아마존 베드록을 사용해 아디다스 엔지니어 커뮤니티가 기초에서부터 고도로 기술적인 질문까지 모두 아우르는 정보와 답변을 단일 대화 인터페이스를 통해 지식 베이스에서 찾을 수 있는 생성형 AI 솔루션을 개발할 수 있었다”고 밝혔다.
머크(Merck)는 130년 이상의 역사 동안 혁신적인 의약품과 백신을 개발해 생명을 구하고 삶을 개선하는 데 기여해 온 연구 집약적인 바이오제약 회사다.
수만 기리 머크 데이터 과학 부문 상무이사는 “제약 가치 사슬 전반에는 더 영향력 있는 업무 수행에 방해가 되는 시간 집약적인 수동 프로세스와 직원, 고객, 환자 경험을 개선하는데 효과적으로 활용되지 못하고 있는 데이터가 존재한다”며 “아마존 베드록을 사용해 지식 마이닝과 시장조사 등의 작업을 보다 효율적으로 수행할 수 있는 생성형 AI 기능을 빠르게 구축했다”고 설명했다.
그는 “이러한 기능을 활용해 환자 인사이트를 제공하고, 삶을 개선하고, 비즈니스 영역을 확대하는 동시에 데이터 공유 격차를 해소하고 책임 있는 생성형 AI를 위한 데이터 거버넌스 생태계를 구축할 수 있다”고 밝혔다.
관련기사
- 아마존, 생성 AI 스타트업 '앤트로픽'에 40억 달러 투자2023.09.26
- AWS, 엔씨소프트 ‘바르코’ LLM 개발 지원2023.08.29
- AWS 생성 AI 플랫폼 '세이지메이커'와 '베드락' 차이는2023.08.09
- "생성 AI 잠재력을 끌어내기 위한 AWS의 지원 전략"2023.08.08
스와미 시바수브라마니안 AWS 데이터 및 AI 부문 부사장은 "지난 한 해 동안 데이터의 확산, 확장 가능한 컴퓨팅에 대한 접근성 향상, 머신러닝(ML)의 발전 등으로 인해 생성형 AI에 대한 관심이 급증하면서 전체 산업을 혁신하고 업무 수행 방식을 재구성할 수 있는 새로운 아이디어가 촉발됐다"며 "엔터프라이즈급 보안 및 개인정보 보호, 선도적인 FM, 데이터 우선 접근 방식, 비용 효율적인 고성능 인프라를 통해 조직은 모든 측면에서 생성형 AI 솔루션으로 그들의 비즈니스를 강화하는 데 기여하는 AWS를 향한 높은 신뢰를 보이고 있다”고 강조했다.
그는 “이번 발표는 스타트업부터 대기업에 이르는 모든 비즈니스와, 개발자부터 데이터 분석가에 이르는 모든 직원이 생성형 AI를 손쉽게 사용할 수 있도록 하는 중요한 이정표”라며 “AWS는 강력하고 새로운 혁신을 통해 고객에게 더 나은 보안, 선택권, 성능을 제공하는 동시에 조직 전반에서 데이터 전략을 긴밀하게 조정해 생성형 AI의 혁신적 잠재력을 최대한 활용할 수 있도록 지원할 것”이라고 덧붙였다.