AWS, 그래비톤3 등 3개 신규 EC2 인스턴스 발표

컴퓨팅입력 :2021/12/01 12:30    수정: 2021/12/01 12:34

아마존웹서비스(AWS)는 30일(현지시간) 개막한 연례 컨퍼런스 ‘AWS 리인벤트2021’에서 자체 설계 칩으로 구동되는 새로운 아마존 EC2 인스턴스 3종을 발표했다.

ARM 아키텍처 기반의 그래비톤3 프로세서로 구동되는 새로운 C7g 인스턴스는 기존 C6g 인스턴스 대비 최대 25% 향상된 성능을 제공하며, AWS 트레이니엄 칩으로 구동되는 새로운 Trn1 인스턴스는 대다수의 머신러닝(ML) 모델들을 EC2 상에서 최단 시간 내 학습할 수 있도록 지원한다. AWS에서 자체 설계한 AWS 니트로 SSD 기반의 스토리지에 최적화된 새로운 Im4gn/Is4gen/I4i 인스턴스는 아마존 EC2에서 실행되는 I/O 집약적 워크로드를 대상으로 최고의 스토리지 성능을 제공한다.

AWS 그래비톤3 프로세서는 이전 세대 대비 과학, ML 및 미디어 인코딩 워크로드에 대해 부동 소수점 기준 최대 2배 높은 성능, 암호화 워크로드에 대해 최대 2배 더 빠른 성능, ML 워크로드에 대해 최대 3배 더 나은 성능을 제공한다. AWS 그래비톤3 프로세서는 동급의 EC2 인스턴스 대비 동일한 성능을 구현하는데 최대 60% 적은 에너지를 사용하여 에너지 효율성이 높다.

AWS는 그래비톤3 프로세서에 기반하는 새 C7g EC2 인스턴스를 선보였다.

C7g 인스턴스는 최신 DDR5 메모리를 탑재한 최초의 클라우드 인스턴스로, AWS 그래비톤2 기반 인스턴스 대비 50% 더 높은 메모리 대역폭을 제공함으로써 과학 연구분야에서 주로 사용되는메모리 집약 애플리케이션의 성능을 개선한다. 또한 AWS 그래비톤2 기반 인스턴스에 대비 20% 더 높은 네트워킹 대역폭을 지원한다. 뿐만 아니라, C7g 인스턴스는 애플리케이션과 네트워크 인터페이스 카드의 직접적인 교류가 가능한 엘라스틱 패브릭 어댑터(EFA) 지원을 통해 보다 낮고 일관된 지연 시간을 제공함으로써 HPC 및 비디오 인코딩과 같은 대규모 병렬 처리가 요구되는 애플리케이션의 성능을 개선한다

다수 기업 고객이 비즈니스와 고객 경험을 새롭게 창출할 수 있는 잠재력을 지닌 애플리케이션을 지원하기 위해 ML 모델을 구축, 학습 및 배포하고 있다. 그러나 정확도를 높이기 위해서는 이러한 ML 모델의 학습에 더욱더 많은 양의 데이터를 사용해야 하므로 더 높은 비용을 감수해야 한다. 이러한 딜레마로 인해 고객이 실제 적용할 수 있는 ML 모델의 수가 제한되기도 한다.

AWS는 엔비디아 A100 텐서 코어 GPU 기반의 EC2 P4d 인스턴스와, 가우디 칩셋을 탑재한 하바나 랩의EC2 DL1 인스턴스를 ML 용으로 제공하고 있다. 그러나 현 시점에서 사용 가능한 가장 빠른 가속 인스턴스를 활용하더라도 프로덕션 단계 구축 이전 대규모의 ML 모델 학습 과정에서는 엄청난 비용과 시간이 소요된다.

AWS 트레이니엄 칩으로 구동되는 Trn1 인스턴스는 아마존 EC2에서 최고의 가격대 성능비를 기반으로 최단 시간 ML 모델 학습을 제공, 최신 P4d 인스턴스 대비 최대 40%까지 절감된 비용으로 딥러닝 모델을 학습할 수 있다. Trn1 인스턴스는 최신 EC2 GPU 기반 인스턴스보다 2배 높은 800Gbps의 EFA 네트워킹 대역폭을 제공하고, 러스터용 아마존 FSx의 고성능 스토리지와 통합해 EC2 울트라클러스터 기능을 기반으로 Trn1 인스턴스를 시작할 수 있도록 지원한다. EC2 울트라클러스터를 활용하는 개발자는 ML 학습을 페타비트 규모의 네트워킹과 상호 연결된 1만개 이상의 트레이니엄 가속기로 확장할 수 있다.

오늘날 기업 고객은 확장 트랜잭션 및 관계형 데이터베이스, NoSQL, 빅데이터(하둡), 데이터 애널리틱스 워크로드 같은 로컬 스토리지 데이터 집합에 대한 직접 액세스가 필요한 애플리케이션을 위해 I3/I3en 스토리지에 최적화된 인스턴스를 사용하고 있다. I3/I3en 인스턴스는 낮은 지연 시간, 높은 I/O 성능 및 처리량에 최적화된 NVMe SSD 기반 인스턴스 스토리지를 합리적인 비용으로 제공한다.

I3/I3en 인스턴스가 지원하는 빠른 트랜잭션 시간은 고객에게 도움이 되고 있지만, 보다 규모가 큰 데이터 세트에 대한 한층 까다로운 트랜잭션을 처리하기 위해 워크로드를 발전시키는 과정에서는 추가 비용 없이 향상된 컴퓨팅 성능과  신속한 데이터 액세스를 확보하는 것이 필요하다. 이에 따라 Im4gn/Is4gen/I4i 인스턴스는 I/O 집약적 워크로드의 스토리지 성능을 극대화하도록 설계됐다.

Im4gn/Is4gen/I4i 인스턴스는 AWS가 자체 설계한 AWS 니트로 SSD에서 최대 30TB의 NVMe 스토리지를 제공함으로써 이전 세대 I3 인스턴스에 비해 최대 60% 더 낮은 I/O 지연 시간과 75% 더 낮은 지연 시간 변동성을 지원하고 애플리케이션 성능을 극대화한다. AWS 니트로 SSD는 스토리지 스택, 하이퍼바이저 및 하드웨어 최적화를 통해 AWS 니트로 시스템과 긴밀하게 통합된다. AWS에서 AWS 니트로 SSD의 하드웨어와 펌웨어를 모두 관리하는 만큼, 상용 SSD 대비 SSD 업데이트가 보다 신속하게 제공돼 향상된 기능의 이점을 누릴 수 있다.

관련기사

Im4gn 인스턴스는 AWS 그래비톤2 프로세서를 탑재해 I3 인스턴스에 대비 최대 40% 우수한 가격 대비 성능과 최대 44% 더 낮은 스토리지 TB당 비용을 제공한다. Is4gen 인스턴스도 AWS 그래비톤2 프로세서를 기반으로 하며, I3en 인스턴스에 대비 스토리지 TB당 비용이 최대 15% 낮고 컴퓨팅 성능은 최대 48% 향상된다. AWS 콘솔에서 지금 바로Im4gn/Is4gen 인스턴스를 사용할 수 있다. 곧 새롭게 공개될 I4i 인스턴스에는 3세대 인텔 스케일러블 프로세서인 아이스레이크를 탑재해 이전 세대 I3 인스턴스보다 최대 55% 향상된 컴퓨팅 성능을 제공한다.

아담 셀립스키 아마존웹서비스(AWS) CEO는 "AWS는 모든 고객에게 머신러닝의 완전한 힘을 만들어주는데 초점을 맞춘다"며 "훈련과 추론의 비용을 낮추는 게 그 여정의 중요한 단계"라고 강조했다.