HPE가 대규모 인공지능(AI) 활용시 데이터센터의 에너지 및 비용 효율성을 극대화할 수 있는 수냉 시스템 아키텍처를 발표했다.
HPE는 'AI 데이(AI Day)' 행사에서 100% 팬리스 직접 수냉 방식 시스템 아키텍처를 공개했다고 29일 밝혔다.
100% 팬리스 직접 수냉 방식(Fanless DLC) 아키텍처는 하이브리드 직접 수냉 방식만을 사용할 때보다 서버 블레이드당 냉각 전력 소비를 37% 절감하는 특별한 이점을 제공한다.
이를 통해 전력 비용, 탄소 배출량, 데이터센터의 팬 소음을 줄일 수 있으며, 해당 아키텍처를 사용하는 시스템은 서버 캐비닛의 집적도를 높여, 바닥 면적을 절반으로 줄일 수 있다.
HPE의 노하우로 설계된 100% 팬리스 DLC 아키텍처는 이미 대규모 생성형 AI를 구축하는 조직들이 누리고 있는 비용 및 에너지 효율성의 이점을 더 많은 조직들이 누릴 수 있도록 지원한다.
관련기사
- '델' 주도 AI 서버 시장, 엔비디아 최신 칩 등장 속 판도 변화 올까2024.10.16
- 인텔-AMD 손잡았다…'x86 자문그룹' 공동 구성2024.10.16
- HPE·바이브컴퍼니·동국시스템즈…한국어 LLM 공동 개발 나서2024.08.22
- HPE 아루바, 행동 분석 기반 NDR 기능 도입2024.08.08
안토니오 네리 HPE 회장 겸 CEO는 “조직들이 생성형 AI의 가능성을 받아들이는 동시에, 지속가능성 목표를 달성하고, 증가하는 전력 수요에 대응하며 운영 비용을 절감해야 한다"며 " 공개한 아키텍처는 오로지 수냉 방식을 적용해, 시중의 대체 솔루션보다 에너지 및 비용 절감 측면에서 큰 이점을 제공한다. 실제로, 해당 DLC 아키텍처는 기존 공랭식 시스템에 비해 냉각 전력 소비를 90%까지 절감할 수 있다"고 설명했다.
한편 AI 데이 행사에서 안토니오 네리 HPE 회장 겸 CEO, 피델마 루소 HPE 하이브리드 클라우드 부사장 겸 총괄 매니저 및 CTO, 그리고 닐 맥도날드 HPE 서버 사업부 부사장 겸 총괄 매니저는 HPE의 포트폴리오가 네트워킹, 하이브리드 클라우드 및 AI의 비전을 실현하는 데 필요한 핵심 요소들을 어떻게 제공하는지에 대해 논의했다.