[디지털경제뉴스 박시현 기자] HPE는 최근 ‘AI 데이’ 행사에서 대규모 AI 배포 시 에너지 및 비용 효율성을 극대화할 수 있는 100% 팬리스 직접 수냉 방식(DLC: Direct Liquid Cooling) 시스템 아키텍처를 발표했다.
HPE는 이번 기술의 개발 배경으로 비록 차세대 가속기의 효율성이 향상되고 있지만, AI 채택의 증가로 전력 소비는 계속해서 늘어나 기존의 냉각 기술의 한계를 초과하고 있으며 이에 따라 대규모 AI 워크로드를 운영하는 조직들은 더 효율적인 냉각 기술을 필요로 하고 있다고 설명했다.
HPE의 시스템은 이 차세대 AI 시스템의 냉각 기술을 활용해 세계에서 가장 에너지 효율적인 슈퍼컴퓨터를 선정하는 그린500 리스트의 상위 10대 슈퍼컴퓨터에서 7대를 제공했다.
100% 팬리스 직접 수냉 방식 아키텍처는 ▲GPU, CPU, 풀 서버 블레이드, 로컬 스토리지, 네트워크 패브릭, 랙/캐비닛, 팟/클러스터, 냉각분배장치(CDU)를 포함하는 8가지 요소 냉각 설계 ▲복잡한 컴퓨팅 및 냉각 시스템의 성공적인 배포를 지원하기 위한 철저한 테스트, 모니터링 소프트웨어, 현장 서비스를 포함한 고집적도 및 고성능 시스템 설계 ▲저비용 및 저전력 연결을 통합해 대규모 확장을 지원하는 통합 네트워크 패브릭 설계 ▲가속기 선택의 유연성을 제공하는 개방형 시스템 설계 등 네가지 핵심 요소를 기반으로 설계됐다.
100% 팬리스 직접 수냉 방식 아키텍처는 하이브리드 직접 수냉 방식만을 사용할 때보다 서버 블레이드당 냉각 전력 소비를 37% 절감하는 특별한 이점을 제공한다. 이를 통해 전력 비용, 탄소 배출량, 데이터센터의 팬 소음을 줄일 수 있으며, 특히 해당 아키텍처를 사용하는 시스템은 서버 캐비닛의 집적도를 높여 바닥 면적을 절반으로 줄일 수 있다. HPE의 100% 팬리스 DLC 아키텍처는 이미 대규모 생성형 AI를 구축하는 조직에서 비용 및 에너지 효율성의 이점을 누리고 있다.
안토니오 네리 HPE 회장 겸 CEO는 “조직들이 생성형 AI의 이점을 충분히 누리려면 지속가능성 목표를 달성하고, 증가하는 전력 수요에 대응하며 운영 비용을 절감할 수 있어야 한다”며, “HPE가 이번에 공개한 아키텍처는 오로지 수냉 방식을 적용해, 시중의 다른 솔루션보다 에너지 및 비용 절감 측면에서 큰 이점을 제공한다. 실제로 해당 DLC 아키텍처는 기존 공랭식 시스템에 비해 냉각 전력 소비를 90%까지 절감할 수 있다. HPE는 세계 최대 규모의 수냉식 IT 환경을 구축한 노하우와 수십 년간의 시장 리더십을 바탕으로 AI 수요를 지속적으로 확보할 수 있는 유리한 위치를 차지하고 있다”고 말했다.