[엔비디아 GTC 2020] 엔비디아, ‘GTC 2020’ 온라인 개최
[엔비디아 GTC 2020] 엔비디아, ‘GTC 2020’ 온라인 개최
  • 박시현 기자
  • 승인 2020.05.16 10:06
  • 댓글 0
이 기사를 공유합니다

첫날 EGX 엣지 AI 플랫폼용 신제품 2종, ‘젯슨 자비에 NX 개발자 키트’, 암페어 아키텍처 기반 데이터센터 GPU 등 발표

[디지털경제뉴스 박시현 기자] 엔비디아가 한국시간 14일 ‘GTC 2020’을 온라인으로 개최했다.

젠슨 황 엔비디아 CEO는 이날 기조연설에서 AI, 고성능컴퓨팅(HPC), 데이터 사이언스, 자율주행, 헬스케어 분야에서 엔비디아가 어떤 혁신을 이뤄내고 있는지를 소개했다.

엔비디아는 행사 첫날 ▲EGX 엣지 AI 플랫폼용 신제품 2종 ▲클라우드 네이티브를 지원하는 ‘젯슨 자비에 NX 개발자 키트’ ▲암페어(Ampere) 아키텍처 기반 데이터센터 GPU 등을 발표했다.

EGX 엣지 AI 플랫폼용 신제품 2종 = EGX 엣지 AI(EGX Edge AI) 플랫폼용 신제품 2종은 대형 상용 서버용 EGX A100과 마이크로 엣지 서버용 소형 EGX 젯슨 자비에 NX(EGX Jetson Xavier NX)로 구성돼 있다. 이 제품은 엣지에서 고성능으로 안정적인 AI를 처리하는 점이 특징이다.

엔비디아 EGX 엣지 AI 플랫폼을 적용하면 병원, 상점, 농장 및 공장은 수십억 개의 엣지 센서에서 대규모 데이터 스트리밍을 실시간으로 처리하고 보호할 수 있을 뿐 아니라, 서버 플릿(fleet)을 원격으로 안전하게 구축, 관리 및 업데이트 할 수 있다.

EGX A100 통합 가속기와 EGX 젯슨 자비에 NX 마이크로 엣지 서버는 다양한 크기, 비용 및 성능 요구를 충족시키기 위해 개발됐다.

예를 들어, EGX A100으로 구동되는 서버는 공항에서 수백 대의 카메라를 관리할 수 있는 반면, EGX 젯슨 자비에 NX는 편의점에 배치된 보다 소수의 카메라를 관리하도록 설계됐다.

더불어, 엔비디아는 클라우드 네이티브 지원을 EGX 제품군 전반으로 확대해 기업들은 최적화된 AI 소프트웨어를 사용해 AI 애플리케이션을 쉽게 구축 및 배포할 수 있게 됐다.

엔비디아 EGX A100
엔비디아 EGX A100

EGX A100은 엔비디아 암페어(NVIDIA Ampere) 아키텍처 상 최초의 엣지 AI 제품이다. AI가 점점 엣지로 이동함에 따라, 조직들은 서버에 EGX A100을 포함시켜 엣지 센서에서 방대한 양의 스트리밍 데이터를 실시간으로 처리하고 보호할 수 있다.

EGX A100은 또한 엔비디아 암페어 아키텍처의 획기적인 컴퓨팅 성능과 멜라녹스 ConnectX-6 Dx SmartNIC의 가속화된 네트워킹 및 중요 보안 기능을 결합해 표준 및 특수 목적의 엣지 서버를 안전한 클라우드 네이티브 AI 슈퍼컴퓨터로 변환시킨다.

엔비디아의 8세대 GPU 아키텍처인 엔비디아 암페어 아키텍처는 AI 추론, 엣지에서 실행되는 5G 애플리케이션 등 광범위한 컴퓨팅 집약적 워크로드를 위해 획기적으로 향상된 성능을 제공한다.

이를 통해 EGX A100은 카메라 및 기타 사물인터넷(IoT) 센서에서 대용량 스트리밍 데이터를 실시간으로 처리해 더 빠른 통찰력을 제공하고 비즈니스 효율성을 높일 수 있도록 한다.

EGX 젯슨 자비에 NX는 세계에서 가장 작고 강력한 마이크로 서버 및 엣지 AIoT 박스용 AI 슈퍼컴퓨터로, 현재 이용할 수 있는 솔루션은 20개가 넘는다.

엔비디아 자비에 SoC의 강력한 기능을 신용카드 크기의 모듈에 담아 EGX 클라우드 네이티브 소프트웨어 스택을 구동하는 EGX 젯슨 자비에 NX는 여러 고해상도 센서의 스트리밍 데이터를 빠르게 처리한다.

이 에너지 효율적인 모듈은 15W에서 최대 21TOPS, 10W에서 14TOPS의 성능을 제공한다. 즉, EGX 젯슨 자비에 NX는 AI 워크로드를 지원하기 위해 성능은 향상시켜야 하지만 크기, 무게, 전력 예산 또는 비용의 제약을 받는 임베디드 엣지 컴퓨팅 디바이스 분야에 새로운 기회를 제공한다.

EGX 엣지 AI 플랫폼의 클라우드 네이티브 아키텍처를 통해 컨테이너화된 소프트웨어를 실행해 다양한 GPU 가속 워크로드를 지원할 수 있다.

엔비디아 애플리케이션 프레임워크에는 헬스케어용 클라라(Clara), 이동통신사업자용 애리얼(Aerial), 대화형 AI용 자비스(Jarvis), 로보틱스용 Isaac, 스마트시티, 소매, 교통 등을 위한 메트로폴리스(Metropolis)가 포함된다. 이들은 함께 또는 개별적으로 사용될 수 있으며 다양한 엣지 사용사례로 활용될 수 있다.

◆‘젯슨 자비에 NX 개발자 키트’ = 젯슨 자비에 NX 모듈은 인공지능(AI) 애플리케이션을 가속화하는데 이상적인 플랫폼이다. 이미 업계에서 널리 사용되고 있는 젯슨 TX2 프로세서 대비 10배 이상 뛰어난 성능을 제공한다.

클라우드 네이티브 기술이 적용된 젯슨 자비에 NX 모듈은 개발자들이 신용카드 크기의 폼 팩터에서 구현되는 우수한 AI 및 컴퓨팅 성능을 활용해 혁신을 도모하고 AI를 대규모로 배포할 수 있도록 돕는다.

클라우드 네이티브 지원이 엔비디아 젯슨 제품군 전반으로 확대되면서, 지능형 머신 제조업체와 AI 애플리케이션 개발자들은 로보틱스, 스마트 시티, 의료, 산업용 IoT 등을 대상으로 하는 임베디드 및 엣지 디바이스에서 고품질의 소프트웨어 정의 기능을 구축 및 배포할 수 있게 됐다.

클라우드 네이티브 지원은 제조업체 및 개발자들이 젯슨 기반 AI 엣지 디바이스로 빈번한 개선사항을 구현하고, 정확도 높이고, 최신 기능을 활용할 수 있도록 한다. 또한, 다운타임은 최소화하면서, 애플리케이션 수명주기 전반에 걸쳐 새로운 알고리즘을 신속하게 적용할 수 있다.

엔비디아 젯슨 자비에 NX 개발자 키트 모듈
엔비디아 젯슨 자비에 NX 개발자 키트 모듈

엔비디아 젯슨은 AI 엣지 컴퓨팅 플랫폼으로, 약 50만여 개발자들이 사용하고 있다. 엔비디아의 NGC 레지스트리(NGC registry) AI 애플리케이션 개발에서 빌딩블록 역할을 하는 컨테이너화 되고 사전 훈련된 여러 AI 모델을 호스팅한다.

개발자들은 NGC 상의 여러 모델과 최신 엔비디아 툴을 사용해 젯슨 자비에 NX 개발자 키트 또는 기타 젯슨 개발자 키트에서 직접 최적화할 수 있다. 또한 크로스 컴파일 툴체인을 갖춘 워크스테이션이나 NGC에 곧 출시될 컨테이너를 사용하는 클라우드 개발 워크 플로우를 활용할 수도 있다.

엔비디아 젯슨 자비에 NX 개발자 키트(NVIDIA Jetson Xavier NX developer kit)는 젯슨 자비에 NX 모듈을 위한 개발 플랫폼이다. 약 가로 70mm x 세로 45mm로 신용카드보다도 작은 이 에너지 효율적인 모듈은 10W로 최대 14 TOPS 또는 15W로 21 TOPS의 성능을 제공한다.

젯슨 자비에 NX는 이를 통해 AI 워크로드를 지원하기 위해 향상된 성능을 필요로 하면서도, 크기, 무게, 전력 예산 또는 비용에 의해 제약을 받는 임베디드 엣지 컴퓨팅 디바이스 분야의 새로운 지평을 열게 될 것으로 기대를 모으고 있다.

엔비디아 쿠다-X(CUDA-X) 가속컴퓨팅 스택, 그리고 엔비디아 컨테이너 런타임과 함께 제공되는 제트팩 SDK(Jetpack SDK)로 구동되는 젯슨 자비에 NX 개발 키트는 레퍼런스 모듈과 캐리어 보드를 완전한 리눅스 소프트웨어 개발 환경에 통합시킨다.

고객들은 최신 엔비디아 툴을 활용해 클라우드 네이티브 개발 및 구축 워크플로우를 최적화할 수 있다. 젯슨 자비에 NX 개발자 키트와 젯슨 자비에 NX 모듈은 399달러(약 48만원)에 구입 가능하다.

암페어 아키텍처 기반 데이터센터 GPU ‘엔비디아 A100’ = 엔비디아는 엔비디아 암페어(Ampere) 아키텍처를 기반으로 한 최초의 GPU ‘엔비디아 A100’을 공개했다. A100은 엔비디아 8세대 GPU에서 지원 가능한 최대 성능을 제공해 인공지능(AI) 훈련 및 추론을 통합하고, 이전 세대 프로세서 대비 최대 20배까지 성능을 향상시킨다.

A100에 적용된 새로운 엘라스틱 컴퓨팅 기술은 각 작업에 따라 적합한 규모의 컴퓨팅 파워를 제공할 수 있도록 한다. 또한, 멀티-인스턴스 GPU 기능을 사용하면 A100 GPU를 각각 최대 7개의 독립 인스턴스로 분할해 추론 과제를 수행할 수 있으며, 3세대 엔비디아 NV링크(NVLink) 인터커넥트 기술은 여러 A100 GPU가 대규모의 훈련 과제를 위해 하나의 거대한 GPU로 작동할 수 있게 한다.

A100 GPU는 알리바바 클라우드, 아마존웹서비스, 아토스, 바이두 클라우드, 시스코, 델, 후지쯔, 기가바이트, 구글 클라우드, H3C, HPE, 인스퍼, 레노버, 마이크로소프트 애저, 오라클, 콴타 클라우드 테크놀로지, 슈퍼마이크로, 텐센트 클라우드 등 세계 유수의 클라우드 서비스 제공업체 및 시스템 구축업체들 제품에 통합될 계획이다.

암페어 아키텍처 기반 데이터센터 GPU ‘A100’
암페어 아키텍처 기반 데이터센터 GPU ‘A100’

엔비디아 A100은 AI 훈련, 추론뿐 아니라 과학 시뮬레이션, 대화형 AI, 추천 시스템, 유전체학, 고성능 데이터 분석, 지진 모델링, 재무 예측을 비롯한 다양하고 까다로운 워크로드에 이상적이다.

또한 새로 발표된 엔비디아 DGX A100 시스템에는 엔비디아 NV링크와 상호 연결된 8개의 엔비디아 A100 GPU가 탑재돼 있다.

엔비디아는 파트너의 서버 개발을 가속화하기 위해 여러 GPU 구성의 통합 베이스 보드 형태의 서버 빌딩 블록인 HGX A100을 개발했다.

4개의 GPU가 탑재된 HGX A100은 NV링크와 GPU간의 완전한 상호 연결을 제공한다. 반면, 8개의 GPU가 HGX A100은 엔비디아 NV스위치(NVSwitch)를 통해 완전한 GPU-투-GPU 대역폭을 제공한다.

새로운 멀티 인스턴스 GPU 아키텍처가 적용된 HGX A100은 각각 엔비디아 T4보다 빠른 56개의 소형 GPU부터, 8개의 GPU로 10페타플롭스의 AI 성능을 제공하는 거대한 서버까지 구성 가능하다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.