[집중분석] 그래프코어, “IPU-POD 시스템, GPU 서버 성능 능가…비용은 절반”
[집중분석] 그래프코어, “IPU-POD 시스템, GPU 서버 성능 능가…비용은 절반”
  • 박시현 기자
  • 승인 2021.12.10 10:32
  • 댓글 0
이 기사를 공유합니다

IPU-POD16과 엔비디아 DGX100의 ‘AI 시스템 성능비교’ 결과 공개
페브리스 모이잔 그래프코어 글로벌 세일즈 부사장이 9일 기자간담회에서 발표하고 있다.
페브리스 모이잔 그래프코어 글로벌 세일즈 부사장이 9일 기자간담회에서 발표하고 있다.

[디지털경제뉴스 박시현 기자] 그래프코어가 9일 온라인 기자간담회를 열고 최근 1년간 국내 사업 성과와 향후 전략을 발표했다. 또 신제품으로 스케일업 시스템인 IPU-POD128과 IPU-POD256을 소개하고, 특히 그래프코어의 IPU-POD 시스템이 AI 시스템 성능비교(MLPerf)에서 거둔 기록적인 성능 수치를 공개했다.

◆최근 1년간 KT, NHN 등 고객 확보…파트너 네트워크 구축 역점 = 이날 페브리스 모이잔(Fabrice Moizan) 그래프코어 글로벌 세일즈 부사장은 “IPU(Intelligence Processing Unit)는 인공지능(AI)이라는 새로운 컴퓨팅을 위해 설계된 것으로, 특히 1,472개의 병렬처리 프로세서 코어에 전담 메모리를 갖춘 구조로 기존 CPU나 GPU 기반 시스템의 아키텍처의 한계를 극복하며 빠르게 성장하고 있으며 특히 한국은 IPU 도입에 가장 활동적인 국가 중 하나이다”라고 밝혔다.

지난해 1월 국내 지사를 설립하며 본격적인 시장 공략에 나선 그래프코어는 최근 1년간 KT, NHN 등 여러 국내 고객을 확보했다.

KT는 국내 첫 고객 사례로, 2021년 6월 AI 데이터센터에 그래프코어의 IPU 시스템을 도입하고, AI R&D 통합 솔루션 ‘하이퍼스케일 AI 서비스‘를 출시했다. 11월에는 IPU-POD 128을 추가 도입해 ‘하이퍼스케일 AI 서비스’를 확대했다. NHN은 올해 6월 IPU-POD 시스템을 도입해 고성능 컴퓨팅(HPC)과 AI 인프라 환경을 구현했다.

그래프코어는 또 지난 1년간 파트너 네트워크 구축에 역점을 두어, 아토스, 매커스시스템즈, 메가존클라우드, 위즈씨앤에스 등을 파트너로 확보했으며 앞으로도 추가 확보에 나설 계획이다.

그래프코어는 11월에는 IPU-POD 시리즈의 신제품으로 스케일업 시스템인 ‘IPU-POD128’과 ‘IPU-POD256’을 출시했다.

IPU-POD128과 IPU-POD256은 4개의 IPU로 1페타플롭스 성능을 보이는 ‘IPU-2000’을 각각 32개, 64개 장착해 각각 32페타플롭스, 64페타플롭스의 성능을 갖춘 제품으로 그래프코어가 지금까지 선보인 IPU-POD 시리즈 중 가장 성능이 뛰어나다.

그래프코어는 이밖에 소프트웨어 생태계 확장에도 힘써 텐서플로우, 파이토치, 케라스, 도커허브, 허깅페이스, VM웨어, 헤일로, 패들패들 등과 파트너십을 맺으며, IPU 시스템과 소프트웨어의 최적화 작업을 수행하며 성능을 극대화하고 있다.

그래프코어 IPU 시스템의 주요 활용사례는 △스탠포드 의과대학의 ‘차등 개인정보보호 기법 구현’ △AI 스타트업인 트랙테이블의 ‘사고 및 재해보험 평가’ △옥스퍼트대학의 ‘시장가격 동향 예측’ △파리대학의 ‘은하계 시뮬레이션’ △기상 현상 예측 등이다.

그래프코어 IPU-POD16이 ResNet-50 훈련에서 엔비디아의 DGX A100을 능가하는 성능을 기록했다.
그래프코어 IPU-POD16이 ResNet-50 훈련에서 엔비디아의 DGX A100을 능가하는 성능을 기록했다.

◆IPU-POD16, ResNet-50 모델 훈련 28.3분 기록…엔비디아 DGX A100은 29.1분 = 페브리스 모이잔 부사장은 특히 그래프코어의 IPU-POD 시스템이 AI 시스템 성능비교(MLPerf)에서 엔비디아의 DGX A100을 능가하는 성능을 보였다고 공개해 관심을 끌었다.

그의 설명에 따르면 컴퓨터 비전 모델 ResNet-50 훈련에서 엔비디아 DGX A100이 29.1분 걸린 반면, 그래프코어의 IPU-POD16은 28.3분을 기록했다. 여기서 주목해야할 점은 IPU-POD16의 학습 시간이 빠른 것은 물론 시스템 비용이 엔비디아 시스템의 절반 수준이라는 것.

더 나아가 새로운 플래그십 제품인 IPU-POD128과 IPU-POD256의 경우 ResNet-50 모델 훈련에 걸린 시간은 각 5.67분, 3.79분에 불과했다. IPU-POD128은 또 자연어 처리(NLP) 모델 BERT에서도 훈련 시간이 5.78분으로 월등한 성능을 보였다.

한편 페브리스 모이잔 부사장은 2022년 AI 컴퓨팅의 트렌드로 △AI와 HPC의 융합 가속화 △거대 모델 △그래프 신경망(GNNS) 등을 키워드로 제시했다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.