AMD, “‘퍼베이시브 AI’ 전략으로 AI 인프라 전 영역에 걸쳐 엔드투엔드 솔루션 공급”
AMD, “‘퍼베이시브 AI’ 전략으로 AI 인프라 전 영역에 걸쳐 엔드투엔드 솔루션 공급”
  • 박시현 기자
  • 승인 2024.03.20 23:13
  • 댓글 0
이 기사를 공유합니다

20일 미디어 간담회 열어…신규 AI 가속기, 소프트웨어, AI PC 등 소개

[디지털경제뉴스 박시현 기자] ”AMD는 엣지에서 클라우드까지 AI 인프라의 모든 영역에 걸쳐 엔드투엔드 솔루션을 공급한다는 전략으로, 클라우드, HPC, 엔터프라이즈, 임베디드, PC 등 모든 포트폴리오에 AI 엔진을 이미 탑재했다.“

AMD 코리아는 20일 ‘AMD AI 비즈니스’를 주제로 열린 미디어 간담회에서 이렇게 밝혔다. 이날 간담회에는 AMD 코리아의 이재형 커머셜세일즈 대표, 김홍필 커머셜세일즈 이사, 임태빈 컨슈머팀 이사 등이 참석해 AMD의 AI 전략과 주요 솔루션에 대해 소개했다.

AMD, 엣지에서 클라우드까지 모든 포트폴리오에 AI 엔진 이미 탑재 = 먼저 이재형 커머셜세일즈 대표는 ”AMD는 1년전에 데이터센터용 AI 가속기 시장이 2023년 300억달러에서 매년 50% 성장해 2027년에 1,500억달러 시장 규모를 형성할 것으로 예측했는데 그 예측이 틀렸다. 2023년에 이미 450억달러를 넘어선 가운데 매년 70% 성장해 2027년 4천억달러의 시장이 전망된다“라면서 AI 시장이 예상과 달리 급속하게 성장하고 있다고 밝혔다.

이 대표는 그러면서 ”AMD는 5년안에 클라우드, HPC, 엔터프라이즈, 임베디드, PC 등 모든 포트폴리오에 AI 엔진을 탑재할 계획이라고 했지만 이미 모든 제품이 AI 엔진을 탑재하고 AI 소프트웨어로 구동되고 있다“라며, ”AMD는 데이터센터에서 엣지, 엔드포인트까지 AI 인프라의 모든 영역에 걸쳐 엔드투엔드 솔루션을 제공하는 ‘퍼베이시브 AI’ 전략을 펴고 있다“고 강조했다.

이 대표는 AMD의 AI 전략의 차별성으로 △광범위한 훈련 및 추론 컴퓨팅 엔진 포트폴리오 △개방적이고 검증된 소프트웨어 역량 △AI 생태계 강화 투자 확대 등을 들었다.

AMD는 데이터센터에서 엣지, 엔드포인트까지 인프라의 모든 영역에 걸쳐 엔드투엔드 솔루션을 제공하는 ‘퍼베이시브 AI’ 전략을 펴고 있다.
AMD는 데이터센터에서 엣지, 엔드포인트까지 인프라의 모든 영역에 걸쳐 엔드투엔드 솔루션을 제공하는 ‘퍼베이시브 AI’ 전략을 펴고 있다.

◆데이터센터 AI 워크로드 지원 가속기 ‘AMD 인스팅트 MI300 시리즈’ = 김홍필 커머셜세일즈 이사는 데이터센터의 AI 워크로드를 지원하는 가속기(GPU)로 최근 발표한 ‘AMD 인스팅트 MI300 시리즈’를 소개했다.

김 이사의 설명에 따르면 ‘AMD 인스팅트 MI300 시리즈’는 ‘CDNA 3’라는 차세대 AI 가속기 아키텍처를 채택해 그동안 CPU에 쓰인 전통적인 RDNA 아키텍처와 차별화했다. CDNA 3는 AI 및 HPC 전용 가속기 엔진으로 4세대 AMD 인피니티 아키텍처 기반 3.5D 패키징, 최적의 성능과 전력 효율성 등이 특징이다.

‘AMD 인스팅트 MI300 시리즈’는 △AI 가속기인 ‘AMD 인스팅트 MI300X’ △CPU+AI 가속기인 ‘AMD 인스팅트 MI300A’ 등으로 구성돼 있다.

‘AMD 인스팅트 MI300X’는 CDNA 3 아키텍처를 채택하고 최대 192GB의 HBM3 장착, 최대 5.3TB/s의 메모리 대역폭 등이 특징이다.

AMD는 ‘AMD 인스팅트 MI300X’ 8개로 구성된 플랫폼 제품을 조만간 출시할 예정이다. ‘AMD 인스팅트 MI300X’ 플랫폼 제품의 성능은 최대 10.4페타플롭스, 1.5TB HBM3, 최대 896GB의 GPU간 통신속도, 업계 표준 디자인 채택 등이다.

‘AMD 인스팅트 MI300X’ 가속기의 OEM 및 솔루션 파트너는 델, HPE, 레노버, 슈퍼마이크로, 에이수스, 기가바이트, 인그라시스, 인벤텍, QCT, 위스트론, 위윈 등이다.

‘AMD 인스팅트 MI300A’는 서버용 CPU와 AI 가속기를 함께 갖춘 AI/HPC용 APU 가속기다. 주요 특징은 젠4 아키텍처의 CPU와 CDNA 3 아키텍처의 GPU가 128G의 HBM 3를 공유하는 구조로 설계, 228개의 CDNA 3 컴퓨트 유닛, 24개의 젠4 x86코어 CPU, 4개의 I/O 다이 및 8단 적층 HBM 3, 256MB 인피니티 캐시, 3.5D 패키징 등이다. ‘AMD 인스팅트 MI300A’ APU의 OEM 및 솔루션 파트너는 HPE, EVIDEN, 기가바이트, 슈퍼마이크로 등이다.

김홍필 이사는 두 개 제품의 타깃 시장에 대해 ”AMD 인스팅트 MI300X는 AI 시장을, AMD 인스팅트 MI300A는 AI+전통적 HPC 시장을 겨냥하고 있다“고 설명했다. 그러면서 AMD 인스팅트 제품군은 전세계 상위 25개 수퍼컴퓨터 중 5개, 상위 10개 그린 수퍼컴퓨터 중 6개에 탑재한 점을 들어 AMD 인스팅트 시리즈는 성능과 에너지 효율성에서 강점을 갖고 있다고 강조했다.

김 이사는 AMD 인스팅트 시리즈를 지원하는 인스팅트 소프트웨어 생태계 모멘텀에 대해서도 소개했다.

AMD는 클라우드와 엔드포인트 AI 전반에 걸친 소프트웨어 지원을 내걸고 있다. 주요 제품은 △데이터센터 GPU용 ROCm 6 △전통적 데이터센터 CPU용 Zen DNN △클라이언트, 엣지/엔드포인트용 바이티스 AI 등이다.

이 가운데 ROCm 6는 AI 시대를 대비하는 소프트웨어로 생성형 AI를 지원하는 기능을 제공하며, 고급 대규모 언어 모델(LMM) 최적화, 고성능 AI 라이브러리, 생태계 지원 등에 초점을 맞추고 있다. AMD 인스팅트 MI300X+ROCm 6는 기존의 AMD 인스팅트 MI250X+ROCm 5에 비해 최대 8배 높은 성능 테스크 결과가 나왔다는 게 김홍필 이사의 설명이다.

AMD는 데이터센터용 AI 솔루션으로 AMD 인스팅트 외에 서버용 CPU로 에픽을 공급하고 있다. AMD 인스팅트 시리즈가 전용 AI 배포 및 교육, 중형 및 대형 모델, 대규모 실시간 추론에 적합하다면 AMD 에픽은 혼합 워크로드 배포, 소형 및 중형 모델, 소규모 실시간 추론에 적합하다.

김홍필 이사는 ”AMD 에픽과 인스팅트는 다양한 특성 및 시나리오의 AI 워크로드에서 뛰어난 성능을 발휘해 고객이 최적의 경로를 찾을 수 있도록 지원한다“고 밝혔다.

◆’AMD 라이젠 AI’, 개인사용자의 AI 프로세싱 지원 = 임태빈 컨슈머팀 이사는 AMD의 AI PC 프로세서로 ’AMD 라이젠 AI’를 소개했다.

’AMD 라이젠 AI’는 젠 아키텍처의 CPU, RDNA 아키텍처의 GPU, XDNA 아키텍처의 NPU로 이뤄져 있다. CPU는 AI 워크로드를 가속화하는 AVX-512 VNNI 명령어를 지원하며, GPU는 병렬 연산 AI 워크로드에 최적화된 AMD 라데온 그래픽 엔진을 탑재했다. 그리고 NPU는 전용 AI 엔진을 탑재해 모바일 AI 프로세싱에 매우 효율적이다.

임태빈 이사는 AMD 라이젠 AI의 강점으로 성능, 보안, 효율성 등을 들고 2023년 발표된 AMD 라이젠 7000 시리즈를 채택한 노트북 제품(에이수스, 에이서, 델, 레노버, HP)이 수백만대 판매됐다고 밝혔다.

AMD는 지난해 AMD 라이젠 7000 시리즈에 이어 올해 1분기에 AMD 라이젠 8000 시리즈를 출시했다. AMD 라이젠 8000 시리즈는 젠4 아키텍처의 CPU, XDNA 아키텍처의 NPU, RDNA 3 아키텍처의 GPU로 이뤄져 있다. AMD 라이젠 8000 시리즈는 7000 시리즈에 비해 AI 성능이 1,4배 높아졌다.

AMD는 XDNA 2 아키텍처를 채택한 차세대 AMD 라이젠 AI를 올해 안에 출시할 계획이다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.