IBM, 차세대 메인프레임 ‘IBM Z’ 시스템용 AI 가속 프로세서 공개
IBM, 차세대 메인프레임 ‘IBM Z’ 시스템용 AI 가속 프로세서 공개
  • 박시현 기자
  • 승인 2024.08.27 20:27
  • 댓글 0
이 기사를 공유합니다

'핫 칩스 2024 컨퍼런스'에서 IBM 텔럼 II 프로세서와 IBM 스파이어 엑셀러레이터 기술 발표

[디지털경제뉴스 박시현 기자] IBM은 ‘핫 칩스 2024’에서 곧 출시될 IBM 텔럼 II 프로세서와 IBM 스파이어 엑셀러레이터의 아키텍처 세부 사항을 공개했다. 이 새로운 기술은 차세대 메인프레임 IBM Z 시스템의 처리 용량을 크게 확장하도록 설계되어 기존 AI 모델과 거대 언어 AI 모델을 함께 사용할 때 새로운 AI 앙상블 방식을 통해 속도를 높일 수 있도록 지원한다.

거대 언어 모델(LLM)을 활용하는 많은 생성형 AI 프로젝트가 개념 증명에서 생산 단계로 넘어가면서 전력 효율적이고 안전하며 확장 가능한 솔루션에 대한 요구가 우선 순위로 떠올랐다.

지난 8월에 발표된 모건 스탠리의 연구에 따르면 향후 몇 년 동안 생성형 AI의 전력 수요가 매년 75%씩 급증해 2026년에는 스페인 전체가 2022년에 소비한 에너지 사용량만큼을 소비하게 될 것으로 예상했다. 많은 IBM 고객들은 적정한 규모의 파운데이션 모델을 지원하기 위한 아키텍처 결정과 AI 워크로드를 위해 설계된 하이브리드 클라우드 접근 방식이 점점 더 중요해지고 있다고 말한다.

이번에 공개된 주요 내용은 다음과 같다.

▪IBM 텔럼 II 프로세서: 차세대 IBM Z 시스템을 구동하도록 설계된 이 새로운 IBM 칩은 1세대 텔럼 칩에 비해 증가한 클럭 및 메모리 용량, 40% 증가한 캐시 및 통합 AI 가속기 코어, 데이터 처리에 일관성을 제공하는 부속 데이터 처리 장치(DPU)가 특징이다. 이 새로운 프로세서는 복잡한 트랜잭션 요구 사항을 충족함으로써 LLM을 위한 엔터프라이즈 컴퓨팅 솔루션을 지원할 것으로 기대된다.

▪IO 가속 장치: 텔럼 II 프로세서 칩의 새로운 데이터 처리 장치(DPU)는 메인프레임의 네트워킹 및 스토리지를 위한 복잡한 IO 프로토콜을 가속화하도록 설계됐다. DPU는 시스템 운영을 간소화하고 주요 구성 요소의 성능을 향상시킬 수 있다.

▪IBM 스파이어 엑셀러레이터: 텔럼 II 프로세서를 보완하기 위해 추가적인 AI 연산 능력을 제공한다. 텔럼 II와 스파이어 칩은 함께 작동해 여러 개의 머신러닝 또는 딥러닝 AI 모델을 인코더 LLM과 결합하는 앙상블 방식의 AI 모델링을 지원하기 위한 확장 가능한 아키텍처를 형성한다. 각 모델 아키텍처의 강점을 활용함으로써 앙상블 AI는 개별 모델에 비해 더 정확하고 강력한 결과를 제공할 수 있다. IBM 스파이어 엑셀러레이터 칩은 별도 옵션으로 제공될 예정이다. 각 엑셀러레이터 칩은 75와트 PCIe 어댑터를 통해 부착된다. 스파이어 엑셀러레이터는 다른 PCIe 카드처럼 고객의 요구에 따라 확장이 가능하다.

텔럼 II 프로세서와 IBM 스파이어 엑셀러레이터는 모두 IBM의 오랜 제조 파트너인 삼성 파운드리에서 높은 성능과 전력 효율성을 제공하는 5나노 공정 노드를 기반으로 제작된다. 두 제품은 함께 작동해 비즈니스 가치를 실현하고 새로운 경쟁 우위를 창출하도록 설계된 다양한 AI 기반 활용 사례를 지원할 것이다. 앙상블 방식의 AI를 통해 고객은 더 빠르고 정확한 예측 결과를 얻을 수 있다. 그 예는 다음과 같다.

▪보험금 청구 사기 탐지: 향상된 성능과 정확성을 위해 LLM과 기존 신경망을 결합한 AI 앙상블을 통해 주택 보험 청구의 사기 탐지 능력을 강화한다.

▪첨단 자금 세탁 방지: 의심스러운 금융 활동을 탐지해 규제 요건 준수를 지원하고 금융 범죄 리스크를 완화한다.

▪AI 어시스턴트: 애플리케이션 수명 주기 가속화, 전문 지식 전달, 코드 설명 및 변환 등을 지원한다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.