인텔, AI 가속기 ‘인텔 너바나’ 공개
인텔, AI 가속기 ‘인텔 너바나’ 공개
  • 박시현 기자
  • 승인 2019.08.21 11:24
  • 댓글 0
이 기사를 공유합니다

트레이닝용 프로세서 ‘NNP-T’와 추론용 프로세서 ‘NNP-I’ 등으로 구성

[디지털경제뉴스 박시현 기자] 인텔은 곧 출시를 앞둔 고성능 인공지능(AI) 가속기 ‘인텔 너바나(Intel Nervana) 신경망 프로세서에 대한 세부 정보를 공개했다.

‘핫칩스 2019(Hot Chips 2019)’에서 공개된 이 제품군은 트레이닝용 프로세서인 NNP-T와 추론용 프로세서인 NNP-I 등으로 구성돼 있다.

◆인텔 너바나 NNP-T, 딥러닝 트레이닝의 경계 확장 = 인텔 너바나 NNP-T(Neural Network Processor, 코드명 스프링 크레스트(Spring Crest))는 딥러닝 트레이닝의 경계를 확장한다. 네트워크를 가능한 빨리 트레이닝시키고, 또 주어진 전력 범위 내에서 트레이닝을 수행하는 점이 특징이다.

이 딥러닝 트레이닝 프로세서는 유연성을 염두에 두고 구축되어 컴퓨팅, 통신 및 메모리 간의 균형을 유지한다. 인텔 제온 스케일러블 프로세서(Intel Xeon Scalable processors)는 특수한 인공지능 지침을 제공하고 인공지능을 위한 훌륭한 토대를 제공하지만, NNP-T는 처음부터 레거시 기술을 지원하는 데 필요한 기능을 고정경비 없이 지원하도록 설계됐다.

인텔 너바나 NNP-T는 유연성과 프로그래머블 기능으로 구축되어 기존 워크로드와 추후에 나타날 새로운 워크로드 모두에서 다양한 워크로드를 가속화하도록 설계됐다.

인텔 너바나 NNP-I, 데이터센터 워크로드의 고성능 딥러닝 추론 = 인텔 너바나 NNP-I(코드명 스프링 힐(Spring Hill)는 추론을 위해 특수 제작되어 대규모로 딥러닝 구축을 가속화한다.

모든 주요 데이터센터 워크로드에 걸쳐 와트 당 높은 수준의 성능을 제공하기 위해 아이스 레이크(Ice Lake) 코어를 이용한 인텔의 10나노 공정 기술을 활용한다.

인텔 너바나 NNP-I는 또 성능이나 전력 효율성 저하 없이 높은 수준의 프로그래머블 기능을 제공한다. 인공지능이 모든 워크로드에서 보편화됨에 따라 쉬운 프로그래밍, 짧은 지연 시간, 빠른 코드 포팅 및 모든 주요 딥러닝 프레임워크 지원 등 기업에서는 전용 추론 가속기를 사용해 데이터의 모든 잠재력을 실행 가능한 통찰력으로 활용할 수 있다.

인텔은 ‘핫칩스 2019’에서 또 3차원 패키지의 하이브리드 코어 레이크필드(Lakefield)와 저전력 통신을 위한 패키지 내 광학 I/O 칩렛 ‘테라피(TeraPHY)’도 선보였다.

레이크필드는 새로운 차원의 모바일 디바이스를 위한 3D 스태킹 및 IA 하이브리드 컴퓨팅 아키텍처를 갖춘 제품이다.

레이크필드는 인텔의 최신 10나노 공정 및 포베로스(Foveros) 첨단 패키징 기술을 활용해 이전 세대의 기술에 비해 대기 전력, 코어 영역 및 패키지 높이를 대폭 감소시킨다.

뛰어난 컴퓨팅 성능과 초저열 설계로 얇은 폼 팩터 디바이스, 투인원 및 듀얼 디스플레이 디바이스의 제작이 가능하며, 아주 낮은 대기 전력에서 상시 켜진 상태로 작동할 수 있다.

이번 행사에서 인텔과 아야 랩(Ayar Lab)은 고성능 시스템-온-칩(SOC)과 일체형 패키지 내 광학(MIPO)의 통합을 시연했다.

아야 랩 테라피(Ayar Labs TeraPHY) 광학 I/O 칩렛은 인텔 임베디드 멀티-다이 인터커넥트 브릿지 기술(Intel Embedded Multi-die Interconnect Bridge technology, EMIB)을 사용해 인텔 스트라틱스 10 FPGA(Intel Stratix 10 FPGA)가 통합 패키징됐으며, 높은 대역폭과 저전력 데이터 통신으로 최대 2km 거리까지 낮은 지연 속도를 지원한다.

한편 인텔은 하이브리드 칩 패키징 기술, 인텔 옵테인 DC(Intel Optane DC) 퍼시스턴트 메모리 및 광학 입출력용 칩렛 기술에 대해 발표했다.

인텔 옵테인 DC 퍼시스턴트 메모리는 다양한 메모리 및 스토리지 티어 중에서도 새로운 개념의 퍼시스턴트 메모리 티어의 첫 제품이다.

인텔 3D 크로스포인트(Intel 3D XPoint) 기술 및 메모리 모듈 폼 팩터 기반으로 메모리와 가까운 속도, 나노 초 단위의 짧은 지연시간, 그리고 대용량을 제공한다. 메모리 모드와 앱 다이렉트 모드 등 두 가지 모드로 작동한다.

인텔 부사장 겸 AI 제품 그룹 총괄 매니저 나빈 라오(Naveen Rao)는 “미래의 ‘모든 곳에 인공지능’을 구현하기 위해서는 생성되는 대량의 데이터를 기업에서 효율적으로 처리하고 활용할 수 있도록 지원해야 한다”라며 “데이터 센터와 클라우드는 복잡한 인공지능 애플리케이션을 위해 성능이 뛰어나고 확장 가능한 범용 컴퓨팅 및 전문화된 가속이 필요하다. 모든 곳에 인공지능이라는 미래의 비전에는 하드웨어에서 소프트웨어, 애플리케이션에 이르는 종합적인 접근 방식이 필요하다”고 밝혔다.

그는 이어 “데이터를 정보로 바꾸고 또 지식으로 전환시키기 위해서는 새롭고 점점 더 복잡한 활용 사례 및 인공지능 기술을 발전시키고 지원할 수 있는 하드웨어 아키텍처와 보완적인 패키징, 메모리, 스토리지 및 인터커넥트 기술이 필요하다. 인텔 너바나 NNP와 같은 전용 가속기는 올바른 인텔리전스를 적절한 시기에 제공하기 위해 처음부터 인공지능에 중점을 두고 구축됐다”고 전했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.