[디지털경제뉴스 박시현 기자] 인텔이 메타의 최신 LLM인 ‘라마 3.1’의 최적화를 지원한다. 인텔은 라마 3.1용 데이터센터, 엣지 및 클라이언트 등 인텔 AI 제품 전반의 성능을 업데이트했다고 밝혔다.
메타는 지난 4월 라마 3 출시에 이어, 지난 23일 라마 3.1을 출시했다. 라마 3.1은 공개적으로 사용 가능한 가장 큰 파운데이션 모델인 라마 3.1 405B를 포함해 다양한 규모와 기능에서 여러 새로운 업데이트 모델을 제공한다.
이 새로운 모델들은 파이토치 및 인텔 파이토치 익스텐션, 딥스피드, 허깅 페이스 옵티멈 라이브러리, vLLM 등 개방형 생태계 소프트웨어를 통해 인텔 AI 제품에서 활성화 및 최적화된다. 또한 LF AI 및 데이터 재단의 새로운 오픈 플랫폼 프로젝트인 OPEA(Open Platform for Enterprise AI) 역시 이 모델들을 지원한다.
라마 3.1 다국어 LLM 컬렉션은 8B, 70B, 405B 크기의 사전 학습 및 조정된 생성 모델 컬렉션으로, 모든 모델은 8개 구술어에 걸쳐 긴 컨텍스트 길이를 지원한다. 라마 3.1 405B는 일반 지식, 조작성, 수학, 도구 사용 및 다국어 번역에 있어 최첨단 기능을 갖추고 있다. 이를 통해 커뮤니티는 합성 데이터 생성 및 모델 증류와 같은 새로운 기능을 활용할 수 있게 된다.
인텔은 AI 제품 포트폴리오에서 라마 3.1 모델의 초기 성능 측정 결과를 발표했다. 인텔의 AI 제품 포트폴리오는 △인텔 가우디 △인텔 제온 △인텔 코어 울트라 프로세서 및 인텔 아크 그래픽이 탑재된 AI PC 등이다.
인텔의 AI 플랫폼과 솔루션은 엔터프라이즈용 AI RAG 배포를 가속화한다. OPEA의 창립 회원 중 하나인 인텔은 엔터프라이즈용 AI를 위한 개방형 생태계 구축에 앞장서고 있다.
현재 인텔 AI PC 및 데이터센터 AI 제품 포트폴리오와 솔루션은 라마 3.1을 실행할 수 있으며, OPEA는 인텔 가우디 2 및 제온 제품군에서 라마 3.1을 통해 완전히 활성화되고 있다. 인텔은 새로운 모델과 사용 사례를 지원하기 위해 지속적으로 소프트웨어 최적화를 진행하고 있다.