스노우플레이크 “쉽고 효율적이며 신뢰하는 솔루션으로 기업의 AI 여정 돕는다“
스노우플레이크 “쉽고 효율적이며 신뢰하는 솔루션으로 기업의 AI 여정 돕는다“
  • 박시현 기자
  • 승인 2024.09.09 17:30
  • 댓글 0
이 기사를 공유합니다

10일 ‘스노우플레이크 월드 투어 서울’에 앞서 9일 기자간담회 가져
최기영 스노우플레이크 한국 지사장이 9일 기자간담회에서 발표하고 있다.
최기영 스노우플레이크 한국 지사장이 9일 기자간담회에서 발표하고 있다.

[디지털경제뉴스 박시현 기자] 스노우플레이크는 10일 개최하는 ‘스노우플레이크 월드 투어 서울’ 행사에 앞서 9일 기자간담회를 열어 엔터프라이즈 AI 시대의 스노우플레이크의 전략을 발표했다.

◆엔터프라이즈 AI 시대, 스노우플레이크 AI 데이터 클라우드 플랫폼으로 대응 = 이날 간담회에는 최기영 스노우플레이크 한국 지사장, 크리스티안 클레이너만 제품 담당 수석부사장, 제프 홀란 애플리케이션 및 개발자 플랫폼 부문장이 참석해 스노우플레이크 AI 데이터 클라우드 플랫폼을 중심으로 하는 전략을 들려줬다.

최기영 지사장은 “올해 3년째 맞은 이번 행사의 사전등록자가 3천여명으로 실제로 2천여명 정도의 참석이 예상된다”라면서 “스노우플레이크는 국내에 진출한지 3년이 채 안되어 10대 그룹의 80%를 포함해 모두 세자릿수의 고객을 확보하며 가파른 성장을 보이고 있다”고 밝혔다.

최 지사장은 그러면서 스노우플레이크가 국내 시장에서 이같은 성과를 보이는 이유로 “스노우플레이크는 매니지드 서비스 형태로 재공돼 쉽게 사용할 수 있다는 것이 가장 큰 강점이다. 또 데이터, 컴퓨트, AI, 보안, 협업 등 5단계의 제품으로 다양한 활용사례를 지원하고 어떠한 워크로드라도 유연하게 지원하는 간단한 아키텍처도 장점이다”라고 설명했다. 이번 ‘스노우플레이크 월드 투어 서울’ 행사에서는 교보문고, 넥슨, 삼성 등 14개의 고객 사례가 발표될 예정이다.

최 지사장은 엔터프라이즈 AI의 과제로 △실질적인 비즈니스 가치를 제공하는가 △효율적인 비용으로 사용 가능한가 △안전하고 신뢰할 수 있는가 등 세가지를 들고 “스노우플레이크 AI 데이터 클라우드는 통합된 데이터 관리, 확장성, 고성능, 보안, 협업 등 기업들이 직면한 데이터 관련 문제를 쉽고, 효율적이며, 신뢰할 수 있는 솔루션으로 해결하며 기업의 AI 여정을 돕고 있다”고 강조했다.

이어 크리스티안 클레이너만 스노우플레이크 제품 담당 수석부사장은 “스노우플레이크는 데이터, 컴퓨트, 시큐리티 및 거버넌스 등 강력한 파운데이션을 토대로 △파이프라인 △애널리틱스 △머신러닝 △생성형 AI △데이터 프로덕트 등 크게 5가지 면에서 경쟁력있는 역량을 갖추고 있다”고 밝혔다.

◆‘코텍스 AI’에서 메타의 라마 3 이용 가능 = 한편 스노우플레이크는 보도자료를 통해 AI 기반 애플리케이션을 쉽고 효율적으로 생성할 수 있는 도구인 ‘코텍스 AI’에서 메타의 라마 3를 이용할 수 있게 됐다고 발표했다.

이에 따라 스노우플레이크 고객은 AI 데이터 클라우드에서 메타의 최신 모델에 원활하게 액세스하고 파인튜닝해 배포하고, 강력한 AI 애플리케이션을 대규모로 쉽게 활용 및 구축할 수 있게 됐다.

스노우플레이크 AI 리서치팀은 추론 및 파인튜닝에 대해 라마 3.1 405B를 최적화함으로써 거대한 128K 컨텍스트 윈도우를 지원했다. 또 기존 오픈소스 솔루션에 비해 엔드투엔드 지연시간은 최대 3분의 1로 낮아지고 처리량은 1.4배 높아진 실시간 추론을 구현했다. 그리고 코텍스 AI에서 하나의 GPU 노드만을 사용해 거대 모델을 미세 조정할 수 있어 개발자와 사용자 모두에게 비용과 복잡성을 완화해준다.

스노우플레이크 AI 리서치팀은 AI 커뮤니티에 정기적으로 기여하고 최첨단 LLM 기술 구축 방식에 대한 투명성을 높여 오픈소스 혁신의 한계를 넓혀가고 있다. 또한, 라마 3.1 405B의 출시와 더불어 딥스피드, 허깅페이스, vLLM 및 보다 폭넓은 AI 커뮤니티와의 협업을 통해 초거대 LLM 추론 및 파인튜닝 시스템 최적화 스택을 오픈 소스화하고 있다.

초거대 모델의 규모 및 메모리에 대한 요구사항은 실시간 활용사례에 요구되는 저지연성 추론과 비용 효율을 위한 높은 처리량, 그리고 다양한 엔터프라이즈급 생성형 AI 활용사례에 필요한 긴 컨텍스트 지원을 실현하고자 하는 사용자에게 있어 도전 과제다. 모델 및 활성 상태 저장에 대한 메모리 요구사항도 파인튜닝을 어렵게 하며, 훈련을 위한 모델의 상태에 맞춰야 하는 대규모 GPU 클러스터에 데이터 과학자가 액세스할 수 없는 경우도 빈번하다.

스노우플레이크의 초거대 LLM 추론 및 파인튜닝 시스템 최적화 스택은 이러한 문제를 극복했다. 스노우플레이크는 고급 병렬화 기술과 메모리 최적화를 통해 복잡하고 고비용의 인프라가 없어도 효율적인 AI 처리가 가능하다. 라마 3.1 405B의 경우 스노우플레이크의 시스템 스택은 단일 GPU 노드 하나로도 실시간의 고처리량 성능을 발휘하고 다중 노드 설정 전반에 걸쳐 128k 개의 거대한 컨텍스트 윈도우를 지원한다. 이러한 유연성은 차세대 하드웨어와 레거시 하드웨어 모두에 유효해, 보다 광범위한 기업들이 이용할 수 있다.

또한 데이터 과학자들이 전보다 적은 개수의 GPU 상에서 복합 정밀 기술을 사용해 라마 3.1 405B를 파인튜닝할 수 있으므로 대규모 GPU 클러스터에 대한 필요성이 사라진다. 이에 따라 기업들은 강력한 엔터프라이즈급 생성형 AI 애플리케이션을 보다 편리하고 효율적이며 안전하게 채택하고 배포할 수 있다.

스노우플레이크의 AI 리서치팀은 기업들이 이러한 활용사례를 코텍스 AI에서 쉽게 적용할 수 있도록 모델 증류, 안전 가드레일, 검색 증강 생성, 합성 데이터 생성 등 파인튜닝에 최적화된 인프라도 개발했다.

AI 안전성은 스노우플레이크와 고객에게 가장 중요한 요소 중 하나이다. 스노우플레이크는 코텍스 AI에 구축된 모든 LLM 애플리케이션 및 자산을 유해한 콘텐츠로부터 더욱 강도 높게 보호하기 위해 업계 선도 기업과 협업하고 있다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.