[디지털경제뉴스 박시현 기자] 알리바바 클라우드가 연례 행사 ‘2024 압사라 컨퍼런스’에서 대규모 언어 모델 ‘큐원2.5’을 전 세계 오픈소스 커뮤니티에 배포하고, 풀스택 AI 인프라를 개편했다고 밝혔다.
◆큐원 2.5, 100개의 오픈소스 모델 공개 = 신규 오픈소스 큐원 2.5 모델들은 0.5억에서 720억 개의 매개변수를 갖추고 있으며, 지식이 향상되고 수학과 코딩 능력이 강화됐다. 이 모델들은 29개 이상의 언어를 지원하며, 자동차, 게임, 과학 연구 등 다양한 분야에서 엣지나 클라우드 환경 모두에서 폭넓은 AI 애플리케이션에 활용될 수 있다.
큐원 모델 시리즈는 알리바바 클라우드의 독자적인 LLM 포트폴리오로, 2023년 4월 첫 출시 이후 현재까지 허깅페이스와 알리바바의 오픈소스 커뮤니티 모델스코프와 같은 플랫폼에서 4,000만 건 이상의 다운로드를 기록했다. 이 모델들은 또한 허깅페이스에서 5만 개 이상의 모델 제작에 영감을 줬다.
이번 큐원 2.5는 100개 이상의 모델이 오픈소스로 공개된다. 여기에는 기본 모델, 인스트럭트 모델, 다양한 정밀도와 방식을 적용한 양자화 모델이 포함되며, 언어, 오디오, 비전 등 다양한 모달리티와 전문적인 코드 및 수학 모델까지 아우른다.
알리바바 클라우드는 주력 모델 큐원 맥스의 업그레이드도 발표했다. 더욱 고도화된 큐원 맥스 모델은 언어 이해와 추론, 수학, 코딩 등에서 다른 최첨단 모델들과 견줄만한 성능을 갖췄다.
알리바바 클라우드는 광범위한 LLM 스위트 외에 이미지 생성기 통이 완샹의 새로운 텍스트-비디오 모델을 공개했다. 이 모델은 현실적인 장면부터 3D 애니메이션까지 다양한 스타일의 품질 높은 영상을 생성할 수 있다. 또한, 중국어와 영어 텍스트 지시를 기반으로 영상을 생성하고, 스틸 이미지를 동영상으로 변환할 수도 있다. 또한, 향상된 영상 재구성을 위해 고급 확산 트랜스포머(DiT) 아키텍처를 탑재했다.
알리바바 클라우드는 이밖에 큐원2-VL이라는 시각 언어 모델(VLM)을 업데이트했다. 큐원2-VL은 20분 이상 길이의 영상을 이해하고, 영상 기반의 질문 응답도 할 수 있다. 정교한 추론 및 의사결정 기능을 갖춘 큐원2-VL은 핸드폰, 자동차, 로봇에 통합될 수 있도록 설계되어 특정 작업의 자동화도 지원한다.
큐원 기반의 AI 어시스턴트로 출시한 AI 디벨로퍼는 요구 사항 분석, 코드 프로그래밍, 소프트웨어 버그 식별 및 수정과 같은 작업의 자동화를 돕고, 개발자가 핵심 업무에 더 집중하고 관련 기술을 더욱 발전시키도록 지원한다.
◆풀스택 AI 인프라 혁신적 업데이트 = 알리바바 클라우드는 그린 데이터센터 아키텍처, 데이터 관리, 모델 학습 및 추론을 포함하는 풀스택 AI 인프라에 대한 혁신적인 업데이트를 발표했다.
알리바바 클라우드는 먼저 급증하는 AI 개발 수요에 대응하기 위해 차세대 데이터센터 아키텍처인 큐브 DC 5.0을 공개했다. 이 새로운 큐브 아키텍처는 공기-액체 하이브리드 냉각 시스템, 전직류 전력 분배 아키텍처, 스마트 관리 시스템 등 첨단 독자 기술을 통해 에너지 및 운영 효율성을 높인다. 또한, 사전 제작된 모듈형 디자인으로 전통적인 데이터센터에 비해 구축 시간을 최대 50% 단축시킨다.
알리바바 클라우드는 점점 커지는 생성형 AI에 대한 수요 속에서 방대한 데이터를 관리하는 데 어려움을 겪는 조직들을 위해 빅데이터 엔진을 통합해 데이터 활용도를 극대화하는 '알리바바 클라우드 오픈 레이크' 솔루션을 선보였다. 이 플랫폼은 워크플로우 통합, 성능 최적화, 강력한 거버넌스를 하나의 플랫폼에서 제공하는 한편, 컴퓨팅과 스토리지를 분리하고 자원 사용을 효율화한다.
알리바바 클라우드는 모델 학습 및 추론 작업을 통합한 PAI AI 스케줄러를 출시했다. 이 스케줄러는 컴퓨팅 자원 관리를 최적화하기 위해 설계된 독자적인 클라우드 네이티브 스케줄링 엔진이다. 다양한 컴퓨팅 자원의 지능형 통합, 유연한 자원 스케줄링, 실시간 작업 조정, 자동 장애 복구를 통해 90% 이상의 효율적인 컴퓨팅 자원 활용률을 달성할 수 있다.
알리바바 클라우드는 기업들이 데이터를 효율적으로 관리하고, 그 가치를 극대화할 수 있도록 DMS: OneMeta+OneOps 플랫폼을 내놓았다. 이 플랫폼은 데이터베이스, 데이터 웨어하우스, 데이터 레이크 등 40가지 이상의 데이터 소스를 여러 클라우드 환경에서 통합 관리할 수 있게 해준다. 이를 통해 데이터 활용률을 10배까지 높이고, 데이터를 가치 있는 인텔리전스로 전환하는 효율성을 크게 향상시킬 수 있다.
알리바바 클라우드는 이번 컨퍼런스에서 9세대 엔터프라이즈ECS 인스턴스도 소개했다. 이 최신 세대 ECS 인스턴스는 데이터베이스 제품에 적용 시 기존 모델 대비 검색 추천 속도가 30% 향상되고, QPS(Queries Per Second) 효율이 17% 개선되는 등 성능이 크게 강화됐다.
조우징런 알리바바 클라우드 인텔리전스의 CTO는 "알리바바 클라우드는 가장 대규모의 오픈소스를 출시하며 중요한 전환점을 맞이했다. 이 같은 노력은 개발자와 모든 규모의 기업이 AI 기술을 활용할 수 있는 역량을 강화하고, 오픈소스 커뮤니티의 성장을 더욱 촉진할 것이다. 알리바바 클라우드는 다양한 산업에서 생성형 AI 기술의 광범위한 도입을 지원하기 위해 첨단 AI 인프라에 지속적으로 투자할 것“이라고 말했다.