리소스사례 연구

업스테이지 컨소시엄과 래블업이 한국형 파운데이션 모델을 개발하기 위해 Backend.AI를 활용하는 방법

회복탄력적인 대규모 학습 환경 구축을 위한 래블업과 업스테이지의 엔드투엔드 접근 방식

업스테이지는 인프라 단의 모든 것을 Backend.AI에게 맡겼습니다. 덕분에 인프라 관리에 시간을 할애하는 대신 거대언어모델(LLM) 개발에 매진할 수 있었습니다.

Backend.AI로 언제 어디서나, 어떤 규모의 학습도 효율적으로 할 수 있도록 만들어 보세요.


업스테이지 컨소시엄은 500여장 이상의 대규모 GPU 클러스터를 안정적으로 운영하기 위해 Backend.AI를 핵심 인프라로 활용했습니다. Backend.AI는 분산된 수백여 대의 GPU 리소스를 체계적으로 오케스트레이션하면서, 훈련 환경 전반에 대한 투명한 가시성과 관리 권한을 유지할 수 있도록 지원합니다. 이를 통해 업스테이지 컨소시엄은 언어모델 개발 작업을 끊임없이 이어갈 수 있었고, 인프라 유지·보수에 들어가는 노력을 크게 줄일 수 있었습니다.

관련 서비스

Backend.AI

Backend.AI는 자체 개발한 오케스트레이션 및 작업 스케줄러를 기반으로 하는 벤더 중립적 가속 워크로드 호스팅 플랫폼으로, 클라우드 또는 온프레미스(에어갭) 클러스터 위에서 실행됩니다.

서비스 살펴보기
Backend.AI FastTrack 3

LLM 파인튜닝과 서빙을 위한 MLOps 파이프라인 플랫폼입니다. 데이터를 준비하고, 모델을 학습시키고, 성능을 검증한 다음, 바로 REST API로 배포하는 과정을 하나의 파이프라인으로 유기적으로 관리할 수 있습니다.

서비스 살펴보기

도움이 필요하신가요?

내용을 작성해 주시면 곧 연락 드리겠습니다.

문의하기

본사 및 HPC 연구소

KR Office: 서울특별시 강남구 선릉로 577 CR타워 8층 US Office: 3003 N First st, Suite 221, San Jose, CA 95134

© Lablup Inc. All rights reserved.

개인정보를 소중히 여깁니다

사용자 경험 향상, 사이트 트래픽 분석 및 방문자 동향 파악을 위해 쿠키를 사용합니다. "모두 수락"을 클릭하면 쿠키 사용에 동의하는 것입니다. 자세히 보기