리소스제품 플라이어

세상 모든 AI를 위한 Backend.AI

GPU 관리부터 AI 서비스까지 하나로 연결하는 Backend.AI

특허 받은 GPU 가상화와 Sokovan 오케스트레이션부터 NVIDIA DGX-Ready 인증까지, AI 인프라 관리의 모든 영역을 다루는 Backend.AI에 대해 알아보세요.

시작부터 끝까지 AI를 위해 설계된 Backend.AI를 만나보세요.


Backend.AI는 에어갭 온프레미스부터 클라우드까지 모든 환경을 지원하며, 특허 받은 컨테이너 수준 GPU 분할가상화, Sokovan 오케스트레이터의 멀티테넌시와 멀티노드 지원, NVIDIA DGX-Ready 인증 및 11개 이상의 AI 가속기 호환, RDMA와 NVIDIA GPUDirect Storage를 통한 라인레이트급 데이터 처리로 GPU 관리부터 AI 서비스까지 하나로 연결합니다.

관련 서비스

Backend.AI

Backend.AI는 자체 개발한 오케스트레이션 및 작업 스케줄러를 기반으로 하는 벤더 중립적 가속 워크로드 호스팅 플랫폼으로, 클라우드 또는 온프레미스(에어갭) 클러스터 위에서 실행됩니다.

서비스 살펴보기
Backend.AI FastTrack 3

LLM 파인튜닝과 서빙을 위한 MLOps 파이프라인 플랫폼입니다. 데이터를 준비하고, 모델을 학습시키고, 성능을 검증한 다음, 바로 REST API로 배포하는 과정을 하나의 파이프라인으로 유기적으로 관리할 수 있습니다.

서비스 살펴보기
Backend.AI Reservoir

Backend.AI 클러스터를 대상으로 하는 독립 패키지 저장소 및 업데이트 서비스로, AI/ML 개발 및 운영에 필수적인 오픈소스 패키지와 운영체제 패키지를 내부망에 안전하게 제공할 수 있는 Backend.AI의 폐쇄망 환경 컴포넌트입니다.

서비스 살펴보기

도움이 필요하신가요?

내용을 작성해 주시면 곧 연락 드리겠습니다.

문의하기

본사 및 HPC 연구소

KR Office: 서울특별시 강남구 선릉로 577 CR타워 8층 US Office: 3003 N First st, Suite 221, San Jose, CA 95134

© Lablup Inc. All rights reserved.

개인정보를 소중히 여깁니다

사용자 경험 향상, 사이트 트래픽 분석 및 방문자 동향 파악을 위해 쿠키를 사용합니다. "모두 수락"을 클릭하면 쿠키 사용에 동의하는 것입니다. 자세히 보기