리소스백서

Backend.AI + Intel Gaudi 3: 벤치마크와 심층 통합

Backend.AI와 Intel Gaudi 3 AI 가속기 성능에 관한 종합 백서

Backend.AI와 Intel Gaudi 3가 소형 및 대형 언어모델 추론 워크로드에서 뛰어난 성능을 제공하는 상세한 벤치마크를 담은 종합 백서입니다. Backend.AI와 Intel Gaudi 3가 결합되었을 때 보여주는 성능과 최적화를 위한 다양한 방법들을 확인해보세요.

Backend.AI와 Intel Gaudi 3 AI 가속기의 놀라운 성능 벤치마크.


이 백서는 Backend.AI와 Intel Gaudi 3 AI 가속기의 상세한 벤치마크를 제시하며, 소형 모델(Llama-3.1-8B-Instruct)과 대형 모델(Llama-3.1-70B-Instruct)의 성능을 다룹니다. 배포 권장 사항, 최적화 전략을 포함하며, Sokovan 오케스트레이터가 Intel Gaudi 3에서 AI 워크로드를 어떻게 구동하는지 보여줍니다.

관련 서비스

Backend.AI

Backend.AI는 자체 개발한 오케스트레이션 및 작업 스케줄러를 기반으로 하는 벤더 중립적 가속 워크로드 호스팅 플랫폼으로, 클라우드 또는 온프레미스(에어갭) 클러스터 위에서 실행됩니다.

서비스 살펴보기
Intel

성능, 확장성 및 효율성으로 genAI에 대한 선택권을 제공합니다. 나만의 방식으로 AI 워크로드를 처리하도록 구축된 새로운 고성능 옵션을 만나보십시오.

자세히 보기

도움이 필요하신가요?

내용을 작성해 주시면 곧 연락 드리겠습니다.

문의하기

본사 및 HPC 연구소

KR Office: 서울특별시 강남구 선릉로 577 CR타워 8층 US Office: 3003 N First st, Suite 221, San Jose, CA 95134

© Lablup Inc. All rights reserved.

개인정보를 소중히 여깁니다

사용자 경험 향상, 사이트 트래픽 분석 및 방문자 동향 파악을 위해 쿠키를 사용합니다. "모두 수락"을 클릭하면 쿠키 사용에 동의하는 것입니다. 자세히 보기