메인 콘텐츠로 건너뛰기

AWS AI 칩

뛰어난 가격 대비 성능을 제공하기 위해 특수 제작된 AI 칩

더 빠르고 저렴하며 AWS와 완벽하게 통합된 Trainium과 Inferentia로 AI 모델을 교육하고 제공합니다.

Trainium과 Inferentia를 사용해야 하는 이유

비용이 낮고, 처리량이 높고, AWS 서비스와 더 긴밀하게 통합됩니다. PyTorch, Hugging Face, vLLM에서 지원됩니다.

AWS의 특수 목적 AI 칩을 이용해 구축하고 규모를 조정할 준비가 되셨나요?

이 학습 경로를 따라 탐색 → 설정 → 훈련 → 배포 → 최적화로 진행하세요. 각 단계에는 실습 세션이 포함되어 있어, 실습을 통해 학습할 수 있습니다.

살펴보기

SageMaker HyperPod 또는 EKS를 사용하여 단일 인스턴스에서 다중 클러스터로 규모 조정합니다.

에코시스템, 하드웨어 아키텍처 및 실제 사례(Anthropic, Project Rainer)를 소개합니다. Trainium의 라이브 데모가 포함되어 있습니다.

설정

EC2, SageMaker 또는 컨테이너로 시작합니다. 사전 구축된 DLAMI와 Neuron SDK를 사용하면 빠르고 간단하게 설정할 수 있습니다. 

Neuron SDK 스택에 대해 알아보고, DLAMI를 시작하고, EC2를 구성하고, Jupyter에서 작업을 시작하세요.

알아보기

모델을 학습, 배포 및 최적화하세요.

연습

실습 데모와 샘플 프로젝트를 통해 기술을 적용해 보세요.

Trainium에서 Llama 3 미세 조정 블로그를 읽어보세요.

vLLM + NxDI를 이용한 실시간 추론 배포 설명서를 읽어보세요.

Neuron Profiler를 사용해 성능을 최적화하세요. 

오늘 원하는 내용을 찾으셨나요?

페이지의 콘텐츠 품질을 개선할 수 있도록 피드백을 보내주십시오.