- 기계 학습›
- AWS Trainium›
- 시작하기
뛰어난 가격 대비 성능을 제공하기 위해 특수 제작된 AI 칩
더 빠르고 저렴하며 AWS와 완벽하게 통합된 Trainium과 Inferentia로 AI 모델을 교육하고 제공합니다.
Trainium과 Inferentia를 사용해야 하는 이유
비용이 낮고, 처리량이 높고, AWS 서비스와 더 긴밀하게 통합됩니다. PyTorch, Hugging Face, vLLM에서 지원됩니다.
AWS의 특수 목적 AI 칩을 이용해 구축하고 규모를 조정할 준비가 되셨나요?
이 학습 경로를 따라 탐색 → 설정 → 훈련 → 배포 → 최적화로 진행하세요. 각 단계에는 실습 세션이 포함되어 있어, 실습을 통해 학습할 수 있습니다.
살펴보기
SageMaker HyperPod 또는 EKS를 사용하여 단일 인스턴스에서 다중 클러스터로 규모 조정합니다.
에코시스템, 하드웨어 아키텍처 및 실제 사례(Anthropic, Project Rainer)를 소개합니다. Trainium의 라이브 데모가 포함되어 있습니다.
설정
EC2, SageMaker 또는 컨테이너로 시작합니다. 사전 구축된 DLAMI와 Neuron SDK를 사용하면 빠르고 간단하게 설정할 수 있습니다.
Neuron SDK 스택에 대해 알아보고, DLAMI를 시작하고, EC2를 구성하고, Jupyter에서 작업을 시작하세요.
알아보기
모델을 학습, 배포 및 최적화하세요.
연습
실습 데모와 샘플 프로젝트를 통해 기술을 적용해 보세요.
Trainium에서 Llama 3 미세 조정 블로그를 읽어보세요.
vLLM + NxDI를 이용한 실시간 추론 배포 설명서를 읽어보세요.
Trainium 시작하기
오늘 원하는 내용을 찾으셨나요?
페이지의 콘텐츠 품질을 개선할 수 있도록 피드백을 보내주십시오.