- Machine Learning›
- AWS Trainium›
- Introducción
Chips de IA diseñados específicamente para obtener la mejor relación entre precio y rendimiento
Entrene y sirva modelos de IA con Trainium e Inferentia de forma más rápida, económica y totalmente integrada con AWS.
Por qué elegir Trainium e Inferentia
Menores costos, mayor rendimiento e integración total con los servicios de AWS. Compatible con PyTorch, Hugging Face y vLLM.
¿Preparado para crear y escalar con los chips de IA diseñados de manera específica por AWS?
Siga esta ruta de aprendizaje para avanzar desde la exploración, a la configuración, el entrenamiento, la implementación y la optimización. Cada paso incluye sesiones en las que aprenderá de manera práctica.
Explorar
Escale desde una sola instancia a clústeres con SageMaker HyperPod o EKS.
Introducción al ecosistema, la arquitectura del hardware y ejemplos del mundo real (Anthropic, Project Rainer). Incluye una demostración en vivo de Trainium.
Configuración
Comience con EC2, SageMaker o contenedores. Los DLAMI prediseñados y el SDK de Neuron hacen que la configuración sea simple y rápida.
Descubra la pila del SDK de Neuron, inicie DLAMI, configure EC2 y comience a trabajar en Jupyter.
Aprender
Entrene, implemente y optimice sus modelos.
Practique
Aplique sus habilidades con demostraciones prácticas y proyectos de muestra:
Ajuste fino de Llama 3 en Trainium.
Implementación de la inferencia en tiempo real con vLLM + NxDI.
¿Ha encontrado lo que buscaba hoy?
Ayúdenos a mejorar la calidad del contenido de nuestras páginas compartiendo sus comentarios