- Machine Learning›
- AWS Trainium›
- Conceitos básicos
Chips de IA desenvolvidos especificamente para a melhor relação custo-benefícios de desempenho
Treine e ofereça modelos de IA com Trainium e Inferentia — mais rápidos, mais baratos e totalmente integrados à AWS.
Por que usar o Trainium e o Inferentia
Custos mais baixos, maior throughput e forte integração com os serviços da AWS. Competível com PyTorch, Hugging Face e vLLM.
Pronto para criar e ajustar a escala com os chips de IA da AWS criados com propósito específico?
Siga esse caminho de aprendizado para ir da exploração → configuração → treinamento → implantação → otimização. Cada etapa inclui sessões práticas para que você possa aprender fazendo.
Explorar
Ajuste a escala de uma única instância para clusters com o SageMaker HyperPod ou EKS.
Introdução ao ecossistema, arquitetura de hardware e exemplos reais (Anthropic, Project Rainer). Inclui uma demonstração ao vivo do Trainium.
Configuração
Comece com o EC2, SageMaker ou contêineres. Os DLAMIs pré-construídos e o Neuron SDK tornam a configuração simples e rápida.
Aprenda a pilha do Neuron SDK, inicie os DLAMIs, configure o EC2 e comece a trabalhar no Jupyter.
Aprender
Treine, implante e otimize seus modelos.
Praticar
Aplique suas habilidades com demonstrações práticas e amostras de projeto:
Ajustar o Llama 3 no Trainium.
Você encontrou o que estava procurando hoje?
Informe-nos para que possamos melhorar a qualidade do conteúdo em nossas páginas