Pular para o conteúdo principal

Chips de IA da AWS

Chips de IA desenvolvidos especificamente para a melhor relação custo-benefícios de desempenho

Treine e ofereça modelos de IA com Trainium e Inferentia — mais rápidos, mais baratos e totalmente integrados à AWS.

Por que usar o Trainium e o Inferentia

Custos mais baixos, maior throughput e forte integração com os serviços da AWS. Competível com PyTorch, Hugging Face e vLLM.

Pronto para criar e ajustar a escala com os chips de IA da AWS criados com propósito específico?

Siga esse caminho de aprendizado para ir da exploração → configuração → treinamento → implantação → otimização. Cada etapa inclui sessões práticas para que você possa aprender fazendo.

Explorar

Ajuste a escala de uma única instância para clusters com o SageMaker HyperPod ou EKS.

Introdução ao ecossistema, arquitetura de hardware e exemplos reais (Anthropic, Project Rainer). Inclui uma demonstração ao vivo do Trainium.

Configuração

Comece com o EC2, SageMaker ou contêineres. Os DLAMIs pré-construídos e o Neuron SDK tornam a configuração simples e rápida. 

Aprenda a pilha do Neuron SDK, inicie os DLAMIs, configure o EC2 e comece a trabalhar no Jupyter.

Aprender

Treine, implante e otimize seus modelos.

Praticar

Você encontrou o que estava procurando hoje?

Informe-nos para que possamos melhorar a qualidade do conteúdo em nossas páginas