- Machine learning›
- AWS Trainium›
- Nozioni di base
Chip IA appositamente progettati per il miglior rapporto prezzo/prestazioni
Addestra e servi modelli di intelligenza artificiale con Trainium e Inferentia: più veloci, economici e completamente integrati con AWS.
Perché Trainium e Inferentia
Costi inferiori, maggiore throughput e stretta integrazione con i servizi AWS. Supportato da PyTorch, Hugging Face e vLLM.
Tutto pronto per costruire e scalare con i chip IA appositamente progettati di AWS?
Segui questo percorso di apprendimento per passare da esplorazione → configurazione → formazione → implementazione→ ottimizzazione. Ogni passaggio include sessioni pratiche in modo da poter imparare facendo.
Esplora
Scala da una singola istanza a cluster con SageMaker HyperPod o EKS.
Introduzione all'ecosistema, all'architettura hardware ed esempi del mondo reale (Anthropic, Project Rainer). Include una demo dimostrazione dal vivo su Trainium.
Configurazione
Inizia con EC2, SageMaker o container. I DLAMI predefiniti e l'SDK Neuron rendono la configurazione semplice e veloce.
Impara lo stack SDK Neuron, avvia DLAMIS, configura EC2 e inizia a lavorare in Jupyter.
Scopri
Addestra, implementa e ottimizza i tuoi modelli.
Prova pratica
Applica le tue competenze con dimostrazioni pratiche e progetti di esempio:
Esegui il fine-tuning Llama 3 su Trainium.
Hai trovato quello che cercavi?
Facci sapere la tua opinione in modo da migliorare la qualità dei contenuti delle nostre pagine