- Machine Learning›
- AWS Trainium›
- Démarrer
Des puces AI spécialement conçues pour le meilleur rapport prix/performances
Entraînez et diffusez des modèles d'IA avec Trainium et Inferentia, plus rapidement, à moindre coût et entièrement intégrés à AWS.
Pourquoi Trainium & Inferentia
Coûts réduits, débit plus élevé et intégration étroite avec les services AWS. Soutenu par PyTorch, Hugging Face et vLLM.
Êtes-vous prêt à créer et à évoluer avec les puces d’IA spécialement conçues par AWS ?
Suivez ce parcours d’apprentissage pour passer de l’exploration à la configuration, à la formation, au déploiement et à l’optimisation. Chaque étape comprend des sessions pratiques qui vous permettent d’apprendre par la pratique.
Explorer
Passez d’une instance unique à des clusters avec SageMaker HyperPod ou EKS.
Présentation de l’écosystème, de l’architecture matérielle et d’exemples concrets (Anthropic, Project Rainer). Inclut une démo en direct sur Trainium.
Configuration
Commencez par EC2, SageMaker ou des conteneurs. Les DLAMI préintégrés et le SDK Neuron simplifient et accélèrent la configuration.
Découvrez la pile de SDK Neuron, lancez DLAMI, configurez EC2 et commencez à travailler dans Jupyter.
Apprendre
Entraînez, déployez et optimisez vos modèles.
Pratique
Appliquez vos compétences grâce à des démonstrations pratiques et à des exemples de projets :
Fine-tune Llama 3 sur Trainium.
Avez-vous trouvé les informations que vous recherchiez ?
Faites-nous part de vos commentaires afin que nous puissions améliorer le contenu de nos pages