Passer au contenu principal

Puces IA AWS

Des puces AI spécialement conçues pour le meilleur rapport prix/performances

Entraînez et diffusez des modèles d'IA avec Trainium et Inferentia, plus rapidement, à moindre coût et entièrement intégrés à AWS.

Pourquoi Trainium & Inferentia

Coûts réduits, débit plus élevé et intégration étroite avec les services AWS. Soutenu par PyTorch, Hugging Face et vLLM.

Êtes-vous prêt à créer et à évoluer avec les puces d’IA spécialement conçues par AWS ?

Suivez ce parcours d’apprentissage pour passer de l’exploration à la configuration, à la formation, au déploiement et à l’optimisation. Chaque étape comprend des sessions pratiques qui vous permettent d’apprendre par la pratique.

Explorer

Passez d’une instance unique à des clusters avec SageMaker HyperPod ou EKS.

Présentation de l’écosystème, de l’architecture matérielle et d’exemples concrets (Anthropic, Project Rainer). Inclut une démo en direct sur Trainium.

Configuration

Commencez par EC2, SageMaker ou des conteneurs. Les DLAMI préintégrés et le SDK Neuron simplifient et accélèrent la configuration. 

Découvrez la pile de SDK Neuron, lancez DLAMI, configurez EC2 et commencez à travailler dans Jupyter.

Apprendre

Entraînez, déployez et optimisez vos modèles.

Pratique

Appliquez vos compétences grâce à des démonstrations pratiques et à des exemples de projets :

Fine-tune Llama 3 sur Trainium.

Déployez l’inférence en temps réel avec vLLM + NxDI.

Utilisez Neuron Profiler pour optimiser les performances. 

Avez-vous trouvé les informations que vous recherchiez ?

Faites-nous part de vos commentaires afin que nous puissions améliorer le contenu de nos pages