跳至主要内容

AWS 人工智能芯片

专为实现最佳性价比而构建的人工智能芯片

使用 Trainium 和 Inferentia 训练和提供人工智能模型,速度更快、更便宜,与 AWS 完全集成。

为什么选择 Trainium 和 Inferentia

更低的成本、更高的吞吐量,并与 AWS 服务紧密集成。由 PyTorch、Hugging Face 和 vLLM 提供支持。

准备好使用 AWS 的专用人工智能芯片进行构建和扩展了吗?

按照这样一条路径完成您的学习之旅:探索 → 设置 → 训练 → 部署 → 优化。每个步骤都包含实践课程,因此您可以边做边学。

探索

使用 SageMaker HyperPod 或 EKS 从单个实例扩展到集群。

生态系统、硬件架构和实际示例(Anthropic、Project Rainer)简介。包括 Trainium 上的现场演示。

设置

从 EC2、SageMaker 或容器开始。预构建的 DLAMI 和 Neuron 软件开发工具包让设置变得既简单又快速。 

学习 Neuron 软件开发工具包堆栈、启动 DLAMI、配置 EC2,然后开始在 Jupyter 中操作。

学习

训练、部署和优化您的模型。

找到今天要查找的内容了吗?

请提供您的意见,以便我们改进网页内容的质量