亚马逊AWS官方博客
Amazon SageMaker AI 中的新无服务器定制加速模型微调
今天,我很高兴宣布,Amazon SageMaker AI 针对 Amazon Nova、DeepSeek、GPT-OSS、Llama、Qwen 等热门 AI 模型,推出了全新的无服务器模型定制功能。这项新的定制能力提供了易于使用的界面,支持强化学习等最新的微调技术,使您能够将 AI 模型定制流程从数月缩短至数天。
仅需几次点击,您即可无缝选择模型和定制技术,并处理模型评测与部署——整个过程完全基于无服务器架构,让您能够专注于模型调优,而无需管理基础设施。当您选择无服务器模型定制时,SageMaker AI 会根据模型和数据规模自动选择并调配适当的计算资源。
如何定制无服务器模型
您可以在 Amazon SageMaker Studio 中开始定制模型。在左侧导航窗格中选择模型,并浏览您想要定制的 AI 模型。

通过 UI 定制
只需几次点击即可定制 AI 模型。在特定模型(例如 Meta Llama 3.1 8B Instruct)的定制模型下拉列表中,选择通过 UI 定制。

您可以选择一种定制技术,用于使基础模型适应您的使用案例。SageMaker AI 支持监督式微调和最新的模型定制技术,包括直接偏好优化、可验证奖励的强化学习以及 AI 反馈的强化学习。每种技术都以不同的方式优化模型,选择时需考虑数据集大小与质量、可用计算资源、手头任务、期望的准确度级别以及部署限制等因素。
上传或选择一个训练数据集,以匹配所选定制技术要求的格式。使用所选技术推荐的批次大小、学习率和 epoch 数值。您可以配置高级设置,例如超参数、用于实验跟踪的全新无服务器 MLflow 应用程序,以及网络和存储卷加密。选择提交即可启动模型训练作业。
训练作业完成后,您可以在我的模型选项卡中看到您创建的模型。在其中一个模型中选择查看详细信息。

选择继续定制,您可以通过调整超参数或使用不同技术进行训练,继续定制模型。选择评测,您可以评测所定制的模型,查看其与基础模型相比的性能表现。
完成这两项作业后,您可以在部署下拉列表中选择 SageMaker 或 Bedrock 来部署模型。

您可以选择 Amazon Bedrock 进行无服务器推理。选择 Bedrock 和模型名称,即可将模型部署到 Amazon Bedrock 中。要查找已部署的模型,请在 Bedrock 控制台中选择导入的模型。

如果您想控制实例类型和实例数量等部署资源,也可以将模型部署到 SageMaker AI 推理端点。当 Amazon SageMaker AI 部署状态变为服务中后,您即可使用此端点执行推理。在 Playground 选项卡中,可以通过单次提示或聊天模式来测试您定制后的模型。

借助无服务器 MLflow 功能,您可以自动记录所有关键的实验指标而无需修改代码,并访问丰富的可视化图表以进行进一步分析。
通过代码进行定制
当您选择 通过代码定制 时,可以看到一个用于微调或部署 AI 模型的示例 Notebook。如果您想编辑示例 Notebook,可以在 JupyterLab 中打开它。或者,您也可以直接选择部署来立即部署模型。

您可以通过从 Amazon SageMaker Inference 或 Amazon SageMaker Hyperpod 中选择部署资源,来选择 Amazon Bedrock 或 Amazon SageMaker AI 端点。

当您选择页面右下角的部署时,系统将重定向回模型详细信息页面。当 Amazon SageMaker AI 部署状态变为服务中后,您即可使用此端点执行推理。
好了,您已经了解了如何在 Amazon SageMaker AI 中简化模型定制流程。现在您可以选择您最喜欢的方式开始使用。要了解更多信息,请访问 Amazon SageMaker AI 开发人员指南。
现已推出
Amazon SageMaker AI 中的新无服务器 AI 模型定制现已在美国东部(弗吉尼亚州北部)、美国西部(俄勒冈州)、亚太地区(东京)和欧洲地区(爱尔兰)推出。您只需为训练和推理过程中处理的令牌付费。要了解更多详情,请访问 Amazon SageMaker AI 定价页面。
欢迎在 Amazon SageMaker Studio 中尝试此功能,并将反馈发送给 AWS re:Post for Amazon SageMaker 或通过常见的 AWS Support 联系人发送。
— Channy