亚马逊AWS官方博客
Category: Artificial Intelligence
使用Amazon SageMaker Hyperpod Cluster部署whisper模型
本篇博客详细介绍了如何利用 Amazon SageMaker HyperPod Cluster,在托管的 EKS 集群中部署基于 TensorRT-LLM 编译的 Whisper 模型,并通过 Triton Inference Server 对外提供高性能推理服务。
基于Amazon Bedrock 上实现 Dynamic Filtering Web Search 与 Web Fetch
介绍最新的模型API服务端托管工具:Dynamic Filtering (动态过滤) Web Search 与 Web Fetch,以及如何使用亚马逊云科技上服务进行自建。
给 Openclaw瘦身-利用Nova MME 和 S3 Vector实现Skill按需召回
本文介绍一种针对 OpenClaw 的智能Skills召回方案,基于 Amazon Bedrock Nova Multimodal Embeddings 和 Amazon S3 Vector,通过向量语义检索实现skill按需召回,将每次对话注入的技能描述 Token 降低约 90%,并提升响应速度。
AWS 一周综述:Amazon S3 推出 20 周年、Amazon Route 53 Global Resolver 正式推出等(2026 年 3 月 16 日)
二十年前的上周,Amazon S3 于 2006 年 3 月 14 日公开发布。虽然 Amazon Simple Storage Service 通常被认为是定义云基础设施的基础存储服务,但最初的简单对象存储服务已发展成为范围和规模要大得多的服务。
OpenClaw 安全和功能增强实践
本文记录了我在 AWS EC2 上部署 OpenClaw后,围绕安全防护和功能增强两条主线所做的一系列配置。不是官方教程,而是实际踩坑后的工程实践。
还在养龙虾(OpenClaw)吗?教你在 AWS 上让龙虾自己生龙虾
在 AWS 上部署OpenClaw,给它权限,然后通过聊天让它自己读取自己的信息、权限、创建服务器、部署出另一只龙虾——全程零命令。
OpenClaw 在电商平台的应用场景探索
当 AI 助手不再只是”聊天机器人”,而是一个可以用 Markdown 文档扩展skill能力、嵌入多种工作渠道、主动推送运营洞察的智能网关——我们用 OpenClaw 在电商卖家场景做了一次从 0 到 1 的实验,讨论电商平台以大规模SaaS部署OpenClaw提供卖家助手的场景下,能够提供的开发便利、使用体验优势、部署模式和成本评估,以及使用体验
构建专业化 AI 而不牺牲通用智能:Nova Forge 数据混合实战
本文通过一个真实企业场景中的客户之声(VOC)分类任务,评估了 Amazon Nova Forge 在领域任务微调中的表现。实验结果表明,借助数据混合(data mixing)策略,Nova Forge 能够在显著提升领域任务性能的同时,有效避免灾难性遗忘,保持模型的通用能力。该方法为企业在构建定制化 AI 模型时,在领域能力与通用能力之间取得平衡提供了一种实用方案。
向量存储成本降低 85%:用 Amazon S3 Vectors 构建企业级多平台统一知识库
本文将介绍一个基于 AWS 云原生服务的统一知识库架构方案,重点阐述如何通过 Amazon S3 Vectors 实现显著的成本节约,以及如何通过 Provider 模式扩展支持多个 SaaS 平台,构建真正的企业级统一知识库。
推出 OpenClaw on Amazon Lightsail,用于运行您的自主私有人工智能代理
今日,我们宣布 OpenClaw on Amazon Lightsail 正式发布,该服务可用于启动 OpenClaw 实例、配对浏览器、启用 AI 功能,以及根据需要连接消息收发信道。您的 Lightsail OpenClaw 实例已预置为使用 Amazon Bedrock 作为默认 AI 模型提供商。完成设置后即可立即与 AI 助手对话,无需进行任何额外配置。