亚马逊AWS官方博客
Category: Artificial Intelligence
以Kiro快速部署云上Agent:只需几个小时,从业务需求到部署于Amazon Bedrock Agentcore落地
使用Kiro AI IDE开发工具,快速实现各种业务Agent。从业务需求,到开发测试,到云上部署,整个过程缩短到几个小时。Amazon Bedrock Agentcore的免运维、安全隔离和扩展性,结合记忆、认证、安全策略、可观测性、评估等组件,更适合生产级别Agent大规模部署。
Claude Code 接入自建开源模型:企业私有化与降本实践
企业使用 Claude Code 面临代码安全和成本压力双重挑战。本文介绍一套完整的解决方案:通过在 AWS SageMaker 上部署 Kimi/GLM 等开源模型,结合 LiteLLM Proxy实现智能路由,将支线任务分流到私有化模型处理。实测数据显示,单台 H200 部署成本约 $1000/天,相比等效 Claude API 调用成本降低约 70%,性价比提升 3.2倍。文章详细讲解架构设计、部署流程、动态路由策略及流式响应适配,提供可落地的企业级私有化方案
将 Kiro CLI 封装为 REST API:双通道架构实践
本文介绍将其封装为标准 REST API 的完整实现方案,重点说明双通道架构的设计决策,以及 ACP 协议通信中的关键技术细节。
当 Kiro 遇上 OpenClaw:AI Agent 双向协作的实践探索
本文探索 Kiro(AWS AI Agent)与 OpenClaw(开源 Agent 运行时)基于 MCP + ACP 双协议的双向协作架构。Kiro 通过 MCP 调用 OpenClaw 触达外部世界,OpenClaw 通过 ACP 委派 Kiro 完成深度代码生成与架构分析。四个实战案例验证 了该模式在架构评审、智能运维、数据日报、异步编码场景下的显著效率提升,展示了从”人用工具”到”Agent 用 Agent”。
使用 Kiro CLI 和 Agent Client Protocol 构建飞书 AI 聊天机器人
如何将 Kiro CLI 变成通用 Agent 后端,并用不到 1000 行 Rust 代码构建一个飞书聊天机器人。
使用Amazon SageMaker Hyperpod Cluster部署whisper模型
本篇博客详细介绍了如何利用 Amazon SageMaker HyperPod Cluster,在托管的 EKS 集群中部署基于 TensorRT-LLM 编译的 Whisper 模型,并通过 Triton Inference Server 对外提供高性能推理服务。
AWS 一周综述:Amazon Bedrock 上的 NVIDIA Nemotron 3 Super、Nova Forge SDK、Amazon Corretto 26 等(2026 年 3 月 23 日)
Amazon Bedrock 上的 NVIDIA Nemotron 3 Super、Nova Forge SDK、Amazon Corretto 26 等
基于Amazon Bedrock 上实现 Dynamic Filtering Web Search 与 Web Fetch
介绍最新的模型API服务端托管工具:Dynamic Filtering (动态过滤) Web Search 与 Web Fetch,以及如何使用亚马逊云科技上服务进行自建。
给 Openclaw瘦身-利用Nova MME 和 S3 Vector实现Skill按需召回
本文介绍一种针对 OpenClaw 的智能Skills召回方案,基于 Amazon Bedrock Nova Multimodal Embeddings 和 Amazon S3 Vector,通过向量语义检索实现skill按需召回,将每次对话注入的技能描述 Token 降低约 90%,并提升响应速度。
AWS 一周综述:Amazon S3 推出 20 周年、Amazon Route 53 Global Resolver 正式推出等(2026 年 3 月 16 日)
二十年前的上周,Amazon S3 于 2006 年 3 月 14 日公开发布。虽然 Amazon Simple Storage Service 通常被认为是定义云基础设施的基础存储服务,但最初的简单对象存储服务已发展成为范围和规模要大得多的服务。