Amazon Web Services ブログ
週刊生成AI with AWS – re:Invent 2025 特別号 part 1 (2025/12/8週)
みなさん、こんにちは。AWS ソリューションアーキテクトの野間です。
先週は AWS re:Invent 2025 が開催されました。今週は特別号となっており、多くのアップデートを広くお届けするために、以下の 3 part 構成となっています。
週刊生成AI with AWS – re:Invent 2025 特別号 part 1 (本ブログ)
週刊AWS – re:Invent 2025 特別号 part 2
週刊AWS – re:Invent 2025 特別号 part 3
また、2025年12月5日に実施した AWS re:Invent 2025 速報の資料及び動画が公開されました。AWS re:Invent 2025 で発表されたばかりの新サービス、新機能を1時間に凝縮して一挙紹介しています。動画はオンデマンドでご視聴いただけます。AWS に興味をお持ちのすべての方、re:Invent 2025 を見逃してしまった方や振り返りたい方、日本語でわかりやすく新サービス・新機能の概要を知りたい方は是非チェックしてください。
今回はモリモリ盛りだくさんの内容です。早速 re:Invent で発表された生成 AI with AWS のニュースを見ていきましょう!
さまざまなニュース
このパートでは 12/1 – 12/5 の期間に発表された生成 AI に関連する AWS 日本語ブログの記事をまとめています。
お知らせ
-
- 【開催予告】JAPAN BUILD TOKYO 建設DX展への出展お知らせ
2025年12月10日からの3日間、東京ビッグサイトで開催される JAPAN BUILD TOKYO の「建設DX展」にてソリューション展示を行います。展示テーマは「生成AIが起こす建設業の業務改革」で、物理世界とデジタルをつなぐAIロボット、遠隔臨場×デジタル技能継承、設計図書のAIレビュー、エージェンティックAI時代のBIM活用の4つのテーマで、実際に動くデモンストレーションをご覧いただけます。展示期間中および終了後に詳細資料を公開予定です。
- 【開催予告】JAPAN BUILD TOKYO 建設DX展への出展お知らせ
生成 AI を組み込んだ構築済みアプリケーション
-
- Amazon Quick Suite の埋め込みチャット機能を発表
Amazon Quick Suite の埋め込みチャット機能を発表しました。これは、お客様のアプリケーションに直接埋め込むことができる統合された会話体験です。構造化データと非構造化ナレッジを単一の会話で統合する Quick Suite のエージェント型 AI チャットを、ユーザーが既に使用しているツールに組み込むことができます。ワンクリック埋め込みにより、Quick Suite インターフェースからコードをコピーしてエンタープライズアプリケーションに挿入するだけで、数分以内にチャットエージェントをアプリケーションに埋め込むことができます。企業のブランドに合わせたカスタマイズ可能なビジュアルテーマや、コミュニケーションスタイルに合わせたカスタマイズ可能なトーンも提供されています。 - Amazon Quick AutomateでAI駆動のSAP自動化をシームレスに構築
Amazon Quick Suite の新機能 Amazon Quick Automate を使用して、SAP システムとシームレスに統合する AI 駆動の自動化を構築する方法を紹介しています。AWS Action Connectors for SAP により、SAP S/4HANA などの SAP ERP システムとリアルタイムでデータを読み取り、ビジネスオペレーションを合理化できます。Genpact 社の事例では、サプライチェーンの混乱対応プロセスを自動化し、通常2〜3日かかる分析を数分で完了できるようになりました。
- Amazon Quick Suite の埋め込みチャット機能を発表
アプリケーション開発のための各種サービス
-
- Amazon S3 Vectors がスケールとパフォーマンスを向上させて一般提供開始
Amazon S3 Vectors がスケールとパフォーマンスを大幅に向上させて一般提供を開始しました。単一のインデックスで最大 20 億のベクトルを保存および検索できるようになり、プレビュー時の 40 倍の増加となりました。クエリパフォーマンスも最適化され、頻度の低いクエリは引き続き 1 秒未満で結果を返し、頻度の高いクエリでは約 100 ミリ秒以下のレイテンシーを実現しています。専用のベクトルデータベースソリューションと比較して、ベクトルの保存とクエリの総コストを最大 90% 削減できます。 - Amazon API Gateway レスポンスストリーミングによる応答性の高い API の構築
Amazon API Gateway でレスポンスストリーミングのサポートを発表しました。この新機能により、レスポンスペイロードをクライアントに段階的にストリーミングすることで、REST API の応答性を大幅に向上させることができます。LLM 駆動アプリケーション(AI エージェントやチャットボットなど)のユーザーエクスペリエンス向上、Web およびモバイルアプリケーションの time-to-first-byte (TTFB) パフォーマンス改善、大きなファイルのストリーミング、server-sent events (SSE) を使用した長時間実行される操作の実行などが可能になります。 - Amazon Bedrock AgentCore ゲートウェイインターセプター: きめ細かなアクセス制御の実現
Amazon Bedrock AgentCore Gateway の新機能「ゲートウェイインターセプター」を紹介する記事です。この機能により、AIエージェントが数千のMCPツールに安全にアクセスする際の、きめ細かなセキュリティ、動的なアクセス制御、柔軟なスキーマ管理が可能になります。ゲートウェイリクエストインターセプターとゲートウェイレスポンスインターセプターの2つのLambda 関数を通じて、ユーザー認証情報やセッションコンテキストに基づくアクセス制御、監査証跡の作成、スキーマ変換などが実現できます。 - Amazon OpenSearch Service が GPU アクセラレーションと自動最適化でベクトルデータベースのパフォーマンスとコストを改善
Amazon OpenSearch Service において、サーバーレス GPU アクセラレーションとベクトルインデックスの自動最適化を発表しました。GPU アクセラレーションを使用しない場合と比較して、最大 10 倍高速にベクトルデータベースを構築でき、インデックス作成コストを 4 分の 1 に削減できます。また、10 億規模のベクトルデータベースを 1 時間以内に作成できます。自動最適化により、ベクトルの専門知識がなくても、ベクトルフィールドの検索レイテンシー、品質、メモリ要件の最適なバランスを見つけることができます。 - Amazon Bedrock Knowledge BasesでSAPおよびエンタープライズデータから新たな可能性を解き放つ
Amazon Bedrock Knowledge Bases を SAP システムおよびエンタープライズデータと統合し、構造化データと非構造化データを組み合わせた統合データインテリジェンスを実現する方法を解説しています。AWS Glue for SAP OData を使用して SAP S/4HANA からデータを抽出し、Amazon Redshift Serverless に統合、Bedrock Knowledge Bases の構造化データストアとして活用することで、自然言語でのデータクエリが可能になります。製造企業の事例では、在庫管理システムにおいて余剰在庫コストの削減と需要予測の精度向上を実現しました。
- Amazon S3 Vectors がスケールとパフォーマンスを向上させて一般提供開始
開発者向けツール
-
- Kiro autonomous agent の紹介
開発者とチームがソフトウェアを構築・運用する方法を変革する Kiro autonomous agent のプレビュー版をリリースしました。このエージェントは、セッションベースではなく常に存在し、作業全体でコンテキストを維持します。マルチリポジトリ作業を統一されたタスクとして扱い、影響を受けるリポジトリを特定し、コードを更新し、完全なテストスイートを実行し、テスト済みプルリクエストをレビュー用に作成します。Kiro Pro、Pro+、Power プランを契約している個人開発者向けにプレビュー版として順次展開されています。 - Kiro powers の紹介
AI エージェントにフレームワークやツールの専門知識を動的に提供する新しい仕組み「Kiro powers」を発表しました。Powers は、MCP ツールとフレームワークの専門知識を一つのパッケージにまとめ、必要な時だけ動的に読み込む仕組みです。従来の MCP 実装ではすべてのツールを事前に読み込むためコンテキストウィンドウを圧迫していましたが、powers では関連するタスクの時だけアクティブ化されます。Stripe、Supabase、Figma、Neon、Netlify などのパートナー企業の powers がワンクリックでインストール可能で、コミュニティが構築した powers や独自の powers も作成・共有できます。将来的には Kiro 以外の AI 開発ツール(Cline、Cursor、Claude Code など)でも動作する標準を目指しています。 - AWS Transform Custom のご紹介:AI 活用によるコードモダナイゼーションで技術的負債を解消
組織が大規模なモダナイゼーションに取り組む方法を根本的に変える新しいエージェント AWS Transform Custom を発表しました。Java、Node.js、Python のアップグレード向けにあらかじめ用意された変換機能と、独自の変換を定義できる柔軟性を組み合わせています。ドキュメント、自然言語での説明、コードサンプルを利用して独自の変換を定義でき、サービスはこれらの特定パターンを数百から数千のリポジトリにわたり一貫して適用します。実行時間を最大 80% 削減したケースもあります。 - AWS Transform がフルスタック Windows モダナイゼーション機能を発表
AWS Transform for .NET において、フルスタック Windows モダナイゼーション機能を発表しました。.NET Framework アプリケーションをクロスプラットフォーム対応の .NET に移行するだけでなく、SQL Server データベースを Amazon Aurora PostgreSQL-Compatible Edition に移行し、インテリジェントなストアドプロシージャの変換や依存するアプリケーションコードのリファクタリングも行います。また、ASP.NET Web Forms の UI を Blazor にモダナイズする機能も追加されています。 - AWS Transform for mainframe は Reimagine 機能と自動テスト機能を導入します
AWS Transform for mainframe において、AI 搭載の分析機能、Reimagine モダナイゼーションパターンのサポート、テスト自動化を含む強化機能を発表しました。Reimagine パターンでは、AI 搭載分析がメインフレームのシステム分析と組織の知識を組み合わせ、詳細な業務・技術ドキュメントおよびアーキテクチャの推奨を作成します。自動化テスト機能では、テストケースの計画、テストデータ収集スクリプトの生成、テスト自動化スクリプトの生成が可能になり、テストの期間を短縮するとともに精度を向上させます。 - IAM Policy Autopilot(ビルダー向け新規オープンソース MCP サーバー)で、IAM ポリシー作成を簡素化しましょう
アプリケーションコードを分析し、AI コーディングアシスタントが AWS IAM のアイデンティティベースポリシーを生成するのを支援する、新しいオープンソースの Model Context Protocol (MCP) サーバー「IAM Policy Autopilot」を紹介しています。Kiro、Claude Code、Cursor、Cline などの AI コーディングアシスタントと統合され、決定論的なコード解析を用いて信頼性の高い有効なポリシーを作成します。追加費用なしで利用でき、ローカルで実行されます。 - フルマネージド Amazon EKS MCP Server (プレビュー) の紹介
Amazon EKS クラスターを自然言語で管理できる、フルマネージド EKS Model Context Protocol (MCP) Server のプレビュー版を紹介しています。この新しいホスト型 EKS MCP Server は、インストールとメンテナンスの排除、一元化されたアクセス管理、強化されたトラブルシューティング、強化された監視と可視性を提供します。クラスター管理、Kubernetes リソース管理、アプリケーションデプロイ、トラブルシューティング、ドキュメントとナレッジベースへのアクセスなど、専門ツールを提供します。
- Kiro autonomous agent の紹介
サービスアップデート
このパートでは 12/1 – 12/5 の期間に発表された生成 AI に関連する AWS アップデートをまとめています。
-
- AWS MCP Server のプレビューを提供開始
AWS MCP Server は、AI エージェントや AI ネイティブ IDE が AWS サービスを横断して複数ステップのタスクを実行できるようにするマネージド型の Model Context Protocol (MCP) サーバーです。既存の AWS API MCP と AWS Knowledge サーバーの機能を統合した単一のインターフェースを通じて、AWS ドキュメントへのアクセス、15,000 以上の AWS API の呼び出し、さらに Agent SOPs(標準操作手順)と呼ばれる事前構築されたワークフローによる段階的なガイダンスを提供します。これにより AI アシスタントに対して「S3 で静的ウェブサイトをホスティングして」「EC2 インスタンスをプロビジョニングして」といった自然な指示を出すだけで、複数の AWS サービスにまたがる実際の作業を完了できます。米国東部(バージニア北部)リージョンで追加料金なしで利用できます。 - AWS AI League 2026 Championship の開催発表
AWS AI League 2026 Championship は、実世界のビジネス課題をゲーム形式の競技を通じて解決する AI トーナメントで、賞金総額は前回の倍となる 5 万ドルに増額されました。参加者は Amazon SageMaker AI を使った基盤モデルのファインチューニングに挑戦する Model Customization チャレンジと、Amazon Bedrock AgentCore で推論・計画・実行が可能なインテリジェントエージェントを構築する Agentic AI チャレンジの 2 つのトラックから選択できます。企業は社内トーナメント開催によって AWS クレジットを受け取ることができ、チームでの協働と競争を通じて自社のビジネスニーズに即した AI ソリューションを開発する環境を整えられます。個人開発者は AWS Summit で実践的なスキルを競い合いながら、賞金総額 50,000 ドルを目指して AWS AI サービスの活用を深化させることができます。 - AWS AI Factories – 専用AIインフラストラクチャソリューション を発表
AWS AI Factories は、お客様のデータセンター内に迅速にデプロイ可能なAI インフラストラクチャソリューションです。最新のAWS Trainiumアクセラレータ、NVIDIA GPU、専用低レイテンシネットワーキング、高性能ストレージを提供し、独自に構築する場合と比較して数ヶ月から数年単位でAI構築を加速します。Amazon Bedrock や Amazon SageMaker といった AWS AI サービスが統合されており、個別のモデルプロバイダーとの契約交渉なしに主要な基盤モデルへ即座にアクセスできます。お客様が提供するデータセンターのスペースと電力容量に AWS がインフラを展開・管理する形式で、完全に分離された専用環境として運用されるため、生成 AI を活用して独自データで大規模言語モデルのトレーニングやデプロイを行いたい企業や政府組織にとって、イノベーションに集中できる環境が整います。 - AWS Transform に VMware 移行向け Agentic AI 機能を追加
AWS Transform に VMware 環境の AWS 移行を自動化する強力な agentic AI 機能が追加されました。この AI エージェントは移行チームと協働しながら、ビジネス優先度を理解し、数百のアプリケーションと数千台のサーバーにわたる移行を自動的に計画・実行します。オンプレミス環境の検出、サードパーティ製検出ツールのインベントリデータ、ドキュメントやノート・ビジネスルールといった非構造化データを分析し、インフラ・データベース・アプリケーションの依存関係をマッピングして、組織・部門・機能別に最適化された移行計画を生成します。ネットワーク構成の自動生成、柔軟な IP アドレス管理、複数アカウントへのデプロイに対応し、VMware、HyperV、Nutanix などのハイパーバイザーやベアメタル環境から Windows/Linux サーバーを安全に段階的に移行できます。移行プロセス全体を通じてエージェントと対話しながら、ステップの繰り返しやスキップ、計画の調整が可能で、内部承認用の詳細なレポートも自動生成されるため、生成 AI の力を借りて大規模な VMware 環境の移行を従来よりも大幅に短期間・低リスク・低コストで実現できます。 - AWS Transform がフルスタック Windows モダナイゼーション向け AI エージェントを提供開始
AWS Transform は .NET モダナイゼーションエージェントの機能を拡張し、.NET アプリケーションと Microsoft SQL Server データベースの両方を扱うフルスタック Windows モダナイゼーションエージェントを提供開始しました。この AI エージェントは、Amazon EC2 や Amazon RDS 上の SQL Server データベースと GitHub などのソースリポジトリから .NET アプリケーションコードをスキャンして、カスタマイズ可能なモダナイゼーション計画を自動生成します。生成 AI の力で複雑なレガシーシステムの移行と変換を自動化し、AI コードコンパニオンとの連携による変換後のコード理解も容易になります。 - Amazon SageMaker AI がサーバーレス MLflow 機能を発表し AI 開発を加速
Amazon SageMaker AI にサーバーレス MLflow 機能が追加され、AI モデル開発のための実験トラッキング、比較、評価がインフラ設定を待たずにすぐに開始できるようになりました。従来は MLflow のトラッキングサーバーを継続的に維持・スケールし、複雑な容量計画を行う必要がありましたが、この機能により負荷の高いモデル開発タスクに応じて自動的にスケールし、アイドル時にはスケールダウンするため、管理の負担とコストが大幅に削減されます。Resource Access Manager によるクロスアカウントアクセスで組織境界を越えたチーム協業も簡素化され、SageMaker AI JumpStart、Model Registry、Pipelines とネイティブに連携します。追加料金なしで利用でき、MLflow の最新バージョンへの自動更新にも対応しているため、生成 AI モデルやエージェントの開発において、インフラの複雑性ではなく実験とイテレーションに集中できる環境が整い、AI 開発の生産性が向上します。 - Amazon SageMaker AI に新しいサーバーレスモデルカスタマイゼーション機能を追加
Amazon SageMaker AI に、AI 開発者が人気モデルを独自データで素早くカスタマイズできるサーバーレスモデルカスタマイゼーション機能が追加されました。Amazon Nova、Llama、Qwen、DeepSeek、GPT-OSS といった人気モデルに対して、supervised fine-tuning や reinforcement learning、direct preference optimization などの最新技術を使ったカスタマイゼーションが可能です。従来はユースケース定義からデータ準備、モデル選択、トレーニング、評価まで長い反復サイクルが必要でしたが、使いやすいインターフェースでデータ準備から評価・デプロイまでのエンドツーエンドワークフローが簡素化され、プロセス全体が加速します。 - Amazon SageMaker HyperPod がチェックポイントレストレーニングをサポート
Amazon SageMaker HyperPod に、障害回復時のチェックポイントベースのジョブレベル再起動を不要にする新しい基盤モデルトレーニング機能「チェックポイントレストレーニング」が追加されました。従来のチェックポイントベースの回復では、障害発生時にトレーニングクラスタ全体を一時停止し、手動で問題を診断して保存されたチェックポイントから復元する必要があり、高価な AI アクセラレータが数時間アイドル状態になることがありました。チェックポイントレストレーニングは分散クラスタ全体でモデルのトレーニング状態を保持し、故障したノードを自動的にスワップアウトして正常なアクセラレータからピアツーピアで状態転送を行うため、障害からの回復時間を数時間から数分に短縮します。 - Amazon CloudWatch GenAI オブザーバビリティが Amazon AgentCore Evaluations をサポート
Amazon CloudWatch が AgentCore Evaluations を通じて AI エージェントの自動品質評価を可能にする機能を追加しました。実世界のインタラクションに基づいて AI エージェントのパフォーマンスを継続的に監視・改善でき、品質問題が顧客に影響を与える前に特定して対処できます。helpfulness、tool selection、response accuracy などをカバーする 13 の事前構築された評価器と、カスタムモデルベースのスコアリングシステムを提供し、CloudWatch ダッシュボードで統一された品質メトリクスとエージェントテレメトリにアクセスできます。エンドツーエンドのトレーシング機能により評価メトリクスとプロンプト・ログを関連付けることができ、Application Signals、Alarms、Sensitive Data Protection、Logs Insights などの既存の CloudWatch 機能とシームレスに統合されます。カスタム評価インフラの構築・維持が不要になるため、生成 AI を活用した高品質な AI エージェントの開発とデプロイを大幅に加速でき、エージェントフリート全体を単一のコンソールから効率的に管理できます。 - Amazon Q が SES のメール送信分析をサポート
Amazon Q が Amazon Simple Email Service (SES) のメール送信分析機能を追加しました。これにより SES のリソース設定や使用パターンについて自然言語で質問でき、Q が設定の最適化とメール配信性のトラブルシューティングを支援します。従来は Virtual Deliverability Manager などのダッシュボードやクエリツールを使ってメール送信の概念を深く理解する必要がありましたが、Q がお客様の使用パターンと SES リソース設定を自動評価して、事前知識や手動探索なしに必要な回答とコンテキストを提供します。メール送信システムの運用管理を技術的な専門知識に依存せずに実行できるようになり、生成 AI を活用して複雑なメール配信の問題を会話形式で迅速に解決し、SES の運用効率を向上できます。 - AWS が AI Competency に新しい Agentic AI カテゴリを追加
AWS は AI Competency(旧 Generative AI Competency)を拡張し、60 の検証済みパートナーを含む 3 つの新しい Agentic AI カテゴリを追加しました。Agentic AI Tools、Agentic AI Applications、Agentic AI Consulting Services の各カテゴリは、最小限の人間監視で知覚・推論・行動できる自律的 AI システムの開発と実装を専門とするパートナーを特定するための基準となります。これらのパートナーは Amazon Bedrock AgentCore、Strands Agents、Amazon SageMaker AI などを使用した高度なソリューション提供能力について厳格な技術検証を受け、AWS のセキュリティ・信頼性・運用 excellence 基準を満たす顧客実装の実績を実証する必要があります。パートナー検証プロセスを加速するため AWS Partner Central に AI エージェントも導入され、AI Specialization 申請に即座にフィードバックを提供します。 - Strands Agents で TypeScript サポートを発表
Strands Agents SDK がオープンソース Python フレームワークに TypeScript サポートをプレビュー提供開始し、開発者は Python と TypeScript のいずれかを選択して AI エージェントを構築できるようになりました。TypeScript 版は完全な型安全性、async/await サポート、最新の JavaScript/TypeScript パターンを提供し、AWS Lambda や Bedrock AgentCore などのランタイムでクライアント、ブラウザ、サーバーサイドアプリケーションとして実行可能で、AWS CDK による完全な TypeScript スタックの構築もサポートします。さらにエッジデバイスサポートが一般提供となり llama.cpp などのローカルモデルプロバイダーで小規模デバイス上でエージェント実行が可能になりました。
- AWS MCP Server のプレビューを提供開始
Frontier Agent(フロンティアエージェント)関連
-
- AWS Security Agent(プレビュー)を発表 – アプリケーションセキュリティを積極的に守る AI エージェント
AWS Security Agent は、開発ライフサイクル全体でアプリケーションを積極的にセキュアにする AI 駆動のエージェントです。セキュリティチームが承認された暗号化ライブラリ、認証フレームワーク、ログ標準などの組織のセキュリティ要件を一度定義すると、開発全体を通じてアーキテクチャドキュメントとコードを自動的に検証し、違反検出時には具体的なガイダンスを提供します。デプロイ検証では、ペネトレーションテストのスコープを定義するだけで、AI エージェントがアプリケーションコンテキストを開発し、高度な攻撃チェーンを実行して脆弱性を発見・検証します。これにより全チームで一貫したセキュリティポリシー適用が実現し、開発速度に合わせたセキュリティレビューのスケーリングが可能になります。生成 AI を活用してセキュリティレビューを自動化することで、開発初期段階での脆弱性防止とリスクエクスポージャーの削減を実現します。 - AWS DevOps Agent(プレビュー)を発表 – 運用の卓越性を実現するフロンティアエージェント
AWS DevOps Agent は、AWS、マルチクラウド、ハイブリッド環境でインシデントを解決し積極的に防止するフロンティアエージェントです。経験豊富な DevOps エンジニアのように、リソースとその関係性を学習し、観測ツール、ランブック、コードリポジトリ、CI/CD パイプラインと連携して、テレメトリ・コード・デプロイメントデータを相関分析します。アラートが入った瞬間に自律的に調査を開始してインシデントをトリアージし、チームを迅速な解決へ導いて平均復旧時間(MTTR)を短縮します。過去のインシデントのパターンを分析して、観測性、インフラ最適化、デプロイメントパイプライン強化などの実用的な推奨事項を提供し、ワークフローを変更せずに運用データの未活用の洞察にアクセスできます。生成 AI を活用したインシデント対応の自動化により、開発チームは本来の開発業務により集中でき、システムの信頼性とパフォーマンスを継続的に改善しながら運用負荷を削減します。 - Kiro autonomous agent の紹介
- AWS Security Agent(プレビュー)を発表 – アプリケーションセキュリティを積極的に守る AI エージェント
Amazon Nova 関連
-
- Amazon Nova 2 Omni をプレビューを発表
Amazon Nova 2 Omni は、業界初となるマルチモーダル推論と画像生成を統合したオールインワンモデルで、テキスト、画像、動画、音声入力をサポートしながらテキストと画像の両方を生成できます。従来は入出力タイプごとに異なる専門モデルを組み合わせる必要がありましたが、Nova 2 Omni は単一モデルでマルチモーダル理解、自然言語による画像生成・編集、音声の文字起こしを実現し、複数 AI モデルの管理の複雑性を排除してアプリケーション開発を加速します。1M トークンのコンテキストウィンドウ、200 以上の言語対応、キャラクター一貫性やテキストレンダリングを含む高品質な画像生成、複数話者の会話を文字起こし・翻訳・要約する優れた音声理解に加え、柔軟な推論制御により深さと予算を調整できます。生成 AI を活用したマーケティングコンテンツ作成、カスタマーサポート通話の文字起こし、動画分析、ビジュアルエイド付きドキュメント作成など多様なタスクを単一モデルで効率的に処理でき、コストとパフォーマンスの最適化を同時に実現します。 - Amazon Nova Forge: Nova を使用した独自のフロンティアモデル構築
Amazon Nova Forge が一般提供となり、Nova を使って組織独自のフロンティアモデルを構築できるようになりました。SageMaker AI 上で Nova の初期チェックポイントからプレトレーニング、ミッドトレーニング、ポストトレーニングの各フェーズでモデル開発を開始でき、独自データと Amazon Nova キュレートデータをブレンドしてトレーニングできます。Nova Forge 限定機能として、環境内の報酬関数を使った Reinforcement Fine Tuning (RFT) の実行や、組み込みの責任ある AI ツールキットによるカスタム安全ガードレールの実装が可能です。組織の独自知識を深く理解し専門性を反映したモデルを構築しながら、推論などの一般的能力を維持し、壊滅的忘却のリスクを最小化します。 - Amazon Nova Act(GA)で本番環境の UI ワークフローを自動化するエージェントを構築
Amazon Nova Act が一般提供となり、開発者は本番環境の UI ワークフローを自動化する高信頼性エージェントのフリートを構築・管理できるようになりました。カスタム Nova 2 Lite モデルで駆動され、高いコスト効率と高速な価値創出、大規模実装の容易性を提供します。ブラウザ内での反復的な UI ワークフローの実行、API やツール(PDF への書き込みなど)の実行、適切なタイミングでの監督者へのエスカレーションを実行します。開発者は自然言語の柔軟性と Python コードの決定性を組み合わせてワークフローを定義でき、nova.amazon.com/act のオンラインプレイグラウンドで迅速にプロトタイピングを開始し、Nova Act IDE 拡張でスクリプトを改良・デバッグし、わずか数ステップで AWS にデプロイできます。生成 AI を活用したエンタープライズ全体の反復プロセス自動化により、手作業による UI 操作を削減し、生産性を向上できます。 - Amazon Nova 2 基盤モデルが Amazon Bedrock で提供開始
Amazon Nova 2 は、業界トップクラスのコストパフォーマンスで推論機能を提供する次世代の汎用モデルです。高速でコスト効率の高い Amazon Nova 2 Lite と、高度に複雑なマルチステップタスク向けの最も高性能な Amazon Nova 2 Pro(プレビュー)の 2 つのモデルが提供されます。両モデルはステップバイステップ推論とタスク分解を行う拡張思考をサポートし、低・中・高の 3 つの思考強度レベルでスピード・知性・コストのバランスを制御できます。コードインタープリタやウェブグラウンディングなどの組み込みツール、リモート MCP ツールサポート、100 万トークンのコンテキストウィンドウを備え、Nova 2 Lite はカスタマーサービスチャットボット、ドキュメント処理、ビジネスプロセス自動化に、Nova 2 Pro はマルチドキュメント分析、動画推論、ソフトウェア移行といった複雑なエージェントタスクに活用できるため、生成 AI アプリケーションの開発において日常業務から高度な分析まで幅広いユースケースを効率的かつ柔軟に実現できます。 - Amazon Nova 2 Sonic をリアルタイム会話 AI 向けに発表
Amazon Nova 2 Sonic は、自然でリアルタイムな会話 AI を実現する音声対音声モデルです。最高クラスのストリーミング音声理解で背景ノイズや話し方の違いにロバストに対応し、効率的な対話処理と複数言語をネイティブに話せる表現力豊かな音声生成(Polyglot voices)を提供します。同じ声で異なる言語をネイティブの表現力で話せる Polyglot voices、低・中・高で設定可能なターンテイキング制御、音声とテキストのシームレスな切り替え、会話フローを中断しないマルチステップタスク向けの非同期ツール呼び出し、100 万トークンのコンテキストウィンドウを備えています。Amazon Bedrock の双方向ストリーミング API で直接統合でき、Amazon Connect、Vonage、Twilio、AudioCodes、LiveKit、Pipecat などとシームレスに連携するため、生成 AI を活用したカスタマーサポートやバーチャルアシスタントなど高品質な音声対話アプリケーションを迅速に構築できます。
- Amazon Nova 2 Omni をプレビューを発表
Amazon Bedrock 関連
-
- Amazon Bedrock が 18 のフルマネージドオープンウェイトモデルを追加
Amazon Bedrock がこれまで最大となる 18 のフルマネージドオープンウェイトモデルを追加しました。統一 API を通じて Google(Gemma 3 4B/12B/27B)、MiniMax AI(MiniMax M2)、Mistral AI(Mistral Large 3、Ministral 3 シリーズ、Magistral Small 1.2、Voxtral シリーズ)、Moonshot AI(Kimi K2 Thinking)、NVIDIA(Nemotron Nano 2 シリーズ)、OpenAI(gpt-oss-safeguard シリーズ)、Qwen(Qwen3-Next、Qwen3-VL)などの主要 AI 企業のモデルにアクセスできます。アプリケーションの書き換えやインフラ変更なしにモデルを評価・切り替え・採用できるため、ユースケースに応じて最適なモデルを柔軟に選択でき、特定ベンダーへのロックインを回避しながら、生成 AI アプリケーションとエージェントを本番スケールで構築できます。多様なモデルの選択肢により、コスト、パフォーマンス、機能のバランスを最適化し、ビジネス要件に最も適したソリューションを実現できます。 - Bedrock Knowledge Bases のマルチモーダル検索が一般提供開始
Amazon Bedrock Knowledge Bases のマルチモーダル検索が一般提供となり、テキスト、画像、音声、動画ファイル全体で動作する AI 検索と質問応答アプリケーションの構築が可能になりました。従来はテキストドキュメントと画像のみ検索可能でしたが、会議記録、トレーニング動画、ビジュアルドキュメンテーションなど、すべてのエンタープライズデータフォーマットから洞察を抽出できるようになりました。開発者はマルチモーダルコンテンツを取り込む際にパース、チャンキング、埋め込み、ベクトルストレージを制御でき、テキストクエリまたは画像を入力として送信し、関連するテキスト、画像、音声、動画セグメントを取得して LLM で応答を生成できます。 - Amazon Bedrock AgentCore に Policy(プレビュー)、Evaluations(プレビュー)などを追加
Amazon Bedrock AgentCore に Policy(プレビュー)と Evaluations(プレビュー)が追加され、エージェントをプロトタイプから本番環境へ安心してスケールするために必要なコントロールと品質保証を提供します。Policy は AgentCore Gateway と統合してすべてのツール呼び出しをリアルタイムで傍受し、エージェントを定義された境界内に保ちながら、自然言語で作成したポリシーを自動的に AWS オープンソースポリシー言語 Cedar に変換します。Evaluations は 13 の組み込み評価器(helpfulness、tools selection、accuracy など)またはカスタムモデルベーススコアリングシステムで、実世界の動作に基づいてエージェントのパフォーマンスをテスト・監視し、広範な顧客影響を与える前に問題を発見します。さらに AgentCore Memory にエピソード記憶、Runtime に双方向ストリーミング、Identity にカスタムクレームが追加され、開発・コンプライアンス・セキュリティチームがカスタムコードなしで生成 AI エージェントのルールを設定・理解・監査でき、品質とガバナンスを維持しながら組織全体でエージェントを効率的に展開できます。 - Amazon Bedrock AgentCore Runtime が双方向ストリーミングをサポート
Amazon Bedrock AgentCore Runtime が双方向ストリーミングをサポートし、エージェントが同時にリスニングと応答を行いながら会話途中の割り込みやコンテキスト変更を処理できるようになりました。従来のエージェントは応答完了まで待つ必要があり、特に音声アプリケーションで不自然な止まり・進み型の対話となっていましたが、双方向ストリーミングにより継続的な双方向コミュニケーションを実現し、ユーザーは会話途中で割り込み・明確化・方向転換が可能になります。AgentCore Runtime に組み込まれているため、リアルタイムストリーミング機能の構築に必要な数ヶ月のエンジニアリング作業を排除でき、音声エージェントだけでなくテキストベースの対話の応答性も向上します。 - Mistral Large 3 と Ministral 3 ファミリーが Amazon Bedrock で先行提供開始
Mistral Large 3 と Ministral 3 ファミリーが Amazon Bedrock で先行提供となりました。Mistral Large 3 は 41B アクティブパラメータと 675B 総パラメータを持つ最先端のオープンウェイト汎用マルチモーダルモデルで、256K コンテキストウィンドウと強力なエージェント機能により本番グレードのアシスタント、検索拡張システム、複雑なエンタープライズワークフローに最適化されています。Ministral 3 ファミリーは 14B(ローカルデプロイ向け高度マルチモーダル)、8B(エッジデプロイとシングル GPU 向けテキスト・ビジョン)、3B(低リソース環境向けコンパクト)の 3 つのモデルを提供し、フロンティア知性から効率的エッジコンピューティングまで全スペクトラムをカバーします。 - Amazon Bedrock が強化学習型ファインチューニングをサポート、ベースモデルと比較して平均 66% の精度向上を実現
Amazon Bedrock が強化学習型ファインチューニングをサポートし、機械学習の専門知識や大量のラベル付きデータなしでモデル精度を向上できるようになりました。従来のファインチューニング手法では大量のデータが必要でしたが、強化学習型ファインチューニングは小さなプロンプトセットで学習でき、同じプロンプトに対する複数の応答へのフィードバックを通じてモデルが良い応答の判断を学習します。Amazon Bedrock はこのワークフローを自動化し、コンピュータから直接または Amazon S3 に保存されたデータセットでトレーニングデータをアップロードでき、ルールベースまたは AI ベースの報酬関数で組み込みテンプレートを使ってコード生成や数学推論などの客観的タスク、指示追従やチャットボット対話などの主観的タスクの両方を最適化します。平均 66% の精度向上により、より小型で高速かつコスト効率の高いモデルを高品質を維持しながら使用でき、独自データは AWS の安全でガバナンスされた環境内に保持されるため、生成 AI モデルを組織固有のビジネスニーズに迅速・安全に適応させ、専門人材や複雑なインフラへの投資なしに高度なモデルカスタマイズを実現できます。 - Amazon Bedrock が OpenAI の Responses API をサポート
Amazon Bedrock が OpenAI API 互換のサービスエンドポイントで Responses API をサポート開始しました。長時間実行の推論ワークロード向けに非同期推論を実現し、エージェントワークフロー向けのツール統合を簡素化するとともに、状態を保持した会話管理を提供します。従来は各リクエストで会話履歴全体を渡す必要がありましたが、Responses API により手動履歴管理なしでコンテキストを自動的に再構築できます。ストリーミング/非ストリーミングモード、Chat Completions API での推論努力サポートを備え、既存コードベースでベース URL の変更のみで OpenAI SDK 互換性を持って統合できます。新しい分散推論エンジン Project Mantle により、Amazon Bedrock へのモデルオンボーディングを簡素化・迅速化し、高性能で信頼性の高いサーバーレス推論、自動容量管理とデフォルトクォータの向上、OpenAI API 仕様との標準互換性を実現しており、生成 AI アプリケーション開発において既存の OpenAI 統合コードをほぼそのまま活用しながら Amazon Bedrock の幅広いモデル選択肢とエンタープライズ機能を利用できます。 - TwelveLabs の Pegasus 1.2 モデルがグローバルクロスリージョン推論により 23 の新 AWS リージョンで利用可能に
Amazon Bedrock が TwelveLabs の Pegasus 1.2 にグローバルクロスリージョン推論を導入し、既存の 7 リージョンに加えて 23 の新リージョンでモデル利用が可能になりました。地理的クロスリージョン推論により全 EU リージョンでもアクセスでき、特定地域内のデータ残留やコンプライアンス要件に対応します。Pegasus 1.2 は動画ファーストの言語モデルで、動画内のビジュアル、オーディオ、テキストコンテンツからテキストを生成し、特に長尺動画の動画対テキスト生成と時間的理解に優れています。データとエンドユーザーに近い場所で動画インテリジェンスアプリケーションを構築できるようになり、レイテンシを削減してアーキテクチャを簡素化できます。
- Amazon Bedrock が 18 のフルマネージドオープンウェイトモデルを追加
ふぅ、ここまで読んでくださった皆様ありがとうございました!続けてPart2、Part3もございますので是非アクセスしてみてください。
週刊AWS – re:Invent 2025 特別号 part 2
週刊AWS – re:Invent 2025 特別号 part 3
今週は以上です。それでは、また来週お会いしましょう!