Amazon Web Services ブログ

週刊生成AI with AWS – 2025/6/30週

みなさん、こんにちは。AWS ソリューションアーキテクトの木村です。
今年も半分が終わりましたね (焦り)。残りの半年で生成 AI がどんな進化を遂げるのか楽しみです。

2025 年 7 月 31 日 (木) に AWS Builders Online Series というオンラインイベントが開催されます。生成 AI もテーマに含まれていますので、ぜひ登録してみてください。

先日 2つの新しいプランを追加した「AWS ジャパン生成 AI 実用化推進プログラム」も非常に多くの申し込みをいただいています。引き続き募集中ですのでよろしくお願いします。

それでは、6 月 30 日週の生成 AI with AWS界隈のニュースを見ていきましょう。

さまざまなニュース

    • AWS生成AI国内事例ブログ「ユーザックシステム株式会社様のAWS 生成 AI 活用事例「非定型の受注業務の自動化に生成AI活用」」を公開
      ユーザックシステム株式会社様は、企業の業務プロセスの自動化・効率化を支援するビジネスに取り組まれています。一方で、取引先ごとに独自ルールが存在するケースやFAXやメールで注文書のやり取りを行うケースでは、効率化が難しく、新たな方法による生産性向上が求められていました。そこで生成 AI と RPA を組み合わせて非定型の受注業務の完全自動化を目指すソリューション「Knowfa 受注AIエージェント」を Amazon Bedrockを使って開発しました。これまで RPA で対応できなかった受注業務の 80% の自動化に成功したとのことです。AWSのマネージドサービスの活用により、エンジニア 3 名とプロジェクトマネージャー 1 名という少人数体制で、約 4 ヶ月という短期間で β 版開発を実現できました。今後は、対応可能な業務範囲の拡大を目指しています。
    • 【GENIAC】グローバル生成AIモデルプロバイダ訪米記録
      2025 年 5 月 12 日 〜 16 日に、経済産業省が推進するプログラム『Generative AI Accelerator Challenge(GENIAC)』の採択者と共に、米国ベイエリアおよびシアトルの米大手モデルプロバイダーを訪問し、技術交流セッションを実施しました。本ブログでは、AWS、Anthropic、Meta、Cohere、NVIDIAや現地で挑戦する日本人起業家たちとディスカションした様子をレポートしています。
    • Amazon Nova 理解モデルにおけるパフォーマンスの最適化
      本ブログでは、Amazon Nova 理解モデルのパフォーマンスを最適化する方法について説明しています。最適化のポイントは、明確な指示で構造化されたプロンプトを反復的に改善すること、Tool use において Greedy Decoding を使用する設定を行うことです。記事内にプロンプト例があるので是非参考にしてみてください。
    • Amazon Q Developer から Claude Sonnet 4 がアクセス可能に
      先日、Amazon Q DeveloperCLI で Claude Sonnet 4 のサポートを開始し、追加コストなしで高度なコーディングと推論機能を開発プロセスに導入できるようになりました。本ブログでは、Q Developer CLI で Claude Sonnet 4 をモデルとして選択する方法と簡単なデモを紹介しています。複雑なコードリファクタリングから効率的なドキュメント作成まで便利に使えますので、まだ使ってない方は是非お試しを!
    • 【開催報告】 消費財業界向け Amazon Q in QuickSight ワークショップ ~生成 AI で加速するインテリジェントデータ分析~
      2025 年 6 月 9 日、AWS 目黒オフィスにて消費財業界向け Amazon Q in QuickSight ワークショップを開催しました。本ブログはそのイベントの開催報告記事です。BI に興味ある方はデータ分析ダッシュボード設計の進め方などぜひ参考にしてみてください。
    • Amazon Q のコスト最適化
      本ブログではAmazon Q Business と Amazon Q Developerそれぞれの料金プランと機能の違いについて説明しています。いづれのサービスの最大の利点の 1 つは、予測可能なコスト構造です。コアビジネスの目標に焦点を当てながら、経費を正確に予測できますので、ご興味ある方はぜひブログを参照ください。
    • Amazon Nova Canvas update: Virtual try-on とスタイルオプションが一般公開
      画像生成を行うモデル Amazon Nova Canvas に、Virtual try-on 機能機能とスタイルオプションが追加されました。このブログでは、それぞれの機能の解説・デモ・サンプルコードを紹介しています。Virtual try-on 機能は顧客体験の向上に繋がる可能性がある機能ですので、サンプルコードを参考にお試しください!

サービスアップデート

    • Amazon Q in Connect がプロアクティブな推奨事項機能に対して 7 言語をサポート
      Amazon Q in Connect の、音声・チャット対応で顧客意図を検出し「プロアクティブな推奨事項を提供する機能」が、英語に加えて、スペイン語、フランス語、ポルトガル語、中国語、日本語、韓国語でも利用可能になりました。多言語対応により、グローバル企業のカスタマーサービス担当者が各国の顧客とより効率的にやり取りできるようになり、問題解決の精度とスピードが向上します。詳細はこちらのドキュメントをご参照ください。
    • Q-Index がシームレスなアプリケーションレベル認証をサポート
      Amazon Q-Index の SearchRelevantContent API で、シームレスなアプリレベル認証がサポートされました。従来、サードパーティアプリで Q-Index を使う際、ユーザーは自分のアプリにログイン後、企業コンテンツを取得するために AWS IAM への再認証が必要でした。今回のアップデートにより、Trusted Token Issuer 機能を使って一度のログインだけで企業コンテンツから回答を取得できるようになり、ユーザー体験が大幅に向上します。バージニア北部、オレゴン、アイルランド、シドニーリージョンで利用可能です。詳細はこちらのドキュメントをご参照ください。
    • Amazon Q Business がレスポンスのカスタマイズ機能を開始
      Amazon Q Business で新機能「レスポンスカスタマイゼーション」が提供開始されました。従来は AI の回答スタイルが固定でしたが、今回のアップデートで企業の要望に合わせて回答の口調、長さ、詳細度を自由に設定できるようになりました。例えば、カジュアルな表現で短い回答にしたり、フォーマルで詳細な回答にしたりと、組織のコミュニケーションスタイルに統一できます。詳細はこちらのドキュメントをご参照ください。
    • Amazon Bedrock で Claude モデル向けの Citations API と PDF サポートが利用可能に
      Amazon Bedrock の Claude モデルで Citations API と PDF サポートが追加されました。Citations API により AI 回答に根拠文書の引用が自動付与され、信頼性向上が実現します。PDF サポートでテキスト抽出やチャート分析も可能になり、法的研究や学術執筆での活用が期待されます。詳細はこちらの API ドキュメントをご参照ください。
    •  Amazon Nova Canvas にVirtual try-on 機能とスタイルオプションを追加し、画像生成機能を強化
      Amazon Nova Canvas に「Virtual try-on 機能」と「スタイルオプション機能」が追加されました。Virtual try-on 機能では人物画像と商品画像をアップロードするだけで、服を着た姿や家具配置をリアルに生成できます。スタイルオプションでは 8 つのスタイルから選択可能で、プロンプト指定が不要になります。バージニア北部、東京、アイルランドリージョンで利用可能です。詳細はこちらのブログ記事をご参照ください。
    • Amazon SageMaker HyperPod トレーニングオペレーターの発表
      Amazon SageMaker HyperPod の新しいトレーニングオペレーターが一般提供開始されました。これは Kubernetes 上で大規模な AI モデルトレーニングの耐障害性を向上させる拡張機能です。従来は 1 つのプロセスが失敗すると全ノードで完全再起動が必要でしたが、今回のアップデートにより影響を受けた部分のみを選択的に再起動する「surgical recovery」が可能になりました。詳細はこちらのドキュメントをご参照ください。
    • AWS Neuron 2.24 の新機能には PyTorch 2.7 と推論機能の強化が含まれます
      AWS Neuron 2.24 がリリースされ、AI モデルの推論処理が大幅に高速化されます。PyTorch 2.7 に対応し、大規模言語モデルの実行時間短縮を実現する prefix caching や、長い文章処理に適した context parallelism などの新機能を搭載しています。これにより Inferentia や Trainium インスタンスでの AI ワークロードがより効率的になり、コスト削減と性能向上を同時に達成できます。詳細はこちらのドキュメントをご参照ください。

著者について

Naoto Kimura

木村 直登(Naoto Kimura)

AWS Japan のソリューションアーキテクトとして、製造業のお客様に対しクラウド活用の技術支援を行なっています。最近は生成 AI と毎日戯れており、特にコード生成と LLM エージェントに注目しています。好きなうどんは’かけ’です。