Amazon Web Services ブログ

AWS re:Inforce 2025: AI セキュリティを強化する必見のセッション

AWS re:Inforce 2025: June 16-18 in Philadelphia, PA

本ブログは 2025 年 5 月 27 日に公開された Blog “Elevate your AI security: Must-see re:Inforce 2025 sessions” を翻訳したものです。

カンファレンスパスの料金は 1,099 ドルです。今すぐ登録して、コード flashsale150 を使用すると、数量限定で 150 ドルの割引が受けられます。

訳注) 日本からご参加いただくお客様が利用できるカンファレンスパスのディスカウントコードをご用意しました。コード JAPbHNlXWaI2 を利用することで 500 USD の割引を受けることができます。数に限りがございますので、お早めにご登録ください!

概念実証 (PoC) から本番環境での大規模な利用まで、生成 AI の急速な進歩により、イノベーションを実現する絶好の機会が生まれています。同時に組織が対処しなければならない新たなセキュリティ課題 (そしてチャンス) も生まれています。モデルの効果を維持しながら、検索拡張生成 (RAG) やトレーニングデータをどのように保護すればよいでしょうか?大規模言語モデル (LLM) との対話にはどのような制御が必要でしょうか?リスクを最小限に抑えながら、AI エージェントや Model Context Protocol (MCP) をどのように最大限に活用できるでしょうか?AWS re:Inforce 2025 では、セキュリティの専門家や、実務者、業界のリーダーが集まり、実世界の実践的なガイダンスなどを学習できるため、これらの疑問を解決することができるでしょう。

今年の生成 AI セキュリティセッションは、大規模でセキュアな本番 AI システムの構築と維持を支援するために、特別に厳選したコンテンツをご用意しています。AI セキュリティの検討を開始したばかりの方も、成熟した企業全体の AI イニシアチブをリードしている方も、組織のセキュリティポスチャを向上させるための実践的なガイダンス、ハンズオン体験、戦略的な洞察を見つけることができます。

基本的な概念から高度な防御技術まで、これらのセッションはデータ保護、モデルセキュリティ、ID 管理、AI エージェントのレジリエンスなどの重要な領域を網羅しています。AWS セキュリティの専門家や、安全な AI システムを成功裏に実装したお客様、AI の安全性とセキュリティで新しい基準を設定している業界をリードするパートナーから直接学ぶことができます。

このブログでは、AI をセキュアにする方法だけでなく、セキュリティ実務者が重要なセキュリティミッションを支援するために AI をどのように活用できるかについても紹介する「必見」のセッションをいくつか紹介します!ぜひ re:Inforce 2025 に登録して、ご参加ください!

イノベーショントーク

イノベーショントークシリーズで AWS のトップリーダーから最前線のクラウドテクノロジーについてのセッションを通じて、貴重な洞察を得ることができます。生成 AI の最新の進歩を確認し、堅牢なクラウドセキュリティ戦略を発見し、アプリケーション開発に革命をもたらし AWS クラウドの可能性を拡大している先駆的なアーキテクチャ概念を明らかにします。

SEC301 | イノベーショントーク | From possibility to production: A strong, flexible foundation for AI security (可能性から本番へ: AI セキュリティのための強力で柔軟な基盤)
スピーカー: Hart Rossman (AWS) & Becky Weiss (AWS)
AWS が AI セキュリティの負担をどのように軽減し、開発から本番環境への移行を加速できるかを発見してください。このセッションでは、実証済みの AWS セキュリティ基盤と、柔軟な制御および自動推論を組み合わせることで、組織が AI イノベーションを自信を持ってデプロイできるようにする方法を明らかにします。実例を通じて、セキュリティを潜在的な障害からイノベーションの原動力に変える方法を学びます。今日の AI ワークロードを保護するための実践的なガイダンスと、データセキュリティやエージェント型 AI を含む新たなセキュリティ課題に対処するための戦略的な洞察を得ることができます。AWS の AI セキュリティへのアプローチが、強力なセキュリティ制御を維持しながら、どのように先行して始めるのに役立つかを学びます。

ブレイクアウトセッション、チョークトーク、ライトニングトーク

ブレイクアウトセッションは、AWS の専門家、お客様、パートナーによって提供される講義形式の 1 時間のセッションで、重要なトピックに関する知識を深め、実用的な洞察を得て、業界のリーダーとつながるのに最適です。

チョークトークは、少人数の聴衆と行う 1 時間の高度にインタラクティブなセッションです。このフォーマットは、特定のトピックを深く掘り下げ、AWS の専門家と直接対話し、リアルタイムで質問に答えてもらうのに理想的です。

ライトニングトークは、特定のユーザー事例、サービスデモ、または AWS パートナーの提供物に特化した短い (20 分間) シアタープレゼンテーションです。

SEC303 | ブレイクアウトセッション | Behind the shields: AWS and Anthropic’s approach to secure AI (シールドの裏側: AWS と Anthropic の安全な AI へのアプローチ)
スピーカー: Matt Saner (AWS) & Shahzeb Jiwani (Anthropic)
エンタープライズ AI の採用には堅牢なセキュリティが必要です。このセッションでは、Anthropic のリスクガバナンス責任者と AWS のセキュリティリーダーが、AWS と Anthropic が LLM とそれが可能にする生成 AI ワークロードのためのエンタープライズグレードのセキュリティを提供するためにどのように協力しているかを明らかにします。インフラストラクチャ、データ、モデルにまたがる多層的なセキュリティアプローチについて学びます。実際のセキュリティアーキテクチャ、ガバナンスフレームワーク、リスク軽減戦略を探ります。厳格なセキュリティとコンプライアンス要件を維持しながら、組織の AI イニシアチブを加速するために AWS と Anthropic のセキュリティ機能を活用する方法についての理解を深めることができます。

SEC304 | ブレイクアウトセッション | Amazon.com testing frameworks and tools for GenAI security and privacy (Amazon.com の生成 AI セキュリティとプライバシーのためのテストフレームワークとツール)
スピーカー: Alex Torres (AWS), Josh Haycraft (Amazon), & Jess Clark (Amazon)
生成 AI ソリューションは、ユニークで急速に変化するセキュリティ環境で立ち上げられています: 顧客データでトレーニングされる可能性があり、内部サービスやデータストアと統合される可能性があり、生成されたコンテンツを顧客や他のシステムに提供します。Amazon.com が大規模言語モデルと生成 AI を活用して顧客とのやり取りを豊かにし、俊敏性とイノベーションを促進するためのツールキット、システム、フレームワークをどのように作成しているかを学びます。

TDR301 | ブレイクアウトセッション | Innovations in AWS detection and response for integrated security outcomes (統合されたセキュリティ成果のための AWS 検出と対応の革新)
スピーカー: Himanshu Verma (AWS) & Ryan Holland (AWS)
最新の AWS 検出および対応機能がクラウド環境をより効果的に保護する方法を発見してください。強化された脅威検出、自動化された脆弱性管理、合理化された対応を通じて、すべてスケールで統合されたセキュリティ成果を達成するための実践的な方法を学びます。AWS セキュリティサービスを使用してワークロードとデータを保護し、セキュリティ監視を一元化し、セキュリティポスチャを継続的に管理し、セキュリティ運用のために生成 AI を活用しながら、セキュリティデータを統合する方法をお見せします。AWS 検出および対応サービスを統合して AWS 全体でセキュリティを強化し簡素化するための実用的な洞察を得ることができます。

SEC431 | チョークトーク | Dive deep into data protection architectures for Amazon Bedrock Agents (Amazon Bedrock エージェントのデータ保護アーキテクチャを深く掘り下げる)
スピーカー: Andrew Kane (AWS) & Gabrielle Dompreh (AWS)
このチョークトークに参加して、Amazon Bedrock がエージェントおよびナレッジベースやガードレールなどの関連機能全体でデータをどのように保護するかを理解してください。クロスリージョンデプロイ、マルチエージェントコラボレーション、プロンプトキャッシュのセキュリティ考慮事項について学びます。データ保護を維持する安全な生成 AI ソリューションのアーキテクティングに関する深い洞察を得て、アプリケーションを安全かつセキュアに保つアーキテクチャパターンを発見してください。

APS231 | チョークトーク | Using AWS services to mitigate the OWASP Top 10 for LLM threats (AWS サービスを使用して LLM の OWASP トップ 10 の脅威を軽減する)
スピーカー: Mark Keating (AWS) & Cameron Smith (AWS)
生成 AI のユースケースを特定し、テストして、セキュアなアプリケーションアーキテクチャ設計を作成しています。生成 AI 特有の脅威から保護するために、どのような脅威に対して保護すべきか、また利用可能なツールやサービスは何かをどのように知ることができるでしょうか?LLM アプリケーションの OWASP トップ 10 について聞いたことがあるかもしれませんが、どこから、またはどのように始めればよいでしょうか?OWASP トップ 10 の脅威、バージョン間の違い、そして AWS がこれらの脅威を軽減するためにどのように役立つかについて議論します。

DAP332 | チョークトーク | Executive perspective: Risk management for generative AI workloads (エグゼクティブの視点: 生成 AI ワークロードのリスク管理)
スピーカー: Jason Garman (AWS) & Mark Ryland (AWS)
責任ある AI の認識された複雑さが、AWS での生成 AI アプリケーションのデプロイを妨げないようにしましょう。このチョークトークでは、AI の安全性とセキュリティリスクを分解するためのフレームワークを提示し、ゼロトラスト原則を使用して生成 AI アプリケーションでエンタープライズデータを安全に保つための AWS のベストプラクティスを紹介し、Bedrock ガードレールなどのテクノロジーを使用して安全性リスクを軽減します。セキュリティリーダーの仲間とともにグループとして、ワークロードに関連する安全性とセキュリティリスクを特定し、適切な軽減戦略を実装し、時間の経過とともに効果を測定する方法を発見してください。

GRC337 | チョークトーク | Build compliant AI: Implementing controls for emerging regulations (コンプライアントな AI の構築: 新たな規制のための制御の実装)
スピーカー: Samuel Waymouth (AWS) & Mark Keating (AWS)

AI の採用が加速するにつれて、組織はますます規制の監視とコンプライアンス要件に直面しています。このセッションでは、AI、データプライバシー、データ主権に関する進化するグローバルな規制環境について学び、規制要件とセキュリティ制御を AWS サービスと機能にマッピングする方法を見ていきます。生成 AI が評価、リスク分類、コンプライアンスガイダンスの生成のためのツールとしてどのように機能するかを実演します。また、AWS が開発した最新の脅威モデリングリソースの使用方法も紹介します。セキュリティの専門家と AI の実務者は、イノベーションの速度を維持しながら、コンプライアンス基準に沿った AI システムを構築するための実用的な戦略を学ぶことができます。

SEC221 | ライトニングトーク | Raising the tide: How AWS is shaping the future of secure AI (新時代を創る: AWS が安全な AI の未来をどのように形作っているか)
スピーカー: Matt Saner (AWS)
AI セキュリティは AWS の最優先事項です。設計上安全な AI ソリューションを構築することで、AWS はお客様が新たな脅威を軽減しながら自信を持って迅速にイノベーションを行うのを支援します。しかし、AI の保護は個々の組織を超えて、業界全体の標準とベストプラクティスを必要とします。AWS は、CoSAI (安全な AI のための連合) などの業界標準団体への参加を含め、AI 技術が安全で、回復力があり、信頼できるものであることを確認するために、グローバルな AI セキュリティの取り組みに積極的に貢献しています。このセッションでは、AWS が AI セキュリティイノベーションをリードし、お客様を保護し、業界全体の AI セキュリティの未来を形作るために協力している方法を探ります。

SEC322 | ライトニングトーク | Managing digital identity in the age of generative AI (生成 AI 時代のデジタル ID の管理)
スピーカー: Arthur Mnev (AWS) & Lily Ashidam (AWS)
このセッションでは、生成 AI ワークロードでの ID 管理の課題と解決策を探ります。このセッションでは、LLM の API アクセスの保護、AI サービスの適切な認証の実装、データリネージュの維持について取り上げます。コンプライアンスとガバナンス要件を維持しながら、生成 AI アプリケーションを保護するための実践的なアプローチを学びます。

SEC323 | ライトニングトーク | A practical guide to generative AI agent resilience (生成 AI エージェントのレジリエンスに関する実践的ガイド)
スピーカー: Yiwen Zhang (AWS) & Jennifer Moran (AWS)
生成 AI エージェントが見出しや技術的な議論を支配する中、エンタープライズでの採用はまだ初期段階にあります。生成 AI エージェントのレジリエンスは、成功した実装とユーザーの信頼構築における重要な要素です。データベースの可用性、ワークロードの容量、オブザーバビリティ、ディザスタリカバリなどの従来のワークロードレジリエンスの実践は引き続き関連していますが、生成 AI エージェントは独自の課題をもたらします。このセッションでは、LLM モデルの適応性、レイテンシー管理、ツールの可用性、オブザーバビリティ、財務的持続可能性など、生成 AI エージェントのレジリエンスの重要な側面を掘り下げます。エンタープライズが信頼し維持できる堅牢で信頼性の高い生成 AI エージェントを構築するための実践的な戦略を共有します。

SEC326 | ライトニングトーク | Secure remote MCP server deployment for Gen AI on AWS (AWS での生成 AI 向けの安全なリモート MCP サーバーデプロイ)
スピーカー: Aaron Brown (AWS) & James Ferguson (AWS)
プロトコルのセキュリティと信頼の原則を実装する AWS 上の Model Context Protocol (MCP) サーバーを安全に構築およびデプロイする方法を発見してください。このセッションでは、ユーザーの同意、データプライバシー、ツールの安全性要件を強制する OAuth 2.1 認証パターンを実演します。Amazon CognitoAPI GatewayLambda を使用してプロトコル準拠を維持しながら堅牢なセキュリティ制御を実装する方法を学びます。MCP 仕様に沿った認証フロー、アクセス制御、セキュリティ監視の実践的な例を探ります。

TDR322 | ライトニングトーク | How AWS uses generative AI to advance native security services (AWS がネイティブセキュリティサービスを進化させるために生成 AI をどのように使用しているか)
スピーカー: Marshall Jones (AWS) & Himanshu Verma (AWS)
AWS がネイティブセキュリティサービスを強化するために生成 AI をどのように活用しているかを発見してください。このセッションでは、AWS が脅威検出、調査、対応を改善するためにセキュリティポートフォリオ全体で AI 機能をどのように実装しているかを実演します。Amazon GuardDutyAmazon Inspector での自動分析と自然言語セキュリティクエリを可能にする実践的な実装を探ります。AWS が生成 AI を通じてセキュリティをよりインテリジェントで効率的にする方法についての洞察を得ることができます。

インタラクティブセッション (ビルダーズセッション、コードトーク、ワークショップ)

AWS の専門家が主導する小グループと対話して、AWS での構築方法について対話型学習を行います。各ビルダーズセッションは、参加者が構築するものについての短い説明またはデモから始まり、その後は構築する番です!専門家がこのハンズオン体験を最初から最後までガイドします。または、コードトークに参加してください。これは AWS の専門家がライブコーディングやコードサンプルを特集し、AWS ソリューションの「なぜ」を説明するコード重視のインタラクティブセッションです。参加者は質問をしたり、一緒に進めることが奨励されています。

ワークショップは、チームで協力するか個別に作業して AWS サービスを使用して実世界の課題を解決する 2 時間のインタラクティブセッションで、ハンズオン学習に最適です。各ワークショップは短い講義から始まり、その後、問題に取り組むための専用の時間が設けられています。

注意: AWS の専門家と一緒に構築するためにラップトップを持参することを忘れないでください。

SEC351 | ビルダーズセッション | Accelerating incident response, compliance & auditing using generative AI (生成 AI を使用したインシデント対応、コンプライアンス、監査の加速)
スピーカー: Snehal Nahar (AWS), Ravindra Kori (AWS), Rayette Toles-Abdullah (AWS), & Abhijit Barde (AWS)
このセッションでは、Slack などのエンタープライズコミュニケーションツールを使用して、インシデント後の回復時間を短縮するために AWS ネイティブの生成 AI 機能を使用する方法を学びます。また、インシデントにつながる可能性のあるイベントを特定するための検出制御と、インシデントが発生するリスクを軽減するための予防制御の使用方法も学びます。Amazon Q DeveloperAWS ConfigAWS CloudTrail LakeAmazon CloudWatch などのサービスやその他のオブザーバビリティ機能を使用します。

SEC352 | ビルダーズセッション | Agentic AI for security: Building intelligent egress traffic controls (セキュリティのためのエージェント型 AI: インテリジェントな出力トラフィック制御の構築)
スピーカー: Ranjith Rayaprolu (AWS), Anil Nadiminti (AWS), Michael Leighty (AWS), & Dwaragha Sivalingam (AWS)
クラウドインフラストラクチャを保護する AI 駆動のセキュリティエージェントの構築方法を学びます。このハンズオンセッションでは、Amazon Bedrock と Bedrock エージェントを使用して、ネットワークを監視するインテリジェントシステムを作成する方法を示します。出力トラフィックを監視し、潜在的な脅威を特定し、悪意のあるトラフィックをブロックするためにネットワークファイアウォールを自動的に更新する生成 AI エージェントを構築します。クラウドインフラストラクチャを保護するために推論、決定、行動できる AI 駆動のセキュリティエージェントを実装するスキルを身につけて帰りましょう。

SEC353 | ビルダーズセッション | Threat modeling for generative AI applications (生成 AI アプリケーションの脅威モデリング)
スピーカー: Laura Verghote (AWS), Isabelle Mos (AWS), Samuel Waymouth (AWS), & Omar Zoma (AWS)
このビルダーズセッションでは、生成 AI アプリケーション特有のセキュリティ脅威を体系的に特定および分析する方法を学びます。組織が大規模言語モデルやその他の生成 AI 機能を急速に採用するにつれて、プロンプトインジェクションからデータ汚染まで、独自のセキュリティ課題を理解することが重要になります。Amazon Bedrock などの AWS サービスを使用して構築されたアプリケーションに特に焦点を当てて、一般的な生成 AI アーキテクチャの脅威モデルを作成するプロセスをガイドします。

SEC451 | ビルダーズセッション | From logs to defense: Generative AI for security automation (ログから防御へ: セキュリティ自動化のための生成 AI)
スピーカー: Ravindra Kori (AWS), Siavash Iran (AWS), Lily Ashidam (AWS), & Yiwen Zhang (AWS)
この技術セッションでは、AWS ネイティブサービスと生成 AI を使用して、従来のオペレーティングシステムログ分析をインテリジェントな自動防御システムに変換する方法を実演します。Windows および Linux システムからセキュリティ関連のログをキャプチャする包括的なソリューションの構築方法を探ります。

APS351 | ビルダーズセッション | Securing generative AI agents using AWS Well-Architected Framework (AWS Well-Architected フレームワークを使用した生成 AI エージェントの保護)
スピーカー: Krupanidhi Jay (AWS), Ryan Dsouza (AWS), Birender Pal (AWS), & Omkar Mukadam (AWS)
AWS Well-Architected フレームワークの生成 AI レンズセキュリティベストプラクティスに従って、安全な生成 AI エージェントソリューションを構築する方法をハンズオンで学びます。エンドポイントセキュリティ、プロンプトエンジニアリングガードレール、監視システム、過剰なエージェンシーからの保護の実践的な実装を通じて、本番環境対応の生成 AI エージェントを構築します。ハンズオン演習を通じて、Amazon Bedrock、Amazon CloudWatch、AWS Identity and Access Management (IAM) などを含むこれらの制御を組み込んだ安全な生成 AI エージェントソリューションを AWS 上に構築します。参加するにはラップトップを持参する必要があります。

APS353 | ビルダーズセッション | Red teaming your LLM security at scale (スケールでの LLM セキュリティのレッドチーミング)
スピーカー: Otto Kruse (AWS), Owen Hawkins (AWS), Aaron Brown (AWS), & Jeff Lombardo (AWS)
生成 AI レッドチームチャレンジで AI 駆動のレッドチーム攻撃者の立場に立ちます。この集中ワークショップでは、AI セキュリティエージェントをデプロイして、プロンプトインジェクションから境界テストまで、生成 AI アプリケーションに対する洗練された脅威チェーンを調整し、脆弱性を体系的に発見して悪用しながら、自動化されたセキュリティテストワークフローをマスターします。さらに、プロンプトテンプレートからガードレールまでの対策を適用する方法を学びます。このハンズオン、ゲーム化された体験は、脅威アクターのように考えるのに役立ち、LLM ベースのアプリケーションの一般的な MITRE および OWASP の脆弱性に対する自動化された脆弱性テストとリスク軽減の実践的なスキルを身につけることができます。参加するにはラップトップを持参する必要があります。

GRC354 | ビルダーズセッション | Best practices for using generative AI to manage cloud compliance (クラウドコンプライアンス管理に生成 AI を使用するためのベストプラクティス)
スピーカー: Adnan Bilwani (AWS), Ali Maaz (AWS), Artur Rodrigues (AWS), & Peter Pereira (AWS)
Amazon Q Developer を活用して AWS Config を使用したクラウドコンプライアンス管理を合理化する方法を学びます。このハンズオンビルダーズセッションでは、生成 AI 機能を使用してインテリジェントなコンプライアンスチェックを作成し、修復ワークフローを自動化し、詳細なコンプライアンスレポートを生成する方法を実演します。実践的な演習を通じて、生成 AI の力と AWS Config の堅牢なコンプライアンスフレームワークを組み合わせた自動化されたコンプライアンス監視を実装する方法を学びます。参加するにはラップトップを持参する必要があります。

IAM451 | ビルダーズセッション | Securing GenAI apps: Fine-grained access control for Bedrock Agents (生成 AI アプリの保護: Bedrock エージェントのきめ細かなアクセス制御)
スピーカー: Edward Sun (AWS), Pravin Nair (AWS), Dustin Ellis (AWS), & Kevin Hakanson (AWS)
組織のデータにアクセスする生成 AI アプリケーションを保護したいですか?Amazon Bedrock を活用したアプリケーションが組織のデータにアクセスするためのインテリジェントなアクセス制御を実装する方法を学びます。このビルダーズセッションでは、Amazon Cognito を使用した認証と Amazon Verified Permissions を使用したきめ細かな認可を組み合わせた多層防御アプローチを構築して、Bedrock AI エージェントのアクセスを保護します。生成 AI 機能を制限することなく機密データを保護する階層化されたアクセス許可を実装します。参加するにはラップトップを持参する必要があります。

TDR251 | ビルダーズセッション | Build your first AI security assistant with Amazon Q (Amazon Q で最初の AI セキュリティアシスタントを構築する)
スピーカー: Scott Taggart (AWS), Joe Wagner (AWS), Laura Verghote (AWS), & Riggs Goodman III (AWS)
Amazon Q Business を使用して最初の AI 駆動のセキュリティアシスタントを構築する方法を発見してください – AI の専門知識は必要ありません。このハンズオンセッションでは、セキュリティの検出結果をコンテキスト化する自動化された Amazon GuardDuty インシデント調査員、ポリシー評価を合理化する AWS Security Hub コンプライアンスレポートジェネレーター、修復を加速する Amazon Inspector ベースの脆弱性管理ヘルパーという 3 つの実用的なセキュリティワークフローを作成します。生成 AI で AWS セキュリティ運用を強化したいセキュリティ実務者に最適で、実践的なアプリケーションを通じて AWS の主要なセキュリティサービスをマスターできます。参加するにはラップトップを持参する必要があります。

IAM441 | コードトーク | The right way to secure AI agents with code examples (コード例で見る AI エージェントを保護する正しい方法)
スピーカー: Jeff Lombardo (AWS) & Fei Yuan (AWS)
生成 AI エージェントは人間のユーザーに代わってタスクを実行し、オンプレミス環境や異なるクラウドプロバイダー間で相互に対話することがよくあります。これにより、エージェント型 AI ソリューション全体で ID 認証、伝播、委任、リソース認可に新たな課題がもたらされます。Amazon Cognito の OAuth2 ベースの ID 管理、マシン間認証と、Amazon Verified Permissions のきめ細かな認可を組み合わせることで、人間の ID と同意、エージェントのマシン ID、およびエージェントチェーン全体の他のリクエストコンテキストを保持しながら、AI エージェントの安全な委任パターンを有効にする方法を学びます。Amazon Bedrock または他のフレームワークで構築されたエージェントを使用した実世界の例を紹介します。

TDR341 | コードトーク | Build AI security agents with Amazon Bedrock and Amazon Security Lake (Amazon Bedrock と Amazon Security Lake を使用した AI セキュリティエージェントの構築)
スピーカー: Chris Lamont-Smith (AWS) & Pratima Singh (AWS)
このコードトークでは、Amazon Bedrock と Amazon Security Lake を使用して AI エージェントを作成することでセキュリティ運用を強化する方法を探ります。ライブコーディングデモを通じて、セキュリティ分析と対応のために自律的な意思決定機能と生成 AI を組み合わせた自動化されたワークフローを構築する方法を学びます。ログを分析し、コンテキストに応じた洞察を提供し、対応手順を実行するエージェントを実装する方法を見てください。セキュリティワークフローにカスタムツールを統合し、大規模言語モデルを活用するための実践的なアプローチを発見してください。

SEC371 | ワークショップ | Red Team approaches to practical generative AI defenses (実践的な生成 AI 防御へのレッドチームアプローチ)
スピーカー: Mac Stevens (AWS) & Cameron Smith (AWS)
このワークショップでは、Amazon Bedrock、Amazon SageMaker、および関連サービスに焦点を当てた生成 AI セキュリティへのハンズオンアプローチを取ります。まず、推論中のデータ保護や、エージェント、ガードレール、ナレッジベースなどの機能におけるデータ保護など、Bedrock の中核的なセキュリティ原則を検討します。参加者は、コンテキストウィンドウ、システムプロンプト、エージェントオーケストレーションなどの内部アーキテクチャとセキュリティへの影響について洞察を得ることができます。その後、セッションは SageMaker を使用したハンズオンのレッドチーミング演習に移行します。その後、これらの脅威ベクトルに対する防御戦略を探り、これらの実践を開発ワークフローに統合する方法について議論します。参加者は、個々のモデル保護から複雑なマルチコンポーネントシステムの保護まで、生成 AI セキュリティの全体的な理解を身につけて帰ることができます。

APS371 | ワークショップ | Securing your generative AI applications on AWS (AWS での生成 AI アプリケーションの保護)
スピーカー: Mark Keating (AWS) & Maitreya Ranganath (AWS)
このワークショップでは、AWS サービスと機能を使用して生成 AI アプリケーションを保護する方法を発見してください。脆弱なサンプル生成 AI アプリケーションをデプロイし、セキュリティ問題から保護、検出、対応するためのセキュリティ制御を層状に適用する方法を探ります。組織の生成 AI アプリケーションに同様の制御を適用する方法を学びます。参加するにはラップトップを持参する必要があります。

DAP371 | ワークショップ | Defend your AI: Mitigate prompt injection with Amazon Bedrock (AI を守る: Amazon Bedrock でプロンプトインジェクションを軽減する)
スピーカー: Anthony Harvey (AWS) & Jeremy Schiefer (AWS)
このハンズオンワークショップを通じて、生成 AI システムのプロンプトインジェクション脆弱性を特定および軽減する技術をマスターしてください。Amazon Bedrock を使用して、参加者は本番環境での大規模言語モデルのセキュリティへの影響を理解するために、攻撃的および防御的なプロンプトエンジニアリング技術の両方を探ります。このセッションでは、プロンプトインジェクション攻撃の仕組みを理解し、シミュレートされた AI 環境を悪用しようとする対話型の「キャプチャ・ザ・フラッグ」スタイルのチャレンジを完了し、Amazon Bedrock ガードレールを使用して防御制御を実装する方法を学びます。参加するにはラップトップを持参する必要があります。

今すぐ登録を!

AI 実装のセキュリティについて業界の専門家や AWS のリーダーから学ぶこの機会をお見逃しなく。今すぐ AWS re:Inforce 2025 に登録して、これらのセッションに参加しましょう。他のトラックのセッション、パートナーセッション、コードトークについて詳しく知るには、re:Inforce カタログ全体をご覧ください。

この記事に関する質問がある場合は、AWS サポートにお問い合わせください。

Margaret Jonson

Margaret Jonson

Margaret は AWS 生成 AI セキュリティのシニアプロダクトマーケティングマネージャーで、AI/ML チームと協力して、Amazon Bedrock、Amazon SageMaker、Amazon Q、その他の AI/ML ソリューション全体で安全でガバナンスされた AI ソリューションを実装するお客様を支援しています。

Matt Saner

Matt Saner

AWS のシニアマネージャーとして、Matt は世界で最も複雑な組織が重要なセキュリティ課題に取り組むのを支援するセキュリティスペシャリストのチームをリードしています。Matt とそのチームは、セキュリティ組織を戦略的なビジネスイネーブラーに変革するために取り組んでいます。AWS に入社する前、Matt は金融サービス業界で 20 年近くを過ごしました。仕事以外では、Matt は一般航空機を飛ばすことに喜びを見出すパイロットです。

本ブログは Security Solutions Architect の 中島 章博 が翻訳しました。