AWS Startup ブログ
スタートアップ 3 社に学ぶ生成 AI 実装のリアル。AWS 活用の最前線【AWS Summit Japan・事例セッション】
AWS について学べる日本最大のイベント「AWS Summit Japan」が、2025 年 6 月 25 日(水)・26 日(木)の 2 日間にわたり、千葉県・幕張メッセにて開催されました。来場者数は延べ 4 万人を超え、過去最大規模での開催となりました。
「AWS Summit Japan」では、基調講演をはじめ、160 を超えるセッションや 270 以上のブース展示を実施。AWS の最新サービスや活用事例を学べるだけでなく、参加者同士によるベストプラクティスの共有や情報交換の場としても盛況を博しました。本記事では、注目を集めた以下 3 件の事例セッションについて、ダイジェスト形式でレポートします。オンライン アーカイブ配信はこちらからアクセスできますので、ぜひご覧ください。
「Amazon Bedrock で作る未来の開発サイクルとオペレーション戦略」
(スピーカー:株式会社LayerX バクラク事業部 バクラク事業 CTO 中川 佳希 氏)
「AI エージェントのための独自モデル開発秘話」
(スピーカー:カラクリ株式会社 R&D Team Tech Lead 吉田 雄紀 氏)
「Amazon Security Lake を活用したセキュリティログの集約と AI による可視化の最前線」
(スピーカー:ファインディ株式会社 CTO 室 シニア SRE 安達 涼 氏)
Amazon Bedrock で作る未来の開発サイクルとオペレーション戦略

株式会社LayerX バクラク事業部 バクラク事業 CTO 中川 佳希 氏
本セッションでは、経理や勤怠管理などのバックオフィス業務を効率化するクラウドサービス「バクラク」における生成 AI 活用の具体例、アノテーション作業の効率化に向けた仕組み、そして Amazon Bedrock を活用したアーキテクチャについて紹介がありました。
「バクラク」では、稟議・経費精算・法人カード・請求書処理といった業務において AI を積極的に活用し、ユーザーを煩雑な手作業から解放することを目指しています。これを支えるのが、「パーソナライズド AI-OCR」という独自の仕組みです。OCR により単に金額や日付といった項目を抽出するだけでなく、ユーザーのユースケースや帳票の内容を踏まえた最適な値を提示する点が特徴です。
こうした高度なモデルを構築するには、帳票データに対して正確なラベルを付与するアノテーションが不可欠ですが、この作業は非常に手間がかかります。LayerX 社では、作業のボトルネックを解消するため、アノテーション支援ツールを内製化し、構造化された学習データを効率的に作成できるようにしました。
さらに、アノテーション作業の一部に大規模言語モデル(以下、LLM)を導入しました。帳票テキストと抽出したい項目をプロンプトとして LLM に渡すことで、ゼロショットでのラベル生成を実現しています。これにより、アノテーション済みのデータがなくても素早くモデル検証を行えるようになり、開発の PDCA サイクルを大幅に短縮できました。
この LLM の基盤として採用されているのが Amazon Bedrock です。東京リージョン内で処理が完結するためデータが他国へ転送されない点や、IAM によるリソース制御の容易さ、AI モデル「Claude」の利便性などが評価され、導入が決定されたといいます。
実際の運用では、開発者が AWS Step Functions を起動し、AWS Fargate タスクを実行。Amazon S3 から取得したテキストデータを Amazon Bedrock に渡して推論を行い、その出力を Amazon Aurora に格納するという、フルマネージドなアーキテクチャを構築しています。今後は、ファインチューニングモデルの活用、日本語以外の帳票への対応、UX 改善のための LLM 活用など、さらなる進化を目指しているとのことです。
AI エージェントのための独自モデル開発秘話

カラクリ株式会社 R&D Team Tech Lead 吉田 雄紀 氏
カスタマーサポート領域に特化したサービスを提供するカラクリ株式会社では、独自の LLM 開発に取り組んでいます。本セッションでは、同社が LLM を自社開発するに至った背景や、AWS Trainium チップを活用した低コストな学習環境の構築方法について紹介がありました。
カラクリが LLM を自社開発する理由は、大きく 2 つあります。1 つ目は、汎用 LLM が「使いたくても使えない」ケースが存在するためです。たとえば、機密性の高いデータを海外に送信できない場合や、特定の LLM に依存することでアカウント停止などのリスクを抱える場合が該当します。2 つ目は、日本語のカスタマーサポート業務において求められる繊細な文脈理解や、業務アプリケーションとの密接な連携といった要件に対し、汎用モデルでは十分な性能が得られないという課題に対応するためです。
もっとも、LLM の開発には高額なコストと高度な技術が求められます。そこでカラクリでは、ゼロからの事前学習ではなく、公開されている事前学習済みモデルに対してファインチューニングを行うことで、開発コストや学習にかかる時間を大幅に削減しました。さらに、カスタマーサポートに特化した高品質な独自データセットを整備することで、効率的かつ有効な学習プロセスを実現しています。加えて、機械学習モデルのトレーニングに特化したチップである AWS Trainium を活用することで、一般的な GPU に比べて約半分のコストでの学習を可能にしました。
また、社内のスキル向上を目的として、AWS Trainium の活用経験を持つエンジニアが他のメンバーとペアプログラミングを実施。これにより、チーム全体で AWS Trainium を扱える体制を整備しました。さらに、AWS ジャパンにハンズオン支援を依頼し、より実践的なナレッジの定着も図ったといいます。
加えて本セッションでは、カラクリが取り組む次世代 AI「Computer-Using Agent」についても紹介がありました。これは、マルチモーダルな LLM が画面を読み取り、マウスやキーボードを操作して人間の代わりに業務アプリケーションを扱うという新しいアプローチです。登壇した吉田氏は、CRM の情報をもとにメールを自動作成・送信するデモを披露し、AI が実際の業務を担う未来の姿を提示しました。
Amazon Security Lake を活用したセキュリティログの集約と AI による可視化の最前線

ファインディ株式会社 CTO 室 シニア SRE 安達 涼 氏
ファインディ社は「挑戦するエンジニアのプラットフォームをつくる」をビジョンに掲げ、エンジニア向け転職サービス「Findy」や、開発生産性を可視化する「Findy Team+」など、複数のサービスを展開しています。安達氏は同社において、セキュリティログの統合・分析基盤の設計・構築を担当し、AI による自動分析にも挑戦してきました。本セッションでは、同社が AWS のセキュリティログを一元的に管理・可視化するために導入した Amazon Security Lake の活用事例が紹介されました。
Amazon Security Lake は、フルマネージド型のセキュリティデータレイクであり、AWS CloudTrail・VPC フローログ・AWS WAF ログなど多様なログを OCSF 形式で統一し、Amazon Athena などから効率的に分析できるようにするサービスです。
ファインディ社では、Amazon Athena によるクエリ実行と可視化のために Amazon Managed Grafana を併用しています。Amazon Managed Grafana では、AWS の各種コンポーネントごとにダッシュボードを構築し、Bot アクセスの傾向分析や、Amazon EC2 インスタンスの不正作成検知などを実現しています。
また、セッションの後半では、Amazon Security Lake のログを活用して、Amazon Bedrock と Slack を連携させた社内向け AI 分析ツール「Findy SRE-AI」も紹介されました。このツールでは、Slack 上で自然言語を使って「先週の○○の数は?」のように問い合わせると、その結果を自動応答します。加えて、日常的な監視業務や月次レポートの作成といった業務についても、自動化が進みつつあります。
セッションの終盤で安達氏は、「Amazon Security Lake によってログ形式の統一や分析基盤の標準化が実現できました。運用はシンプルになり、チームの文化作りにも生かされています」と語り、今後は AI を活用したセキュリティの予兆検知にも取り組んでいく方針を示して締めくくりました。
——————————
各社のセッションでは、スタートアップが取り組む最新の研究・開発や AWS の各種サービスの活用方法など、有益な知見が語られました。冒頭で記載したリンクからアーカイブをご覧になれますので、当日イベントに参加できなかった方やもう一度視聴したい方はぜひご利用ください。また、来年に開催される「AWS Summit Japan」にも、奮ってご参加いただければ幸いです。