TwelveLabs の高度な動画理解モデル Marengo Embed 3.0 が Amazon Bedrock で利用可能に
TwelveLabs の Marengo Embed 3.0 が Amazon Bedrock で利用できるようになりました。これにより、動画コンテンツを扱うデベロッパーや組織は、高度な動画ネイティブのマルチモーダル埋め込み機能を利用できます。Marengo 埋め込みモデルは、動画、画像、音声、テキストを 1 つの表現空間に統合します。これにより、あらゆる形式のデータ間での検索、レコメンデーションシステム、その他のマルチモーダルタスクなどのために、高度な動画検索アプリケーションや、コンテンツ分析アプリケーションを業界最高水準の性能で構築できます。
Marengo 3.0 では重要な機能強化がいくつか導入されています。動画処理性能の強化: 最大 4 時間の動画コンテンツおよび音声コンテンツ、最大 6 GB のファイルが処理可能になりました。これは、以前のバージョンの 2 倍の性能であり、スポーツの試合全体、長時間のトレーニング動画、映画作品全体の分析に最適です。スポーツ分析機能の強化: このモデルは、試合の流れや選手の動きの理解、およびプレーや得点といったイベントの検出において大幅に性能が向上しました。グローバルな多言語サポート: 対応言語数が 12 言語から 36 言語に拡張されたため、グローバルな組織はさまざまな地域や市場でシームレスに機能する統合検索システムを構築できます。マルチモーダル検索の精度向上: ユーザーは画像と説明文を 1 つの埋め込みリクエストに入力できます。このモデルは、画像の見た目のみでなく、テキストの意味も考慮して、より正確で文脈に沿った検索結果を提供します。
AWS は、TwelveLab の Marengo 3.0 モデルを提供する最初のクラウドプロバイダーであり、このモデルは現在、米国東部 (バージニア北部)、欧州 (アイルランド)、アジアパシフィック (ソウル) で利用可能です。このモデルは、低遅延のテキストと画像の埋め込み用の同期推論と、動画、音声、大規模な画像ファイルの処理用の非同期推論をサポートしています。 使用を開始するには、Amazon Bedrock コンソールにアクセスしてください。詳細については、製品ページとドキュメントをご覧ください。