Überspringen zum Hauptinhalt

Kosten, Latenz und Genauigkeit optimieren

Mit Tools zur Bewertung und Optimierung der KI in jeder Phase die Genauigkeit und Leistung steigern bei gleichzeitiger Kostenkontrolle

Keine Kompromisse bei der Leistung mehr

Amazon Bedrock hilft Ihnen dabei, das richtige Gleichgewicht zwischen Kosten, Latenz und Genauigkeit zu finden, sodass Ihre generativen KI-Anwendungen effizient laufen, ohne zu hohe Kosten zu verursachen. Mit Funktionen wie Modelldestillation, Intelligent Prompt Routing, Prompt-Caching und flexiblen Inferenzoptionen Inferenzoptionen – von On-Demand über Batch bis hin zu bereitgestellter Durchsatzkapazität – erhalten Sie mit Amazon Bedrock die Kontrolle, um Ihre Modelle über verschiedene Anwendungsfälle hinweg zu optimieren und mit Zuversicht zu skalieren. Ganz gleich, ob Sie Echtzeit- oder Batch-Workloads bereitstellen – mit Amazon Bedrock können Sie intelligentere, schlankere und kostengünstigere KI-Systeme erstellen.

Missing alt text value

Verbessern Sie die Leistung. Senken Sie die Kosten.

Verwenden Sie Prompt-Caching, um bei unterstützten Modellen die Kosten um bis zu 90 % und die Latenz um bis zu 85 % zu reduzieren.

Bei vielen Basismodellen (Foundation Model, FM) werden bestimmte Teile von Prompts (Präfixen) in API-Aufrufen wiederverwendet. Mit dem Prompt-Caching können Sie bei unterstützten Modellen diese wiederholten Prompt-Präfixe zwischen Anfragen zwischenspeichern. Durch diesen Cache kann das Modell die Neuberechnung übereinstimmender Präfixe überspringen.

  • Verbessern Sie die Leistung für mehrere Anwendungsfälle
  • Speichern Sie Sie die relevanten Teile Ihres Prompts zwischen, um Kosten für Eingabetoken zu sparen
  • Integrieren Sie die Funktionen von Amazon Bedrock, um mehrstufige Aufgaben oder längere System-Prompts zu beschleunigen und das Verhalten Ihrer Agenten zu verfeinern, ohne Ihre Antworten zu verlangsamen
Missing alt text value

Beschleunigen Sie das Prompt-Engineering für generative KI-Anwendungen

Das Amazon Bedrock Prompt Management vereinfacht die Erstellung, Auswertung, Versionsverwaltung und Ausführung von Prompts, damit Entwickler die besten Antworten aus FMs für ihre Anwendungsfälle erhalten.

  • Mit Prompt Management können Sie verschiedene FMs, Konfigurationen, Tools und Anweisungen testen
  • Prompt-Optimization von Prompt Management schreibt Prompts automatisch neu, um eine höhere Genauigkeit und präzisere Antworten von FMs zu erzielen.
  • Testen Sie Prompts mit den neuesten FMs sofort und ohne Bereitstellung.
  • Erstellen Sie schnell generative KI-Anwendungen und arbeiten Sie gemeinsam an der Prompt-Erstellung in Amazon SageMaker Unified Studio.
Missing alt text value

Maximale Leistung bei geringeren Kosten mit Intelligent Prompt Routing

Amazon Bedrock Intelligent Prompt Routing leitet Prompts an verschiedene grundlegende FMs innerhalb einer Modellfamilie weiter und hilft Ihnen so, die Qualität der Antworten und die Kosten zu optimieren. Intelligent Prompt Routing kann die Kosten um bis zu 30 % senken, ohne die Genauigkeit zu beeinträchtigen.

  • Amazon Bedrock leitet die Anfragen dynamisch an das Modell weiter, das seiner Einschätzung nach mit der geringsten Kosten die gewünschte Antwort liefern wird.
  • Mit den von Amazon Bedrock bereitgestellten Standard-Prompt-Routern sparen Sie monatelangen Aufwand beim Testen verschiedener Modelle und Erstellen komplexer Orchestrierungs-Workflows. Sie können aber auch Ihre eigenen konfigurieren.
  • Einfache Fehlerbehebung mit vollständig rückverfolgbaren Anfragen
Missing alt text value

Destillierte Modelle in Amazon Bedrock sind bis zu 500 % schneller und bis zu 75 % günstiger als Originalmodelle, mit einem Genauigkeitsverlust von weniger als 2 % für Anwendungsfälle wie RAG.

Verwenden Sie kleinere, schnellere und kostengünstigere Modelle, die anwendungsfallspezifische Genauigkeit bieten – vergleichbar mit den fortschrittlichsten Modellen in Amazon Bedrock.

Stimmen Sie ein Schülermodell mit einem Lehrermodell ab, das die gewünschte Genauigkeit hat.

  • Die Leistung destillierter Modelle mit proprietärer Datensynthese maximieren
  • Senken der Kosten durch einfache Bereitstellung Ihrer Produktionsdaten. Mit der Modelldestillation können Sie Prompts bereitstellen und diese dann verwenden, um synthetische Antworten zu generieren und die Schülermodelle zu optimieren.
  • Genauigkeit der Vorhersage von Feature-Aufrufen für Agenten erhöhen. Ermöglicht kleineren Modellen, Feature-Aufrufe genau vorherzusagen, um so wesentlich schnellere Reaktionszeiten zu erzielen und die Betriebskosten zu senken.
Missing alt text value