Passa al contenuto principale

Amazon Bedrock Guardrails

Implementa misure di protezione personalizzate in base ai requisiti delle applicazioni e alle politiche di IA responsabile

Crea applicazioni di IA responsabile con Guardrails

Amazon Bedrock Guardrails offre protezioni configurabili per aiutare a creare applicazioni di IA generativa su larga scala in modo sicuro. Con un approccio coerente e standard utilizzato in un'ampia gamma di modelli di fondazione (FM), inclusi i modelli FM supportati in Amazon Bedrock, modelli ottimizzati con fine-tuning e modelli ospitati all'esterno di Amazon Bedrock, Guardrails offre protezioni di sicurezza leader del settore:

  • Utilizza il ragionamento automatico per ridurre al minimo le allucinazioni dell'IA, identificando le risposte corrette del modello con una precisione fino al 99%, la prima e unica misura di sicurezza dell'IA generativa in grado di farlo
  • Salvaguarda i contenuti di testo e immagini leader del settore, aiutando i clienti a bloccare fino all'88% dei contenuti multimodali dannosi.

Remitly trasforma l'assistenza clienti in modo rapido e affidabile utilizzando Amazon Bedrock

KONE potenzia l'assistenza sul campo basata sull'IA responsabile con Amazon Bedrock

Livello di sicurezza costante in tutte le applicazioni e i modelli di IA generativa

Guardrail è l'unica funzionalità di IA responsabile da un importante fornitore di cloud che ti aiuta a creare e personalizzare le protezioni di sicurezza, privacy e veridicità per le tue applicazioni di IA generativa. Valuta gli input degli utenti e modella le risposte in base a policy specifiche per i casi d'uso, fornendo un ulteriore livello di protezione oltre a ciò che è disponibile nativamente. Le protezioni di Guardrail possono essere applicate ai modelli ospitati su Amazon Bedrock o con qualsiasi modello di terze parti (come OpenAI e Google Gemini) tramite l'API ApplyGuardrail. È anche possibile utilizzare Guardrail con un framework di agenti come Strands Agents, inclusi gli agenti implementati utilizzando Amazon Bedrock AgentCore. Guardrail aiuta a filtrare le allucinazioni e a migliorare l'accuratezza fattuale attraverso verifiche contestuali sui contenuti RAG e controlli del ragionamento automatico per fornire risposte provatamente autentiche. Per ulteriori informazioni, visualizza la guida dettagliata all'implementazione di Guardrail per Amazon Bedrock.

Rileva le allucinazioni nelle risposte fornite dal modello utilizzando controlli di base contestuali

I clienti devono implementare applicazioni di IA generativa veritiere e affidabili per mantenere e accrescere la fiducia degli utenti. Tuttavia, gli FM possono generare informazioni errate a causa di allucinazioni, ad esempio deviando dall'informazione di origine, fondendo più informazioni o inventandone di nuove. Guardrails supporta controlli contestuali per contribuire a rilevare e filtrare le allucinazioni se le risposte non sono adeguate (ad esempio, informazioni nuove o inesatte dal punto di vista fattuale) rispetto alle informazioni di origine e non sono pertinenti alla domanda o alle istruzioni immesse dall'utente. I controlli di base contestuali possono consentire di rilevare allucinazioni per applicazioni RAG, di riepilogo e di conversazione, in cui le informazioni di origine possono essere utilizzate come riferimento per convalidare la risposta del modello.

Missing alt text value

I controlli del ragionamento automatico identificano le risposte corrette del modello con una precisione fino al 99% in modo da ridurre al minimo le allucinazioni

I controlli del ragionamento automatico in Guardrail per Amazon Bedrock sono la prima e unica protezione di IA generativa che aiuta a prevenire errori fattuali dovuti ad allucinazioni utilizzando un ragionamento logicamente accurato e verificabile che spiega perché le risposte sono corrette. Il ragionamento automatico aiuta a mitigare le allucinazioni utilizzando solide tecniche matematiche per validare/correggere e spiegare in modo logico le informazioni generate, assicurando che i risultati siano in linea con fatti noti e non siano basati su dati fabbricati o incoerenti. Gli sviluppatori possono creare una policy di ragionamento automatico caricando un documento esistente che definisce il giusto spazio di soluzione, ad esempio una linea guida per le risorse umane o un manuale operativo. Amazon Bedrock genera quindi una policy di ragionamento automatico e guida gli utenti nel testarla e perfezionarla. Per convalidare i contenuti generati rispetto a una policy di ragionamento automatico, gli utenti devono abilitare la policy in Guardrail e configurarla con un elenco di policy di ragionamento automatico. Questo processo di verifica algoritmica basato sulla logica garantisce che le informazioni generate da un modello siano in linea con fatti noti e non si basino su dati fabbricati o incoerenti. Questi controlli forniscono risposte veritiere da parte di modelli di IA generativa, consentendo ai fornitori di software di migliorare l'affidabilità delle proprie applicazioni per i casi d'uso in ambito risorse umane, finanza, legale, conformità e altro ancora. Guarda i video tutorial per ulteriori informazioni.

Blocca argomenti indesiderati nelle applicazioni di IA generativa

I leader delle organizzazioni riconoscono la necessità di gestire le interazioni all'interno delle applicazioni di IA generativa per un'esperienza utente pertinente e sicura. Desiderano personalizzare ulteriormente le interazioni, per rimanere concentrati su argomenti pertinenti alla loro attività e allinearsi alle policy aziendali. Utilizzando una breve descrizione in linguaggio naturale, Guardrails aiuta a definire una serie di argomenti da evitare nel contesto dell'applicazione. Guardrails contribuisce a rilevare e bloccare gli input dell'utente e le risposte dei modelli FM che rientrano negli argomenti sottoposti a restrizioni. Ad esempio, un assistente bancario può essere progettato per evitare argomenti relativi alla consulenza in materia di investimenti.

Missing alt text value

Filtra i contenuti multimodali dannosi in base alle policy di IA responsabile

Guardrails offre filtri di contenuto con soglie configurabili per contenuti di testo e immagini inappropriati. La protezione aiuta a filtrare contenuti multimodali dannosi contenenti argomenti quali incitamento all'odio, insulti, sesso, violenza e cattiva condotta (compresa l'attività criminale) e aiuta a proteggere da attacchi di prompt (iniezione di prompt e jailbreak). I filtri dei contenuti valutano automaticamente sia l'input dell'utente sia le risposte del modello per rilevare e aiutare a prevenire testo e immagini indesiderati e potenzialmente dannosi. Ad esempio, un sito di e-commerce può progettare il proprio assistente online per evitare l'uso di un linguaggio inappropriato, come incitamento all'odio o insulti.

Missing alt text value

Redazione di informazioni sensibili, come le informazioni di identificazione personale (PII), per proteggere la privacy.

Guardrails consente di rilevare contenuti sensibili, come le informazioni di identificazione personale (PII), all'interno degli input degli utenti e nelle risposte dei modelli FM. È possibile selezionare da un elenco di PII o definire un tipo di informazioni sensibili personalizzato utilizzando espressioni regolari (RegEx). In base al caso d'uso, è possibile rifiutare selettivamente gli input contenenti PII oppure oscurare le PII nelle risposte dei modelli FM. Ad esempio, è possibile oscurare le informazioni personali degli utenti durante la generazione di riepiloghi delle trascrizioni delle conversazioni tra clienti e agenti in un call center.

Missing alt text value