Com'era questo contenuto?
Una checklist di sette passaggi per rendere le tue applicazioni di IA generativa capaci di contrastare qualsiasi minaccia IT

L'IA generativa ha registrato una crescita esplosiva negli ultimi anni, con applicazioni che stanno trasformando il modo in cui le startup creano contenuti, analizzano i dati e prendono decisioni critiche. Le organizzazioni utilizzano sempre più spesso la potenza dei modelli di IA generativa per creare applicazioni personalizzate. Pertanto, le startup che sperimentano e utilizzano l'IA generativa devono fare della sicurezza e dell'uso responsabile una priorità assoluta.
In questo post, abbiamo sviluppato una checklist di sette elementi che delinea le misure essenziali di sicurezza e conformità da prendere in considerazione quando si spostano le applicazioni basate sull'IA generativa dalla fase di sperimentazione a quella produzione.
1. Stabilire un quadro di governance e un processo di conformità
2. Rivedere e rispettare il Contratto di licenza con l'utente finale (EULA) del fornitore del modello linguistico di grandi dimensioni (LLM) e le politiche sull'utilizzo dei dati
3. Implementare controlli degli accessi completi
4. Mitigare i rischi di input e output
5. Proteggere i propri dati
6. Proteggere il proprio perimetro
7. Implementare misure per il monitoraggio completo e la risposta agli incidenti
L'implementazione della checklist aiuterà la tua startup a mitigare i rischi, proteggere i dati e conservare la fiducia degli utenti. Più elementi spunterai maggiore sarà la tua difesa, ma non è necessario che tu soddisfi ogni punto della checklist, poiché ciò dipenderà dalle esigenze della tua applicazione.
I controlli di sicurezza richiesti variano a seconda del tipo di modello (pre-addestrato, riaddestrato con il fine tuning o personalizzato) utilizzato per creare l'applicazione. Noi ci concentreremo sulle applicazioni create utilizzando modelli pre-addestrati, poiché questo ci consentirà di rispondere ai casi d'uso della maggior parte dei clienti.


1. Stabilire un quadro di governance e un processo di conformità
L'istituzione di un quadro completo di governance e conformità è la base per l'implementazione dell'IA responsabile. Le persone e i processi sono fondamentali, quindi parti dalla creazione di un comitato interfunzionale per la governance dell'IA scegliendo esperti in materia provenienti dall'Ufficio Legale, Sicurezza IT e dalle unità aziendali pertinenti. Questo comitato dovrebbe creare e applicare politiche specifiche per la tua applicazione dell'IA generativa, che coprano la gestione dei dati, la selezione dei modelli e le linee guida sull'uso.
In seguito, sviluppa una checklist della conformità personalizzata sulla base dei regolamenti del tuo settore (come GDPR o PCI DSS). Questa dovrebbe comprendere le misure per la privacy dei dati, la gestione dei consensi e i requisiti di trasparenza. Attua una revisione periodica della conformità, ad esempio effettuando audit trimestrali, così da avere la certezza di essere in linea con le norme in continua evoluzione. Dai un'occhiata a questi blog per ulteriori indicazioni: Dimensionare un programma di governance, rischio e conformità per il cloud, le tecnologie emergenti e l'innovazione e Rendere sicura l'IA generativa: dati, conformità e considerazioni sulla privacy.
Infine, configura un sistema di documentazione per tenere traccia delle decisioni, delle modifiche e dello stato di conformità della tua applicazione di IA generativa. Includi funzionalità come il controllo della versione per le politiche, i registri di controllo per le modifiche ai modelli e una dashboard per lo stato di conformità. Questo sistema non ti aiuterà solo a rimanere conforme, ma ti fornirà anche le prove necessarie durante gli audit esterni.


2. Rivedi e rispetta l'EULA e le politiche sull'utilizzo dei dati del fornitore del LLM
È fondamentale comprendere le limitazioni e i requisiti specifici per mantenere la conformità ed evitare potenziali problemi legali. Prima di integrare un modello pre-addestrato nella tua applicazione, consulta l'EULA e le politiche sull'utilizzo dei dati del fornitore del LLM che hai scelto. Presta particolare attenzione alle clausole relative alla gestione dei dati, agli output del modello e alle restrizioni per l'uso commerciale. Per gli utenti di Amazon Bedrock, fare riferimento ad Accedi ai modelli di fondazione di Amazon Bedrock. Se stai effettuando autonomamente l'implementazione su Amazon SageMaker, visualizza le origini del modello nella pagina relativa ai dettagli del modello.
Oltre a garantire la conformità, prestare attenzione ai nuovi aggiornamenti può anche offrire opportunità interessanti. Ad esempio, la licenza Meta Llama 3.1 è considerata più permissiva rispetto alle precedenti poiché apre nuovi casi d'uso, come l'analisi di documenti voluminosi e la creazione di chatbot multilingue avanzati per un uso globale. Indipendentemente dal modello scelto, la revisione regolare di questi aspetti ti consente di avere la certezza che la tua applicazione possa trarre vantaggio da nuove opportunità.


3. Implementare controlli degli accessi completi
Durante lo sviluppo e l'implementazione della tua applicazione di IA generativa, avrai bisogno di solidi controlli di accesso per proteggere il tuo sistema e i tuoi dati. Ciò include l'impostazione delle politiche di autenticazione, autorizzazione e accesso ai dati degli utenti, rispettando al contempo il Principio del privilegio minimo (PoLP). L'idea alla base del PoLP è che utenti e servizi ottengano solo l'accesso di cui hanno bisogno per svolgere il proprio lavoro. Seguendo il PoLP, i team possono ridurre i rischi potenziali per la sicurezza e rendere più difficile agli aggressori trovare un modo per entrare.
Inizia implementando l'autenticazione degli utenti attraverso servizi come Amazon Cognito o Autorizzazioni verificate da Amazon, e configura i controlli di autorizzazione per rispettare il PoLP. Ecco un esempio di come puoi utilizzare i token JWT di Amazon Cognito per eseguire la propagazione dell'identità e l'autorizzazione granulare:

Imposta i controlli degli accessi ovunque nella tua app di IA generativa, inclusi LLM, database, sistemi di archiviazione, ed eventuali servizi connessi o API. Usa modelli a cui è possibile accedere tramite credenziali temporanee di breve durata (come quelle su Amazon Bedrock o Amazon SageMaker), per mantenere l'accesso sicuro e più facile da gestire. Amazon Bedrock ti consente inoltre di controllare esattamente chi può accedere a quali modelli, in modo da bloccare l'accesso dove necessario.
Successivamente, assicurati che le sessioni utente e i contesti di conversazione siano isolati implementando meccanismi per impedire agli utenti di accedere ai contenuti, alle cronologie delle sessioni o alle informazioni di conversazione di altri utenti. Utilizza degli identificatori di sessione univoci per gli utenti e convalidali ogni volta che un utente accede al sistema. L'implementazione della gestione delle sessioni lato server ti consentirà di registrare le cronologie e il contesto delle conversazioni in archivi di dati isolati per ciascun utente.
Per le implementazioni della Generazione potenziata da recupero dati (RAG), è fondamentale gestire l'accesso alle basi di conoscenze utilizzate per aumentare le risposte LLM. Per rendere questo più facile, puoi utilizzare le Basi di conoscenze di Amazon Bedrock con filtraggio dei metadati, che fornisce controlli di accesso integrati per garantire che gli utenti recuperino solo le informazioni a cui sono autorizzati ad accedere. Se gestisci il tuo RAG, usa Amazon Kendra per filtrare le risposte in base alle autorizzazioni degli utenti. Fai riferimento al diagramma di cui sopra (passaggio 5) per un'illustrazione di come funziona il filtraggio dei metadati.


4. Mitigare i rischi di input e output
Dopo aver implementato i controlli degli accessi, puoi concentrarti sui meccanismi di valutazione per stimare e mitigare i rischi associati agli input degli utenti e agli output dei modelli nella tua applicazione di IA generativa. Questo contribuisce a proteggerti da vulnerabilità come attacchi di iniezione di prompt, generazione di contenuti inappropriati o allucinazioni.
Puoi semplificare questo processo utilizzando Amazon Bedrock Guardrails. Guardrails consente di configurare le difese per l'input di prompt e l'output di modelli applicabili a tutti gli LLM su Amazon Bedrock, inclusi modelli ottimizzati con fine-tuning e persino applicazioni di IA generativa esterne ad Amazon Bedrock.
Come ulteriore precauzione, puoi implementare un catalogo di prompt verificati (un set preapprovato di prompt per attività comuni) utilizzando Gestione prompt di Amazon Bedrock, per gestire i prompt in modo efficace e proteggere il LLM da istruzioni dannose.
La convalida dell'output è altrettanto importante. Le risposte LLM devono essere trattate con cautela: se il modello sta generando query di codice o database (che verranno passate ad altri componenti), dovresti trattare il suo output come se provenisse da un utente non attendibile. Controlla sempre le autorizzazioni ed esegui i controlli di sicurezza prima di lasciare che interagisca con altri sistemi. Usa metodi sicuri come le query parametrizzate per i database e rivedi la struttura di qualsiasi SQL generato prima di utilizzarlo. Puoi anche limitare i rischi utilizzando modelli di prompt all'interno dei prompt di sistema per controllare il formato delle risposte del modello.
Se i tuoi LLM generano comandi o un codice di sistema, è fondamentale utilizzare misure di sicurezza efficaci. Per prima cosa, utilizza rigorosi controlli di convalida. Ciò include l'uso degli "elenchi consentiti", il controllo della sintassi e la comprensione di ciò che il codice sta cercando di fare. Per linguaggi come JavaScript o Markdown, codifica sempre l'output prima di mostrarlo agli utenti per proteggerlo da potenziali vulnerabilità. Se il codice dell'IA deve essere eseguito, assicurati di farlo in un ambiente sandbox (isolato) per proteggere il tuo sistema principale in caso di problemi.


5. Proteggere i propri dati
In seguito, assicurati di proteggere i dati che il tuo modello utilizza e a cui risponde (come le query degli utenti, i contesti aggiuntivi e le basi di conoscenza utilizzate nei sistemi RAG) tramite la crittografia.
Tutto questo diventa facile con l'uso di servizi quali il Servizio AWS di gestione delle chiavi per la gestione, l'archiviazione e la rotazione sicure delle chiavi di crittografia, e Gestione delle identità e degli accessi AWS (IAM) per il controllo degli accessi. Puoi anche attivare il controllo delle versioni per l'archiviazione della tua base di conoscenze (come il controllo delle versioni S3) per tenere traccia delle modifiche e assicurare che i tuoi dati restino affidabili e sicuri.
Se gestisci dati sensibili, puoi anche implementare il mascheramento o il blocco dei dati utilizzando i filtri per le informazioni sensibili di Bedrock Guardrail.


6. Proteggere il proprio perimetro
Ora che i tuoi dati sono al sicuro, puoi concentrarti sulla protezione della tua infrastruttura di IA generativa. Quando utilizzi dati proprietari, assicurati di impostare un perimetro sicuro per prevenirne l'esposizione alla rete Internet pubblica. L'endpoint VPC Amazon Bedrock crea una connessione privata tra il tuo cloud privato virtuale (VPC) e l'account Amazon Bedrock, rafforzando la sicurezza dei dati e delle interazioni tra modelli.
Gli LLM utilizzano una notevole potenza di calcolo, rendendoli bersagli di abusi. Per evitare che ciò accada, puoi impostare dei limiti al numero di utenti che possono accedere alla tua applicazione. Usa AWS Web Application Firewall (WAF) per impostare questi limiti e Gateway Amazon API per controllare la frequenza delle richieste per la tua applicazione. Queste misure proteggeranno la tua infrastruttura assicurando al contempo che il sistema funzioni in modo corretto e coerente.


7. Implementare misure per il monitoraggio completo e la risposta agli incidenti
Dopo aver protetto la tua configurazione e i tuoi dati, puoi cercare di proteggere il monitoraggio del sistema. Ciò include l'implementazione di meccanismi di risposta per rilevare e risolvere rapidamente i problemi di sicurezza. Monitora le metriche di utilizzo del LLM, come il volume delle richieste, la latenza e i tassi di errore, per comprendere le prestazioni del sistema e rilevare eventuali anomalie. Amazon CloudWatch creerà degli avvisi qualora queste metriche superino i livelli impostati.
Oltre a ciò, è necessario sviluppare un piano di risposta agli incidenti per affrontare scenari quali iniezioni di prompt, output di modelli imprevisti o fughe di dati. Delinea un processo di escalation per ogni scenario, compresa la denominazione degli strumenti chiave, dei membri del team e delle loro responsabilità. Infine, configura un sistema come la corda Andon che ti consenta di spegnere rapidamente un modello, ripristinare una versione precedente o passare a una modalità sicura se qualcosa va storto. Adottare questi passaggi chiari per risolvere i problemi di sicurezza ti aiuterà a rispondere più rapidamente e a mantenere la tua applicazione AI sicura e stabile.

Conclusioni
Questa checklist di sette passaggi è una guida essenziale per fare avanzare la tua applicazione di IA generativa dalla fase di prototipazione a quella di produzione. Affrontare e agire su ogni elemento ti aiuterà a creare e implementare in modo responsabile, proteggendo sia la tua organizzazione che i tuoi utenti. E ricorda che l'IA generativa si sta evolvendo rapidamente, quindi è importante che tu ti tenga aggiornato agli ultimi sviluppi nella sicurezza dell'IA, al fine di mantenere la tua applicazione (e startup) all'avanguardia in termini di innovazione e fiducia. Dai un'occhiata a Community AWS — IA generativa per conoscere gli ultimi aggiornamenti!
Questo post illustra i controlli di sicurezza per le applicazioni che utilizzano modelli pre-addestrati. Se stai pensando di utilizzare modelli riaddestrati con il fine tuning o personalizzati, fai riferimento alla Matrice per la determinazione dell'ambito di sicurezza dell'IA generativa per comprendere i diversi rischi e le mitigazioni a cui prestare attenzione in base al tipo di modello. Puoi anche fare riferimento all'Approccio sicuro all'IA generativa o contattare il team del tuo account per ricevere ulteriore supporto.

Riza Saputra
Riza è Senior Solutions Architect presso AWS e collabora con startup di tutte le fasi per aiutarle a crescere in modo sicuro, scalare in modo efficiente e innovare più velocemente. Attualmente si concentra sull'IA generativa, che guida le organizzazioni nella creazione e nella scalabilità di soluzioni di intelligenza artificiale in modo sicuro ed efficiente. Con esperienza in diversi ruoli, settori e dimensioni aziendali, offre una prospettiva versatile per risolvere le sfide tecniche e aziendali. Riza condivide inoltre le sue conoscenze attraverso discorsi pubblici e contenuti per supportare la più ampia comunità tecnologica.

Glendon Thaiw
Glendon è a capo di un team di Startup Solution Architects a Singapore, Malesia, Indonesia e Filippine e supporta la crescita dell'ecosistema di startup del sud-est asiatico. Lavora a stretto contatto con le startup SaaS e FinTech, aiutandole a massimizzare il valore su AWS progettando soluzioni cloud scalabili e sicure. Con esperienza in tecnologie di container come Kubernetes ed EKS, Glendon guida le startup attraverso sfide tecniche e di conformità. Si dedica inoltre alla condivisione delle conoscenze, intervenendo regolarmente a eventi e creando contenuti per potenziare la comunità di startup della regione.

Ying Ting Ng
Ying Ting è Associate Security Solutions Architect presso AWS, dove supporta i clienti in crescita dell'ASEAN nella scalabilità sicura sul cloud. Esperto di sicurezza dell'IA generativa, fornisce indicazioni sulle best practice architetturali per scalare i carichi di lavoro dell'IA generativa in modo sicuro e rapido. In qualità di membro attivo di Amazon Women in Security, Ying Ting condivide spunti su come avere un impatto positivo come professionista della sicurezza informatica all'inizio della carriera.
Com'era questo contenuto?