Comment a été ce contenu ?
Une liste de contrôle en sept étapes pour préparer votre application d’IA générative à la sécurité

L’IA générative a connu une croissance fulgurante ces dernières années, les applications transformant la façon dont les start-ups créent du contenu, analysent les données et prennent des décisions critiques. Les organisations utilisent de plus en plus la puissance des modèles d’IA générative pour créer des applications personnalisées. Les start-ups qui expérimentent et utilisent l’IA générative doivent donc faire de la sécurité et de l’utilisation responsable une priorité absolue.
Dans cet article, nous partageons une liste de contrôle en sept points décrivant les mesures de sécurité et de conformité essentielles à prendre en compte lors du passage de vos applications basées sur l’IA générative de l’expérimentation à la production.
1. Mettre en place un cadre de gouvernance et un processus de conformité
2. Vérifier le contrat de licence utilisateur final (CLUF) et les politiques d’utilisation des données du fournisseur de grand modèle de langage (LLM) et s’y conformer
3. Mettre en œuvre des contrôles d’accès exhaustifs
4. Atténuer les risques en entrée et en sortie
5. Protéger vos données
6. Sécurisez votre périmètre
7. Mettre en œuvre des processus exhaustifs de surveillance et de réponse aux incidents
La mise en œuvre de la liste de contrôle aidera votre start-up à atténuer les risques, à protéger les données et à maintenir la confiance des utilisateurs. Plus vous validez de contrôles de cette liste, meilleure sera votre défense, mais vous n’avez pas besoin de répondre à tous les points de contrôle, car ils dépendent des besoins de votre application.
Les contrôles de sécurité requis varient en fonction du type de modèle (pré-entraîné, ajusté ou personnalisé) que vous utilisez pour créer votre application. Nous nous concentrerons sur les applications créées à l’aide de modèles pré-entraînés, qui répondent à la plupart des cas d’utilisation des clients.


1. Mettre en place un cadre de gouvernance et un processus de conformité
La mise en place d’un cadre complet de gouvernance et de conformité constitue la base d’un déploiement d’IA responsable. Les personnes et les processus sont essentiels, alors commencez par former un comité pluridisciplinaire de gouvernance de l’IA composé d’experts en la matière issus du service juridique, de la sécurité informatique et des unités opérationnelles concernées. Ce comité doit créer et appliquer des politiques spécifiques pour votre application d’IA générative, couvrant le traitement des données, la sélection des modèles et les directives d’utilisation.
Ensuite, élaborez une liste de contrôle de conformité adaptée aux réglementations de votre secteur (comme le RGPD ou la norme PCI DSS). Cela devrait couvrir les mesures de confidentialité des données, la gestion du consentement et les exigences de transparence. Mettez en œuvre un examen de conformité régulier, comme des audits trimestriels, pour vous assurer que vous respectez les normes en cours d’élaboration. Consultez ces articles de blog pour obtenir des conseils supplémentaires : Mise à l’échelle d’un programme de gouvernance, de gestion des risques et de la conformité pour le cloud, les technologies émergentes et l’innovation et Sécurisation de l’IA générative : considérations relatives aux données, à la conformité et à la protection de la vie privée.
Enfin, configurez un système de documentation pour suivre les décisions, les modifications et l’état de conformité de votre application d’IA générative. Incluez des fonctionnalités comme le contrôle de version pour les politiques, les journaux d’audit pour les modifications apportées aux modèles et un tableau de bord pour l’état de conformité. Ce système vous aidera non seulement à maintenir la conformité, mais vous fournira également les preuves nécessaires lors des audits externes.


2. Vérifier le contrat de licence utilisateur final (CLUF) et les politiques d’utilisation des données du fournisseur de grand modèle de langage (LLM) et s’y conformer
Il est essentiel de comprendre les limites et les exigences spécifiques pour maintenir la conformité et éviter d’éventuels problèmes juridiques. Avant d’intégrer un modèle pré-entraîné dans votre application, consultez le CLUF et les politiques d’utilisation des données du fournisseur de LLM que vous avez choisi. Portez une attention particulière aux clauses relatives au traitement des données, aux résultats des modèles et aux restrictions relatives à l’utilisation commerciale. Pour les utilisateurs d’Amazon Bedrock, consultez la section Accéder aux modèles de fondation Amazon Bedrock. Si vous effectuez un déploiement automatique sur Amazon SageMaker, consultez les sources de modèles sur la page des détails du modèle.
En plus de garantir la conformité, le fait de rester à l’affût des dernières mises à jour peut également offrir des opportunités intéressantes. Par exemple, la licence Meta Llama 3.1 est considérée comme plus permissive que ses versions prédédentes, ouvrant de nouveaux cas d’utilisation comme l’analyse de longs documents et la création de chatbots multilingues avancés pour une utilisation internationale. Quel que soit le modèle que vous choisissez, l’examen régulier de ces aspects permet de vous assurer que votre application peut tirer parti des nouvelles opportunités.


3. Mettre en œuvre des contrôles d’accès exhaustifs
Lors du développement et du déploiement de votre application d’IA générative, vous aurez besoin de contrôles d’accès robustes pour protéger votre système et vos données. Cela inclut la mise en place de politiques d’authentification, d’autorisation et d’accès aux données des utilisateurs, tout en respectant le principe du moindre privilège (PoLP). L’idée du PoLP est que les utilisateurs et les services n’obtiennent que l’accès dont ils ont besoin pour faire leur travail. En suivant le PoLP, les équipes peuvent réduire les risques de sécurité potentiels et empêcher les attaquants de s’introduire.
Commencez par implémenter l’authentification des utilisateurs à l’aide de services comme Amazon Cognito ou Amazon Verified Permissions, puis configurez des contrôles d’autorisation pour vous aider à respecter le PoLP. Voici un exemple de la manière dont vous pouvez utiliser les jetons JWT d’Amazon Cognito pour propager l’identité et affiner les autorisations :

Définissez des contrôles d’accès pour chaque partie de votre application d’IA générative, y compris le LLM, les bases de données, les systèmes de stockage et tous les services connectés et API. Utilisez des modèles accessibles via des informations d’identification temporaires de courte durée (comme ceux d’Amazon Bedrock ou Amazon SageMaker) pour sécuriser l’accès et faciliter la gestion. Amazon Bedrock vous permet également de contrôler exactement qui peut accéder à quels modèles, afin que vous puissiez bloquer l’accès si nécessaire.
Ensuite, assurez-vous que les sessions utilisateur et les contextes de conversation sont isolés en mettant en œuvre des mécanismes pour empêcher les utilisateurs d’accéder au contenu, à l’historique des sessions ou aux informations conversationnelles des autres utilisateurs. Utilisez des identifiants de session uniques pour les utilisateurs et validez-les chaque fois qu’un utilisateur accède au système. La mise en œuvre de la gestion des sessions côté serveur vous permettra d’enregistrer l’historique des conversations et le contexte dans des magasins de données isolés pour chaque utilisateur.
Pour les implémentations de génération à enrichissement contextuel (RAG), il est essentiel de gérer l’accès aux bases de connaissances utilisées pour augmenter les réponses du LLM. Vous pouvez simplifier cela en utilisant les bases de connaissances Amazon Bedrock avec le filtrage des métadonnées, qui fournit des contrôles d’accès intégrés pour garantir que les utilisateurs ne récupèrent que les informations auxquelles ils sont autorisés à accéder. Si vous gérez votre propre RAG, utilisez Amazon Kendra pour filtrer les réponses en fonction des autorisations des utilisateurs. Reportez-vous au schéma ci-dessus (étape 5) pour une illustration du fonctionnement du filtrage des métadonnées.


4. Atténuer les risques en entrée et en sortie
Une fois que vous avez mis en place des contrôles d’accès, vous pouvez désormais vous concentrer sur les mécanismes d’évaluation pour évaluer et atténuer les risques associés aux entrées des utilisateurs et aux résultats des modèles dans votre application d’IA générative. Cela vous permet de vous protéger contre les vulnérabilités, comme les attaques par injection d’invite, la génération de contenu inapproprié ou les hallucinations.
Vous pouvez simplifier ce processus à l’aide des barrières de protection Amazon Bedrock. Les barrières de protection vous permettent de configurer des défenses pour les invites en entrée et les sorties du modèle qui peuvent être appliquées à tous les LLM sur Amazon Bedrock, y compris aux modèles ajustés et même aux applications d’IA générative en dehors d’Amazon Bedrock.
Par mesure de précaution supplémentaire, implémentez un catalogue d’invites vérifiées (un ensemble d’instructions pré-approuvées pour les tâches courantes) à l’aide d’Amazon Bedrock Prompt Management, afin de gérer les invites efficacement et de protéger le LLM contre les instructions malveillantes.
La validation de la sortie est tout aussi importante. Les réponses du LLM doivent être traitées avec prudence : si le modèle génère du code ou des requêtes de base de données (qui seront transmises à d’autres composants), vous devez traiter sa sortie comme si elle provenait d’un utilisateur non fiable. Vérifiez toujours les autorisations et effectuez des contrôles de sécurité avant de le laisser interagir avec d’autres systèmes. Utilisez des méthodes sûres, comme des requêtes paramétrées pour les bases de données et examinez la structure de tout code SQL généré avant de l’utiliser. Vous pouvez également limiter les risques en utilisant des modèles d’invite dans les invites du système pour contrôler le format des réponses du modèle.
Si vos LLM génèrent des commandes système ou du code, il est essentiel d’utiliser des mesures de sécurité strictes. Commencez par utiliser des contrôles de validation stricts. Cela inclut l’utilisation de listes d’autorisation, la vérification de la syntaxe et la compréhension de ce que le code essaie de faire. Pour les langages tels que JavaScript ou Markdown, codez toujours le résultat avant de le montrer aux utilisateurs afin de vous protéger contre d’éventuelles vulnérabilités. Si le code de l’IA doit être exécuté, assurez-vous de le faire dans un environnement de test (sandbox) (un environnement isolé) pour assurer la sécurité de votre système principal en cas de problème.


5. Protéger vos données
Ensuite, assurez-vous de protéger les données que votre modèle utilise et auxquelles il répond (comme les requêtes des utilisateurs, les contextes supplémentaires et les bases de connaissances utilisées dans les systèmes RAG) par le biais du chiffrement.
Cela est facilité par des services tels qu’AWS Key Management Service pour la gestion, le stockage et la rotation sécurisés des clés de chiffrement, et AWS Identity and Access Management (IAM) pour les contrôles d’accès. Vous pouvez également activer le contrôle de version pour le stockage de votre base de connaissances (comme le contrôle des S3) afin de suivre les modifications et de garantir la fiabilité et la sécurité de vos données.
Si vous gérez des données sensibles, vous pouvez également implémenter le masquage ou le blocage des données à l’aide des filtres d’informations sensibles des barrières de protection Bedrock.


6. Sécurisez votre périmètre
Maintenant que vos données sont sécurisées, vous pouvez vous concentrer sur la protection de votre infrastructure d’IA générative. Lorsque vous utilisez des données exclusives, veillez à mettre en place un périmètre sécurisé pour empêcher toute exposition à l’Internet public. Le point de terminaison VPC Amazon Bedrock crée une connexion privée entre votre cloud privé virtuel (VPC) et votre compte Amazon Bedrock, renforçant ainsi la sécurité de vos données et de vos interactions avec les modèles.
Les LLM utilisent une capacité de calcul importante, ce qui en fait des cibles d’abus. Pour éviter cela, vous pouvez définir des limites quant au nombre d’utilisateurs pouvant accéder à votre application. Utilisez le pare-feu d’applications Web (WAF) AWS pour définir ces limites et Amazon API Gateway pour contrôler le taux de requêtes adressées à votre application. Ces mesures protégeront votre infrastructure tout en garantissant le fonctionnement fluide et cohérent de votre système.


7. Mettre en œuvre des processus exhaustifs de surveillance et de réponse aux incidents
Une fois que vous avez sécurisé votre configuration et vos données, vous pouvez désormais vous tourner vers la sécurisation de la surveillance du système. Cela inclut la mise en œuvre de mécanismes de réponse pour détecter et résoudre rapidement les problèmes de sécurité. Surveillez les métriques d’utilisation du LLM, comme le volume des demandes, la latence et les taux d’erreur pour comprendre les performances de votre système et détecter les anomalies. Amazon CloudWatch créera des alertes lorsque ces métriques dépassent les niveaux que vous avez définis.
Parallèlement, vous devez élaborer un plan de réponse aux incidents pour faire face à des scénarios comme les injections d’invites, les sorties de modèle inattendues ou les fuites de données. Définissez un processus d’escalade pour chaque scénario, notamment en désignant les principaux outils, les membres de votre équipe et leurs responsabilités. Enfin, configurez un système comme un cordon d’Andon qui vous permet d’éteindre rapidement un modèle, de revenir à une version antérieure ou de passer en mode sécurisé en cas de problème. La mise en place de ces étapes claires pour les problèmes de sécurité vous aidera à réagir plus rapidement et à assurer la sécurité et la stabilité de votre application d’IA.

Conclusion
Cette liste de contrôle en sept étapes est un guide essentiel pour faire passer votre application d’IA générative du prototype à la production. Le traitement et la mise en œuvre de chaque élément vous aideront à créer et à déployer de manière responsable, en protégeant à la fois votre organisation et vos utilisateurs. Et n’oubliez pas que l’IA générative évolue rapidement. Il est donc important de vous tenir au courant des derniers développements en matière de sécurité de l’IA afin de maintenir votre application (et votre start-up) à la pointe de l’innovation et de la confiance. Consultez Communauté AWS – IA générative pour suivre nos dernières actualités !
Cet article couvre les contrôles de sécurité pour les applications utilisant des modèles pré-entraînés. Si vous envisagez d’utiliser des modèles ajustés ou personnalisés, consultez la matrice de définition de portée de la sécurité en matière d’IA générative pour comprendre les différents risques et mesures d’atténuation à étudier en fonction du type de modèle. Vous pouvez également consulter l’approche sécurisée de l’IA générative ou contacter l’équipe chargée de votre compte pour obtenir une assistance supplémentaire.

Riza Saputra
Riza est architecte de solutions senior chez AWS. Il travaille avec des start-ups de tous niveaux pour les aider à se développer en toute sécurité, à se mettre à l’échelle efficacement et à innover plus rapidement. Il se concentre actuellement sur l’IA générative, en aidant les organisations à créer et à mettre à l’échelle des solutions d’IA de manière sécurisée et efficace. Fort de son expérience dans différents rôles, secteurs et tailles d’entreprises, il apporte une perspective polyvalente pour résoudre les défis techniques et commerciaux. Riza partage également ses connaissances par le biais de prises de parole en public et de contenus pour soutenir l’ensemble de la communauté technologique.

Glendon Thaiw
Glendon dirige une équipe d’architectes de solutions pour les start-ups à Singapour, en Malaisie, en Indonésie et aux Philippines, afin de soutenir la croissance de l’écosystème des start-ups en Asie du Sud-Est. Il travaille en étroite collaboration avec des start-ups SaaS et FinTech, les aidant à maximiser la valeur sur AWS en concevant des solutions cloud à l’échelle et sécurisées. Grâce à son expertise dans les technologies de conteneurs comme Kubernetes et EKS, Glendon aide les start-ups à relever les défis techniques et de conformité. Il se consacre également au partage des connaissances, prend régulièrement la parole lors d’événements et crée du contenu pour renforcer la communauté des start-ups de la région.

Ying Ting Ng
Ying Ting est architecte associée en solutions de sécurité chez AWS, où elle aide les clients en pleine croissance de la région ASEAN à mettre à l’échelle de façon sûre sur le cloud. Grâce à son expertise en matière de sécurité de l’IA générative, elle fournit des conseils sur les meilleures pratiques architecturales permettant de mettre à l’échelle leurs charges de travail d’IA générative de manière sécurisée et rapide. En tant que membre active d’Amazon Women in Security, Ying Ting partage ses idées sur la manière d’avoir un impact en tant que professionnelle de la cybersécurité en début de carrière.
Comment a été ce contenu ?