¿Qué le pareció este contenido?
Una lista de verificación de siete pasos para garantizar la seguridad en sus aplicaciones de IA generativa

La IA generativa ha experimentado un enorme crecimiento en los últimos años, con aplicaciones que transforman la forma en que las startups crean contenido, analizan datos y toman decisiones clave. Las empresas recurren, cada vez con mayor frecuencia, a la potencia de los modelos de IA generativa para crear aplicaciones personalizadas. Por ello, las startups que experimentan y utilizan la IA generativa deben hacer de la seguridad y el uso responsable una prioridad máxima.
En esta publicación, hemos desarrollado una lista de verificación con siete elementos en la que se describen las medidas básicas de seguridad y cumplimiento que debe tener en cuenta al trasladar sus aplicaciones de IA generativa de la experimentación a la producción.
1. Establezca un marco de gobernanza y un proceso de cumplimiento
2. Revise y cumpla con el acuerdo de licencia de usuario final (EULA) y las políticas de uso de datos del proveedor de modelos de lenguaje de gran tamaño (LLM)
3. Implemente controles de acceso exhaustivos
4. Mitigue los riesgos de entrada y salida
5. Proteja los datos
6. Asegure el perímetro
7. Implemente una supervisión exhaustiva y sistemas de respuesta ante incidentes
La implementación de la lista de verificación ayudará a su startup a reducir los riesgos, proteger los datos y mantener la confianza de los usuarios. Si bien marcar más elementos mejora la defensa, no es necesario completar todos los puntos de la lista, ya que esto dependerá de las necesidades de la aplicación.
Los controles de seguridad necesarios variarán según el tipo de modelo (previamente entrenado, refinado o personalizado) que utilice para crear la aplicación. Nos centraremos en las aplicaciones creadas con modelos previamente entrenados, que abordan la mayoría de los casos prácticos de los clientes.


1. Establezca un marco de gobernanza y un proceso de cumplimiento
Establecer un marco integral de gobernanza y cumplimiento es la base para una implementación de la IA responsable. Las personas y los procesos son fundamentales, así que debe comenzar por formar un comité interdisciplinario de gobernanza de la IA con expertos en la materia de áreas como legal, seguridad de TI y unidades de negocio pertinentes. Este comité debe crear y aplicar políticas específicas para su aplicación de IA generativa, que abarquen la gestión de datos, la selección de modelos y las directrices de uso.
A continuación, elabore una lista de verificación del cumplimiento adaptada a las normativas de su sector (como el RGPD o el PCI DSS). La lista debería incluir medidas para la privacidad de los datos, administración del consentimiento y requisitos de transparencia. Implemente una revisión periódica del cumplimiento, como auditorías trimestrales, para asegurarse de cumplir con normativas en desarrollo. Consulte estos blogs para obtener más información: “Scaling a governance, risk, and compliance program for the cloud, emerging technologies, and innovation” y “Securing generative AI: data, compliance, and privacy”.
Por último, configure un sistema de documentación para realizar un seguimiento de las decisiones, los cambios y el estado de cumplimiento de su aplicación de IA generativa. Incluya características como control de versiones para políticas, registros de auditoría para los cambios del modelo y un panel para ver el estado del cumplimiento. Este sistema no solo ayudará a mantener el cumplimiento, sino que también proporcionará la evidencia necesaria durante las auditorías externas.


2. Revise y cumpla con el EULA y las políticas de uso de datos del proveedor de LLM
Es crucial comprender las limitaciones y los requisitos específicos para mantener el cumplimiento y evitar posibles problemas legales. Antes de integrar un modelo previamente entrenado en su aplicación, revise el EULA y las políticas de uso de datos del proveedor de LLM que haya elegido. Preste mucha atención a las cláusulas sobre la gestión de datos, los resultados de los modelos y las restricciones de uso comercial. En el caso de los usuarios de Amazon Bedrock, consulte Acceso a los modelos fundaciones de Amazon Bedrock. Si ha optado por la autoimplementación en Amazon SageMaker, consulte los orígenes del modelo en la página de detalles del modelo.
Además de garantizar el cumplimiento, prestar atención a las nuevas actualizaciones también puede brindar oportunidades interesantes. Por ejemplo, la licencia 3.1 de Meta Llama se considera más permisiva que sus predecesoras, lo que permite trabajar con nuevos casos prácticos, como el análisis de documentos extensos y la creación de chatbots multilingües avanzados para uso global. Independientemente del modelo que elija, la revisión regular de estos aspectos garantiza que su aplicación pueda beneficiarse de nuevas oportunidades.


3. Implemente controles de acceso exhaustivos
Cuando desarrolle e implemente su aplicación de IA generativa, necesitará controles de acceso sólidos para proteger tanto el sistema como los datos. Esto incluye la configuración de políticas de autenticación, autorización y acceso a los datos de los usuarios, sin dejar de respetar el principio de privilegio mínimo (PoLP). La idea detrás de PoLP es que los usuarios y los servicios solo tengan el nivel de acceso imprescindible para realizar su trabajo. Al seguir el PoLP, los equipos pueden reducir los posibles riesgos de seguridad y dificultar que los atacantes encuentren una forma de entrar.
Comience por implementar la autenticación de usuarios mediante servicios como Amazon Cognito o Amazon Verified Permissions y configure los controles de autorización para cumplir con PoLP. A continuación se muestra un ejemplo de cómo puede usar los tokens JWT de Amazon Cognito para realizar la propagación de la identidad y la autorización detallada:

Establezca controles de acceso para cada parte de su aplicación de IA generativa, incluido el LLM, las bases de datos, los sistemas de almacenamiento y cualquier servicio o API conectados. Utilice modelos a los que se pueda acceder a través de credenciales temporales de corta duración (como los de Amazon Bedrock o Amazon SageMaker) para mantener un acceso seguro y facilitar su administración. Amazon Bedrock también le permite controlar de manera exacta quién puede acceder a qué modelos, de modo que puede bloquear el acceso cuando sea necesario.
A continuación, asegúrese de que las sesiones de usuario y los contextos de conversación estén aislados mediante la implementación de mecanismos que impidan que los usuarios accedan al contenido, los historiales de sesión o la información conversacional de otros usuarios. Utilice identificadores de sesión únicos para los usuarios y valídelos cada vez que un usuario acceda al sistema. La implementación de la administración de sesiones del lado del servidor le permitirá registrar los historiales de las conversaciones y el contexto en almacenes de datos aislados para cada usuario.
Para las implementaciones de generación aumentada por recuperación (RAG), es crucial administrar el acceso a las bases de conocimiento que se utilizan para aumentar las respuestas de LLM. Puede simplificar esta tarea si utiliza las bases de conocimiento de Amazon Bedrock con filtrado de metadatos, que proporcionan controles de acceso integrados para garantizar que los usuarios solo recuperen la información a la que están autorizados a acceder. Si administra su propio RAG, utilice Amazon Kendra para filtrar las respuestas en función de los permisos de los usuarios. Consulte el diagrama anterior (paso 5) para ver una ilustración del funcionamiento del filtrado de metadatos.


4. Mitigue los riesgos de entrada y salida
Una vez que haya implementado los controles de acceso, ahora puede centrarse en los mecanismos de evaluación a fin de evaluar y reducir los riesgos asociados a las entradas de los usuarios y las salidas del modelo en su aplicación de IA generativa. Esto ayuda a protegerte contra vulnerabilidades como los ataques por inyección de peticiones, la generación de contenido inapropiado o las alucinaciones.
Puede simplificar este proceso con Barreras de protección de Amazon Bedrock. Barreras de protección le permite configurar defensas para el ingreso de peticiones y la salida de modelos que pueden aplicarse en todos los LLM de Amazon Bedrock, incluidos modelos refinados e incluso aplicaciones de IA generativa externas a Amazon Bedrock.
Como medida de precaución adicional, implemente un catálogo de peticiones verificado (un conjunto de peticiones previamente aprobadas para tareas comunes) mediante Administración de peticiones de Amazon Bedrock, para administrar las peticiones de manera eficaz y proteger el LLM de instrucciones malintencionadas.
La validación de los resultados es igualmente importante. Las respuestas de LLM deben tratarse con precaución: si el modelo genera consultas de código o bases de datos (que se pasarán a otros componentes), debe tratar el resultado como si procediera de un usuario que no es de confianza. Compruebe siempre los permisos y realice controles de seguridad antes de permitir la interacción con otros sistemas. Utilice métodos seguros, como las consultas parametrizadas para las bases de datos, y revise la estructura de cualquier SQL generado antes de su uso. También puede limitar los riesgos mediante el uso de plantillas de peticiones dentro de las peticiones del sistema para controlar el formato de las respuestas del modelo.
Si sus LLM generan códigos o comandos del sistema, es fundamental utilizar medidas de seguridad sólidas. Empiece por realizar controles de validación estrictos; esto incluye el uso de listas de elementos permitidos, la comprobación de la sintaxis y la comprensión de lo que el código intenta hacer. En el caso de lenguajes como JavaScript o Markdown, codifique siempre el resultado antes de mostrárselo a los usuarios para protegerlo de posibles vulnerabilidades. Si es necesario ejecutar el código de la IA, asegúrese de hacerlo en un entorno de pruebas (un entorno aislado) para proteger su sistema principal en caso de que algo vaya mal.


5. Proteja los datos
A continuación, asegúrese de proteger los datos que usa su modelo y a los que responde (como las consultas de los usuarios, los contextos adicionales y las bases de conocimiento utilizadas en los sistemas RAG) mediante el cifrado.
Esto es más fácil gracias a servicios como AWS Key Management Service para la administración, el almacenamiento y la rotación seguros de las claves de cifrado, y AWS Identity and Access Management (IAM) para los controles de acceso. También puede activar el control de versiones para el almacenamiento de su base de conocimientos (como el control de versiones de S3) para realizar un seguimiento de los cambios y garantizar que sus datos sigan siendo fiables y estén protegidos.
Si está gestionando datos confidenciales, también puede implementar el enmascaramiento o bloqueo de datos mediante los filtros para datos confidenciales de las Barreras de protección para Bedrock.


6. Asegure el perímetro
Ahora que sus datos están protegidos, puede centrarse en proteger su infraestructura de IA generativa. Cuando utilice datos patentados, asegúrese de configurar un perímetro seguro para evitar la exposición a la Internet pública. El punto de conexión de VPC de Amazon Bedrock crea una conexión privada entre su nube privada virtual (VPC) y su cuenta de Amazon Bedrock, lo que refuerza la seguridad en las interacciones con datos y modelos.
Los LLM utilizan una potencia de computación significativa, lo que los convierte en objetivo de abusos. Para evitarlo, puede establecer límites a la cantidad de usuarios que pueden acceder a su aplicación. Utilice AWS Web Application Firewall (WAF) para establecer estos límites y Amazon API Gateway para controlar la tasa de solicitudes a su aplicación. Estas medidas protegerán su infraestructura y, al mismo tiempo, garantizarán que su sistema funcione de manera correcta y uniforme.


7. Implemente una supervisión exhaustiva y sistemas de respuesta ante incidentes
Una vez que haya protegido la configuración y los datos, ahora puede ocuparse de proteger la supervisión del sistema. Esto incluye la implementación de mecanismos de respuesta para detectar y abordar con rapidez los problemas de seguridad. Supervise las métricas de uso de los LLM, como el volumen de solicitudes, la latencia y las tasas de error, para comprender el rendimiento del sistema y detectar anomalías. Amazon CloudWatch creará alertas cuando estas métricas superen los niveles establecidos.
Además, debe desarrollar un plan de respuesta ante incidentes para abordar situaciones como la inyección de peticiones, resultados inesperados de los modelos o filtraciones de datos. Describa un proceso de escalamiento para cada caso, que incluya la designación de las herramientas clave, así como los miembros de su equipo y sus responsabilidades. Por último, configure un sistema como Andon Cord, que le permita apagar con rapidez un modelo, volver a una versión anterior o cambiar a un modo seguro si algo sale mal. Disponer de estas medidas claras para los problemas de seguridad le ayudará a responder más rápido y a que su aplicación de IA sea segura y estable.

Conclusión
Esta lista de verificación de siete pasos es una guía esencial para que su aplicación de IA generativa pase del prototipo a la producción. Abordar cada elemento y tomar medidas al respecto le ayudará a crear e implementar de manera responsable, lo que supone proteger tanto a su organización como a los usuarios. Y recuerde que la IA generativa evoluciona a un ritmo rápido, por lo que es importante mantenerse al día con los últimos avances en materia de seguridad de este campo a fin de mantener su aplicación (y su startup) a la vanguardia de la innovación y la confianza. Visite la comunidad de IA generativa de AWS para enterarse de nuestras últimas actualizaciones.
Esta publicación abarca los controles de seguridad para aplicaciones que utilizan modelos previamente entrenados. Si está pensando en utilizar modelos refinados o personalizados, consulte la publicación sobre la matriz de ámbito de seguridad de IA para comprender los diferentes riesgos y mitigaciones a tener en cuenta en función del tipo de modelo. También puede consultar el contenido sobre el enfoque de seguridad para la IA generativa o ponerse en contacto con su equipo de cuentas para obtener asistencia adicional.

Riza Saputra
Riza es arquitecto de soluciones sénior en AWS y trabaja con startups de todas las etapas para ayudarlas a crecer de forma segura, escalar de manera eficiente e innovar más rápido. Su enfoque actual se centra en la IA generativa, con el objetivo de guiar a las organizaciones en la creación y escalado de soluciones de IA, de forma segura y eficiente. Gracias a su experiencia en diferentes puestos, sectores y empresas de diverso tamaño, aporta una perspectiva versátil para resolver los desafíos técnicos y empresariales. Riza también comparte sus conocimientos con charlas y mediante la publicación de contenidos a fin de apoyar a la comunidad tecnológica en general.

Glendon Thaiw
Glendon dirige un equipo de arquitectos de soluciones para startups en Singapur, Malasia, Indonesia y Filipinas, que respaldan el crecimiento del ecosistema de startups del sudeste asiático. Trabaja en estrecha colaboración con startups de SaaS y tecnología financiera, ayudándolas a sacar el máximo partido a AWS mediante el diseño de soluciones en la nube escalables y seguras. Gracias a su experiencia y conocimientos sobre tecnologías de contenedores como Kubernetes y EKS, Glendon guía a las startups para superar desafíos técnicos y de cumplimiento. También se dedica a compartir conocimientos, hablar de manera regular en eventos y crear contenido para apoyar a la comunidad de startups de la región.

Ying Ting Ng
Ying Ting es arquitecta asociada de soluciones de seguridad en AWS, donde ayuda a los clientes en crecimiento de la Asociación de Naciones del Sudeste Asiático a escalar de forma segura en la nube. Gracias a su experiencia y conocimientos en seguridad de la IA generativa, brinda orientación sobre las prácticas recomendadas para arquitectura a fin de escalar cargas de trabajo de IA generativa de forma rápida y segura. Como miembro activo de Amazon Women in Security, Ying Ting comparte sus ideas sobre cómo lograr un impacto como profesional de la ciberseguridad en las primera etapa de su carrera.
¿Qué le pareció este contenido?