Zum Hauptinhalt springenAWS Startups

Eine siebenstufige Checkliste, um Ihre generative KI-Anwendung sicher zu machen

Wie war dieser Inhalt?

Generative KI hat in den letzten Jahren ein explosives Wachstum erlebt. Anwendungen verändern die Art und Weise, wie Startups Inhalte erstellen, Daten analysieren und wichtige Entscheidungen treffen. Unternehmen nutzen zunehmend die Leistungsfähigkeit generativer KI-Modelle, um maßgeschneiderte Anwendungen zu entwickeln. Daher müssen Startups, die mit generativer KI experimentieren und diese einsetzen, Sicherheit und verantwortungsbewusste Verwendung zu einer obersten Priorität machen.

In diesem Beitrag haben wir eine sieben Punkte umfassende Checkliste erstellt, in der die wesentlichen Sicherheits- und Compliance-Maßnahmen aufgeführt sind, die Sie berücksichtigen sollten, wenn Sie Ihre auf generativer KI basierten Anwendungen von der Testphase in die Produktion überführen.

1. Schaffen Sie einen Governance-Rahmen und einen Compliance-Prozess

2. Überprüfen Sie die Endbenutzer-Lizenzvereinbarung (EULA) und die Richtlinien zur Datennutzung des Anbieters des großen Sprachmodells (LLM) und halten Sie diese ein

3. Implementieren Sie umfassende Zugriffskontrollen

4. Reduzieren Sie Eingabe- und Ausgaberisiken

5. Schützen Sie Ihre Daten

6. Sichern Sie Ihren Perimeter

7. Implementieren Sie eine umfassende Überwachung und Reaktion auf Vorfälle

Die Implementierung der Checkliste hilft Ihrem Startup, Risiken zu minimieren, Daten zu schützen und das Vertrauen der Benutzer zu wahren. Je mehr Punkte Sie abhaken können, desto besser ist Ihr Schutz. Sie müssen jedoch nicht alle Punkte abhaken, da dies von den Anforderungen Ihrer Anwendung abhängt.

Die erforderlichen Sicherheitskontrollen variieren je nach Art des Modells (vortrainiert, optimiert oder benutzerdefiniert), das Sie zum Erstellen Ihrer Anwendung verwenden. Unser Schwerpunkt liegt auf Anwendungen, die mit vortrainierten Modellen erstellt wurden, da diese die meisten Anwendungsfälle unserer Kunden abdecken.

1. Schaffen Sie einen Governance-Rahmen und einen Compliance-Prozess

Die Einrichtung eines umfassenden Governance- und Compliance-Rahmens ist die Grundlage für die Bereitstellung verantwortungsvoller KI. Menschen und Prozesse sind dabei von entscheidender Bedeutung. Beginnen Sie daher mit der Bildung eines funktionsübergreifenden KI-Governance-Ausschusses mit Fachexperten aus den Bereichen Recht, IT-Sicherheit und relevanten Geschäftsbereichen. Dieser Ausschuss sollte spezifische Richtlinien für Ihre generative KI-Anwendung erstellen und durchsetzen, die den Umgang mit Daten, die Modellauswahl und Richtlinien für die Verwendung umfassen.

Entwickeln Sie anschließend eine auf die Vorschriften Ihrer Branche zugeschnittene Compliance-Checkliste (etwa die DSGVO oder PCI DSS). Diese sollte Maßnahmen zum Datenschutz, zur Einwilligungserklärung und zu Transparenzanforderungen umfassen. Führen Sie regelmäßige Compliance-Prüfungen durch, beispielsweise vierteljährliche Audits, um sicherzustellen, dass Sie die entwickelten Standards einhalten. Weitere Informationen finden Sie in den folgenden Blogs: Skalierung eines Governance-, Risiko- und Compliance-Programms für die Cloud, neue Technologien und Innovationen und Sicherheit für generative KI: Überlegungen zu Daten, Compliance und Datenschutz.

Richten Sie schließlich ein Dokumentationssystem ein, um Entscheidungen, Änderungen und den Compliance-Status Ihrer generativen KI-Anwendung zu verfolgen. Umfassen Sie Features wie Versionskontrolle für Richtlinien, Audit-Protokolle für Modelländerungen und ein Dashboard für den Compliance-Status. Dieses System hilft Ihnen nicht nur bei der Einhaltung von Vorschriften, sondern liefert auch die erforderlichen Nachweise bei externen Audits.

2. Überprüfen und befolgen Sie die EULA und die Richtlinien zur Verwendung von Daten des LLM-Anbieters

Es ist von entscheidender Bedeutung, die spezifischen Einschränkungen und Anforderungen zu verstehen, um die Compliance zu gewährleisten und potenzielle rechtliche Probleme zu vermeiden. Bevor Sie ein vortrainiertes Modell in Ihre Anwendung integrieren, überprüfen Sie die EULA und die Richtlinien zur Verwendung von Daten Ihres ausgewählten LLM-Anbieters. Achten Sie besonders auf Klauseln zum Umgang mit Daten, zu Modellausgaben und zu Einschränkungen der kommerziellen Nutzung. Benutzer von Amazon Bedrock finden weitere Informationen unter Zugriff auf Amazon-Bedrock-Basismodelle. Wenn Sie die Bereitstellung selbst auf Amazon SageMaker durchführen, überprüfen Sie die Modellquellen auf der Seite mit den Modelldetails.

Neben der Gewährleistung der Compliance kann das Beobachten neuer Updates auch spannende Möglichkeiten eröffnen. Beispielsweise gilt die Meta-Llama-3.1-Lizenz als freizügiger als ihre Vorgänger und eröffnet neue Anwendungsfälle wie die Analyse langer Dokumente und die Erstellung fortschrittlicher mehrsprachiger Chatbots für den globalen Einsatz. Unabhängig davon, für welches Modell Sie sich entscheiden, sollten Sie diese Aspekte regelmäßig überprüfen, um sicherzustellen, dass Ihre Anwendung neue Möglichkeiten nutzen kann.

3. Implementieren Sie umfassende Zugriffskontrollen

Bei der Entwicklung und Bereitstellung Ihrer generativen KI-Anwendung benötigen Sie robuste Zugriffskontrollen, um Ihr System und Ihre Daten zu schützen. Dazu gehört die Einrichtung von Richtlinien für die Benutzerauthentifizierung, Autorisierung und den Datenzugriff unter Einhaltung des Prinzips der geringsten Berechtigungen (PoLP). Der Grundgedanke hinter PoLP ist, dass Benutzer und Services nur den Zugriff erhalten, den sie für ihre Arbeit benötigen. Durch die Einhaltung von PoLP können Teams potenzielle Sicherheitsrisiken reduzieren und es Angreifern erschweren, einen Weg ins System zu finden.

Beginnen Sie mit der Implementierung der Benutzerauthentifizierung mithilfe von Services wie Amazon Cognito oder Amazon Verified Permissions und richten Sie Autorisierungskontrollen ein, um PoLP einzuhalten. Hier ist ein Beispiel dafür, wie Sie die JWT-Tokens von Amazon Cognito für die Identitätsübertragung und detaillierte Autorisierung verwenden können:

Legen Sie Zugriffskontrollen für jeden Teil Ihrer generativen KI-Anwendung fest, einschließlich LLM, Datenbanken, Speichersysteme und alle verbundenen Services oder APIs. Verwenden Sie Modelle, auf die über kurzlebige, temporäre Anmeldeinformationen (wie die in Amazon Bedrock oder Amazon SageMaker) zugegriffen werden kann, um den Zugriff sicher und einfach zu verwalten. Mit Amazon Bedrock können Sie außerdem genau steuern, wer auf welche Modelle zugreifen kann, sodass Sie den Zugriff bei Bedarf blockieren können.

Stellen Sie anschließend sicher, dass Benutzersitzungen und Konversationskontexte isoliert sind, indem Sie Mechanismen implementieren, die verhindern, dass Benutzer auf die Inhalte, Sitzungshistorien oder Konversationsinformationen anderer Benutzer zugreifen können. Verwenden Sie eindeutige Sitzungskennungen für Benutzer und überprüfen Sie diese bei jedem Zugriff eines Benutzers auf das System. Durch die Implementierung einer serverseitigen Sitzungsverwaltung können Sie Konversationshistorien und Kontexte in für jeden Benutzer isolierten Datenspeichern protokollieren.

Für Implementierungen von Retrieval Augmented Generation (RAG) ist es entscheidend, den Zugriff auf die Wissensdatenbanken zu verwalten, die zur Erweiterung der LLM-Antworten verwendet werden. Sie können dies vereinfachen, indem Sie Amazon Bedrock Knowledge Bases mit Metadatenfilterung verwenden, die integrierte Zugriffskontrollen bieten, um sicherzustellen, dass Benutzer nur Informationen abrufen, auf die sie Zugriff haben. Wenn Sie Ihr eigenes RAG verwalten, verwenden Sie Amazon Kendra zum Filtern von Antworten basierend auf Benutzerberechtigungen. Eine Darstellung der Funktionsweise der Metadatenfilterung finden Sie in der obigen Abbildung (Schritt 5).

4. Reduzieren Sie Eingabe- und Ausgaberisiken

Nachdem Sie Zugriffskontrollen implementiert haben, können Sie sich nun auf Bewertungsmechanismen konzentrieren, um Risiken im Zusammenhang mit Benutzereingaben und Modellausgaben in Ihrer generativen KI-Anwendung zu bewerten und zu mindern. Dies trägt zum Schutz vor Schwachstellen wie Promptinjektionsangriffen, der Generierung unangemessener Inhalte oder Halluzinationen bei.

Sie können diesen Prozess mit Amazon Bedrock Guardrails vereinfachen. Mit Guardrails können Sie Abwehrmaßnahmen für Prompt-Eingaben und Modellausgaben konfigurieren, die auf alle LLMs auf Amazon Bedrock angewendet werden können, einschließlich optimierter Modelle und sogar generativer KI-Anwendungen außerhalb von Amazon Bedrock.

Als zusätzliche Vorsichtsmaßnahme sollten Sie einen verifizierten Prompt-Katalog (eine vorab genehmigte Reihe von Prompts für gängige Aufgaben) mit Amazon Bedrock Prompt Management, implementieren, um Prompts effektiv zu verwalten und das LLM vor böswilligen Anweisungen zu schützen.

Die Validierung der Ausgabe ist ebenso wichtig. LLM-Antworten sollten mit Vorsicht behandelt werden. Wenn das Modell Code oder Datenbankabfragen generiert (die an andere Komponenten weitergeleitet werden), sollten Sie die Ausgabe so behandeln, als stamme sie von einem nicht vertrauenswürdigen Benutzer. Überprüfen Sie immer die Berechtigungen und führen Sie Sicherheitsprüfungen durch, bevor Sie das Modell mit anderen Systemen interagieren lassen. Verwenden Sie sichere Methoden wie parametrisierte Abfragen für Datenbanken und überprüfen Sie die Struktur aller generierten SQL-Anweisungen, bevor Sie diese verwenden. Sie können Risiken auch begrenzen, indem Sie Prompt-Vorlagen in System-Prompts verwenden, um das Format der Antworten des Modells zu steuern.

Wenn Ihre LLMs Systembefehle oder Code generieren, ist es von entscheidender Bedeutung, strenge Sicherheitsmaßnahmen zu ergreifen. Beginnen Sie mit strengen Validierungsprüfungen. Dazu gehören die Verwendung von Zulassungslisten, die Überprüfung der Syntax und das Verstehen, was der Code zu tun versucht. Bei Sprachen wie JavaScript oder Markdown sollten Sie die Ausgabe immer verschlüsseln, bevor Sie sie den Benutzern anzeigen, um sie vor potenziellen Schwachstellen zu schützen. Wenn der Code der KI ausgeführt werden muss, stellen Sie sicher, dass dies in einer Sandbox (einer isolierten Umgebung) geschieht, um Ihr Hauptsystem zu schützen, falls etwas schief geht.

5. Schützen Sie Ihre Daten

Stellen Sie als Nächstes sicher, dass Sie die Daten, die Ihr Modell verwendet und auf die es reagiert (etwa Benutzeranfragen, zusätzliche Kontexte und Wissensdatenbanken, die in RAG-Systemen verwendet werden), durch Verschlüsselung schützen.

Dies wird durch Services wie AWS Key Management Service für die sichere Verwaltung, Speicherung und Rotation von Verschlüsselungsschlüsseln und AWS Identity and Access Management (IAM) für Zugriffskontrollen vereinfacht. Sie können auch die Versionsverwaltung für Ihren Wissensdatenbank-Speicher aktivieren (etwa S3-Versionsverwaltung), um Änderungen zu verfolgen und sicherzustellen, dass Ihre Daten zuverlässig und sicher bleiben.

Wenn Sie mit sensiblen Daten umgehen, können Sie auch Datenmaskierung oder -blockierung mithilfe der Filter für sensible Informationen von Bedrock Guardrail implementieren.

6. Sichern Sie Ihren Perimeter

Nachdem Ihre Daten gesichert sind, können Sie sich auf den Schutz Ihrer generativen KI-Infrastruktur konzentrieren. Wenn Sie geschützte Daten verwenden, stellen Sie sicher, dass Sie einen sicheren Perimeter einrichten, um eine Exposition gegenüber dem öffentlichen Internet zu verhindern. Der Amazon-Bedrock-VPC-Endpunkt erstellt eine private Verbindung zwischen Ihrer Virtual Private Cloud (VPC) und Ihrem Amazon Bedrock-Konto und erhöht so die Sicherheit Ihrer Daten und Modellinteraktionen.

LLMs benötigen erhebliche Rechenleistung und sind daher anfällig für Missbrauch. Um dies zu verhindern, können Sie festlegen, in welchem Umfang Benutzer auf Ihre Anwendung zugreifen können. Verwenden Sie AWS Web Application Firewall (WAF) zum Festlegen dieser Beschränkungen und Amazon API Gateway zum Steuern der Anforderungsrate für Ihre Anwendung. Diese Maßnahmen schützen Ihre Infrastruktur und gewährleisten gleichzeitig eine gute Leistung und einen konsistenten Betrieb Ihres Systems.

7. Implementieren Sie eine umfassende Überwachung und Reaktion auf Vorfälle

Nachdem Sie Ihre Einrichtung und Daten gesichert haben, können Sie sich nun um die Sicherung der Systemüberwachung kümmern. Dazu gehört die Implementierung von Reaktionsmechanismen, um Sicherheitsprobleme schnell zu erkennen und zu beheben. Überwachen Sie die Verwendungsmetriken von LLM, wie etwa das Anfragevolumen, die Latenz und die Fehlerraten, um die Leistung Ihres Systems zu verstehen und Anomalien zu erkennen. Amazon CloudWatch erstellt Warnmeldungen, wenn diese Metriken die von Ihnen festgelegten Werte überschreiten.

Darüber hinaus sollten Sie einen Plan für die Reaktion auf Vorfälle entwickeln, um Szenarien wie Promptinjektionen, unerwartete Modellausgaben oder Datenlecks zu bewältigen. Skizzieren Sie einen Eskalationsprozess für jedes Szenario, einschließlich der Benennung wichtiger Tools und Teammitglieder sowie deren Verantwortlichkeiten. Richten Sie schließlich ein System wie Andon Cord ein, mit dem Sie ein Modell schnell ausschalten, auf eine frühere Version zurücksetzen oder in einen sicheren Modus wechseln können, wenn etwas schief geht. Mit diesen klaren Schritten für Sicherheitsprobleme können Sie schneller reagieren und die Sicherheit und Stabilität Ihrer KI-Anwendung gewährleisten.

Fazit

Diese sieben Punkte umfassende Checkliste ist ein unverzichtbarer Leitfaden für die Überführung Ihrer generativen KI-Anwendung vom Prototyp in die Produktion. Wenn Sie jeden Punkt berücksichtigen und umsetzen, können Sie verantwortungsbewusst entwickeln und bereitstellen und so sowohl Ihr Unternehmen als auch Ihre Benutzer schützen. Denken Sie daran, dass sich generative KI rasant weiterentwickelt. Daher ist es wichtig, sich über die neuesten Entwicklungen im Bereich KI-Sicherheit auf dem Laufenden zu halten, damit Ihre Anwendung (und Ihr Startup) an der Spitze der Innovation und des Vertrauens bleibt. Weitere Informationen finden Sie unter AWS-Community – Generative KI, wo Sie auch unsere neuesten Updates erhalten!

Dieser Beitrag behandelt die Sicherheitskontrollen für Anwendungen, die vortrainierte Modelle verwenden. Wenn Sie die Verwendung optimierter oder benutzerdefinierter Modelle in Betracht ziehen, lesen Sie die Matrix für Sicherheitsbereiche für generative KI, um die verschiedenen Risiken und Abhilfemaßnahmen zu verstehen, die je nach Modelltyp zu beachten sind. Sie können auch Sicherer Ansatz für generative KI konsultieren oder sich für weiteren Support an Ihr Account-Team wenden.

Riza Saputra

Riza Saputra

Riza ist Senior Solutions Architect bei AWS und arbeitet mit Startups in allen Phasen zusammen, um ihnen zu helfen, sicher zu wachsen, effizient zu skalieren und schneller zu innovieren. Sein derzeitiger Schwerpunkt liegt auf generativer KI und er unterstützt Unternehmen dabei, KI-Lösungen sicher und effizient zu entwickeln und zu skalieren. Mit seiner Erfahrung in verschiedenen Rollen, Branchen und Unternehmensgrößen bringt er eine vielseitige Perspektive zur Lösung technischer und betrieblicher Herausforderungen ein. Riza gibt sein Wissen auch durch Vorträge und Inhalte weiter, um die breitere Tech-Community zu unterstützen.

Glendon Thaiw

Glendon Thaiw

Glendon leitet ein Team von Startup Solution Architects in Singapur, Malaysia, Indonesien und den Philippinen und unterstützt das Wachstum des Startup-Ökosystems in Südostasien. Er arbeitet eng mit SaaS- und FinTech-Startups zusammen und hilft ihnen, den Wert von AWS zu maximieren, indem er skalierbare und sichere Cloud-Lösungen entwickelt. Mit seiner Expertise im Bereich Container-Technologien wie Kubernetes und EKS begleitet Glendon Startups bei technischen und Compliance-Herausforderungen. Zudem hat er sich dem Wissensaustausch verschrieben, spricht regelmäßig auf Veranstaltungen und erstellt Inhalte, um die Startup-Community der Region zu stärken.

Ying Ting Ng

Ying Ting Ng

Ying Ting ist Associate Security Solutions Architect bei AWS, wo sie ASEAN-Wachstumskunden bei der sicheren Skalierung in der Cloud unterstützt. Mit ihrer Expertise in generativer KI-Sicherheit berät sie zum Thema architektonische Best Practices für die sichere und schnelle Skalierung ihrer generativen KI-Workloads. Als aktives Mitglied von Amazon Women in Security gibt Ying Ting Einblicke, wie Cybersicherheitsexpertinnen am Anfang ihrer Karriere etwas bewirken können.

Wie war dieser Inhalt?