Bagaimana konten ini?
Daftar Periksa Tujuh Langkah untuk Menyiapkan Keamanan Aplikasi AI Generatif Anda

AI generatif telah mengalami pertumbuhan eksplosif dalam beberapa tahun terakhir, dengan aplikasi yang mentransformasi cara perusahaan rintisan membuat konten, menganalisis data, dan mengambil keputusan penting. Organisasi makin banyak menggunakan kemampuan model AI generatif untuk membangun aplikasi kustom. Jadi, perusahaan rintisan yang bereksperimen serta menggunakan AI generatif harus menjadikan keamanan dan penggunaan yang bertanggung jawab sebagai prioritas utama.
Dalam posting ini, kami telah mengembangkan daftar periksa tujuh butir yang menguraikan langkah-langkah keamanan dan kepatuhan penting yang harus Anda pertimbangkan saat memindahkan aplikasi yang didukung AI generatif dari eksperimen ke produksi.
1. Menetapkan kerangka kerja tata kelola dan proses kepatuhan
2. Tinjau dan patuhi Perjanjian Lisensi Pengguna Akhir (EULA) dan kebijakan penggunaan data penyedia model bahasa besar (LLM)
3. Implementasikan kontrol akses komprehensif
4. Memitigasi risiko input dan output
5. Lindungi data Anda
6. Amankan perimeter Anda
7. Implementasikan pemantauan komprehensif dan respons insiden
Mengimplementasikan daftar periksa akan membantu perusahaan rintisan Anda memitigasi risiko, melindungi data, dan menjaga kepercayaan pengguna. Meskipun memeriksa lebih banyak butir akan meningkatkan pertahanan, Anda tidak perlu menyelesaikan setiap titik pemeriksaan, karena hal ini akan bergantung pada apa yang dibutuhkan aplikasi Anda.
Kontrol keamanan yang diperlukan akan bervariasi bergantung pada jenis model (sudah dilatih sebelumnya, disempurnakan, atau kustom) yang Anda gunakan untuk membangun aplikasi Anda. Fokus kami adalah pada aplikasi yang dibangun menggunakan model yang sudah dilatih sebelumnya, yang menangani sebagian besar kasus penggunaan pelanggan.


1. Menetapkan Kerangka Kerja Tata Kelola dan Proses Kepatuhan
Menetapkan kerangka kerja tata kelola dan kepatuhan yang komprehensif merupakan fondasi bagi deployment AI yang bertanggung jawab. Orang dan proses adalah kuncinya, jadi mulai dengan membentuk komite tata kelola AI lintas fungsional dengan para ahli bidang studi dari hukum, keamanan IT, dan unit bisnis yang relevan. Komite ini harus membuat serta menegakkan kebijakan khusus untuk aplikasi AI generatif Anda, yang mencakup penanganan data, pemilihan model, dan pedoman penggunaan.
Berikutnya, kembangkan daftar periksa kepatuhan yang disesuaikan dengan peraturan industri Anda (seperti GDPR atau PCI DSS). Hal ini harus mencakup langkah-langkah privasi data, manajemen persetujuan, dan persyaratan transparansi. Implementasikan peninjauan kepatuhan reguler, seperti audit triwulanan, untuk memastikan Anda mematuhi standar pengembangan. Lihat blog ini untuk panduan lebih lanjut: Menskalakan program tata kelola, risiko, dan kepatuhan untuk cloud, teknologi baru, serta inovasi dan Mengamankan AI generatif: pertimbangan data, kepatuhan, dan privasi.
Terakhir, siapkan sistem dokumentasi untuk melacak keputusan, perubahan, dan status kepatuhan aplikasi AI generatif Anda. Sertakan fitur seperti kontrol versi untuk kebijakan, log audit untuk perubahan model, dan dasbor untuk status kepatuhan. Sistem ini tidak hanya akan membantu dalam menjaga kepatuhan tetapi juga memberikan bukti yang diperlukan selama audit eksternal.


2. Tinjau dan Patuhi EULA dan Kebijakan Penggunaan Data Penyedia LLM
Sangat penting untuk memahami batasan dan persyaratan khusus untuk menjaga kepatuhan dan menghindari potensi masalah hukum. Sebelum mengintegrasikan model yang sudah dilatih sebelumnya ke dalam aplikasi Anda, tinjau kebijakan EULA serta penggunaan data dari penyedia LLM pilihan Anda. Perhatikan dengan saksama klausul tentang penanganan data, output model, dan pembatasan penggunaan komersial. Untuk pengguna Amazon Bedrock, lihat Akses model fondasi Amazon Bedrock. Jika Anda melakukan deployment sendiri di Amazon SageMaker, tinjau sumber model di halaman detail model.
Selain memastikan kepatuhan, mengawasi pembaruan baru juga dapat membawa peluang menarik. Misalnya, lisensi Meta Llama 3.1 dianggap lebih permisif dari pendahulunya, membuka kasus penggunaan baru seperti menganalisis dokumen panjang dan membangun chatbot multibahasa canggih untuk penggunaan global. Terlepas dari model yang Anda pilih, meninjau aspek-aspek ini secara teratur memastikan aplikasi Anda dapat memanfaatkan peluang baru.


3. Implementasikan Kontrol Akses Komprehensif
Saat mengembangkan dan melakukan deployment aplikasi AI generatif Anda, Anda akan memerlukan kontrol akses yang kuat untuk melindungi sistem dan data Anda. Hal ini termasuk menyiapkan autentikasi pengguna, otorisasi, dan kebijakan akses data, semuanya dilakukan sambil mematuhi prinsip hak akses paling rendah (PoLP). Gagasan di balik PoLP adalah pengguna serta layanan hanya mendapatkan akses yang mereka butuhkan untuk melakukan tugas mereka. Dengan mengikuti PoLP, tim dapat mengurangi potensi risiko keamanan dan mempersulit penyerang untuk menemukan jalan masuk.
Mulai dengan mengimplementasikan autentikasi pengguna menggunakan layanan seperti Amazon Cognito atau Izin Terverifikasi Amazon, dan siapkan kontrol otorisasi untuk membantu mematuhi PoLP. Berikut adalah contoh bagaimana Anda dapat menggunakan token JWT Amazon Cognito untuk melakukan propagasi identitas dan otorisasi ketat:

Atur kontrol akses untuk setiap bagian aplikasi AI generatif Anda, termasuk LLM, basis data, sistem penyimpanan, dan layanan atau API yang terhubung. Gunakan model yang dapat diakses melalui kredensial sementara yang berumur pendek, (seperti yang ada di Amazon Bedrock atau Amazon SageMaker), untuk menjaga akses tetap aman dan lebih mudah dikelola. Amazon Bedrock juga memungkinkan Anda mengontrol siapa saja yang dapat mengakses model tertentu, jadi Anda dapat memblokir akses jika diperlukan.
Berikutnya, pastikan sesi pengguna dan konteks percakapan diisolasi dengan mengimplementasikan mekanisme untuk mencegah pengguna mengakses konten pengguna lain, riwayat sesi, atau informasi percakapan. Gunakan pengidentifikasi sesi unik untuk pengguna dan validasikan ini setiap kali pengguna mengakses sistem. Mengimplementasikan manajemen sesi sisi server akan memungkinkan Anda untuk mencatat riwayat percakapan serta konteks di penyimpanan data yang diisolasi untuk setiap pengguna.
Untuk implementasi retrieval augmented generation (RAG), sangat penting untuk mengelola akses ke basis pengetahuan yang digunakan untuk menambah respons LLM. Anda dapat menyederhanakannya dengan menggunakan Basis Pengetahuan Amazon Bedrock dengan pemfilteran metadata, yang menyediakan kontrol akses bawaan untuk memastikan pengguna hanya mengambil informasi yang diizinkan untuk mereka akses. Jika Anda mengelola RAG sendiri, gunakan Amazon Kendra untuk memfilter respons berdasarkan izin pengguna. Lihat diagram di atas (langkah 5) untuk ilustrasi cara kerja pemfilteran metadata.


4. Memitigasi Risiko Input dan Output
Setelah Anda mengimplementasikan kontrol akses, Anda sekarang dapat fokus pada mekanisme evaluasi untuk menilai dan memitigasi risiko yang terkait dengan input pengguna dan output model dalam aplikasi AI generatif Anda. Hal ini membantu melindungi terhadap kerentanan seperti serangan injeksi prompt, pembuatan konten yang tidak pantas, atau halusinasi.
Anda dapat menyederhanakan proses ini menggunakan Pagar Pembatas Amazon Bedrock. Pagar pembatas memungkinkan Anda mengonfigurasi pertahanan untuk input prompt dan output model yang dapat diterapkan di seluruh LLM di Amazon Bedrock, termasuk model yang disempurnakan dan bahkan aplikasi AI generatif di luar Amazon Bedrock.
Sebagai tindakan pencegahan tambahan, implementasikan katalog prompt terverifikasi (serangkaian prompt yang sudah disetujui sebelumnya untuk tugas umum) menggunakan Manajemen Prompt Amazon Bedrock, untuk mengelola prompt secara efektif dan melindungi LLM dari instruksi berbahaya.
Validasi output sama pentingnya. Respons LLM harus diperlakukan dengan hati-hati—jika model menghasilkan kode atau kueri basis data (yang akan diteruskan ke komponen lain), Anda harus memperlakukan output-nya seperti berasal dari pengguna yang tidak tepercaya. Selalu periksa izin dan jalankan pemeriksaan keamanan sebelum membiarkannya berinteraksi dengan sistem lain. Gunakan metode aman seperti kueri berparameter untuk basis data dan tinjau struktur SQL yang dihasilkan sebelum menggunakannya. Anda juga dapat membatasi risiko menggunakan templat prompt dalam prompt sistem untuk mengontrol format respons model.
Jika LLM Anda menghasilkan perintah atau kode sistem, sangat penting untuk menggunakan langkah-langkah keamanan yang kuat. Mulai dengan menggunakan pemeriksaan validasi yang ketat. Hal ini termasuk menggunakan daftar yang diizinkan, memeriksa sintaksis, dan memahami apa yang coba dilakukan kode. Untuk bahasa seperti JavaScript atau Markdown, selalu enkode output sebelum menunjukkannya kepada pengguna untuk melindungi terhadap potensi kerentanan. Jika kode AI perlu dijalankan, pastikan untuk melakukannya di sandbox (lingkungan terisolasi) untuk menjaga sistem utama Anda tetap aman jika terjadi kesalahan.


5. Lindungi Data Anda
Berikutnya, pastikan Anda melindungi data yang digunakan dan direspons oleh model Anda (seperti kueri pengguna, konteks tambahan, dan basis pengetahuan yang digunakan dalam sistem RAG) melalui enkripsi.
Hal ini dipermudah oleh layanan seperti AWS Key Management Service untuk manajemen, penyimpanan, dan rotasi kunci enkripsi yang aman, serta AWS Identity and Access Management (IAM) untuk kontrol akses. Anda juga dapat mengaktifkan penentuan versi untuk penyimpanan basis pengetahuan Anda (seperti penentuan versi S3) untuk melacak perubahan dan memastikan data Anda tetap andal dan aman.
Jika Anda menangani data sensitif, Anda juga dapat mengimplementasikan pengaburan atau pemblokiran data menggunakan filter informasi sensitif Pagar Pembatas Bedrock.


6. Amankan Perimeter Anda
Sekarang setelah data Anda diamankan, Anda dapat fokus melindungi infrastruktur AI generatif. Saat menggunakan data kepemilikan, pastikan untuk menyiapkan perimeter yang aman untuk mencegah paparan ke internet publik. Titik akhir VPC Amazon Bedrock menciptakan koneksi privat antara Cloud Privat Virtual (VPC) dan akun Amazon Bedrock Anda, yang memperkuat keamanan data dan interaksi model Anda.
LLM menggunakan daya komputasi yang signifikan, sehingga menjadikannya target penyalahgunaan. Untuk mencegah hal ini, Anda dapat mengatur batasan pada seberapa banyak pengguna dapat mengakses aplikasi Anda. Gunakan AWS Web Application Firewall (WAF) untuk mengatur batasan ini, dan Amazon API Gateway untuk mengontrol laju permintaan ke aplikasi Anda. Langkah-langkah ini akan melindungi infrastruktur Anda sambil memastikan sistem Anda beperforma baik dan berjalan secara konsisten.


7. Implementasikan Pemantauan Komprehensif dan Respons Insiden
Setelah Anda mengamankan pengaturan dan data, sekarang Anda dapat mengamankan pemantauan sistem. Hal ini termasuk mengimplementasikan mekanisme respons untuk mendeteksi dan mengatasi masalah keamanan dengan cepat. Pantau metrik penggunaan LLM seperti volume permintaan, latensi, serta laju kesalahan untuk memahami performa sistem Anda dan mendeteksi anomali. Amazon CloudWatch akan membuat pemberitahuan ketika metrik ini melebihi tingkat yang Anda atur.
Bersamaan dengan ini, Anda harus mengembangkan rencana respons insiden untuk mengatasi skenario seperti injeksi prompt, output model yang tidak terduga, atau kebocoran data. Buat garis besar proses eskalasi untuk setiap skenario, termasuk penamaan alat utama dan anggota tim Anda serta tanggung jawab mereka. Terakhir, siapkan sistem seperti Andon cord yang memungkinkan Anda menonaktifkan model dengan cepat, lakukan rollback ke versi sebelumnya, atau beralih ke mode aman jika terjadi kesalahan. Memiliki langkah-langkah yang jelas ini untuk masalah keamanan akan membantu Anda merespons lebih cepat dan menjaga aplikasi AI Anda tetap aman dan stabil.

Kesimpulan
Daftar periksa tujuh langkah ini adalah panduan penting untuk memindahkan aplikasi AI generatif Anda dari prototipe ke produksi. Mengatasi dan menindaklanjuti setiap butir akan membantu Anda membangun dan melakukan deployment secara bertanggung jawab, melindungi organisasi serta pengguna Anda. Ingat, AI generatif berkembang pesat, jadi penting untuk tetap mengikuti perkembangan terbaru dalam keamanan AI agar aplikasi Anda (dan perusahaan rintisan Anda) tetap terdepan dalam inovasi dan kepercayaan. Lihat Komunitas AWS – AI Generatif untuk mendapatkan pembaruan terbaru kami!
Posting ini membahas tentang kontrol keamanan untuk aplikasi yang menggunakan model yang sudah dilatih sebelumnya. Jika Anda mempertimbangkan untuk menggunakan model yang disempurnakan atau kustom, lihat Matriks Penjangkauan Keamanan AI Generatif untuk memahami berbagai risiko dan mitigasi yang harus diwaspadai berdasarkan tipe model. Anda juga dapat melihat Pendekatan aman untuk AI generatif atau menghubungi tim akun Anda untuk mendapatkan dukungan tambahan.

Riza Saputra
Riza adalah Senior Solutions Architect di AWS, yang bekerja dengan perusahaan rintisan dari semua tahap untuk membantu mereka tumbuh dengan aman, menskalakan secara efisien, dan berinovasi lebih cepat. Fokusnya saat ini adalah pada AI generatif, membimbing organisasi dalam membangun serta menskalakan solusi AI secara aman dan efisien. Dengan pengalaman di berbagai peran, industri, dan ukuran perusahaan, beliau membawa perspektif serbaguna untuk memecahkan tantangan teknis serta bisnis. Riza juga membagikan pengetahuannya melalui pidato dan konten untuk mendukung komunitas teknologi yang lebih luas.

Glendon Thaiw
Glendon memimpin tim Arsitek Solusi Perusahaan Rintisan di Singapura, Malaysia, Indonesia, dan Filipina, yang mendukung pertumbuhan ekosistem perusahaan rintisan di Asia Tenggara. Beliau bekerja sama erat dengan perusahaan rintisan SaaS dan FinTech, membantu mereka memaksimalkan nilai di AWS dengan merancang solusi cloud yang dapat diskalakan serta aman. Dengan keahlian dalam teknologi kontainer seperti Kubernetes dan EKS, Glendon memandu perusahaan rintisan melalui tantangan teknis dan kepatuhan. Beliau juga berdedikasi untuk berbagi pengetahuan, berpidato secara rutin di berbagai acara, serta membuat konten untuk memberdayakan komunitas perusahaan rintisan di wilayah tersebut.

Ying Ting Ng
Ying Ting adalah Associate Security Solutions Architect di AWS, tempat beliau mendukung pelanggan ASEAN yang berkembang dalam penskalaan secara aman di cloud. Dengan keahlian di bidang keamanan AI generatif, beliau memberikan panduan tentang praktik terbaik arsitektural dalam penskalaan beban kerja AI generatif mereka secara aman dan cepat. Sebagai anggota aktif di Amazon Women in Security, Ying Ting berbagi wawasan tentang cara membuat dampak sebagai profesional keamanan siber yang masih merintis karier.
Bagaimana konten ini?