AI berkembang dengan cepat, dan penting bagi strategi pengelolaan risiko yang efektif untuk berkembang bersamanya. Secure AI Framework (SAIF) adalah framework konseptual untuk sistem AI yang aman, yang dirancang untuk membantu mencapai evolusi ini.
Seiring dengan makin terintegrasinya kemampuan AI ke dalam berbagai produk di seluruh dunia, kepatuhan terhadap framework yang jelas dan bertanggung jawab akan menjadi semakin penting.
SAIF didesain untuk membantu mengurangi risiko khusus bagi sistem AI, seperti mencuri model, racun data data pelatihan, memasukkan input berbahaya melalui injeksi permintaan, dan mengekstrak informasi rahasia dalam data pelatihan.
Framework SAIF
SAIF memiliki enam elemen inti:
1. Memperluas fondasi keamanan yang kuat ke ekosistem AI
Hal ini mencakup pemanfaatan perlindungan infrastruktur yang aman secara default dan keahlian yang dibuat selama dua dekade terakhir untuk melindungi sistem, aplikasi, dan pengguna AI. Pada saat yang sama, kembangkan keahlian organisasi untuk mengimbangi manfaat AI dan mulai menskalakan dan menyesuaikan perlindungan infrastruktur dalam konteks AI dan mengembangkan model ancaman. Misalnya, teknik injeksi seperti injeksi SQL telah ada selama beberapa waktu, dan organisasi dapat menyesuaikan mitigasi, seperti pembersihan dan pembatasan input, untuk membantu melindungi dari serangan gaya injeksi yang lebih baik.
2. Perluas deteksi dan respons untuk menghadirkan AI dalam menghadapi ancaman di organisasi
Ketepatan waktu sangat penting dalam mendeteksi dan merespons insiden cyber terkait AI, serta memperluas kecerdasan ancaman dan kemampuan lainnya ke organisasi untuk meningkatkan keduanya. Bagi organisasi ini, termasuk pemantauan input dan output sistem AI generatif untuk mendeteksi anomali dan menggunakan kecerdasan ancaman untuk mengantisipasi serangan. Upaya ini biasanya memerlukan kolaborasi dengan kepercayaan dan keamanan, cerdas ancaman, dan tim pencegahan penyalahgunaan.
3. Otomatiskan pertahanan untuk mengimbangi ancaman yang ada dan yang baru
Inovasi AI terbaru dapat meningkatkan skala dan kecepatan upaya respons terhadap insiden keamanan. Penyerang akan mungkin menggunakan AI untuk menskalakan dampaknya, sehingga penting untuk menggunakan AI dan kemampuannya saat ini dan yang akan datang agar tetap gesit dan hemat biaya dalam melindungi mereka.
4. Sesuaikan kontrol tingkat platform untuk memastikan keamanan yang konsisten di seluruh organisasi
Konsistensi di seluruh framework kontrol dapat mendukung mitigasi risiko dan perlindungan skala AI di berbagai platform dan alat untuk memastikan bahwa perlindungan terbaik tersedia untuk semua aplikasi AI dengan cara yang skalabel dan dapat hemat biaya. Di Google, hal ini termasuk memperluas perlindungan aman secara default ke platform AI seperti Vertex AI dan Security AI Workbench, serta mem-build kontrol dan perlindungan dalam siklus proses pengembangan software. Kemampuan yang menangani kasus penggunaan umum, seperti Perspective API, dapat membantu seluruh organisasi memanfaatkan perlindungan yang canggih.
5. Menyesuaikan kontrol untuk menyesuaikan mitigasi dan membuat feedback loop yang lebih cepat untuk deployment AI
Pengujian yang konstan melalui penerapan pembelajaran yang berkelanjutan dapat memastikan kemampuan deteksi dan perlindungan mengatasi lingkungan ancaman yang berubah. Hal ini mencakup teknik seperti pembelajaran penguatan berdasarkan insiden dan masukan pengguna serta melibatkan langkah-langkah seperti mengupdate set data pelatihan, menyesuaikan model untuk merespons secara strategis serangan dan memungkinkan software yang digunakan untuk membuat model agar dapat menyematkan keamanan lebih lanjut dalam konteks (misalnya, mendeteksi perilaku anomali). Organisasi juga dapat melakukan tim merah secara berkala untuk meningkatkan jaminan keamanan untuk produk dan kemampuan yang didukung AI.
6. Kontekstualkan risiko sistem AI dalam seputar proses bisnis
Terakhir, melakukan penilaian risiko menyeluruh terkait cara organisasi men-deploy AI dapat membantu menentukan keputusan. Penilaian ini mencakup penilaian risiko bisnis secara menyeluruh, seperti urutan data, validasi, dan pemantauan perilaku operasional untuk jenis aplikasi tertentu. Selain itu, organisasi harus membuat pemeriksaan otomatis untuk memvalidasi performa AI.
Referensi Tambahan
Panduan praktisi untuk menerapkan SAIF. Panduan ini memberikan pertimbangan praktis tingkat tinggi tentang cara organisasi dapat membangun pendekatan SAIF ke dalam adopsi AI yang sudah ada atau yang baru.
Mengapa Red Teams Mainkan Peran Pusat dalam Membantu Organisasi Mengamankan Sistem AI adalah laporan mendalam yang membahas satu kemampuan penting yang di-deploy untuk mendukung framework SAIF: Red teaming. Hal ini mencakup tiga area penting:
- Pengertian tim merah dan mengapa hal ini penting
- Jenis serangan apa yang disimulasikan tim merah
- Pelajaran yang dapat kami bagikan kepada orang lain