Keamanan

Keamanan AI mencakup serangkaian teknik desain dan operasional yang harus diikuti untuk menghindari dan membatasi tindakan yang dapat menyebabkan bahaya, baik disengaja maupun tidak disengaja. Misalnya, apakah sistem AI berperilaku sebagaimana mestinya, bahkan saat menghadapi pelanggaran keamanan atau serangan yang ditargetkan? Apakah sistem AI cukup andal untuk beroperasi dengan aman meskipun terganggu? Bagaimana cara Anda merencanakan ke depan untuk mencegah atau menghindari risiko? Apakah sistem AI andal dan stabil dalam tekanan?

Salah satu teknik keamanan tersebut adalah pengujian adversarial, atau praktik mencoba "merusak" aplikasi Anda sendiri untuk mempelajari perilakunya saat diberi input berbahaya atau yang tidak sengaja membahayakan. Bagian Keamanan dalam Praktik Responsible AI Google menguraikan praktik yang direkomendasikan untuk melindungi sistem AI dari serangan, termasuk pengujian adversarial. Pelajari lebih lanjut upaya Google di bidang ini dan pelajaran yang diperoleh dalam postingan blog Kata Kunci, Red Team AI Google: peretas etis yang membuat AI lebih aman atau di SAIF: Panduan Google untuk AI yang Aman.