Yapay zeka güvenliği, kasıtlı veya kasıtsız olarak zarara neden olabilecek eylemleri önlemek ve kontrol altına almak için uyulması gereken bir dizi tasarım ve operasyon tekniği içerir. Örneğin, yapay zeka sistemleri güvenlik ihlali veya hedeflenmiş saldırı karşısında bile amaçlandığı gibi davranıyor mu? Yapay zeka sistemi, bozulduğunda bile güvenli bir şekilde çalışacak kadar güçlü mü? Riskleri önlemek veya azaltmak için nasıl plan yapıyorsunuz? Yapay zeka sistemi, baskı altında güvenilir ve kararlı mı?
Bu tür güvenlik tekniklerinden biri, düşmanca test veya kötü amaçlı ya da yanlışlıkla zararlı giriş sağlandığında kendi uygulamanızı "bozmaya" çalışma pratiğidir. Sorumluluk Bilinciyle Üretken Yapay Zeka Aracı Kiti'nde, saldırgan test dahil olmak üzere güvenlik değerlendirmeleri hakkında daha fazla bilgi verilmektedir. Google'ın bu alandaki çalışmaları ve edinilen dersler hakkında daha fazla bilgi edinmek için Google'ın Yapay Zeka Kırmızı Ekibi: Yapay zekayı daha güvenli hale getiren etik hacker'lar başlıklı Keyword blog yayınını inceleyin veya SAIF: Google'ın Güvenli Yapay Zeka Rehberi'ni inceleyin.