Güvenlik
Yapay zeka güvenliği, kasıtlı veya kasıtsız olarak zarara neden olabilecek eylemleri önlemek ve kontrol altına almak için uyulması gereken bir dizi tasarım ve operasyon tekniği içerir. Örneğin, yapay zeka sistemleri güvenlik ihlali veya hedeflenmiş saldırı karşısında bile amaçlandığı gibi davranıyor mu? Yapay zeka sistemi, bozulduğunda bile güvenli bir şekilde çalışacak kadar güçlü mü? Riskleri önlemek veya azaltmak için nasıl plan yapıyorsunuz? Yapay zeka sistemi, baskı altındayken güvenilir ve kararlı mı?
Bu güvenlik tekniklerinden biri, düşmanca test veya kötü amaçlı ya da yanlışlıkla zararlı giriş sağlandığında kendi uygulamanızı "bozmaya" çalışma pratiğidir. Google'ın Sorumlu Yapay Zeka Uygulamaları başlıklı makalesinin Güvenlik bölümünde, yapay zeka sistemlerini saldırılara karşı korumak için önerilen uygulamalar (düşmanca test dahil) açıklanmaktadır. Google'ın bu alandaki çalışmaları ve edinilen dersler hakkında daha fazla bilgi edinmek için Google'ın Yapay Zeka Kırmızı Ekibi: Yapay zekayı daha güvenli hale getiren etik hacker'lar başlıklı Keyword blog yayınını veya SAIF: Google'ın Güvenli Yapay Zeka Rehberi'ni inceleyin.