Sicurezza
La sicurezza dell'IA include un insieme di tecniche di progettazione e operative da seguire per evitare e contenere azioni che possono causare danni, intenzionalmente o involontariamente. Ad esempio, i sistemi di AI si comportano come previsto anche in caso di violazione della sicurezza o di attacco mirato? Il sistema di IA è sufficientemente robusto per funzionare in sicurezza anche in caso di perturbazioni? Come pianifichi in anticipo per prevenire o evitare i rischi? Il sistema di IA è affidabile e stabile sotto pressione?
Una di queste tecniche di sicurezza è il test antagonistico, ovvero la pratica di provare a "rompere" la tua applicazione per scoprire come si comporta quando riceve input dannosi, intenzionalmente o inavvertitamente. La sezione Sicurezza delle Pratiche di IA responsabile di Google illustra le pratiche consigliate per proteggere i sistemi di IA dagli attacchi, inclusi i test antagonistici. Scopri di più sull'impegno di Google in questo ambito e sulle lezioni imparate nel post del blog Keyword Google's AI Red Team: the ethical hackers making AI safer o consulta SAIF: Google's Guide to Secure AI.