Sicurezza

La sicurezza dell'IA include un insieme di tecniche di progettazione e operative da seguire per evitare e contenere azioni che possono causare danni, intenzionalmente o involontariamente. Ad esempio, i sistemi di AI si comportano come previsto anche in caso di violazione della sicurezza o di attacco mirato? Il sistema di IA è sufficientemente robusto da funzionare in sicurezza anche in caso di perturbazioni? Come pianifichi in anticipo per prevenire o evitare i rischi? Il sistema di IA è affidabile e stabile sotto pressione?

Una di queste tecniche di sicurezza è il test antagonistico, ovvero la pratica di provare a "rompere" la tua applicazione per scoprire come si comporta quando riceve input dannosi, intenzionalmente o inavvertitamente. Il Responsible Generative AI Toolkit spiega di più sulle valutazioni di sicurezza, inclusi i test antagonistici. Scopri di più sul lavoro di Google in questo ambito e sulle lezioni apprese nel post del blog Keyword Google's AI Red Team: the ethical hackers making AI safer o in SAIF: Google's Guide to Secure AI.