Sicurezza
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
La sicurezza dell'IA include un insieme di tecniche di progettazione e operative da seguire per evitare e contenere azioni che possono causare danni, intenzionalmente o involontariamente.
Ad esempio, i sistemi di AI si comportano come previsto anche in caso di violazione della sicurezza o di attacco mirato? Il sistema di IA è sufficientemente robusto da funzionare in sicurezza anche in caso di perturbazioni? Come pianifichi in anticipo per prevenire o evitare i rischi? Il sistema di IA è affidabile e stabile sotto pressione?
Una di queste tecniche di sicurezza è il test antagonistico, ovvero la pratica di provare a "rompere" la tua applicazione per scoprire come si comporta quando riceve input dannosi, intenzionalmente o inavvertitamente. Il
Responsible Generative AI Toolkit
spiega di più sulle valutazioni di sicurezza, inclusi i test antagonistici. Scopri di più sul lavoro di Google in questo ambito e sulle lezioni apprese nel post del blog Keyword Google's AI Red Team: the ethical hackers
making AI
safer
o in SAIF: Google's Guide to Secure AI.
Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.
Ultimo aggiornamento 2025-07-27 UTC.
[null,null,["Ultimo aggiornamento 2025-07-27 UTC."],[[["\u003cp\u003eAI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack.\u003c/p\u003e\n"],["\u003cp\u003eAdversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness.\u003c/p\u003e\n"],["\u003cp\u003eGoogle's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks.\u003c/p\u003e\n"]]],[],null,["# Safety\n\n\u003cbr /\u003e\n\nAI **safety** includes a set of design and operational techniques to follow to\navoid and contain actions that can cause harm, intentionally or unintentionally.\nFor example, do AI systems behave as intended, even in the face of a security\nbreach or targeted attack? Is the AI system robust enough to operate safely\neven when perturbed? How do you plan ahead to prevent or avoid risks? Is the AI\nsystem reliable and stable under pressure?\n\nOne such safety technique is [adversarial testing](/machine-learning/guides/adv-testing),\nor the practice of trying to \"break\" your own application to learn how it\nbehaves when provided with malicious or inadvertently harmful input. The\n[Responsible Generative AI Toolkit](https://ai.google.dev/responsible/docs/evaluation)\nexplains more about safety evaluations, including adversarial testing. Learn\nmore about Google's work in this area and lessons\nlearned in the Keyword blog post, [Google's AI Red Team: the ethical hackers\nmaking AI\nsafer](https://blog.google/technology/safety-security/googles-ai-red-team-the-ethical-hackers-making-ai-safer/)\nor at [SAIF: Google's Guide to Secure AI](https://saif.google/)."]]