Sécurité
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
La sécurité de l'IA comprend un ensemble de techniques de conception et d'exploitation à suivre pour éviter et contenir les actions pouvant causer des dommages, intentionnellement ou non.
Par exemple, les systèmes d'IA se comportent-ils comme prévu, même en cas de violation de la sécurité ou d'attaque ciblée ? Le système d'IA est-il suffisamment robuste pour fonctionner de manière sécurisée, même en cas de perturbation ? Comment planifiez-vous à l'avance pour prévenir ou éviter les risques ? Le système d'IA est-il fiable et stable sous pression ?
L'une de ces techniques de sécurité est les tests antagonistes, qui consistent à essayer de "casser" votre propre application pour savoir comment elle se comporte quand des entrées malveillantes ou accidentellement nuisibles lui sont fournies. Le kit d'outils pour une IA générative responsable explique plus en détail les évaluations de sécurité, y compris les tests antagonistes. Pour en savoir plus sur le travail de Google dans ce domaine et les enseignements tirés, consultez l'article de blog sur les mots clés Google's AI Red Team: the ethical hackers making AI safer (La Red Team de Google dédiée à l'IA : les pirates informatiques éthiques qui rendent l'IA plus sûre) ou SAIF: Google's Guide to Secure AI (SAIF : guide de Google sur l'IA sécurisée).
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/07/27 (UTC).
[null,null,["Dernière mise à jour le 2025/07/27 (UTC)."],[[["\u003cp\u003eAI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack.\u003c/p\u003e\n"],["\u003cp\u003eAdversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness.\u003c/p\u003e\n"],["\u003cp\u003eGoogle's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks.\u003c/p\u003e\n"]]],[],null,["# Safety\n\n\u003cbr /\u003e\n\nAI **safety** includes a set of design and operational techniques to follow to\navoid and contain actions that can cause harm, intentionally or unintentionally.\nFor example, do AI systems behave as intended, even in the face of a security\nbreach or targeted attack? Is the AI system robust enough to operate safely\neven when perturbed? How do you plan ahead to prevent or avoid risks? Is the AI\nsystem reliable and stable under pressure?\n\nOne such safety technique is [adversarial testing](/machine-learning/guides/adv-testing),\nor the practice of trying to \"break\" your own application to learn how it\nbehaves when provided with malicious or inadvertently harmful input. The\n[Responsible Generative AI Toolkit](https://ai.google.dev/responsible/docs/evaluation)\nexplains more about safety evaluations, including adversarial testing. Learn\nmore about Google's work in this area and lessons\nlearned in the Keyword blog post, [Google's AI Red Team: the ethical hackers\nmaking AI\nsafer](https://blog.google/technology/safety-security/googles-ai-red-team-the-ethical-hackers-making-ai-safer/)\nor at [SAIF: Google's Guide to Secure AI](https://saif.google/)."]]