Segurança
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
A segurança da IA inclui um conjunto de técnicas de design e operacionais a serem seguidas para
evitar e conter ações que possam causar danos, intencionalmente ou não.
Por exemplo, os sistemas de IA se comportam como o esperado, mesmo diante de uma violação
de segurança ou ataque direcionado? O sistema de IA é robusto o suficiente para operar com segurança,
mesmo quando perturbado? Como você planeja com antecedência para prevenir ou evitar riscos? O sistema de IA
é confiável e estável sob pressão?
Uma dessas técnicas de segurança é o teste adversário,
ou a prática de tentar "quebrar" seu próprio aplicativo para saber como ele
se comporta quando recebe entradas maliciosas ou acidentalmente nocivas. O
Toolkit para IA generativa responsável
explica mais sobre avaliações de segurança, incluindo testes de adversarialidade. Saiba
mais sobre o trabalho do Google nessa área e as lições
aprendidas na postagem do blog Keyword, Equipe vermelha de IA do Google: hackers éticos
tornando a IA
mais segura
ou em SAIF: o guia do Google para IA segura.
Exceto em caso de indicação contrária, o conteúdo desta página é licenciado de acordo com a Licença de atribuição 4.0 do Creative Commons, e as amostras de código são licenciadas de acordo com a Licença Apache 2.0. Para mais detalhes, consulte as políticas do site do Google Developers. Java é uma marca registrada da Oracle e/ou afiliadas.
Última atualização 2025-07-27 UTC.
[null,null,["Última atualização 2025-07-27 UTC."],[[["\u003cp\u003eAI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack.\u003c/p\u003e\n"],["\u003cp\u003eAdversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness.\u003c/p\u003e\n"],["\u003cp\u003eGoogle's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks.\u003c/p\u003e\n"]]],[],null,["# Safety\n\n\u003cbr /\u003e\n\nAI **safety** includes a set of design and operational techniques to follow to\navoid and contain actions that can cause harm, intentionally or unintentionally.\nFor example, do AI systems behave as intended, even in the face of a security\nbreach or targeted attack? Is the AI system robust enough to operate safely\neven when perturbed? How do you plan ahead to prevent or avoid risks? Is the AI\nsystem reliable and stable under pressure?\n\nOne such safety technique is [adversarial testing](/machine-learning/guides/adv-testing),\nor the practice of trying to \"break\" your own application to learn how it\nbehaves when provided with malicious or inadvertently harmful input. The\n[Responsible Generative AI Toolkit](https://ai.google.dev/responsible/docs/evaluation)\nexplains more about safety evaluations, including adversarial testing. Learn\nmore about Google's work in this area and lessons\nlearned in the Keyword blog post, [Google's AI Red Team: the ethical hackers\nmaking AI\nsafer](https://blog.google/technology/safety-security/googles-ai-red-team-the-ethical-hackers-making-ai-safer/)\nor at [SAIF: Google's Guide to Secure AI](https://saif.google/)."]]