Seguridad
Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
La seguridad de la IA incluye un conjunto de técnicas de diseño y operativas que se deben seguir para evitar y contener acciones que puedan causar daños, de forma intencional o no.
Por ejemplo, ¿los sistemas de IA se comportan según lo previsto, incluso ante una violación de seguridad o un ataque dirigido? ¿El sistema de IA es lo suficientemente sólido como para funcionar de forma segura incluso cuando se ve afectado? ¿Cómo planificas con anticipación para prevenir o evitar los riesgos? ¿El sistema de IA es confiable y estable bajo presión?
Una de esas técnicas de seguridad son las pruebas de ataque, o la práctica de intentar “romper” tu propia aplicación para aprender cómo se comporta cuando se le proporciona una entrada maliciosa o inadvertidamente dañina. En el kit de herramientas de IA generativa responsable, se explica más sobre las evaluaciones de seguridad, incluidas las pruebas adversariales. Obtén más información sobre el trabajo de Google en esta área y las lecciones aprendidas en la entrada de blog de Keyword, Equipo rojo de IA de Google: los hackers éticos que hacen que la IA sea más segura o en SAIF: Guía de Google para la IA segura.
Salvo que se indique lo contrario, el contenido de esta página está sujeto a la licencia Atribución 4.0 de Creative Commons, y los ejemplos de código están sujetos a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
Última actualización: 2025-07-27 (UTC)
[null,null,["Última actualización: 2025-07-27 (UTC)"],[[["\u003cp\u003eAI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack.\u003c/p\u003e\n"],["\u003cp\u003eAdversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness.\u003c/p\u003e\n"],["\u003cp\u003eGoogle's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks.\u003c/p\u003e\n"]]],[],null,["# Safety\n\n\u003cbr /\u003e\n\nAI **safety** includes a set of design and operational techniques to follow to\navoid and contain actions that can cause harm, intentionally or unintentionally.\nFor example, do AI systems behave as intended, even in the face of a security\nbreach or targeted attack? Is the AI system robust enough to operate safely\neven when perturbed? How do you plan ahead to prevent or avoid risks? Is the AI\nsystem reliable and stable under pressure?\n\nOne such safety technique is [adversarial testing](/machine-learning/guides/adv-testing),\nor the practice of trying to \"break\" your own application to learn how it\nbehaves when provided with malicious or inadvertently harmful input. The\n[Responsible Generative AI Toolkit](https://ai.google.dev/responsible/docs/evaluation)\nexplains more about safety evaluations, including adversarial testing. Learn\nmore about Google's work in this area and lessons\nlearned in the Keyword blog post, [Google's AI Red Team: the ethical hackers\nmaking AI\nsafer](https://blog.google/technology/safety-security/googles-ai-red-team-the-ethical-hackers-making-ai-safer/)\nor at [SAIF: Google's Guide to Secure AI](https://saif.google/)."]]