دفاع
تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
تشمل سلامة الذكاء الاصطناعي مجموعة من تقنيات التصميم والتشغيل التي يجب اتّباعها لتجنّب الإجراءات التي يمكن أن تتسبّب في إلحاق الضرر، سواء عن قصد أو بدون قصد، واحتواء هذه الإجراءات.
على سبيل المثال، هل تعمل أنظمة الذكاء الاصطناعي على النحو المطلوب، حتى في حال حدوث هجوم مستهدف أو تعرُّض للاختراق؟ هل نظام الذكاء الاصطناعي قوي بما يكفي للعمل بأمان
حتى في حال حدوث خلل؟ كيف تخطّط مسبقًا لتجنّب المخاطر أو تجنّب حدوثها؟ هل نظام الذكاء الاصطناعي
موثوق ومستقر في ظل الضغط؟
ومن بين تقنيات الأمان هذه الاختبار المضاد، وهو محاولة "إيقاف" تطبيقك لمعرفة سلوكه عند تقديم إدخال ضار أو ضار عن غير قصد. تشرح
مجموعة أدوات الذكاء الاصطناعي التوليدي المسؤول
المزيد عن تقييمات السلامة، بما في ذلك الاختبارات المضادة. يمكنك الاطّلاع على مزيد من المعلومات حول عمل Google في هذا المجال والدروس التي اكتسبناها في مشاركة مدونة Keyword بعنوان فريق AI Red Team في Google: المخترقون الأخلاقيون الذين صعّبوا استخدام الذكاء الاصطناعي
أو في SAIF: دليل Google للأمان في الذكاء الاصطناعي.
إنّ محتوى هذه الصفحة مرخّص بموجب ترخيص Creative Commons Attribution 4.0 ما لم يُنصّ على خلاف ذلك، ونماذج الرموز مرخّصة بموجب ترخيص Apache 2.0. للاطّلاع على التفاصيل، يُرجى مراجعة سياسات موقع Google Developers. إنّ Java هي علامة تجارية مسجَّلة لشركة Oracle و/أو شركائها التابعين.
تاريخ التعديل الأخير: 2025-07-27 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2025-07-27 (حسب التوقيت العالمي المتفَّق عليه)"],[[["\u003cp\u003eAI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack.\u003c/p\u003e\n"],["\u003cp\u003eAdversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness.\u003c/p\u003e\n"],["\u003cp\u003eGoogle's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks.\u003c/p\u003e\n"]]],[],null,["# Safety\n\n\u003cbr /\u003e\n\nAI **safety** includes a set of design and operational techniques to follow to\navoid and contain actions that can cause harm, intentionally or unintentionally.\nFor example, do AI systems behave as intended, even in the face of a security\nbreach or targeted attack? Is the AI system robust enough to operate safely\neven when perturbed? How do you plan ahead to prevent or avoid risks? Is the AI\nsystem reliable and stable under pressure?\n\nOne such safety technique is [adversarial testing](/machine-learning/guides/adv-testing),\nor the practice of trying to \"break\" your own application to learn how it\nbehaves when provided with malicious or inadvertently harmful input. The\n[Responsible Generative AI Toolkit](https://ai.google.dev/responsible/docs/evaluation)\nexplains more about safety evaluations, including adversarial testing. Learn\nmore about Google's work in this area and lessons\nlearned in the Keyword blog post, [Google's AI Red Team: the ethical hackers\nmaking AI\nsafer](https://blog.google/technology/safety-security/googles-ai-red-team-the-ethical-hackers-making-ai-safer/)\nor at [SAIF: Google's Guide to Secure AI](https://saif.google/)."]]