تشمل سلامة الذكاء الاصطناعي مجموعة من تقنيات التصميم والتشغيل التي يجب اتّباعها لتجنّب الإجراءات التي يمكن أن تتسبّب في إلحاق الضرر، سواء عن قصد أو بدون قصد، واحتواء هذه الإجراءات. على سبيل المثال، هل تعمل أنظمة الذكاء الاصطناعي على النحو المطلوب، حتى في حال حدوث هجوم مستهدف أو تعرُّض للاختراق؟ هل نظام الذكاء الاصطناعي قوي بما يكفي للعمل بأمان حتى في حال حدوث خلل؟ كيف تخطّط مسبقًا لتجنّب المخاطر أو تجنّب حدوثها؟ هل نظام الذكاء الاصطناعي موثوق ومستقر في ظل الضغط؟
ومن بين تقنيات الأمان هذه الاختبار المضاد، وهو محاولة "إيقاف" تطبيقك لمعرفة سلوكه عند تقديم إدخال ضار أو ضار عن غير قصد. تشرح مجموعة أدوات الذكاء الاصطناعي التوليدي المسؤول المزيد عن تقييمات السلامة، بما في ذلك الاختبارات المضادة. يمكنك الاطّلاع على مزيد من المعلومات حول عمل Google في هذا المجال والدروس التي اكتسبناها في مشاركة مدونة Keyword بعنوان فريق AI Red Team في Google: المخترقون الأخلاقيون الذين صعّبوا استخدام الذكاء الاصطناعي أو في SAIF: دليل Google للأمان في الذكاء الاصطناعي.