الأمان
تشمل سلامة الذكاء الاصطناعي مجموعة من تقنيات التصميم والتشغيل التي يجب اتّباعها لتجنُّب الإجراءات التي يمكن أن تتسبّب في إلحاق الضرر، سواء عن قصد أو بدون قصد، واحتواء هذه الإجراءات. على سبيل المثال، هل تعمل أنظمة الذكاء الاصطناعي على النحو المطلوب، حتى في حال حدوث هجوم مستهدف أو تعرُّض للاختراق؟ هل نظام الذكاء الاصطناعي قوي بما يكفي للعمل بأمان حتى في حال حدوث خلل؟ كيف تخطّط مسبقًا لتجنّب المخاطر أو تجنّب حدوثها؟ هل نظام الذكاء الاصطناعي موثوق ومستقر في ظل الضغط؟
ومن بين تقنيات السلامة هذه الاختبار المضاد، أي محاولة "إيقاف" تطبيقك لمعرفة سلوكه عند تقديم إدخال ضار أو ضار عن غير قصد. يوضّح قسم "الأمان" ضمن الممارسات المسؤولة المتعلّقة بالذكاء الاصطناعي من Google الممارسات المقترَحة لحماية أنظمة الذكاء الاصطناعي من الهجمات، بما في ذلك الاختبار التعذيبي. يمكنك الاطّلاع على مزيد من المعلومات حول عمل Google في هذا المجال والدروس التي اكتسبناها في مشاركة مدونة Keyword بعنوان فريق AI Red Team في Google: المخترقون الأخلاقيون الذين ينظّمون استخدام الذكاء الاصطناعي بأمان أو في SAIF: دليل Google للذكاء الاصطناعي الآمن.