ایمنی هوش مصنوعی شامل مجموعهای از تکنیکهای طراحی و عملیاتی است که باید دنبال کرد تا از اقداماتی که میتوانند بهطور عمدی یا غیرعمدی آسیب وارد کنند، اجتناب شود و شامل آن شود. به عنوان مثال، آیا سیستمهای هوش مصنوعی، حتی در مواجهه با نقض امنیت یا حمله هدفمند، آنطور که در نظر گرفته شده است، رفتار میکنند؟ آیا سیستم هوش مصنوعی به اندازهای قوی است که حتی در هنگام آشفتگی، ایمن عمل کند؟ چگونه از قبل برای پیشگیری یا اجتناب از خطرات برنامه ریزی می کنید؟ آیا سیستم هوش مصنوعی تحت فشار قابل اعتماد و پایدار است؟
یکی از این تکنیکهای ایمنی، تست خصومتآمیز یا تمرین تلاش برای "شکستن" برنامه خود برای یادگیری نحوه رفتار آن در صورت ارائه ورودی مخرب یا سهوا مضر است. جعبه ابزار هوش مصنوعی مولد مسئولیت پذیر بیشتر در مورد ارزیابی های ایمنی، از جمله تست های خصمانه توضیح می دهد. درباره کار Google در این زمینه و درسهای آموختهشده در پست وبلاگ کلیدواژه، تیم قرمز هوش مصنوعی Google: هکرهای اخلاقی که هوش مصنوعی را ایمنتر میکنند یا در SAIF: Google's Guide to Secure AI بیشتر بیاموزید.