ایمنی
ایمنی هوش مصنوعی شامل مجموعهای از تکنیکهای طراحی و عملیاتی است که باید دنبال کرد تا از اقداماتی که میتوانند بهطور عمدی یا غیرعمدی آسیب وارد کنند، اجتناب شود و شامل آن شود. به عنوان مثال، آیا سیستمهای هوش مصنوعی، حتی در مواجهه با نقض امنیت یا حمله هدفمند، آنطور که در نظر گرفته شده است، رفتار میکنند؟ آیا سیستم هوش مصنوعی به اندازهای قوی است که حتی در هنگام آشفتگی، ایمن عمل کند؟ چگونه از قبل برای پیشگیری یا اجتناب از خطرات برنامه ریزی می کنید؟ آیا سیستم هوش مصنوعی تحت فشار قابل اعتماد و پایدار است؟
یکی از این تکنیکهای ایمنی، تست خصومتآمیز یا تمرین تلاش برای "شکستن" برنامه خود برای یادگیری نحوه رفتار آن در صورت ارائه ورودی مخرب یا سهوا مضر است. بخش ایمنی از شیوههای هوش مصنوعی مسئولیتپذیر Google، اقدامات توصیهشده برای محافظت از سیستمهای هوش مصنوعی در برابر حملات، از جمله آزمایشهای متخاصم را تشریح میکند. درباره کار Google در این زمینه و درسهای آموختهشده در پست وبلاگ کلیدواژه، تیم قرمز هوش مصنوعی Google: هکرهای اخلاقی که هوش مصنوعی را ایمنتر میکنند یا در SAIF: Google's Guide to Secure AI بیشتر بیاموزید.