ایمنی

ایمنی هوش مصنوعی شامل مجموعه‌ای از تکنیک‌های طراحی و عملیاتی است که باید دنبال کرد تا از اقداماتی که می‌توانند به‌طور عمدی یا غیرعمدی آسیب وارد کنند، اجتناب شود و شامل آن شود. به عنوان مثال، آیا سیستم‌های هوش مصنوعی، حتی در مواجهه با نقض امنیت یا حمله هدفمند، آنطور که در نظر گرفته شده است، رفتار می‌کنند؟ آیا سیستم هوش مصنوعی به اندازه‌ای قوی است که حتی در هنگام آشفتگی، ایمن عمل کند؟ چگونه از قبل برای پیشگیری یا اجتناب از خطرات برنامه ریزی می کنید؟ آیا سیستم هوش مصنوعی تحت فشار قابل اعتماد و پایدار است؟

یکی از این تکنیک‌های ایمنی، تست خصومت‌آمیز یا تمرین تلاش برای "شکستن" برنامه خود برای یادگیری نحوه رفتار آن در صورت ارائه ورودی مخرب یا سهوا مضر است. بخش ایمنی از شیوه‌های هوش مصنوعی مسئولیت‌پذیر Google، اقدامات توصیه‌شده برای محافظت از سیستم‌های هوش مصنوعی در برابر حملات، از جمله آزمایش‌های متخاصم را تشریح می‌کند. درباره کار Google در این زمینه و درس‌های آموخته‌شده در پست وبلاگ کلیدواژه، تیم قرمز هوش مصنوعی Google: هکرهای اخلاقی که هوش مصنوعی را ایمن‌تر می‌کنند یا در SAIF: Google's Guide to Secure AI بیشتر بیاموزید.