Безопасность
Безопасность ИИ включает в себя набор методов проектирования и эксплуатации, которым необходимо следовать, чтобы избежать и сдержать действия, которые могут причинить вред, преднамеренно или непреднамеренно. Например, ведут себя ли системы искусственного интеллекта так, как задумано, даже в случае нарушения безопасности или целенаправленной атаки? Достаточно ли надежна система искусственного интеллекта, чтобы безопасно работать даже в случае возмущений? Как вы планируете заранее предотвратить или избежать рисков? Является ли система искусственного интеллекта надежной и стабильной под давлением?
Одним из таких методов обеспечения безопасности является состязательное тестирование , или практика попыток «сломать» ваше собственное приложение, чтобы узнать, как оно ведет себя, когда ему предоставляются вредоносные или непреднамеренно вредные входные данные. В разделе «Безопасность » Руководства Google по ответственному использованию искусственного интеллекта изложены рекомендуемые методы защиты систем искусственного интеллекта от атак, включая состязательное тестирование. Узнайте больше о работе Google в этой области и извлеченных уроках в блоге Keyword « Красная команда Google по искусственному интеллекту: этические хакеры делают ИИ более безопасным» или в SAIF: Руководство Google по защите ИИ .