Безопасность

Безопасность ИИ включает в себя набор методов проектирования и эксплуатации, которым необходимо следовать, чтобы избежать и сдержать действия, которые могут причинить вред, преднамеренно или непреднамеренно. Например, ведут себя ли системы ИИ так, как задумано, даже в случае нарушения безопасности или целенаправленной атаки? Достаточно ли надежна система искусственного интеллекта, чтобы безопасно работать даже при возмущениях? Как вы планируете заранее, чтобы предотвратить или избежать рисков? Является ли система искусственного интеллекта надежной и стабильной под давлением?

Одним из таких методов обеспечения безопасности является состязательное тестирование , или практика попыток «сломать» ваше собственное приложение, чтобы узнать, как оно ведет себя, когда ему предоставляются вредоносные или непреднамеренно вредные входные данные. Инструментарий Responsible Generative AI Toolkit объясняет больше об оценке безопасности, включая состязательное тестирование. Узнайте больше о работе Google в этой области и извлеченных уроках в блоге Keyword « Красная команда Google по искусственному интеллекту: этические хакеры делают ИИ более безопасным» или в SAIF: Руководство Google по защите ИИ .