安全性

AI の安全性には、意図的または意図的でない損害を引き起こす可能性のあるアクションを回避し、抑制するために従うべき一連の設計手法と運用手法が含まれます。たとえば、セキュリティ侵害や標的型攻撃が発生した場合でも、AI システムは意図したとおりに動作しますか?AI システムは、変化があっても安全に動作できるほど堅牢ですか?リスクを回避または防止するために、事前にどのように計画していますか?AI システムは負荷がかかっても信頼性が高く安定しているか

そのような安全性確保手法の一つが敵対的テストです。これは、悪意のある、または不注意による有害な入力が与えられた場合に、アプリケーションがどのように動作するかを確認するために、アプリケーションを「破壊」しようとする手法です。責任ある生成 AI ツールキットでは、敵対的テストなどの安全性評価について詳しく説明しています。この分野における Google の取り組みと学んだ教訓については、キーワード ブログ投稿の Google の AI レッドチーム: AI をより安全にする倫理的なハッカー、または SAIF: Google の AI セキュリティ ガイドをご覧ください。