安全性
AI の安全性には、意図的または意図的でない損害を引き起こす可能性のあるアクションを回避し、抑制するために遵守すべき一連の設計手法と運用手法が含まれます。たとえば、セキュリティ侵害や標的型攻撃が発生した場合でも、AI システムは意図したとおりに動作しますか?AI システムは、変化があっても安全に動作できるほど堅牢ですか?リスクを回避または防止するために、事前にどのように計画していますか?AI システムは負荷がかかっても信頼性が高く安定しているか
そのような安全技術の 1 つが敵対的テストです。これは、悪意のある、または不注意による有害な入力が与えられた場合に、アプリケーションがどのように動作するかを確認するために、アプリケーションを「破壊」しようとする手法です。Google の責任ある AI への取り組みの安全性セクションでは、敵対的テストなど、AI システムを攻撃から保護するための推奨される方法について説明しています。この分野における Google の取り組みと学んだ教訓について詳しくは、Keyword ブログ投稿の Google's AI Red Team: the ethical hackers making AI safer または SAIF: Google's Guide to Secure AI をご覧ください。