安全性
AI の安全性には、意図的または意図的でない損害を引き起こす可能性のあるアクションを回避し、抑制するために従うべき一連の設計手法と運用手法が含まれます。たとえば、セキュリティ侵害や標的型攻撃が発生した場合でも、AI システムは意図したとおりに動作しますか?AI システムは、変化があっても安全に動作できるほど堅牢ですか?リスクを回避または防止するために、事前にどのように計画していますか?AI システムは負荷がかかっても信頼性が高く安定しているか
そのような安全性確保手法の一つが敵対的テストです。これは、悪意のある、または不注意による有害な入力が与えられた場合に、アプリケーションがどのように動作するかを確認するために、アプリケーションを「破壊」しようとする手法です。責任ある生成 AI ツールキットでは、敵対的テストなどの安全性評価について詳しく説明しています。この分野における Google の取り組みと学んだ教訓については、キーワード ブログ投稿の Google の AI レッドチーム: AI をより安全にする倫理的なハッカー、または SAIF: Google の AI セキュリティ ガイドをご覧ください。
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2025-02-25 UTC。
[null,null,["最終更新日 2025-02-25 UTC。"],[[["AI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack."],["Adversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness."],["Google's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks."]]],[]]