アカウンタビリティ
説明責任とは、AI システムの影響に対して責任を持つことを意味します。通常、説明責任には透明性、つまりシステムの動作と組織プロセスに関する情報の共有が含まれます。たとえば、モデルとデータセットの作成、トレーニング、評価方法を文書化して共有するなどです。次のサイトでは、説明責任の文書化の 2 つの有用なモードについて説明しています。
説明責任のもう 1 つの側面は解釈可能性です。これは、ML モデルの意思決定を理解し、予測につながる特徴を人間が特定できるようにするものです。さらに、説明可能性とは、モデルの自動化された決定を人間が理解できる方法で説明する能力です。
AI システムに対するユーザーの信頼を構築する方法について詳しくは、人 + AI ガイドブックの説明性と信頼のセクションをご覧ください。実例とベスト プラクティスについては、Google の説明可能性リソースもご覧ください。
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2025-02-25 UTC。
[null,null,["最終更新日 2025-02-25 UTC。"],[[["Accountability in AI involves taking ownership for the effects of a system, often achieved through transparency about the system's development and behavior."],["Transparency can be enhanced using documentation practices like Model Cards and Data Cards, which provide information about models and datasets."],["Interpretability and explainability are crucial aspects of accountability, enabling understanding of model decisions and providing human-understandable explanations for automated actions."],["Fostering user trust in AI systems requires focusing on explainability and transparency, with further resources available in Google's Responsible AI Practices and Explainability Resources."]]],[]]