アカウンタビリティ
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
説明責任とは、AI システムの影響に対して責任を持つことを意味します。通常、説明責任には透明性、つまりシステムの動作と組織プロセスに関する情報の共有が含まれます。たとえば、モデルとデータセットの作成、トレーニング、評価方法を文書化して共有するなどです。次のサイトでは、説明責任の文書化の 2 つの有用なモードについて説明しています。
説明責任のもう 1 つの側面は解釈可能性です。これは、ML モデルの意思決定を理解し、予測につながる特徴を人間が特定できるようにするものです。さらに、説明可能性とは、モデルの自動化された決定を人間が理解できる方法で説明する能力です。
AI システムに対するユーザーの信頼を構築する方法について詳しくは、人 + AI ガイドブックの説明性と信頼のセクションをご覧ください。実例とベスト プラクティスについては、Google の説明可能性リソースもご覧ください。
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2025-07-27 UTC。
[null,null,["最終更新日 2025-07-27 UTC。"],[[["\u003cp\u003eAccountability in AI involves taking ownership for the effects of a system, often achieved through transparency about the system's development and behavior.\u003c/p\u003e\n"],["\u003cp\u003eTransparency can be enhanced using documentation practices like Model Cards and Data Cards, which provide information about models and datasets.\u003c/p\u003e\n"],["\u003cp\u003eInterpretability and explainability are crucial aspects of accountability, enabling understanding of model decisions and providing human-understandable explanations for automated actions.\u003c/p\u003e\n"],["\u003cp\u003eFostering user trust in AI systems requires focusing on explainability and transparency, with further resources available in Google's Responsible AI Practices and Explainability Resources.\u003c/p\u003e\n"]]],[],null,["# Accountability\n\n\u003cbr /\u003e\n\n**Accountability** means owning responsibility for the effects of an AI system.\nAccountability typically involves **transparency**, or sharing information about\nsystem behavior and organizational process, which may include documenting and\nsharing how models and datasets were created, trained, and evaluated. The\nfollowing sites explain two valuable modes of accountability documentation:\n\n- [Model Cards](https://modelcards.withgoogle.com/about)\n- [Data Cards](https://sites.research.google/datacardsplaybook/)\n\nAnother dimension of accountability is **interpretability** , which involves the\nunderstanding of ML model decisions, where humans are able to identify features\nthat lead to a prediction. Moreover, **explainability** is the ability for a\nmodel's automated decisions to be explained in a way for humans to understand.\n\nRead more about building user trust in AI systems in the [Explainability +\nTrust](https://pair.withgoogle.com/chapter/explainability-trust/) section of the\n[People + AI Guidebook](https://pair.withgoogle.com/guidebook).\nYou can also check out [Google's Explainability Resources](https://explainability.withgoogle.com/)\nfor real life examples and best practices."]]