説明責任
説明責任とは、AI システムの影響に対して責任を持つことを意味します。通常、説明責任には透明性、つまりシステムの動作と組織プロセスに関する情報の共有が含まれます。たとえば、モデルとデータセットの作成、トレーニング、評価方法を文書化して共有するなどです。次のサイトでは、説明責任の文書化の 2 つの有用なモードについて説明しています。
説明責任のもう 1 つの側面は解釈可能性です。これは、ML モデルの意思決定を理解し、予測につながる特徴を人間が特定できるようにするものです。さらに、説明可能性とは、モデルの自動化された決定を人間が理解できる方法で説明する能力です。
AI システムに対するユーザーの信頼を構築する方法について詳しくは、People + AI ガイドブックの説明可能性と信頼性のセクションと、Google の責任ある AI への取り組みの解釈可能性のセクションをご覧ください。実例とベスト プラクティスについては、Google の説明可能性リソースもご覧ください。