问责

问责是指对 AI 系统的影响承担责任。 问责通常涉及透明度,即共享有关系统行为和组织流程的信息,这可能包括记录和共享模型和数据集的创建、训练和评估方式。以下网站介绍了两种有价值的问责文档模式:

可解释性是可信度的另一个维度,涉及对机器学习模型决策的理解,人类能够识别导致预测的特征。此外,可解释性是指能够以人类能够理解的方式解释模型的自动化决策。

如需详细了解如何让用户信任 AI 系统,请参阅“人与 AI 指南”可解释性 + 信任部分,以及 Google 的 Responsible AI 做法中的“可解释性”部分。您还可以查看 Google 的可解释性资源,了解真实示例和最佳实践。