可靠性

問責是指對 AI 系統的影響負責。負責通常涉及透明度,或提供系統行為和組織程序的資訊,包括記錄及說明模型和資料集的建立、訓練和評估方式。下列網站說明兩種有用的問責文件模式:

另一個可用來評估可靠性的指標是「可解釋性」,可用來評估機器學習模型的決策,讓人類能夠找出導致預測結果的功能。此外,可解釋性是指模型的自動化決策是否能以人類可理解的方式進行解釋。

如要進一步瞭解如何建立使用者對 AI 系統的信任,請參閱「人類與 AI 指南」中的「可解釋性 + 信任」一節。您也可以參閱 Google 的 Explainability Resources,瞭解實際範例和最佳做法。