可靠性
問責是指對 AI 系統的影響負責。負責通常涉及透明度,或提供系統行為和組織程序的資訊,包括記錄及說明模型和資料集的建立、訓練和評估方式。下列網站說明兩種有用的問責文件模式:
另一個可靠度維度是可解釋性,也就是理解機器學習模型決策的過程,讓人類能夠找出導致預測結果的功能。此外,可解釋性是指模型的自動化決策是否能以人類可理解的方式進行解釋。
如要進一步瞭解如何建立使用者對 AI 系統的信任,請參閱 People + AI Guidebook 的「可解釋性 + 信任」一節,以及 Google 的「負責任的 AI 開發做法」中的「可解釋性」一節。您也可以參閱 Google 的解釋資源,瞭解實際範例和最佳做法。