公平性
公平性:透過演算法決策,解決使用者可能因種族、收入、性傾向或性別等敏感特徵,而遭遇不公平結果的情況。舉例來說,招募演算法是否會對與特定性別或族群相關聯的申請者產生偏見?
請觀看以下影片,進一步瞭解機器學習系統如何受到人類偏誤的影響:
如要瞭解實際範例,請參閱 Google 搜尋和 Google 相簿等產品如何透過孟克膚色量表提升膚色多元性。
我們有可靠的方法,可用於找出、評估及減少模型中的偏誤。機器學習密集課程的「公平性」模組深入探討公平性和偏見緩解技術。
People + AI Research (PAIR) 提供互動式 AI 探索工具,可讓您瞭解「評估公平性」和「隱藏偏誤」等概念。如要進一步瞭解機器學習公平性相關術語,請參閱「機器學習詞彙:公平性 | Google 開發人員」。