公平性
公平性:透過演算法決策,解決使用者可能因種族、收入、性傾向或性別等敏感特徵,而遭遇不公平結果的情況。舉例來說,招募演算法是否會對與特定性別或族群相關聯的申請者產生偏見?
請觀看以下影片,進一步瞭解機器學習系統如何受到人類偏誤的影響:
如要瞭解實際範例,請參閱 Google 搜尋和 Google 相簿等產品如何透過孟克膚色量表提升膚色多元性。
我們有可靠的方法,可用於找出、評估及減少模型中的偏誤。機器學習密集課程的「公平性」模組深入探討公平性和偏見緩解技術。
People + AI Research (PAIR) 提供互動式 AI 探索工具,可讓您瞭解「評估公平性」和「隱藏偏誤」等概念。如要進一步瞭解機器學習公平性相關術語,請參閱「機器學習詞彙:公平性 | Google 開發人員」。
除非另有註明,否則本頁面中的內容是採用創用 CC 姓名標示 4.0 授權,程式碼範例則為阿帕契 2.0 授權。詳情請參閱《Google Developers 網站政策》。Java 是 Oracle 和/或其關聯企業的註冊商標。
上次更新時間:2024-11-14 (世界標準時間)。
[null,null,["上次更新時間:2024-11-14 (世界標準時間)。"],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]