公平さ
公正性は、アルゴリズムによる意思決定を通じて、人種、収入、性的指向、性別などのセンシティブな特性に関連してエンドユーザーが遭遇する可能性のある異なる結果に対処します。たとえば、採用アルゴリズムには、特定の性別や民族に関連付けられた名前を持つ応募者に対して、偏見がある可能性があります。
機械学習システムが人間のバイアスの影響を受けやすい仕組みについて詳しくは、こちらの動画をご覧ください。
実際の例として、Google 検索や Google フォトなどのプロダクトが Monk Skin Tone Scale を通じて肌の色調表現の多様性を改善した方法をご覧ください。
モデルのバイアスを見つけ、測定し、軽減するための信頼できる方法があります。機械学習集中講座の公平性モジュールでは、公平性と偏向軽減手法について詳しく説明しています。
People + AI Research(PAIR)では、公平性の測定と隠れたバイアスに関するインタラクティブな AI データ探索ツールが提供されており、これらのコンセプトを学ぶことができます。ML の公平性に関連するその他の用語については、機械学習用語集: 公平性 | Google for Developers をご覧ください。
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2024-11-14 UTC。
[null,null,["最終更新日 2024-11-14 UTC。"],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]