公平さ
公正性は、アルゴリズムによる意思決定を通じて、人種、収入、性的指向、性別などのセンシティブな特性に関連してエンドユーザーが遭遇する可能性のある異なる結果に対処します。たとえば、採用アルゴリズムには、特定の性別や民族に関連付けられた名前を持つ応募者に対して、偏見がある可能性があります。
機械学習システムが人間のバイアスの影響を受けやすい仕組みについて詳しくは、こちらの動画をご覧ください。
実際の例として、Google 検索や Google フォトなどのプロダクトが Monk Skin Tone Scale を通じて肌の色調表現の多様性を改善した方法をご覧ください。
モデルのバイアスを見つけ、測定し、軽減するための信頼できる方法があります。機械学習集中講座の公平性モジュールでは、公平性と偏向軽減手法について詳しく説明しています。
People + AI Research(PAIR)では、公平性の測定と隠れたバイアスに関するインタラクティブな AI データ探索ツールが提供されており、これらのコンセプトを学ぶことができます。ML の公平性に関連するその他の用語については、機械学習用語集: 公平性 | Google for Developers をご覧ください。