Fairness
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Fairness bezieht sich auf die möglichen unterschiedlichen Ergebnisse, die Endnutzer aufgrund sensibler Merkmale wie ethnischer Herkunft, Einkommen, sexueller Orientierung oder Geschlecht durch algorithmische Entscheidungsfindung erfahren können. Hat ein Einstellungsalgorithmus beispielsweise Vorurteile gegenüber Bewerbern mit Namen, die mit einem bestimmten Geschlecht oder einer bestimmten ethnischen Gruppe in Verbindung gebracht werden?
In diesem Video erfahren Sie mehr darüber, wie Machine-Learning-Systeme anfällig für menschliche Vorurteile sein können:
Ein Beispiel aus der Praxis finden Sie im Blogbeitrag Improving skin tone representation across Google. Dort wird beschrieben, wie Produkte wie die Google Suche und Google Fotos die Vielfalt der Hauttöne mithilfe der Monk-Hautfarbeskala verbessert haben.
Es gibt zuverlässige Methoden, um Bias in Modellen zu erkennen, zu messen und zu reduzieren. Das Modul zum Thema Fairness im Intensivkurs zum maschinellen Lernen bietet einen detaillierten Einblick in Fairness und Techniken zur Minimierung von Verzerrungen.
People + AI Research (PAIR) bietet interaktive AI Explorables zu Fairness messen und Verborgene Vorurteile, um diese Konzepte zu veranschaulichen.
Weitere Begriffe im Zusammenhang mit Fairness beim maschinellen Lernen finden Sie im Glossar zum maschinellen Lernen: Fairness | Google for Developers.
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2025-07-27 (UTC).
[null,null,["Zuletzt aktualisiert: 2025-07-27 (UTC)."],[[["\u003cp\u003eFairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions.\u003c/p\u003e\n"],["\u003cp\u003eMachine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation.\u003c/p\u003e\n"],["\u003cp\u003eGoogle has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity.\u003c/p\u003e\n"],["\u003cp\u003eDevelopers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR).\u003c/p\u003e\n"]]],[],null,["# Fairness\n\n\u003cbr /\u003e\n\n**Fairness** addresses the possible disparate outcomes end users may experience\nrelated to sensitive characteristics such as race, income, sexual orientation,\nor gender through algorithmic decision-making. For example, might a hiring\nalgorithm have biases for or against applicants with names associated with a\nparticular gender or ethnicity?\n\nLearn more about how machine learning systems might be susceptible to human bias\nin this video: \n\n\u003cbr /\u003e\n\nFor a real world example, read about how products such as Google Search and\nGoogle Photos improved diversity of skin tone representation through the\n[Monk Skin Tone Scale](https://blog.google/products/search/monk-skin-tone-scale/).\n\nThere are reliable methods of identifying, measuring, and mitigating bias in models. The [Fairness](/machine-learning/crash-course/fairness)\nmodule of [Machine Learning Crash Course](https://developers.google.com/machine-learning/crash-course)\nprovides an in-depth look at fairness and bias mitigation techniques.\n\n[People + AI Research](https://pair.withgoogle.com/) (PAIR) offers interactive\nAI Explorables on [Measuring Fairness](https://pair.withgoogle.com/explorables/measuring-fairness/)\nand [Hidden Bias](https://pair.withgoogle.com/explorables/hidden-bias/) to walk\nthrough these concepts.\nFor more terms related to ML Fairness, see [Machine Learning Glossary:\nFairness \\| Google for Developers](https://developers.google.com/machine-learning/glossary/fairness)."]]