Fairness

Fairness bezieht sich auf die möglichen unterschiedlichen Ergebnisse, die Endnutzer aufgrund sensibler Merkmale wie ethnischer Herkunft, Einkommen, sexueller Orientierung oder Geschlecht durch algorithmische Entscheidungsfindung erfahren können. Hat ein Einstellungsalgorithmus beispielsweise Vorurteile gegenüber Bewerbern mit Namen, die mit einem bestimmten Geschlecht oder einer bestimmten ethnischen Gruppe in Verbindung gebracht werden?

In diesem Video erfahren Sie mehr darüber, wie Machine-Learning-Systeme anfällig für menschliche Vorurteile sein können:

Ein Beispiel aus der Praxis finden Sie im Blogbeitrag Improving skin tone representation across Google. Dort wird beschrieben, wie Produkte wie die Google Suche und Google Fotos die Vielfalt der Hauttöne mithilfe der Monk-Hautfarbeskala verbessert haben.

Es gibt zuverlässige Methoden, um Bias in Modellen zu erkennen, zu messen und zu reduzieren. Das Modul zum Thema Fairness im Intensivkurs zum maschinellen Lernen bietet einen detaillierten Einblick in Fairness und Techniken zur Minimierung von Verzerrungen.

People + AI Research (PAIR) bietet interaktive AI Explorables zu Fairness messen und Verborgene Vorurteile, um diese Konzepte zu veranschaulichen. Weitere Begriffe im Zusammenhang mit Fairness beim maschinellen Lernen finden Sie im Glossar zum maschinellen Lernen: Fairness | Google for Developers.