Fairness
Fairness bezieht sich auf die möglichen unterschiedlichen Ergebnisse, die Endnutzer aufgrund algorithmischer Entscheidungsfindung im Zusammenhang mit sensiblen Merkmalen wie ethnische Herkunft, Einkommen, sexuelle Orientierung oder Geschlecht erfahren können. Könnte ein Algorithmus für die Personalauswahl beispielsweise Voreingenommenheiten für oder gegen Bewerber mit Namen haben, die mit einem bestimmten Geschlecht oder einer bestimmten ethnischen Zugehörigkeit in Verbindung stehen?
In diesem Video erfahren Sie mehr darüber, wie anfällig Systeme für maschinelles Lernen für menschliche Voreingenommenheit sein können:
Ein praktisches Beispiel dafür, wie Produkte wie die Google Suche und Google Fotos die Vielfalt der Hauttondarstellung durch die Monk-Hauttonskala verbessert haben, finden Sie hier.
Es gibt zuverlässige Methoden, um Verzerrungen in Modellen zu identifizieren, zu messen und zu verringern. Das Modul Fairness im Crashkurs zum maschinellen Lernen bietet einen detaillierten Einblick in Techniken zur Minimierung von Fairness und Voreingenommenheit.
People + AI Research (PAIR) bietet interaktive KI-Exploreables zu Fairness messen und Versteckte Voreingenommenheit, um diese Konzepte zu veranschaulichen. Weitere Begriffe im Zusammenhang mit Fairness beim maschinellen Lernen finden Sie im Glossar für maschinelles Lernen: Fairness | Google for Developers.