Fairness: Kontrafaktische Fairness

Bisher wurde bei unseren Diskussionen über Fairness-Messwerte angenommen, dass unser Training und Testbeispiele umfassende demografische Daten für die demografische Gruppe enthalten, zu bewerten. Häufig ist dies jedoch nicht der Fall.

Angenommen, unser Zulassungs-Dataset enthält keine vollständigen demografischen Daten. Stattdessen wird die Zugehörigkeit zu demografischen Gruppen nur für einen kleinen Prozentsatz erfasst. z. B. Schüler, die sich dafür entschieden haben, die Gruppe selbst zu identifizieren, wozu sie gehörten. In diesem Fall ist die Aufschlüsselung unserer Kandidaten in akzeptierte und abgelehnte Lernende sieht so aus:

Ein Kandidatenpool von 100 Studenten, aufgeteilt in zwei Gruppen:
      Abgelehnte Kandidaten (80 Schüler-/Studentensymbole) und akzeptierte Kandidaten (20
      Schüler-/Studentensymbole). Alle Symbole sind grau schattiert, was bedeutet,
      die demografische Gruppe unbekannt ist), mit Ausnahme von sechs Symbolen. Im Abschnitt „Abgelehnt“
      Gruppe, sind zwei Schüler-/Studentensymbole blau und zwei Schüler-/Studentensymbole schattiert.
      Orange. In der Gruppe „Akzeptiert“ ist ein Schüler-/Studentensymbol blau und ein anderes
      orange.
Abbildung 5: Kandidatenpool mit Mitgliedschaft in demografischen Gruppen bei fast allen Kandidaten unbekannt (grau schattierte Symbole).

Es ist hier nicht möglich, Modellvorhersagen für keine der demografischen Gruppen zu evaluieren. Gleichheit oder Chancengleichheit, da wir keine demografischen Daten haben. für 94% unserer Beispiele. Bei den 6% der Beispiele, die demografische Merkmale haben, können wir immer noch Paare individueller Vorhersagen vergleichen, (eine Kandidatur für die Mehrheit oder eine Minderheit) und prüfen, ob sie vom Modell gerecht behandelt werden.

Nehmen wir beispielsweise an, wir haben die Elementdaten verfügbar für zwei Kandidaten: eine in der Mehrheitsgruppe und eine in der Minderheitsgruppe Gruppe, die im Bild unten mit einem Stern gekennzeichnet ist, und festgestellt, dass sie die in jeder Hinsicht für die Zulassung qualifiziert sind. Wenn das Modell dieselbe Vorhersage für beide Kandidaten (d.h. es werden beide oder beide Kandidaten akzeptiert), gilt das als kontrafaktische Fairness für diese Beispiele. Kontrafaktische Fairness besagt, dass zwei Beispiele, die in jeder Hinsicht identisch sind, mit Ausnahme eines bestimmten sensiblen Attributs. (hier: Mitgliedschaft in einer demografischen Gruppe) zum gleichen Modell führen. eine Vorhersage treffen.

Derselbe Kandidatenpool wie im vorherigen Image, mit Ausnahme von
      in dieser Version ein blaues Schüler-/Studentensymbol (gehört zur Mehrheitsgruppe) und
      Ein orangefarbenes Symbol für Schüler/Studenten (gehört zur Minderheitsgruppe) in der Liste „Abgelehnt“
      sind mit einem Stern gekennzeichnet, um anzuzeigen, dass diese beiden Kandidaten
      (abgesehen von der demografischen Gruppe) identisch.
Abbildung 6: Kontrafaktische Fairness wird für beide identische Beispiele (nur variieren in Bezug auf die Zugehörigkeit zu einer demografischen Gruppe), die mit einem Stern, da das Modell für beide die gleiche Entscheidung trifft („Abgelehnt“).

Vor- und Nachteile

Wie bereits erwähnt, besteht ein wesentlicher Vorteil der kontrafaktischen Fairness darin, kann verwendet werden, um Vorhersagen auf Fairness in vielen Fällen zu bewerten, wenn die Verwendung von anderen Metriken nicht realisierbar sind. Enthält ein Dataset keinen vollständigen Satz an Daten für die relevanten, berücksichtigten Gruppenattribute enthält, Fairness anhand der demografischen Parität oder Gleichheit Geschäftschancen. Wenn diese Gruppenattribute jedoch nur für einen Teil und es ist möglich, vergleichbare Äquivalenzpaare in verschiedenen Gruppen nutzen, können Praktiker kontrafaktische Fairness verwenden, als Metrik, um das Modell auf potenzielle Verzerrungen in Vorhersagen zu überprüfen.

Da außerdem Metriken wie die demografische Parität und Gleichheit Gruppen als Ganzes zu bewerten, können Verzerrungen, die sich auf auf der Ebene einzelner Vorhersagen, die durch kontrafaktische Fairness nutzen. Nehmen wir zum Beispiel an, akzeptiert qualifizierte Kandidaten aus der Mehrheitsgruppe und der Minderheit. im gleichen Verhältnis, aber die qualifizierteste Minderheitskandidende sind abgelehnt, während der am besten geeignete Mehrheitskandidat mit den gleichen Anmeldedaten akzeptiert. Eine kontrafaktische Fairness-Analyse kann helfen, diese Art von Abweichungen beheben, damit sie beseitigt werden können.

Der wesentliche Nachteil der kontrafaktischen Fairness ist jedoch, dass sie nicht eine ganzheitliche Sicht auf Verzerrungen in Modellvorhersagen bieten. Das Erkennen und Es reicht unter Umständen nicht aus, einige Ungleichheiten in zwei Beispielen zu beheben. Probleme systemischer Voreingenommenheiten anzugehen, die ganze Untergruppen von Beispielen betreffen.

Wo dies möglich ist, können Fachkräfte auch eine aggregierte Fairness-Analyse (unter Verwendung einer Metrik wie demografischer Parität oder Gleichheit und eine kontrafaktische Fairness-Analyse durchführen, um zu potenziellen Problemen mit Verzerrungen, die behoben werden müssen.

Übung: Wissenstest

Trainingsfigur. Zwei Kreisgruppen: Negativ
             Vorhersagen und positive Vorhersagen.
             Für negative Vorhersagen werden 50 Kreise verwendet:
             39 graue Kreise, 8 blaue Kreise und 3 orangefarbene Kreise. Eins
             ein blauer Kreis mit „A“, ein orangefarbener Kreis mit „A“,
             und ein blauer Kreis ist als 'C' beschriftet. 
             Positive Vorhersagen bestehen aus 15 Kreisen:
             10 graue Kreise, 3 blaue Kreise und 2
             orangefarbene Kreise. Ein blauer Kreis ist mit "B" beschriftet, ein anderer orangefarbener Kreis ist mit "B" beschriftet.
             und ein blauer Kreis mit "C".
             Eine Legende unter dem Diagramm besagt, dass blaue Kreise für
             ein Beispiel in der Mehrheitsgruppe darstellen,
stellen orangefarbene Kreise dar,
             ein Beispiel für eine Minderheitsgruppe. Graue Kreise stehen für
             Beispiele, deren Gruppenmitgliedschaft unbekannt ist <ph type="x-smartling-placeholder">
</ph> Abbildung 7: negative und positive Vorhersagen für eine Reihe von Beispielen, mit drei Beispielpaaren, die als A, B und C bezeichnet sind.

Welche der Vorhersagen in Abbildung 7 oben folgende Paare identisch (ohne Gruppenmitgliedschaft) Beispiele erhaltenen Vervollständigungen, die gegen kontrafaktische Fairness verstoßen?

Paar A
Die Vorhersagen von Paar A erfüllen die kontrafaktische Fairness, da beide das Beispiel in der Mehrheitsgruppe (blau) und das Beispiel in der Minderheitsgruppe (orange) erhielt dieselbe Vorhersage (Negativ).
Paar B
Die Vorhersagen von Paar B erfüllen kontrafaktische Fairness, da beide das Beispiel in der Mehrheitsgruppe (blau) und das Beispiel in der Minderheitsgruppe (orange) erhielt dieselbe Vorhersage (positiv).
Paar C
Die Vorhersagen von Paar C beziehen sich auf zwei Beispiele, die beide zum Mehrheitsgruppe (blau). Die Tatsache, dass das Modell Vorhersagen für diese identischen Beispiele deuten darauf hin, um allgemeine Leistungsprobleme des Modells anzugehen, untersucht haben. Dieses Ergebnis verstößt jedoch nicht gegen kontrafaktische Daten. Fairness, deren Bedingungen nur gelten, wenn die beiden Identische Beispiele stammen jeweils aus verschiedenen Gruppen.
Keines dieser Paare verstößt gegen kontrafaktische Fairness
Die Vorhersagen für die Paare A und B erfüllen kontrafaktische Fairness denn in beiden Fällen sind das Beispiel in der Mehrheitsgruppe und Beispiel in der Minderheitsgruppe die gleiche Vorhersage erhalten. Paar Cs dass die Beispiele zur selben Gruppe (Mehrheitsgruppe) gehören. kontrafaktische Fairness ist in diesem Fall nicht anwendbar.

Zusammenfassung

Demografische Einheit Chancengleichheit, und kontrafaktische Fairness bieten beide unterschiedliche mathematische Definitionen Fairness für Modellvorhersagen. Und das sind nur drei mögliche zur Quantifizierung von Fairness. Einige Definitionen von Fairness beziehen sich sogar auf nicht kompatibel, Das heißt, es ist unmöglich, sie für einen bestimmten Zeitraum Vorhersagen des Modells zu ermitteln.

Wie wählen Sie also das „richtige“ Fairness-Messwert für Ihr Modell? Erforderliche Schritte berücksichtigen Sie den Kontext, in dem sie verwendet werden, und die übergeordneten Ziele, die Sie erreichen möchten. Ist z. B. das Ziel, eine gleichmäßige Repräsentation (in diesem Fall kann die demografische Parität der optimale Messwert sein) oder Chancengleichheit erreichen (hier ist Chancengleichheit Messwert)?

Wenn Sie mehr über ML Fairness erfahren und diese Themen genauer untersuchen möchten, siehe Fairness and Machine Learning: Limitations and Opportunities von Solon Barocas, Moritz Hardt und Arvind Narayanan.