Fairness: Minderung von Verzerrungen

Sobald eine Quelle der Voreingenommenheit Trainingsdaten identifiziert wurden, können wir proaktive Maßnahmen ergreifen, deren Auswirkungen abgeschwächt werden. Es gibt zwei Hauptstrategien, das Engineering-Team in der Regel einsetzt, um Voreingenommenheiten zu beseitigen:

  • Trainingsdaten erweitern
  • Verlustfunktion des Modells anpassen.

Trainingsdaten erweitern

Wenn bei einem Audit der Trainingsdaten Probleme mit fehlenden, falschen oder verzerrten Daten, besteht der einfachste Weg, das Problem anzugehen, oft um zusätzliche Daten zu sammeln.

Obwohl eine Erweiterung der Trainingsdaten ideal sein kann, ist dieser Ansatz unter Umständen nicht umsetzbar, weil es entweder verfügbaren Daten oder Ressourcenbeschränkungen, die die Datenerfassung verhindern. Beispiel: kann die Erfassung weiterer Daten zu kostspielig, zeitaufwendig oder aufgrund rechtliche/datenschutzrechtliche Einschränkungen.

Optimierungsfunktion des Modells anpassen

Wenn das Erfassen zusätzlicher Trainingsdaten nicht praktikabel ist, Ansatz zur Minderung von Verzerrungen besteht darin, die Berechnung von Verlusten während des Modells anzupassen. . Wir verwenden in der Regel eine Optimierungsfunktion wie logarithmischer Verlust zur Absetzung falscher Modelle Vorhersagen zu treffen. Der Log-Verlust zieht jedoch keine Kaufbereitschaft zeigen. Anstatt den logarithmischen Verlust zu verwenden, können wir eine Optimierung auswählen, eine Funktion, die Fehler in einer fairen und fairen Weise benachteiligt, den Ungleichgewichten, die wir in unseren Trainingsdaten identifiziert haben.

Die TensorFlow Model Remediation Library bietet Dienstprogramme zum Anwenden von verschiedene Techniken zur Reduzierung von Verzerrungen während des Modelltrainings:

  • MinDiff MinDiff zielt darauf ab, die Fehler in zwei verschiedenen Datenbereichen auszugleichen (männliche/weibliche Studenten im Vergleich zu nicht binären Lernenden), indem sie eine Strafe für Unterschiede bei den Vorhersageverteilungen für die beiden Gruppen.

  • Kontrafaktisches Logit-Paar: Das kontrafaktische Logit-Paar (CLP) soll sicherstellen, dass die Änderung einer sensiblen eines Beispiels die Vorhersage des Modells für diesen Beispiel. Wenn ein Trainings-Dataset beispielsweise zwei Beispiele enthält, Featurewerte sind identisch, mit der Ausnahme, dass einer den gender-Wert male und hat die andere einen gender-Wert von nonbinary, wird mit CLP eine Strafe hinzugefügt, wenn sind die Vorhersagen für diese beiden Beispiele unterschiedlich.

Sie können zum Anpassen der Optimierungsfunktion von den Anwendungsfällen für das Modell abhängig. Im nächsten Abschnitt genauer ansehen, wie die Aufgabe der Bewertung eines Modells auf Fairness angegangen wird. wenn Sie diese Anwendungsfälle berücksichtigen.

Übung: Wissenstest

Welche der folgenden Aussagen zu Techniken zur Vermeidung von Verzerrungen sind richtig?
MinDiff und CLP wirken sich negativ auf Abweichungen bei der Modellleistung aus an sensible Attribute gebunden sind,
Beide Techniken zielen darauf ab, Verzerrungen zu reduzieren, indem die Vorhersagen bestraft werden. Fehler aufgrund von Ungleichgewichten hinsichtlich der Vertraulichkeit von Attributen die in den Trainingsdaten dargestellt sind.
MinDiff bestraft die Unterschiede in der Gesamtverteilung Vorhersagen für verschiedene Datensegmente, während CLP Abweichungen bei Vorhersagen für einzelne Beispielpaare.
MinDiff beseitigt Verzerrungen, indem es die Wertverteilungen für zwei Untergruppen. CLP bekämpft Verzerrungen, indem sichergestellt wird, dass einzelne Beispiele aufgrund der Zugehörigkeit zu einer Untergruppe nicht anders behandelt werden.
Es hilft immer, dem Trainings-Dataset weitere Beispiele hinzuzufügen. Verzerrungen in den Vorhersagen eines Modells entgegenwirken.
Das Hinzufügen weiterer Trainingsbeispiele ist eine effektive Strategie für zur Minderung von Verzerrungen, aber die Zusammensetzung der neuen Trainingsdaten ist wichtig. Wenn die zusätzlichen Trainingsbeispiele Ungleichgewichten gegenüber den Originaldaten haben, werden sie wahrscheinlich nicht dazu beitragen, die vorhandene Voreingenommenheit.
Wenn Sie Verzerrungen durch Hinzufügen weiterer Trainingsdaten reduzieren, sollte während des Trainings nicht MinDiff oder CLP anwenden.
Trainingsdaten erweitern und Techniken wie MinDiff oder CLP anwenden komplementär sein. ML-Engineers könnten z. B. in der Lage sein, ausreichend zusätzliche Trainingsdaten zu sammeln, um Abweichungen um 30 % zu steigern, und setzen Sie dann MinDiff ein, Diskrepanz um weitere 50%.