Sobald eine Quelle der Voreingenommenheit Trainingsdaten identifiziert wurden, können wir proaktive Maßnahmen ergreifen, deren Auswirkungen abgeschwächt werden. Es gibt zwei Hauptstrategien, das Engineering-Team in der Regel einsetzt, um Voreingenommenheiten zu beseitigen:
- Trainingsdaten erweitern
- Verlustfunktion des Modells anpassen.
Trainingsdaten erweitern
Wenn bei einem Audit der Trainingsdaten Probleme mit fehlenden, falschen oder verzerrten Daten, besteht der einfachste Weg, das Problem anzugehen, oft um zusätzliche Daten zu sammeln.
Obwohl eine Erweiterung der Trainingsdaten ideal sein kann, ist dieser Ansatz unter Umständen nicht umsetzbar, weil es entweder verfügbaren Daten oder Ressourcenbeschränkungen, die die Datenerfassung verhindern. Beispiel: kann die Erfassung weiterer Daten zu kostspielig, zeitaufwendig oder aufgrund rechtliche/datenschutzrechtliche Einschränkungen.
Optimierungsfunktion des Modells anpassen
Wenn das Erfassen zusätzlicher Trainingsdaten nicht praktikabel ist, Ansatz zur Minderung von Verzerrungen besteht darin, die Berechnung von Verlusten während des Modells anzupassen. . Wir verwenden in der Regel eine Optimierungsfunktion wie logarithmischer Verlust zur Absetzung falscher Modelle Vorhersagen zu treffen. Der Log-Verlust zieht jedoch keine Kaufbereitschaft zeigen. Anstatt den logarithmischen Verlust zu verwenden, können wir eine Optimierung auswählen, eine Funktion, die Fehler in einer fairen und fairen Weise benachteiligt, den Ungleichgewichten, die wir in unseren Trainingsdaten identifiziert haben.
Die TensorFlow Model Remediation Library bietet Dienstprogramme zum Anwenden von verschiedene Techniken zur Reduzierung von Verzerrungen während des Modelltrainings:
MinDiff MinDiff zielt darauf ab, die Fehler in zwei verschiedenen Datenbereichen auszugleichen (männliche/weibliche Studenten im Vergleich zu nicht binären Lernenden), indem sie eine Strafe für Unterschiede bei den Vorhersageverteilungen für die beiden Gruppen.
Kontrafaktisches Logit-Paar: Das kontrafaktische Logit-Paar (CLP) soll sicherstellen, dass die Änderung einer sensiblen eines Beispiels die Vorhersage des Modells für diesen Beispiel. Wenn ein Trainings-Dataset beispielsweise zwei Beispiele enthält, Featurewerte sind identisch, mit der Ausnahme, dass einer den
gender
-Wertmale
und hat die andere einengender
-Wert vonnonbinary
, wird mit CLP eine Strafe hinzugefügt, wenn sind die Vorhersagen für diese beiden Beispiele unterschiedlich.
Sie können zum Anpassen der Optimierungsfunktion von den Anwendungsfällen für das Modell abhängig. Im nächsten Abschnitt genauer ansehen, wie die Aufgabe der Bewertung eines Modells auf Fairness angegangen wird. wenn Sie diese Anwendungsfälle berücksichtigen.