Fairness: Arten von Voreingenommenheit

ML-Modelle sind nicht grundsätzlich objektiv. ML-Anwender Modelle trainieren, indem Sie ihnen ein Dataset mit Trainingsbeispielen bereitstellen der Beteiligung an der Bereitstellung und Zusammenstellung dieser Daten kann dazu beitragen, Vorhersagen, die anfällig für Verzerrungen sind.

Beim Erstellen von Modellen ist es wichtig, sich der allgemeinen menschlichen Voreingenommenheiten bewusst zu sein, die sich in Ihren Daten niederschlagen, damit Sie proaktiv Effekte.

Berichtsverzerrung

Historische Verzerrung

Automatisierungsverzerrung

Auswahlverzerrung

Auswahlverzerrung tritt auf, wenn eine dass die Beispiele des Datensatzes so gewählt werden, dass sie nicht und die Verteilung in der realen Welt. Die Auswahlverzerrung kann viele verschiedene Formen haben, etwa Abdeckungs-, Nichtreaktions- und Stichprobenverzerrung.

Coverage Bias

Nicht-Antwortverzerrung

Sampling Bias

Gruppenattributionsverzerrung

Gruppenattributionsverzerrung ist die Tendenz, den Wahrheitsgehalt von Individuen auf die gesamte Gruppe zu verallgemeinern, gehören, zu denen sie gehören. Eine Verzerrung bei der Gruppenzuordnung zeigt sich oft in den beiden folgenden Bereichen: .

Gruppenintern

Gruppenextern (Homogenitätsbias)

Implizite Voreingenommenheit

Bestätigungsverzerrung

Verzerrungen des Experimentierers

Übung: Wissenstest

Welche der folgenden Arten von Voreingenommenheit könnten dazu beigetragen haben, zu den verzerrten Vorhersagen im Hochschulzulassungsmodell, in der Einführung?
Historische Verzerrung
Das Zulassungsmodell wurde mit Aufzeichnungen der Schüler/Studenten aus der Vergangenheit trainiert 20 Jahre. Wenn Schüler mit Minderheiten in diesen Daten unterrepräsentiert wären, hätte das Modell dieselben historischen Ungleichheiten wenn Sie Vorhersagen zu den Daten neuer Schüler/Studenten treffen.
Gruppenintern
Das Zulassungsmodell wurde von Studenten der Universität trainiert, die unbewusste Vorliebe dafür gehabt haben können, die aus ähnlichen Hintergründen wie ihrem eigenen stammen. sich darauf auswirken könnten, wie die Daten verwaltet oder entwickelt wurden. auf dem das Modell trainiert wurde.
Bestätigungsverzerrung
Das Zulassungsmodell wurde von Studenten der Universität trainiert, die wahrscheinlich bereits über die Arten von Qualifikationen, mit dem Erfolg im Informatikprogramm korrelieren. Sie könnten die Daten unbeabsichtigt kuratiert oder verändert, das Modell diese bestehenden Überzeugungen bestätigt.
Automatisierungsverzerrung
Automatisierungsverzerrung könnte erklären, warum sich das Zulassungskomitee für ein ML-Modell zu verwenden, um Zulassungsentscheidungen zu treffen; haben sie vielleicht dass ein automatisiertes System bessere Ergebnisse liefern würde von Menschen getroffene Entscheidungen. Die automatische Verzerrung bietet jedoch keine warum die Vorhersagen des Modells verzerrt waren.