Fairness: Arten von Voreingenommenheit

Modelle für maschinelles Lernen (ML) sind nicht von Natur aus objektiv. ML-Experten trainieren Modelle, indem sie ihnen einen Datensatz mit Trainingsbeispielen zuführen. Die menschliche Beteiligung an der Bereitstellung und Zusammenstellung dieser Daten kann dazu führen, dass die Vorhersagen eines Modells anfällig für Verzerrungen sind.

Beim Erstellen von Modellen ist es wichtig, sich der allgemeinen menschlichen Voreingenommenheiten bewusst zu sein, die sich in Ihren Daten äußern können, damit Sie proaktiv Schritte unternehmen können, um deren Auswirkungen abzuschwächen.

Berichterhebungsverzerrung

Verzerrung durch bisherige Daten

Automatisierungsbias

Auswahlverzerrung

Stichprobenverzerrung tritt auf, wenn die ausgewählten Beispiele eines Datasets nicht der tatsächlichen Verteilung der Daten entsprechen. Es gibt viele Arten des Stichprobenbias, wie zum Beispiel den Coverage Bias, den Nichterwiderungbias und den Stichprobenbias.

Coverage Bias

Non-Response-Bias

Sampling Bias

Gruppenattributionsbias

Der Gruppenattributionsbias ist die Tendenz, Merkmale von Einzelnen auf die gesamte Gruppe zu übertragen, der sie angehören. Der Gruppenattributionsbias äußert sich oft in den folgenden zwei Formen.

Gruppenintern

Gruppenextern (Homogenitätsbias)

Impliziter Bias

Bestätigungsfehler

Verzerrung durch Experimentator

Übung: Wissen testen

Welche der folgenden Arten von Verzerrungen könnten zu den verzerrten Vorhersagen im in der Einführung beschriebenen Hochschulzulassungsmodell beigetragen haben?
Verzerrung durch bisherige Daten
Bestätigungsfehler
Automatisierungsbias
Gruppenintern